変奏現実

パソコンやMMORPGのことなどを思いつくまま・・・記載されている会社名・製品名・システム名などは、各社の商標、または登録商標です。

この画面は、簡易表示です

インターネット

SST-RAM

Spin Transfer Torque RAM スピン注入磁化反転方式MRAM。
MRAMは、Magnetoresistive Random Access Memory あるいは
Magnetic Random Access Memoryの略称で 磁気抵抗メモリのこと。
SST-RAMはMRAMの第二世代にあたる。
2つの磁性体を極薄い絶縁層ではさんだMTJ(Magnetic Tunnel Junction、磁気トンネル接合)素子は、
磁性体の磁束の向きが揃っていないと磁性体間の電気抵抗が大きいことを利用し、磁性体の一方の磁束の向きを制御して記憶装置にしたもの。
第一世代のMRAMでは実直に磁性体の傍で電流を流し力任せに磁束の向きを変える方式であったため、消費電力が大きめで構造も書込み用の配線と読取り用の配線が分れていた。
第二世代のSST-RAMでは、MTJに直接電流を流すことで磁束の方向を変えるようになり、消費電力を少な目で読み書き両用の配線で済むので配線が簡素化された。しかし、外部からの磁界の影響を受けやすいようだ。
 
ReRAMとSST-RAMは、記憶素子に上下の配線から電流を流し電気抵抗値が変動する性質を利用したもので、構造図はどちらもDRAMそっくりでよく似ている。そんな訳で作るのはDRAMメーカーになるのだろう。
抵抗値自体は温度や湿気の影響やパッケージに含まれる微量な放射性物質が放出する放射線の影響がほとんど無い様に思われるが、酸素空孔や磁性体の磁束方向の状態にどの程度の影響があるのか気になるところだ。



ReRAM

Resistance Random Access Memory で、抵抗変化型メモリのこと。
原理はビックリするほど簡単だ。
金属は電気を通しやすいものが多いが、その酸化物(つまり錆)は電気を通りにくいものが多い。だから、金属皮膜を酸化や還元をすれば電気抵抗がかわるハズだ。
後は電圧をかけて抵抗値を測定すれば良い。高価なレアメタルを使ったものも多いが安価なアルミニウムでも良いハズ。
では、どうやって酸化・還元をするか?それは酸化しやすい金属と酸化しにくい金属で金属酸化物を挟み両極に電圧をかけて化学(酸化還元)反応を起こせばよい。つまり二次電池(バッテリー)だ。普通のバッテリーと違うのは充電しすぎると正極から延びた酸素の空孔が負極まで到達し短絡(ショート)してしまう様な出来の悪いものにしなければいけない点だ。
しかし、両極をショートさせれば一気に電気が流れてしまいそうだから、例えば、酸素空孔層の分、金属の酸化物層が薄くなることを利用しコンデンサとしてのキャパシティの増減を計測しても良さそうだ。
またバッテリー式ではなく金属イオンを移動させて電気抵抗を変えるものもあるので、一口にReRAMと云っても今後も様々な種類が出てきそうだが、電極にP型とN型の半導体を使い酸化ケイ素やアルミナを挟み込む様なありきたりな材料で済ませるものはまだ無い様だ。
え?だって、微細化しすぎてリーク電流が止まらないって話があったじゃない?
そのリーク電流を少し制御できれば・・・メモリにならない?
 
 



SoCになって戻っていたAtom Z2760

今までチップセットとの2チップ構成で、消費電力も今一大きかった(Atom Z670:1コアだけど3W)が、
SoCになってAtomの消費電力がARM系のSoC並み(Atom Z2760:2コアだけど2W)になった様だ。
だが、単にSoCチップだけが消費電力が下がった訳ではない。
1.メモリもDDR2からLPDDR2に変わった。(プログラム実行時の消費電力が下がる)
2.ハードウェアビデオエンコーダが追加された。(動画再生時の消費電力が下がる)
3.タブレットには必須なセンサー(加速度や傾きなど)をSoCに直付けするためにUARTを復活させた。
など、長く電力を消費しそうなところを変えた成果だ。
ここまで、しっかりと消費電力対策をした製品はARM製だってそう多くないだろう。
やっとARM製のハイエンドと肩を並ぶことができた訳だ。
そして、
ここまで変えてしまうと云うことは、
元のAtomの意義(安売りx86プロセッサ)は、
無駄だったと云うことだ。
 
そして次のAtomでは、ついにCORE iシリーズに似たものになる。
しかも、Z2670より消費電力が増えない様に調整するらしい。
これが出来ればINTELは、CORE iシリーズを
実質的に超低消費電力型(TDP2W)から高消費電力型(TDP175W)まで
揃えることができるだろう。
 
しかし、そこには大きな問題が待っている。
Windowsである。
GUIのデスクトップはCPUやGPUやHDDの処理性能が操作感に出やすい。
超低消費電力型(TDP2W)から高消費電力型(TDP175W)までWindowsが快適に動かなかったら意味がないのだ。
もしMSがVistaのような企画商品(新しいWindowsには!新しいハードウェアを!)出したら、大変なコトになる。
新しいWindows8はそういうコンセプトではないので後3年はこのまま進むだろう。
 
そして、もうひとつはAndroidだ。
こちらはARMもx86も垣根が無いので、気持ちがよいデバイスの勝ちに決まっている。
だから、どっちが優勢になるかなんて誰もキニシナイだろう。メーカーも両方に手を出せば良いのだから。(笑
 
もし、両方(WindowsもAndroidも)で成功を収めた後は、
両方を快適に使えるチップを提供しなければいけなくなるが・・・
これは結構大変だろう。
 
x86の動くOSにはMacも含まれているハズだが、これはAppleが独占的に販売しているので、あまり心配はないだろう。
Windowsを使い続けるように、Macを使い続けてくれるだろうから・・・



Windows8の良いところ

ニコ動でWindows8の宣伝やってたので見てたら、

1.ファイルのコピーに「一時停止」ボタンが付いた。

これは、大量のスクリーンショットやらキャプチャーファイルなど大容量のファイルを大量にコピーして「1時間待ち」になると、HDDがビジーで他に何も出来なくなる。そう云う目にあった人なら欲しい機能だ。
と云うか、

今まで付けなかった理由を知りたい。

まぁ~この辺もSP2でWindows7にも付くかもしれない。

2.ファイルのコピーのスピードがアップした。

これは簡単、Windows7ではファイルコピーのCPU負荷は5%未満。つまりサボり杉なので、実装は容易だ。
なぜCPU負荷を100%まで上げないのかと云うと、デスクトップの負荷が上がりすぎるとキャンセルボタンを押してもファイルコピープログラムの方が押したことに気が付かない事態が発生するからだ。
この辺はノンプリエンティブ(単細胞な または猪突猛進)なWindows98では問題にならない事象も、プリエンティブ(余所見しすぎ)なNTやWindows2000あたりでは命題的な課題でもある。
プリエンティブでもCPU負荷を上げる方法はある、しかし一度上がったCPU負荷を下げるには、「CPU負荷の高いプロセスを停止」する以外に方法はない。しかも自発的に停止してもらう以外手立ては無い。
まぁ~この辺もSP2でWindows7も速くなるかもしれない。

3.同じMSアカウントでログインしたPCなら壁紙などの設定が同期できる。

これはPC引越しには便利な機能だ。多分、IEの「お気に入り」と「メアド」がコピーできるだけで安心だ。
尚、この機能を使うにはSkyDriveを経由して同期するらしい。
これはWindows7にもある機能かもしれない。

4.起動が速くなった。

Windowsの起動やMS-Officeの起動が速くなったらしい。
もともと、プリロード機能でWindows7だって速くなっているハズだがそれよりも速くなったらしい。
だが、フォトショップは速くなってないらしい。
できればBIOSではなくUEFIなマザボなら尚良いらしい。
しかし、Windows7でもWindowsUpdateの時の再起動は異様に速いことがあるので、やはりサボっているだけかもしれない。
※起動時にサスペンド状態からプロセスを持ち上げる荒業らしい。ハイバネーションをOFFしたり大量にメモリを積んでると遅くなるかも?

5.今ならWindows8のアップグレード版は特売販売中

もちろん期間限定。
Windows7のPCを買いアップグレード用の割引コードがもらえればMSのオンラインから1200円で購入できる。
これもあって、一ヶ月で4000万個を売ったらしいので、売り上げ額は通常の400万個分なのだろうか?
一応、割引コードが無くても3300円で買えるし、店舗で買った場合には5-6千円ぐらいになるがDVD-ROM付き。
 
旧版のWindowsについて、
新版が出る頃には何かと旧版は調子が悪い。
まぁ~、MSの方で新旧をゴッチャゴチャにしてしまっている事ぐらいは想像に容易い。
さすがに何か動かなくなってしまった・・・の様なことは起きないにしても・・・
手元のPC以外でも、マウス右ボタンのドラッグ操作がうまくいかなくなっている。
コンテキストメニューがなかなか出ない現象に出会う時がある。
こんな時は最悪で、ファイルをドラッグすることさえ危険だ。
※途中でドコかに落っことした場合には、フォルダのメニューを開き「編集」⇒「元に戻る」で、復旧できる。但し、HDDだったり大量のファイルだったりした場合には、ちゃんと復旧できるかは不明だ。
ところが、
先のMSのオンラインで購入ボタンを押し、小さいEXEをダウンロードし、互換性リストをチェックした。
i-Tunesがどうもそのまま移行できそうもないので、諦めて「中止」した後・・・
先の右ボタンは調子が良くなったし、
コンテキストメニューもサクっと表示されるようになったので、
手元のデスクトップが何か調子が変だったら「Windows8互換性チェック」をやってみると調子が戻るかもしれない。
 
では、Windows8は買いだろうか?
 
ボク的には、ファイルコピーの「一時停止」ボタンだけで、1200円の価値は十分あると思った。
何のことはない、

それだけ、

今のデスクトップは使いにくいと感じている訳だ。

しかも、ファイルコピーの「一時停止」ボタン以外に使いやすくなるところは見当たらない。
あと、WindowsStoreにアップすれば比較的フリーソフトも安心して使ってもらえそうな気がした。
フリーソフトならフリーな開発キットを使えるようだ。
だが、商用(またはシェアウェア)なら高額な正規の開発キットを使わないといけないハズだ。
 
最後に、
Windows7の時もそうだったけど、半年くらい経ったら旧版より高いWindowsになっているハズだと予想しておこう。
ハズるかもしれないけどね。(大笑
でも、ハズれればみんなハッピーでいいんじゃない?



VMの泣き所

Windows8のRCを試用するときはVMPlayerの様なバーチャルPC環境は便利だ。
その理由は、Windows7に戻すのは非常に困難を伴うからだ。
だったらVMPlayerの中にWindows8をインストしていらなくなったら、HDDイメージごと捨てる方が楽にきまっている。
また、いくつか設定の違うWindows7の環境やら、またXPの環境を用意するために、沢山のPCを用意すると場所も多く取るし、モニターの繋ぎ替えも面倒。
パッケージのインストーラーのテストをちゃんとやろうとすると、
XP、VISTA、Windows7、Windows8、Windows Server200X とか各種揃えなければいけないし、テストの度に新品の状態に戻さなければいけない、Windowsの「システムの復元」機能だけでは全てが新品の状態に戻る訳ではないので・・・
HDDイメージをコピーしてテストし終わったら捨てる。
新しく作ったインストーラーを作ったら、HDDイメージをコピーしてテストし終わったら捨てる。
・・・
の繰り返しが必要だ。(勿論、HDDを差分バックアップする方式にしておき、差分を捨てる方法でも良い)
これを手抜きすると、ランタイムが何か足りない状況が起きてしまう。
同じように、サーバーのサービスパックやパッチの動作確認をするために、作っては捨てることもある。
そんな訳でテスト環境を整えるにはVMPlayerはとても便利だ。
もし、個別に運用しているサーバーをVM化して統合するとどうなるだろうか?
①負荷の少ないサービスを提供するサーバーなら1台のサーバーで複数のサーバーの代わりができる。
②HDDイメージさえアレば、いくつもクローンが作れるので、同じ構成ならインスト作業の削減が期待できる。
③ファイルコピーの感覚でHDDイメージ丸ごとのバックアップもできるし、差分バックアップもできる。
④ディスク容量の縮小や拡張がしやすい。
一方では、
①ハードウェアの性能を100%引き出せるハズがない。
②1つのVMのCPU使用率が100%を遙かに越えてしまい、他のVMが割りを食うことがある。
③1サーバーにVMをいくつも作り運用すると、まとめてバックアップする時間帯が取れない。(取れても深夜か休日)
④バックアップを始めると、稼動中のVMは遅くなる。
⑤VMを動かすサーバーOSがダウンすると、全部ダウンする。
⑥VMを動かすサーバーOSのアップデートは怖くて出来ない。
⑦NICをONする前に各VMのIPアドレスを正しいものにしなければいけない。
※稼働中のVMとIPアドレスが被れば被害は甚だしく甚大なものになるので、初期IPアドレスのセグメントはテスト専用とし、稼動前に正式なIPアドレスに変更しなければいけない。そのため、どうしてもコールドスタンバイ用のサーバーに直接アクセスしたい場合は非常にデリケートな作業になる。
※サーバーをVMにするならIPアドレスはNICアドレス指定のできるDHCPルータやDNSサービスにお任せした方がいい。
つまり、サーバーのハードウェアが分離されているからこそ、出来ることや安心なこともある訳だ。
そう、VMの中でRAID1構成にしても安心を買える訳ではないのだ。やるならVMの外でRAID1構成にすべきなのだ。
それに、RAIDの復旧は専門の業者がやらなければいけない場合もある、その場合、復旧完了まではRAIDを共用しているサーバーは稼動できる訳もなく、復旧まで時間がかかるRAID1ではなく故障があっても稼動し続けられるRAID5などの構成が必要だ。
と云う感じで、サーバーをVMで統合すると安心や安全まで含めれば24時間稼動できる構成が望ましく一気にコストアップしてしまう。
だが、24時間稼動できる構成とは、調整が難しいの構成と同義語であり、
※アップデートを完了するために再起動しますか?(ダメ)(ダメ)絶対ダメ)
開発中のサーバーコンテンツは除外しなければいけない。



P-02Dのアップデート

特に難しくない、
設定⇒端末情報⇒ソフトウェア更新で進める。
暫くは
接続中…
となる。
再起動した後に、
延々と続く。
やっと終わった後、いつものようにカメラの辺りを触ると結構暑くなっていた。
 
無理させてわりーなぁ
 
夏に案内があったAndroid4.xへのアップデートは12月中にはじまるそうだ。
終了。



SC-01Cのアップデート

3G回線を使うと通信費用が半端無いので、WiFiでやってみた。
※USB接続でもできるが、充電しながらは通信できないので、充電不足の状態では不測の事態になる恐れがある。
通信環境: 家庭内LAN。
Kiesをダウンロードしパソコンにインストし起動する。
②SC-01CをWiFi接続のみで接続する。
③SC-01Cの設定⇒端末情報⇒ソフトウェア更新⇒アップデートの確認⇒サーバー接続…云々 と出る。 OK。
④プログレスバーでジンワリとダウンロード。
⑤ダウンロードが終わると再起動…云々と出る。 OK。
⑥再起動後に、アップデート開始。
⑦再び再起動。
但し、パソコンのKiesと通信しているのかSamsungのサーバーと通信しているのかは不明だ。



BGA (Ball grid array)

チップ(IC)は、ダイ(CPUなど)とその電源や信号を繋ぐリードフレーム(端子)をモール剤で封印したものだ。
このチップをボード(基盤)に固定するには

  • ボードに固定されたソケットにチップを挿入する。
  • ボードに開けられた穴(スルーホール)にチップのリードを差込み固定し、ハンダ付けする。
  • 直接ボードにチップをハンダ付けしたりする。(表面実装)

の方法を使う。
ソケットを使えば、古いチップを新しいチップに交換できるが、ハンダ付けされていると交換するのは厄介だ。
 
CPUは元々DIP(Dual Inline Package)が多かった。ソケットも使えるし、直接ハンダ付けもOKだった。
DIPはその名の通りダイを挟んで端子が2列に並んでいるパッケージで、古くからあるデジタルICの絵のイメージそのものだ。
何分、開発中の手直しやらCPU自体の不良も多かった時代はCPUを直接ハンダ付けするのはかなり無謀でもあった。
そのため手に取って扱うには便利なDIPだが端子の列の長さが中央のダイより長いので基盤上にはダイの何倍も大きい空き地が出来てしまう。
これがダイの辺を囲むように端子を配置したPLCC(Plastic leaded chip carrier)またはQFJ(Quad Flat J-leaded Package)と呼ばれるパッケージに変わり、基盤上の空き地を無くし、チップの高密度実装化が進んでいく。
CPUのピン数が多くなってくると4辺では足りなくなり、チップの下面いっぱいにピンを立て剣山風になったPGA(PinGridArray)が登場する。
あまりにピンが多いので押し込み型ソケットでは扱いずらく固定レバー付きのZIF(Zero Insertion Force socket)が使われたが
やっぱりピンを曲げてしまうことが多く今のLGA(LandGridArray)になっていく。
LGAの端子はピンではなく面だったのでソルダペーストを付けて基盤に表面実装もできなくもない。CPU同様にピン数が半端ない数だったチップセットもQFJからLGAへ進むかと思いきやLGAの端子をハンダボールで表面実装するBGA (Ball grid array)に変わっていった。
このBGAにはクセがあり、

  • 基盤に実装した後ちゃんとハンダ付けされたか目視できない。
  • チップが熱膨張収縮を繰り返すとハンダ付け箇所に横方向へのストレスがかかる。

が、ソケットを使わず基盤に表面実装することでその分高さが下がるので薄型ノートPCには向いている。
しかし、不良だったら基盤ごと諦めることになる。
Haswell(ハスウェル )ではこのBGAのみとなるそうだ。
既にATOMがBGAとして提供されているので技術的な面はクリアしているのだろう。
今でこそパソコンではHDDは3.5インチ、SSDは2.5インチ、メモリはDIMMが普通だが、
最近出てきたminiITXより小さい10センチサイズのNCUボードではmini PCI Express(mSATA対応) 用のSSDを使うし、メモリはSO-DIMMと他のものも変わるようだ。
でもビデオカードが必要なゲームはできそうもないが、多分nVidiaが出してきたサーバーサイドレンダリングに変われば事情も違ってくるかもしれない。
だが、そうなると、今のパソショップはサーバーサイドレンダリングなゲームの体験コーナがメインなアクセサリー屋になっているのかもしれない。ネカフェっぽくなっていそうだ。
また、小売を考えればグラボをレイド化したレンダリングサーバーなんてのも出てくるのかもしれない。(Not WINTEL inseide的なもの)
騒音も酷そうなので、冷却性と静穏性を兼ね備えた設計の筐体かもしれない。
それはもしかしたらグラボスロットが付いた冷蔵庫になっているかもしれない。
ベランダに置く空冷の室外機かもしれない。
もっとも、そのころには、モニターにINTELソケットが付いていて拡張ボード・アクセサリーとしてパソコンの子孫が残っているだけかもしれない。
そうなると、お高いWindowsは住む場所を失っているだろう。
勿論MS-Officeもだが・・・



Haswell(ハスウェル )

性能がどの程度になるのか判らないけど、
今のCORE i7ぐらいの性能でTDPが一桁小さければ沢山使って
グリッドコンピューティングとかスーパーコンピュータを作る
のにも向いているかもしれない。
しかし、UMPCが振るわずiPadに食われ挽回したいのが見え見えなので
最初はATOMよりは上の性能でTDPが10Wなものが出るのだろう。
当初UMPC向けだったATOMの失敗は、安いx86と云うメリットを強調する一方で、
価格の高いCOREシリーズと差別化する意味で、

  •  メモリ帯域を下げる(DDR2x1、クロック低い)
  •  I/Oを減らす(PCI express なし)
  •  旧式のチップセット

とやりすぎてしまい、旧式x86の安売り同然で、さっぱり売れなかった。
ただ、日本国内に限って云えば、
単価が安いハズのARMチップは、価格が高い開発向け(数万円)汎用ボードしか利用する手段がなかった。
ネジ穴位置もバラバラで、ちょうど良い電源やケースなどを作るのもめんどくさいしろものだった。
それに比べれば、miniITX規格のATOMマザボ(一万円未満)はお手軽だったので、それなりに売れたのだ。
今では、UMPCと競合するiPodやらAndroidが普通に売られているので、ATOMはどこにいっても過去の遺物
そこでHaswellを前倒ししてきたのだろう。
性能がSandy Bridgeより上でTDPが大幅にダウン(例えば当社比50%以下とか)すれば注目度は高くなるだろう。
TDPが下がって困るのは、大型PCケースを売っているメーカぐらいしか思いつかない・・・
欲目で見ればCPUチップの単価が2倍でも売れるかもしれない。
だがPCの販売台数が減っているのでそう安心はできない。
今でこそAndroidも文字入力めんどくさい、ショートカットが変!とか評判は散々であるけど、
これが許容範囲内になってきたら、もうPCが必要な理由なぞ無くなってしまう。
24インチワイドモニター、マウス、キーボードをそのままだけど、本体はiPodやAndroidです。(笑
ってのが普通になっても別に変ではない。
例えば、Javaの開発環境と云えばEclipseだが、これだってJAVAで出来ているから、Androidで動かない訳ではないからだ。
直接動かなくても、ブラウザをIDE(開発環境)とするものも有償で出てきているので、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成もありだ。
今この記事を書いている環境はそれに近いかもしれない。
もう、そうなったら、PCが高性能である必要なんて無くなってしまう。
高性能なCPUが必要だからINTELが必要なのだから、
その前に手を打たないとINTELも必要では無くなってしまうのだ。
つまり、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成ですが、INTEL Inside ですよね。(笑
を狙っているのだなぁ・・・



ギャップ

~制約を捨て、更なる上部構造へとシフトする~
Ghost in the shell でのセリフの一句だが、
すでにそうなっている様な気がした。
MSのスティーブン・シノフスキー氏とAppleのスコット・フォーストール氏が相次いで辞任。
理由は「独善的」で「協調性にかけ」ていて、組織の総力を挙げて競争を勝ち抜くには、もぅ~邪魔な人だったそうだ。
多分、世代交代でもあるのだろう。
情報統制、セキィリティなど今求められる常識的な事柄のほとんどは、「人間っていい加減」って要素の否定から始まっていることに由来する。 似たことはフェイル・セーフ(ドジってもどうにか繋ぐ)と云う考えから、ファイル・アウト(1ミスが命取り)な世の中になったことと無関係ではないだろう。それは、メールの誤配信などフェイル・セーフにすることが困難なシステムをごく普通に使っているせいでもある。
つまり、今使っているインターネットを使ったツールは事前に自爆スイッチが仕様に組み込まれている訳だ。
まるで、オンラインゲームのインスタンスでボス戦でもやっているような世界になっている。こう云う世界では独り立ち(ソロプレイ)はリスクが高い。どこかの組織に属してその軒下で暮らしていくのが相応しい。仮に組織がつぶれても生き残った組織に鞍替えして生き延びればいいのだから、そしてそのために欠かせない個々人の第一の戦術は「協調性」であって「技術」はその場に合ったものを使い捨てるのが一番いい。もし、欠かせない「技術」があるとすれば、コミュニケーションそのものだろう。
さて最初の上部構造の一句に話を戻すが、卓越した専門技術より組織の協調性を重んじる新たなフェーズに移行したのだとすれば、独善的な人物というイメージと世代交代がなんとなく重なり合ってくる。
そう、
制約を捨て・・・
上部構造へシフトすると、
そこは
埃にまみれた作業着と泥だらけのゴム長靴と軍手をした奴なんでいない
イケメンと萌えコスプレばかりが闊歩する
ごく普通の繁華街だった。
そこでは
うまい食事の具の生産地やファッションの名前は話題になっても
魚のエサや繊維や染料の原料には関心が無い。
確かに上部構造と云って良いだろう。
しかし、
それは望んだ上部構造であったのであろうか?
 
そのギャップを感じるのは、
実はパソコン・ショップのWEBサイト。
新しモノ好きなので、
品物のスペックが
気になる。
だが、そのスペックの中身は
「企業秘密」なので、詳しい事は不明だ。
CPUやGPUやSSDのインタフェースなどのクロックが
速ければ速い程、性能が高いハズだが実際にはそうではない。
1クロックの時間よりも、1フェーズ(1つのことを終える)時間の方が重要なのだ。
その辺は説明が長いので説明抜きのベンチマークテストで一目瞭然がデファクトなアプローチ。
注意する点はベンチマーク値は比較値であり、ベンチマーク値の真の単位は期待値(%)であることだ。
10と20を比較すると2倍。
100と200を比較すると2倍。
どちらも同じ2倍。
この方法では、同じ環境と設定でベンチマークを行った比較商品以外に選択肢は無い。
実際、低スペックと廃スペックを比較することはほとんどなく、
あるとしてもHDDとSSDではSSDが圧倒的に~な調子である。(世代交代的な意味で…)
※読み込み速度はSSDが圧倒的に速いが、書き込み速度ではHDDが速く、Windowsのインストール時間など実際にはSSDの方が遅い。今SSDの方が速いと思えるのはHDDの方が容量が圧倒的に大きくチェックに時間も圧倒的に長いせいだ。書き込みの遅さでは定評のある安価なSDメモリにWindowsをインストールすると一晩かかるが、Windowsを起動した後では利用する上で支障がほとんどない、初代MOE人サーバーもSDメモリだった。(大笑
と、こんな感じで新しいものの性能は色々評価記事もあるけど…
技術そのものは分厚いカーテンの向こう側で
面白味が薄い。
だから、1TB級のSSDを使えるようになったら、なんだタッタの1GBのファイルのコピーでこんなに遅いんじゃん!
でもHDDだったらもっと遅いハズだから我慢だな・・・と思いそうだ。
メモリチップの大容量の壁
容量が2倍になるとチップの中の特定のメモルを選択するセレクタ(みたいな)回路も規模が2倍になる。
例えるならデコーダ回路はトーナメント形式にできている。
このため、実際には規模が2倍になると、同規模のトーナメントの他に『決勝戦』が1つ増える。

┌┴┐(決勝戦)
△ △  (△セレクタ)
■ ■(■メモリ)

な感じ。
しかし、本来は

 △
△▽△
■ ■

と4倍になるべきなのでお得になっている。
 
と書いたら、信じてしまいそうな強調的な世の中だから困るなぁ・・・(大笑
このトリックは非常に簡単で、
△が実は┌┴┐の集合を略したものだ。
だから、4ビットのメモリは

┌┴┐(決勝戦)
△ △  (△セレクタ)
■ ■(■メモリ)

は、

   ┌┴┐
┌┴┐  ┌┴┐
■ ■ ■ ■

で正しく、

 △
△▽△
■ ■

を展開すると、

    ┌┴┐
┌┴┐┌┴┐┌┴┐
■ ■     ■ ■

になり、┌┴┐が無駄に1個多いのはすぐに判りますよね。
では、nビットのメモリには何個のセレクタが必要なのか?
1ビット:0個
2ビット:1個
4ビット:3個
8ビット:7個
なので、n-1個のセレクタが必要です。
そう思うと、メモリチップの半分はセレクタなのですかね???
と、またひっかけになってしまった。
実際、1ビット入出力のメモリはそうだろう。
しかし、
8ビット入出力のセレクタなら8分の1。
16ビット入出力のセレクタは16分の1。
のハズです(多分




top