変奏現実

パソコンやMMORPGのことなどを思いつくまま・・・記載されている会社名・製品名・システム名などは、各社の商標、または登録商標です。

この画面は、簡易表示です

パソコン

CPU

まだ INTEL Core i7 870を使っている。
今のCore i7 3770と比べると、

870 3770
マイクロアーキテクチャ Nehalem Ivy Bridge
コードネーム Lynnfield Ivy Bridge
プロセルルール 45nm 22nm
CPU 2.93GHz 3.4 GHz
Socket LGA1156 LGA1155
メモリ DDR3-1333 DDR3-1600
L3 8MB 8MB
GPU non HD Graphics 4000
SATA 3Gbps 6Gbps
PCIe ver.2 ver.3
TDP 95W 77W

CPUとメモリは多少遅く、インタフェースは大体半分の転送速度となっている。
オマケにTDPが10W以上も多い、そろそろ換え時である。
それに、初期のFF-XIVで、かなりi7 870を痛めつけ(オーバーヒート)てしまっている。
そうFF-XIV用だったね。(最初は i3だったけど)
※壊れなかっただけマシと云う話もあるかもしれない。
 
Core i7 3770のTDPに少し余裕がありそうなので、オーバークロックしたり殻割りしたりした人も居たようだが芳しい成果は出てないようだ。
と云うのも、3代目のCore iシリーズ(Ivy Bridge)は、3Dトライゲート(コの字型ゲート)トランジスタを初めて使ったものであり、平面ゲートを前提とした活入れ(コア電圧を上げる)でスイッチング速度を上げるなどの方法がそのまま通用しないのだ。
どちらかと云えば、とにかく冷やす(液体窒素など)方が劇的な効果があるようだ。
そのせいか?同じLGA1155ソケットの第2世代と第3世代のCore iシリーズでも、第2世代用のチップセットのマザボは、第3世代用のCore iシリーズのCPUは使えないのだ。
しかし、次のCPU(Haswell)になるとソケットはLGA1150らしいので買い替えは延期にした。
でも、その次はBGAらしいしもう少し待ってもいいのかもしれない。
とりあえず、MOE人サーバーがCeleron G540(LGA1155) (マザボは第2世代用)なので良しとしよう。
もっとも、こっちの方は手のひらサイズのNUCパソに変えた方が良いような気がしている。
 
 



SST-RAM

Spin Transfer Torque RAM スピン注入磁化反転方式MRAM。
MRAMは、Magnetoresistive Random Access Memory あるいは
Magnetic Random Access Memoryの略称で 磁気抵抗メモリのこと。
SST-RAMはMRAMの第二世代にあたる。
2つの磁性体を極薄い絶縁層ではさんだMTJ(Magnetic Tunnel Junction、磁気トンネル接合)素子は、
磁性体の磁束の向きが揃っていないと磁性体間の電気抵抗が大きいことを利用し、磁性体の一方の磁束の向きを制御して記憶装置にしたもの。
第一世代のMRAMでは実直に磁性体の傍で電流を流し力任せに磁束の向きを変える方式であったため、消費電力が大きめで構造も書込み用の配線と読取り用の配線が分れていた。
第二世代のSST-RAMでは、MTJに直接電流を流すことで磁束の方向を変えるようになり、消費電力を少な目で読み書き両用の配線で済むので配線が簡素化された。しかし、外部からの磁界の影響を受けやすいようだ。
 
ReRAMとSST-RAMは、記憶素子に上下の配線から電流を流し電気抵抗値が変動する性質を利用したもので、構造図はどちらもDRAMそっくりでよく似ている。そんな訳で作るのはDRAMメーカーになるのだろう。
抵抗値自体は温度や湿気の影響やパッケージに含まれる微量な放射性物質が放出する放射線の影響がほとんど無い様に思われるが、酸素空孔や磁性体の磁束方向の状態にどの程度の影響があるのか気になるところだ。



ReRAM

Resistance Random Access Memory で、抵抗変化型メモリのこと。
原理はビックリするほど簡単だ。
金属は電気を通しやすいものが多いが、その酸化物(つまり錆)は電気を通りにくいものが多い。だから、金属皮膜を酸化や還元をすれば電気抵抗がかわるハズだ。
後は電圧をかけて抵抗値を測定すれば良い。高価なレアメタルを使ったものも多いが安価なアルミニウムでも良いハズ。
では、どうやって酸化・還元をするか?それは酸化しやすい金属と酸化しにくい金属で金属酸化物を挟み両極に電圧をかけて化学(酸化還元)反応を起こせばよい。つまり二次電池(バッテリー)だ。普通のバッテリーと違うのは充電しすぎると正極から延びた酸素の空孔が負極まで到達し短絡(ショート)してしまう様な出来の悪いものにしなければいけない点だ。
しかし、両極をショートさせれば一気に電気が流れてしまいそうだから、例えば、酸素空孔層の分、金属の酸化物層が薄くなることを利用しコンデンサとしてのキャパシティの増減を計測しても良さそうだ。
またバッテリー式ではなく金属イオンを移動させて電気抵抗を変えるものもあるので、一口にReRAMと云っても今後も様々な種類が出てきそうだが、電極にP型とN型の半導体を使い酸化ケイ素やアルミナを挟み込む様なありきたりな材料で済ませるものはまだ無い様だ。
え?だって、微細化しすぎてリーク電流が止まらないって話があったじゃない?
そのリーク電流を少し制御できれば・・・メモリにならない?
 
 



SoCになって戻っていたAtom Z2760

今までチップセットとの2チップ構成で、消費電力も今一大きかった(Atom Z670:1コアだけど3W)が、
SoCになってAtomの消費電力がARM系のSoC並み(Atom Z2760:2コアだけど2W)になった様だ。
だが、単にSoCチップだけが消費電力が下がった訳ではない。
1.メモリもDDR2からLPDDR2に変わった。(プログラム実行時の消費電力が下がる)
2.ハードウェアビデオエンコーダが追加された。(動画再生時の消費電力が下がる)
3.タブレットには必須なセンサー(加速度や傾きなど)をSoCに直付けするためにUARTを復活させた。
など、長く電力を消費しそうなところを変えた成果だ。
ここまで、しっかりと消費電力対策をした製品はARM製だってそう多くないだろう。
やっとARM製のハイエンドと肩を並ぶことができた訳だ。
そして、
ここまで変えてしまうと云うことは、
元のAtomの意義(安売りx86プロセッサ)は、
無駄だったと云うことだ。
 
そして次のAtomでは、ついにCORE iシリーズに似たものになる。
しかも、Z2670より消費電力が増えない様に調整するらしい。
これが出来ればINTELは、CORE iシリーズを
実質的に超低消費電力型(TDP2W)から高消費電力型(TDP175W)まで
揃えることができるだろう。
 
しかし、そこには大きな問題が待っている。
Windowsである。
GUIのデスクトップはCPUやGPUやHDDの処理性能が操作感に出やすい。
超低消費電力型(TDP2W)から高消費電力型(TDP175W)までWindowsが快適に動かなかったら意味がないのだ。
もしMSがVistaのような企画商品(新しいWindowsには!新しいハードウェアを!)出したら、大変なコトになる。
新しいWindows8はそういうコンセプトではないので後3年はこのまま進むだろう。
 
そして、もうひとつはAndroidだ。
こちらはARMもx86も垣根が無いので、気持ちがよいデバイスの勝ちに決まっている。
だから、どっちが優勢になるかなんて誰もキニシナイだろう。メーカーも両方に手を出せば良いのだから。(笑
 
もし、両方(WindowsもAndroidも)で成功を収めた後は、
両方を快適に使えるチップを提供しなければいけなくなるが・・・
これは結構大変だろう。
 
x86の動くOSにはMacも含まれているハズだが、これはAppleが独占的に販売しているので、あまり心配はないだろう。
Windowsを使い続けるように、Macを使い続けてくれるだろうから・・・



Windows8の良いところ

ニコ動でWindows8の宣伝やってたので見てたら、

1.ファイルのコピーに「一時停止」ボタンが付いた。

これは、大量のスクリーンショットやらキャプチャーファイルなど大容量のファイルを大量にコピーして「1時間待ち」になると、HDDがビジーで他に何も出来なくなる。そう云う目にあった人なら欲しい機能だ。
と云うか、

今まで付けなかった理由を知りたい。

まぁ~この辺もSP2でWindows7にも付くかもしれない。

2.ファイルのコピーのスピードがアップした。

これは簡単、Windows7ではファイルコピーのCPU負荷は5%未満。つまりサボり杉なので、実装は容易だ。
なぜCPU負荷を100%まで上げないのかと云うと、デスクトップの負荷が上がりすぎるとキャンセルボタンを押してもファイルコピープログラムの方が押したことに気が付かない事態が発生するからだ。
この辺はノンプリエンティブ(単細胞な または猪突猛進)なWindows98では問題にならない事象も、プリエンティブ(余所見しすぎ)なNTやWindows2000あたりでは命題的な課題でもある。
プリエンティブでもCPU負荷を上げる方法はある、しかし一度上がったCPU負荷を下げるには、「CPU負荷の高いプロセスを停止」する以外に方法はない。しかも自発的に停止してもらう以外手立ては無い。
まぁ~この辺もSP2でWindows7も速くなるかもしれない。

3.同じMSアカウントでログインしたPCなら壁紙などの設定が同期できる。

これはPC引越しには便利な機能だ。多分、IEの「お気に入り」と「メアド」がコピーできるだけで安心だ。
尚、この機能を使うにはSkyDriveを経由して同期するらしい。
これはWindows7にもある機能かもしれない。

4.起動が速くなった。

Windowsの起動やMS-Officeの起動が速くなったらしい。
もともと、プリロード機能でWindows7だって速くなっているハズだがそれよりも速くなったらしい。
だが、フォトショップは速くなってないらしい。
できればBIOSではなくUEFIなマザボなら尚良いらしい。
しかし、Windows7でもWindowsUpdateの時の再起動は異様に速いことがあるので、やはりサボっているだけかもしれない。
※起動時にサスペンド状態からプロセスを持ち上げる荒業らしい。ハイバネーションをOFFしたり大量にメモリを積んでると遅くなるかも?

5.今ならWindows8のアップグレード版は特売販売中

もちろん期間限定。
Windows7のPCを買いアップグレード用の割引コードがもらえればMSのオンラインから1200円で購入できる。
これもあって、一ヶ月で4000万個を売ったらしいので、売り上げ額は通常の400万個分なのだろうか?
一応、割引コードが無くても3300円で買えるし、店舗で買った場合には5-6千円ぐらいになるがDVD-ROM付き。
 
旧版のWindowsについて、
新版が出る頃には何かと旧版は調子が悪い。
まぁ~、MSの方で新旧をゴッチャゴチャにしてしまっている事ぐらいは想像に容易い。
さすがに何か動かなくなってしまった・・・の様なことは起きないにしても・・・
手元のPC以外でも、マウス右ボタンのドラッグ操作がうまくいかなくなっている。
コンテキストメニューがなかなか出ない現象に出会う時がある。
こんな時は最悪で、ファイルをドラッグすることさえ危険だ。
※途中でドコかに落っことした場合には、フォルダのメニューを開き「編集」⇒「元に戻る」で、復旧できる。但し、HDDだったり大量のファイルだったりした場合には、ちゃんと復旧できるかは不明だ。
ところが、
先のMSのオンラインで購入ボタンを押し、小さいEXEをダウンロードし、互換性リストをチェックした。
i-Tunesがどうもそのまま移行できそうもないので、諦めて「中止」した後・・・
先の右ボタンは調子が良くなったし、
コンテキストメニューもサクっと表示されるようになったので、
手元のデスクトップが何か調子が変だったら「Windows8互換性チェック」をやってみると調子が戻るかもしれない。
 
では、Windows8は買いだろうか?
 
ボク的には、ファイルコピーの「一時停止」ボタンだけで、1200円の価値は十分あると思った。
何のことはない、

それだけ、

今のデスクトップは使いにくいと感じている訳だ。

しかも、ファイルコピーの「一時停止」ボタン以外に使いやすくなるところは見当たらない。
あと、WindowsStoreにアップすれば比較的フリーソフトも安心して使ってもらえそうな気がした。
フリーソフトならフリーな開発キットを使えるようだ。
だが、商用(またはシェアウェア)なら高額な正規の開発キットを使わないといけないハズだ。
 
最後に、
Windows7の時もそうだったけど、半年くらい経ったら旧版より高いWindowsになっているハズだと予想しておこう。
ハズるかもしれないけどね。(大笑
でも、ハズれればみんなハッピーでいいんじゃない?



BGA (Ball grid array)

チップ(IC)は、ダイ(CPUなど)とその電源や信号を繋ぐリードフレーム(端子)をモール剤で封印したものだ。
このチップをボード(基盤)に固定するには

  • ボードに固定されたソケットにチップを挿入する。
  • ボードに開けられた穴(スルーホール)にチップのリードを差込み固定し、ハンダ付けする。
  • 直接ボードにチップをハンダ付けしたりする。(表面実装)

の方法を使う。
ソケットを使えば、古いチップを新しいチップに交換できるが、ハンダ付けされていると交換するのは厄介だ。
 
CPUは元々DIP(Dual Inline Package)が多かった。ソケットも使えるし、直接ハンダ付けもOKだった。
DIPはその名の通りダイを挟んで端子が2列に並んでいるパッケージで、古くからあるデジタルICの絵のイメージそのものだ。
何分、開発中の手直しやらCPU自体の不良も多かった時代はCPUを直接ハンダ付けするのはかなり無謀でもあった。
そのため手に取って扱うには便利なDIPだが端子の列の長さが中央のダイより長いので基盤上にはダイの何倍も大きい空き地が出来てしまう。
これがダイの辺を囲むように端子を配置したPLCC(Plastic leaded chip carrier)またはQFJ(Quad Flat J-leaded Package)と呼ばれるパッケージに変わり、基盤上の空き地を無くし、チップの高密度実装化が進んでいく。
CPUのピン数が多くなってくると4辺では足りなくなり、チップの下面いっぱいにピンを立て剣山風になったPGA(PinGridArray)が登場する。
あまりにピンが多いので押し込み型ソケットでは扱いずらく固定レバー付きのZIF(Zero Insertion Force socket)が使われたが
やっぱりピンを曲げてしまうことが多く今のLGA(LandGridArray)になっていく。
LGAの端子はピンではなく面だったのでソルダペーストを付けて基盤に表面実装もできなくもない。CPU同様にピン数が半端ない数だったチップセットもQFJからLGAへ進むかと思いきやLGAの端子をハンダボールで表面実装するBGA (Ball grid array)に変わっていった。
このBGAにはクセがあり、

  • 基盤に実装した後ちゃんとハンダ付けされたか目視できない。
  • チップが熱膨張収縮を繰り返すとハンダ付け箇所に横方向へのストレスがかかる。

が、ソケットを使わず基盤に表面実装することでその分高さが下がるので薄型ノートPCには向いている。
しかし、不良だったら基盤ごと諦めることになる。
Haswell(ハスウェル )ではこのBGAのみとなるそうだ。
既にATOMがBGAとして提供されているので技術的な面はクリアしているのだろう。
今でこそパソコンではHDDは3.5インチ、SSDは2.5インチ、メモリはDIMMが普通だが、
最近出てきたminiITXより小さい10センチサイズのNCUボードではmini PCI Express(mSATA対応) 用のSSDを使うし、メモリはSO-DIMMと他のものも変わるようだ。
でもビデオカードが必要なゲームはできそうもないが、多分nVidiaが出してきたサーバーサイドレンダリングに変われば事情も違ってくるかもしれない。
だが、そうなると、今のパソショップはサーバーサイドレンダリングなゲームの体験コーナがメインなアクセサリー屋になっているのかもしれない。ネカフェっぽくなっていそうだ。
また、小売を考えればグラボをレイド化したレンダリングサーバーなんてのも出てくるのかもしれない。(Not WINTEL inseide的なもの)
騒音も酷そうなので、冷却性と静穏性を兼ね備えた設計の筐体かもしれない。
それはもしかしたらグラボスロットが付いた冷蔵庫になっているかもしれない。
ベランダに置く空冷の室外機かもしれない。
もっとも、そのころには、モニターにINTELソケットが付いていて拡張ボード・アクセサリーとしてパソコンの子孫が残っているだけかもしれない。
そうなると、お高いWindowsは住む場所を失っているだろう。
勿論MS-Officeもだが・・・



Haswell(ハスウェル )

性能がどの程度になるのか判らないけど、
今のCORE i7ぐらいの性能でTDPが一桁小さければ沢山使って
グリッドコンピューティングとかスーパーコンピュータを作る
のにも向いているかもしれない。
しかし、UMPCが振るわずiPadに食われ挽回したいのが見え見えなので
最初はATOMよりは上の性能でTDPが10Wなものが出るのだろう。
当初UMPC向けだったATOMの失敗は、安いx86と云うメリットを強調する一方で、
価格の高いCOREシリーズと差別化する意味で、

  •  メモリ帯域を下げる(DDR2x1、クロック低い)
  •  I/Oを減らす(PCI express なし)
  •  旧式のチップセット

とやりすぎてしまい、旧式x86の安売り同然で、さっぱり売れなかった。
ただ、日本国内に限って云えば、
単価が安いハズのARMチップは、価格が高い開発向け(数万円)汎用ボードしか利用する手段がなかった。
ネジ穴位置もバラバラで、ちょうど良い電源やケースなどを作るのもめんどくさいしろものだった。
それに比べれば、miniITX規格のATOMマザボ(一万円未満)はお手軽だったので、それなりに売れたのだ。
今では、UMPCと競合するiPodやらAndroidが普通に売られているので、ATOMはどこにいっても過去の遺物
そこでHaswellを前倒ししてきたのだろう。
性能がSandy Bridgeより上でTDPが大幅にダウン(例えば当社比50%以下とか)すれば注目度は高くなるだろう。
TDPが下がって困るのは、大型PCケースを売っているメーカぐらいしか思いつかない・・・
欲目で見ればCPUチップの単価が2倍でも売れるかもしれない。
だがPCの販売台数が減っているのでそう安心はできない。
今でこそAndroidも文字入力めんどくさい、ショートカットが変!とか評判は散々であるけど、
これが許容範囲内になってきたら、もうPCが必要な理由なぞ無くなってしまう。
24インチワイドモニター、マウス、キーボードをそのままだけど、本体はiPodやAndroidです。(笑
ってのが普通になっても別に変ではない。
例えば、Javaの開発環境と云えばEclipseだが、これだってJAVAで出来ているから、Androidで動かない訳ではないからだ。
直接動かなくても、ブラウザをIDE(開発環境)とするものも有償で出てきているので、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成もありだ。
今この記事を書いている環境はそれに近いかもしれない。
もう、そうなったら、PCが高性能である必要なんて無くなってしまう。
高性能なCPUが必要だからINTELが必要なのだから、
その前に手を打たないとINTELも必要では無くなってしまうのだ。
つまり、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成ですが、INTEL Inside ですよね。(笑
を狙っているのだなぁ・・・



ギャップ

~制約を捨て、更なる上部構造へとシフトする~
Ghost in the shell でのセリフの一句だが、
すでにそうなっている様な気がした。
MSのスティーブン・シノフスキー氏とAppleのスコット・フォーストール氏が相次いで辞任。
理由は「独善的」で「協調性にかけ」ていて、組織の総力を挙げて競争を勝ち抜くには、もぅ~邪魔な人だったそうだ。
多分、世代交代でもあるのだろう。
情報統制、セキィリティなど今求められる常識的な事柄のほとんどは、「人間っていい加減」って要素の否定から始まっていることに由来する。 似たことはフェイル・セーフ(ドジってもどうにか繋ぐ)と云う考えから、ファイル・アウト(1ミスが命取り)な世の中になったことと無関係ではないだろう。それは、メールの誤配信などフェイル・セーフにすることが困難なシステムをごく普通に使っているせいでもある。
つまり、今使っているインターネットを使ったツールは事前に自爆スイッチが仕様に組み込まれている訳だ。
まるで、オンラインゲームのインスタンスでボス戦でもやっているような世界になっている。こう云う世界では独り立ち(ソロプレイ)はリスクが高い。どこかの組織に属してその軒下で暮らしていくのが相応しい。仮に組織がつぶれても生き残った組織に鞍替えして生き延びればいいのだから、そしてそのために欠かせない個々人の第一の戦術は「協調性」であって「技術」はその場に合ったものを使い捨てるのが一番いい。もし、欠かせない「技術」があるとすれば、コミュニケーションそのものだろう。
さて最初の上部構造の一句に話を戻すが、卓越した専門技術より組織の協調性を重んじる新たなフェーズに移行したのだとすれば、独善的な人物というイメージと世代交代がなんとなく重なり合ってくる。
そう、
制約を捨て・・・
上部構造へシフトすると、
そこは
埃にまみれた作業着と泥だらけのゴム長靴と軍手をした奴なんでいない
イケメンと萌えコスプレばかりが闊歩する
ごく普通の繁華街だった。
そこでは
うまい食事の具の生産地やファッションの名前は話題になっても
魚のエサや繊維や染料の原料には関心が無い。
確かに上部構造と云って良いだろう。
しかし、
それは望んだ上部構造であったのであろうか?
 
そのギャップを感じるのは、
実はパソコン・ショップのWEBサイト。
新しモノ好きなので、
品物のスペックが
気になる。
だが、そのスペックの中身は
「企業秘密」なので、詳しい事は不明だ。
CPUやGPUやSSDのインタフェースなどのクロックが
速ければ速い程、性能が高いハズだが実際にはそうではない。
1クロックの時間よりも、1フェーズ(1つのことを終える)時間の方が重要なのだ。
その辺は説明が長いので説明抜きのベンチマークテストで一目瞭然がデファクトなアプローチ。
注意する点はベンチマーク値は比較値であり、ベンチマーク値の真の単位は期待値(%)であることだ。
10と20を比較すると2倍。
100と200を比較すると2倍。
どちらも同じ2倍。
この方法では、同じ環境と設定でベンチマークを行った比較商品以外に選択肢は無い。
実際、低スペックと廃スペックを比較することはほとんどなく、
あるとしてもHDDとSSDではSSDが圧倒的に~な調子である。(世代交代的な意味で…)
※読み込み速度はSSDが圧倒的に速いが、書き込み速度ではHDDが速く、Windowsのインストール時間など実際にはSSDの方が遅い。今SSDの方が速いと思えるのはHDDの方が容量が圧倒的に大きくチェックに時間も圧倒的に長いせいだ。書き込みの遅さでは定評のある安価なSDメモリにWindowsをインストールすると一晩かかるが、Windowsを起動した後では利用する上で支障がほとんどない、初代MOE人サーバーもSDメモリだった。(大笑
と、こんな感じで新しいものの性能は色々評価記事もあるけど…
技術そのものは分厚いカーテンの向こう側で
面白味が薄い。
だから、1TB級のSSDを使えるようになったら、なんだタッタの1GBのファイルのコピーでこんなに遅いんじゃん!
でもHDDだったらもっと遅いハズだから我慢だな・・・と思いそうだ。
メモリチップの大容量の壁
容量が2倍になるとチップの中の特定のメモルを選択するセレクタ(みたいな)回路も規模が2倍になる。
例えるならデコーダ回路はトーナメント形式にできている。
このため、実際には規模が2倍になると、同規模のトーナメントの他に『決勝戦』が1つ増える。

┌┴┐(決勝戦)
△ △  (△セレクタ)
■ ■(■メモリ)

な感じ。
しかし、本来は

 △
△▽△
■ ■

と4倍になるべきなのでお得になっている。
 
と書いたら、信じてしまいそうな強調的な世の中だから困るなぁ・・・(大笑
このトリックは非常に簡単で、
△が実は┌┴┐の集合を略したものだ。
だから、4ビットのメモリは

┌┴┐(決勝戦)
△ △  (△セレクタ)
■ ■(■メモリ)

は、

   ┌┴┐
┌┴┐  ┌┴┐
■ ■ ■ ■

で正しく、

 △
△▽△
■ ■

を展開すると、

    ┌┴┐
┌┴┐┌┴┐┌┴┐
■ ■     ■ ■

になり、┌┴┐が無駄に1個多いのはすぐに判りますよね。
では、nビットのメモリには何個のセレクタが必要なのか?
1ビット:0個
2ビット:1個
4ビット:3個
8ビット:7個
なので、n-1個のセレクタが必要です。
そう思うと、メモリチップの半分はセレクタなのですかね???
と、またひっかけになってしまった。
実際、1ビット入出力のメモリはそうだろう。
しかし、
8ビット入出力のセレクタなら8分の1。
16ビット入出力のセレクタは16分の1。
のハズです(多分



SAMSUNG 830 (128G)

ブログサーバに使っていたのをメインパソに載せ換えたのでベンチも持ってみた。
マザボの関係でSATA(3Gbps)接続なので割り引いて見る必要があるけど、
なかなかだね。

過去のSSDと比較すると、PTL1-25SAT3-128G より速いけどそう変わらない。

 
SSD速く使うならLGA1156捨ててLGA1155かAM3+にすべきなんだろうなぁ。
すでにブログサーバはIntel Celeron G540(LGA1155)だが・・・




top