HBM DRAM

今のパソコンのDRAMはDDR3 SDRAMが主流だ。ただ最速のDDR3-2666でも、最速のバーストモードでも約21GB/秒で、32GBのメモリを積んでいたら、全データを転送するのに1秒以上かかってしまう。
そこで、DDRのチップを重ねバス幅も大幅に拡張し転送速度を稼ごうとするのがHBM DRAMだ。
バス幅が増えると、基盤の表面で配線を引き回すのが大変なので、CPUの上に載せて一体化するようだ。その方が配線も短く、通信速度を上げやすく、また消費電力も下げやすくなるようだ。
しかしパーツを交換すれば容量が増設できるのが利点であるパソコンにはあまり向いていないから、オンボードのグラフィックスの高速化を狙ってCPUのL3キャッシュメモリとして使うだけかもしれない。
それでもCPU性能がアップする御利益がある訳で、今はL3キャッシュが少なく中途半端な性能しか出ないCore i3が化ける可能性もあるし、L3キャッシュがダイから無くなれば、i5やi7のコアがもっと増えるかもしれないから、今までとは違う構成のCPUが出回る様な気がする。
とは云えHBM DRANも当初は高価なメモリになるだろうから、高性能大容量L3キャッシュ搭載の上位シリーズが増えるダケなのかもしれない。
後はPCI-eがどこまで転送速度を上げられるかで、PCI Express 3.0 ×32レーンの場合で、片方向32Gbyte/sec、双方向64Gbyte/sec、PCI Express 4.0 ×64レーンの場合で、片方向128Gbyte/sec、双方向256Gbyte/sec と単純な数値ならDDR3-2666を上回っている。ただ、色んなデバイスをつなげられる様に各レーンは非同期シリアルデータ転送で、データ通信の開始終了時にパラレルデータとの変換が必要なことから処理のオーバーヘッドはSDRAMより大きく、そう単純にはDDRが終焉を迎えることにはならないだろう。Write性能はPCIeデバイス側で吸収することが可能でも、Read性能は、パラレル~シリアル変換時間+PCIe通信時間+シリアル~パラレル変換時間の足し算になるので基礎性能の優越がはっきりと出てしまうからだ。
HBM DRAMが普及し始めた後に、DDRの基板の反対側をPCIeの端子を付けるだけ済む程度の、高速メモリスワップ転送モードをPCIeに追加できたとしても、CPUのDDRインタフェースをPCIe×64に置き換えると、CPU、メモリ、マザボの一切合切の交換が必要になるからだ。それにPCIe×16のコネクタですら結構大きく、今のマザボのサイズなら×32が限界。×64ならピッチ幅を狭めた専用コネクタが必要だろう。




コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA