変奏現実

パソコンやMMORPGのことなどを思いつくまま・・・記載されている会社名・製品名・システム名などは、各社の商標、または登録商標です。

この画面は、簡易表示です

SST-RAM

Spin Transfer Torque RAM スピン注入磁化反転方式MRAM。
MRAMは、Magnetoresistive Random Access Memory あるいは
Magnetic Random Access Memoryの略称で 磁気抵抗メモリのこと。
SST-RAMはMRAMの第二世代にあたる。
2つの磁性体を極薄い絶縁層ではさんだMTJ(Magnetic Tunnel Junction、磁気トンネル接合)素子は、
磁性体の磁束の向きが揃っていないと磁性体間の電気抵抗が大きいことを利用し、磁性体の一方の磁束の向きを制御して記憶装置にしたもの。
第一世代のMRAMでは実直に磁性体の傍で電流を流し力任せに磁束の向きを変える方式であったため、消費電力が大きめで構造も書込み用の配線と読取り用の配線が分れていた。
第二世代のSST-RAMでは、MTJに直接電流を流すことで磁束の方向を変えるようになり、消費電力を少な目で読み書き両用の配線で済むので配線が簡素化された。しかし、外部からの磁界の影響を受けやすいようだ。
 
ReRAMとSST-RAMは、記憶素子に上下の配線から電流を流し電気抵抗値が変動する性質を利用したもので、構造図はどちらもDRAMそっくりでよく似ている。そんな訳で作るのはDRAMメーカーになるのだろう。
抵抗値自体は温度や湿気の影響やパッケージに含まれる微量な放射性物質が放出する放射線の影響がほとんど無い様に思われるが、酸素空孔や磁性体の磁束方向の状態にどの程度の影響があるのか気になるところだ。



ReRAM

Resistance Random Access Memory で、抵抗変化型メモリのこと。
原理はビックリするほど簡単だ。
金属は電気を通しやすいものが多いが、その酸化物(つまり錆)は電気を通りにくいものが多い。だから、金属皮膜を酸化や還元をすれば電気抵抗がかわるハズだ。
後は電圧をかけて抵抗値を測定すれば良い。高価なレアメタルを使ったものも多いが安価なアルミニウムでも良いハズ。
では、どうやって酸化・還元をするか?それは酸化しやすい金属と酸化しにくい金属で金属酸化物を挟み両極に電圧をかけて化学(酸化還元)反応を起こせばよい。つまり二次電池(バッテリー)だ。普通のバッテリーと違うのは充電しすぎると正極から延びた酸素の空孔が負極まで到達し短絡(ショート)してしまう様な出来の悪いものにしなければいけない点だ。
しかし、両極をショートさせれば一気に電気が流れてしまいそうだから、例えば、酸素空孔層の分、金属の酸化物層が薄くなることを利用しコンデンサとしてのキャパシティの増減を計測しても良さそうだ。
またバッテリー式ではなく金属イオンを移動させて電気抵抗を変えるものもあるので、一口にReRAMと云っても今後も様々な種類が出てきそうだが、電極にP型とN型の半導体を使い酸化ケイ素やアルミナを挟み込む様なありきたりな材料で済ませるものはまだ無い様だ。
え?だって、微細化しすぎてリーク電流が止まらないって話があったじゃない?
そのリーク電流を少し制御できれば・・・メモリにならない?
 
 



SoCになって戻っていたAtom Z2760

今までチップセットとの2チップ構成で、消費電力も今一大きかった(Atom Z670:1コアだけど3W)が、
SoCになってAtomの消費電力がARM系のSoC並み(Atom Z2760:2コアだけど2W)になった様だ。
だが、単にSoCチップだけが消費電力が下がった訳ではない。
1.メモリもDDR2からLPDDR2に変わった。(プログラム実行時の消費電力が下がる)
2.ハードウェアビデオエンコーダが追加された。(動画再生時の消費電力が下がる)
3.タブレットには必須なセンサー(加速度や傾きなど)をSoCに直付けするためにUARTを復活させた。
など、長く電力を消費しそうなところを変えた成果だ。
ここまで、しっかりと消費電力対策をした製品はARM製だってそう多くないだろう。
やっとARM製のハイエンドと肩を並ぶことができた訳だ。
そして、
ここまで変えてしまうと云うことは、
元のAtomの意義(安売りx86プロセッサ)は、
無駄だったと云うことだ。
 
そして次のAtomでは、ついにCORE iシリーズに似たものになる。
しかも、Z2670より消費電力が増えない様に調整するらしい。
これが出来ればINTELは、CORE iシリーズを
実質的に超低消費電力型(TDP2W)から高消費電力型(TDP175W)まで
揃えることができるだろう。
 
しかし、そこには大きな問題が待っている。
Windowsである。
GUIのデスクトップはCPUやGPUやHDDの処理性能が操作感に出やすい。
超低消費電力型(TDP2W)から高消費電力型(TDP175W)までWindowsが快適に動かなかったら意味がないのだ。
もしMSがVistaのような企画商品(新しいWindowsには!新しいハードウェアを!)出したら、大変なコトになる。
新しいWindows8はそういうコンセプトではないので後3年はこのまま進むだろう。
 
そして、もうひとつはAndroidだ。
こちらはARMもx86も垣根が無いので、気持ちがよいデバイスの勝ちに決まっている。
だから、どっちが優勢になるかなんて誰もキニシナイだろう。メーカーも両方に手を出せば良いのだから。(笑
 
もし、両方(WindowsもAndroidも)で成功を収めた後は、
両方を快適に使えるチップを提供しなければいけなくなるが・・・
これは結構大変だろう。
 
x86の動くOSにはMacも含まれているハズだが、これはAppleが独占的に販売しているので、あまり心配はないだろう。
Windowsを使い続けるように、Macを使い続けてくれるだろうから・・・



Windows8の良いところ

ニコ動でWindows8の宣伝やってたので見てたら、

1.ファイルのコピーに「一時停止」ボタンが付いた。

これは、大量のスクリーンショットやらキャプチャーファイルなど大容量のファイルを大量にコピーして「1時間待ち」になると、HDDがビジーで他に何も出来なくなる。そう云う目にあった人なら欲しい機能だ。
と云うか、

今まで付けなかった理由を知りたい。

まぁ~この辺もSP2でWindows7にも付くかもしれない。

2.ファイルのコピーのスピードがアップした。

これは簡単、Windows7ではファイルコピーのCPU負荷は5%未満。つまりサボり杉なので、実装は容易だ。
なぜCPU負荷を100%まで上げないのかと云うと、デスクトップの負荷が上がりすぎるとキャンセルボタンを押してもファイルコピープログラムの方が押したことに気が付かない事態が発生するからだ。
この辺はノンプリエンティブ(単細胞な または猪突猛進)なWindows98では問題にならない事象も、プリエンティブ(余所見しすぎ)なNTやWindows2000あたりでは命題的な課題でもある。
プリエンティブでもCPU負荷を上げる方法はある、しかし一度上がったCPU負荷を下げるには、「CPU負荷の高いプロセスを停止」する以外に方法はない。しかも自発的に停止してもらう以外手立ては無い。
まぁ~この辺もSP2でWindows7も速くなるかもしれない。

3.同じMSアカウントでログインしたPCなら壁紙などの設定が同期できる。

これはPC引越しには便利な機能だ。多分、IEの「お気に入り」と「メアド」がコピーできるだけで安心だ。
尚、この機能を使うにはSkyDriveを経由して同期するらしい。
これはWindows7にもある機能かもしれない。

4.起動が速くなった。

Windowsの起動やMS-Officeの起動が速くなったらしい。
もともと、プリロード機能でWindows7だって速くなっているハズだがそれよりも速くなったらしい。
だが、フォトショップは速くなってないらしい。
できればBIOSではなくUEFIなマザボなら尚良いらしい。
しかし、Windows7でもWindowsUpdateの時の再起動は異様に速いことがあるので、やはりサボっているだけかもしれない。
※起動時にサスペンド状態からプロセスを持ち上げる荒業らしい。ハイバネーションをOFFしたり大量にメモリを積んでると遅くなるかも?

5.今ならWindows8のアップグレード版は特売販売中

もちろん期間限定。
Windows7のPCを買いアップグレード用の割引コードがもらえればMSのオンラインから1200円で購入できる。
これもあって、一ヶ月で4000万個を売ったらしいので、売り上げ額は通常の400万個分なのだろうか?
一応、割引コードが無くても3300円で買えるし、店舗で買った場合には5-6千円ぐらいになるがDVD-ROM付き。
 
旧版のWindowsについて、
新版が出る頃には何かと旧版は調子が悪い。
まぁ~、MSの方で新旧をゴッチャゴチャにしてしまっている事ぐらいは想像に容易い。
さすがに何か動かなくなってしまった・・・の様なことは起きないにしても・・・
手元のPC以外でも、マウス右ボタンのドラッグ操作がうまくいかなくなっている。
コンテキストメニューがなかなか出ない現象に出会う時がある。
こんな時は最悪で、ファイルをドラッグすることさえ危険だ。
※途中でドコかに落っことした場合には、フォルダのメニューを開き「編集」⇒「元に戻る」で、復旧できる。但し、HDDだったり大量のファイルだったりした場合には、ちゃんと復旧できるかは不明だ。
ところが、
先のMSのオンラインで購入ボタンを押し、小さいEXEをダウンロードし、互換性リストをチェックした。
i-Tunesがどうもそのまま移行できそうもないので、諦めて「中止」した後・・・
先の右ボタンは調子が良くなったし、
コンテキストメニューもサクっと表示されるようになったので、
手元のデスクトップが何か調子が変だったら「Windows8互換性チェック」をやってみると調子が戻るかもしれない。
 
では、Windows8は買いだろうか?
 
ボク的には、ファイルコピーの「一時停止」ボタンだけで、1200円の価値は十分あると思った。
何のことはない、

それだけ、

今のデスクトップは使いにくいと感じている訳だ。

しかも、ファイルコピーの「一時停止」ボタン以外に使いやすくなるところは見当たらない。
あと、WindowsStoreにアップすれば比較的フリーソフトも安心して使ってもらえそうな気がした。
フリーソフトならフリーな開発キットを使えるようだ。
だが、商用(またはシェアウェア)なら高額な正規の開発キットを使わないといけないハズだ。
 
最後に、
Windows7の時もそうだったけど、半年くらい経ったら旧版より高いWindowsになっているハズだと予想しておこう。
ハズるかもしれないけどね。(大笑
でも、ハズれればみんなハッピーでいいんじゃない?



VMの泣き所

Windows8のRCを試用するときはVMPlayerの様なバーチャルPC環境は便利だ。
その理由は、Windows7に戻すのは非常に困難を伴うからだ。
だったらVMPlayerの中にWindows8をインストしていらなくなったら、HDDイメージごと捨てる方が楽にきまっている。
また、いくつか設定の違うWindows7の環境やら、またXPの環境を用意するために、沢山のPCを用意すると場所も多く取るし、モニターの繋ぎ替えも面倒。
パッケージのインストーラーのテストをちゃんとやろうとすると、
XP、VISTA、Windows7、Windows8、Windows Server200X とか各種揃えなければいけないし、テストの度に新品の状態に戻さなければいけない、Windowsの「システムの復元」機能だけでは全てが新品の状態に戻る訳ではないので・・・
HDDイメージをコピーしてテストし終わったら捨てる。
新しく作ったインストーラーを作ったら、HDDイメージをコピーしてテストし終わったら捨てる。
・・・
の繰り返しが必要だ。(勿論、HDDを差分バックアップする方式にしておき、差分を捨てる方法でも良い)
これを手抜きすると、ランタイムが何か足りない状況が起きてしまう。
同じように、サーバーのサービスパックやパッチの動作確認をするために、作っては捨てることもある。
そんな訳でテスト環境を整えるにはVMPlayerはとても便利だ。
もし、個別に運用しているサーバーをVM化して統合するとどうなるだろうか?
①負荷の少ないサービスを提供するサーバーなら1台のサーバーで複数のサーバーの代わりができる。
②HDDイメージさえアレば、いくつもクローンが作れるので、同じ構成ならインスト作業の削減が期待できる。
③ファイルコピーの感覚でHDDイメージ丸ごとのバックアップもできるし、差分バックアップもできる。
④ディスク容量の縮小や拡張がしやすい。
一方では、
①ハードウェアの性能を100%引き出せるハズがない。
②1つのVMのCPU使用率が100%を遙かに越えてしまい、他のVMが割りを食うことがある。
③1サーバーにVMをいくつも作り運用すると、まとめてバックアップする時間帯が取れない。(取れても深夜か休日)
④バックアップを始めると、稼動中のVMは遅くなる。
⑤VMを動かすサーバーOSがダウンすると、全部ダウンする。
⑥VMを動かすサーバーOSのアップデートは怖くて出来ない。
⑦NICをONする前に各VMのIPアドレスを正しいものにしなければいけない。
※稼働中のVMとIPアドレスが被れば被害は甚だしく甚大なものになるので、初期IPアドレスのセグメントはテスト専用とし、稼動前に正式なIPアドレスに変更しなければいけない。そのため、どうしてもコールドスタンバイ用のサーバーに直接アクセスしたい場合は非常にデリケートな作業になる。
※サーバーをVMにするならIPアドレスはNICアドレス指定のできるDHCPルータやDNSサービスにお任せした方がいい。
つまり、サーバーのハードウェアが分離されているからこそ、出来ることや安心なこともある訳だ。
そう、VMの中でRAID1構成にしても安心を買える訳ではないのだ。やるならVMの外でRAID1構成にすべきなのだ。
それに、RAIDの復旧は専門の業者がやらなければいけない場合もある、その場合、復旧完了まではRAIDを共用しているサーバーは稼動できる訳もなく、復旧まで時間がかかるRAID1ではなく故障があっても稼動し続けられるRAID5などの構成が必要だ。
と云う感じで、サーバーをVMで統合すると安心や安全まで含めれば24時間稼動できる構成が望ましく一気にコストアップしてしまう。
だが、24時間稼動できる構成とは、調整が難しいの構成と同義語であり、
※アップデートを完了するために再起動しますか?(ダメ)(ダメ)絶対ダメ)
開発中のサーバーコンテンツは除外しなければいけない。



P-02Dのアップデート

特に難しくない、
設定⇒端末情報⇒ソフトウェア更新で進める。
暫くは
接続中…
となる。
再起動した後に、
延々と続く。
やっと終わった後、いつものようにカメラの辺りを触ると結構暑くなっていた。
 
無理させてわりーなぁ
 
夏に案内があったAndroid4.xへのアップデートは12月中にはじまるそうだ。
終了。



SC-01Cのアップデート

3G回線を使うと通信費用が半端無いので、WiFiでやってみた。
※USB接続でもできるが、充電しながらは通信できないので、充電不足の状態では不測の事態になる恐れがある。
通信環境: 家庭内LAN。
Kiesをダウンロードしパソコンにインストし起動する。
②SC-01CをWiFi接続のみで接続する。
③SC-01Cの設定⇒端末情報⇒ソフトウェア更新⇒アップデートの確認⇒サーバー接続…云々 と出る。 OK。
④プログレスバーでジンワリとダウンロード。
⑤ダウンロードが終わると再起動…云々と出る。 OK。
⑥再起動後に、アップデート開始。
⑦再び再起動。
但し、パソコンのKiesと通信しているのかSamsungのサーバーと通信しているのかは不明だ。



キーボード&マウス と タッチパネル と ゲームパッド

FFXIVでは、ゲームパッドありきのUIで、キーボード&マウスでも遊べる様な雰囲気であったが、イラつくのでゲームパッドに変えた経緯がある。
古典的なMMORPGであるエバークエストでもパーティすれば使うアクションはそう多くなかったし、リネⅡなどのクリゲーでは忙しいのはヒーラーだけで他はUIを気にする必要は皆無だった。
※てかヒーラーやってることが多かったけどね。
総じてMMORPGではあまり機敏な反応は必要ではない。
しかし、オフゲーの様に長考して次の手を打つことはできない。

スライムが現れた。

どうしよう?

攻撃する?逃げる?

な感じにはできない。
決定キーを押すまで画面の中でMOBがやさしく踊りながら待ってはくれない。
後にあまりのもっさりップリも修正され、壊れたゲームパッドが届くまでの間、キーボード&マウスでも遊べることが判った。
※勿論、予測&事前準備&タメ撃ちではある。
キーの割り当て編集もできるようになっていたが、カーソルキーをメニューの移動からキャラの移動に割り当てを変更すると、アイテムリストでカーソルキーを押すと画面のキャラが移動するハメになったので、実際にはWSADの割り当てぐらいにしか使えなかった。つまり、エバークエスト風のキーボードの割り当てはできなかったのだ。
 
では、Windows8でやっとメインになってきたタッチパネルでMOBをタゲたら楽になるだろうか?
実はそうではない。
動き回るMOBを指で追いかけるのは結構難しいアクションゲーであるし、それでも現行版みたいに表示キャラ数が少なければなんとかなるかもしれないが、100キャラも表示できる性能なPCだったら混戦ではお手上げだし、目の前カニがいたりすると、振り上げた腕と脚の間から後ろのMOBをタッチしてもアタリ判定はカニだ。
 
ではゲームパッドならOKかと云うとそうでもない。
パッドのタゲ・ルールは、カメラ視点中央縦軸が優先で横軸方向に順に選択する方式で100m先のMOBだろうが奥行きはガン無視、目の前のMOBより遙か後ろだが視点中央に近いMOBを優先してタゲれる他では体験できないレアなクズ仕様だ。
そのため、相手のMOBをカメラ正面に捕らえるのがセオリーであり、横から戦闘シーンのスクリーンショットを撮るのは大変危険なゲームとなっている。
またパッドでもカメラの追従はFFXI同様に悪いので、MOBから逃げるキャラを正面からスクリーンショットを撮るにはマウスでカメラを回すしかなく、足元にパッドを置いて足の指でスティックを操作しながらマウスを握る光景があるとかないとか…
 
また、綺麗なグラフィックスが売りなのにスクリーンショットの仕方が暫く公表されなかったなどFFXIVのUIには謎が多い。
 
DPS(Damege Per Second)が重要であり、ログゲーでもあるのに、ログファイルの扱いがいい加減でもある。
FFXIVrepなどが無いと困るのであるが時々ログファイル仕様も変わり追従を投げ出したツールも多い。
※主にログのフォーマットが雑で、また改行コードが無いため、一行を切り出すには延々とプレイしてデバッグするしかないため。
※一応、システムが吐くログは。が改行代わりになるが、PCの発言が。で終わる訳がない。
0020:****:おは0020:*****:ノシ
を切り出すのは一見簡単そうだが、
「おは0020:*****:ノシ」
などと喋ると正確に分析できそうもなく、
「おは0001::*****は***に9999のダメージ。」
などと云ったらどうなることやら・・・
 
と、ゲームなのに、そこまで考える必要はなさそうだが、
DPS分析して
武器とか総武とかアクセサリーの傾向とか考えて、
ふとそんなSayが混ざってるのを発見すると、かなり腹が立ってくる仕様になっている。
 
おまけに最後にflashし忘れてので、最後に何が起きたか、わかんないログにもなっているので、
DPS分析の前に、60行分のログを吐き出させるために、色々無駄なコトをやらなくてはいけない。
 
ゲームなんだからと、中途半端な仕様になっているFFXIV現行版は、結構厄介ものである。
だが、仕事なんだからと、中途半端な仕様になっている開発ツールは、その右斜め上を逝っているのもまた事実であり、それを耐えてきた人だけが、FFXIV現行版で遊べるのかもしれない。
また、その逆もしかり、中途半端な仕様になっているFFXIV現行版(中ボス)を投げ出すなら中途半端な仕様になっている開発ツール(ラスボス)なんて扱える訳もない。(大笑



BGA (Ball grid array)

チップ(IC)は、ダイ(CPUなど)とその電源や信号を繋ぐリードフレーム(端子)をモール剤で封印したものだ。
このチップをボード(基盤)に固定するには

  • ボードに固定されたソケットにチップを挿入する。
  • ボードに開けられた穴(スルーホール)にチップのリードを差込み固定し、ハンダ付けする。
  • 直接ボードにチップをハンダ付けしたりする。(表面実装)

の方法を使う。
ソケットを使えば、古いチップを新しいチップに交換できるが、ハンダ付けされていると交換するのは厄介だ。
 
CPUは元々DIP(Dual Inline Package)が多かった。ソケットも使えるし、直接ハンダ付けもOKだった。
DIPはその名の通りダイを挟んで端子が2列に並んでいるパッケージで、古くからあるデジタルICの絵のイメージそのものだ。
何分、開発中の手直しやらCPU自体の不良も多かった時代はCPUを直接ハンダ付けするのはかなり無謀でもあった。
そのため手に取って扱うには便利なDIPだが端子の列の長さが中央のダイより長いので基盤上にはダイの何倍も大きい空き地が出来てしまう。
これがダイの辺を囲むように端子を配置したPLCC(Plastic leaded chip carrier)またはQFJ(Quad Flat J-leaded Package)と呼ばれるパッケージに変わり、基盤上の空き地を無くし、チップの高密度実装化が進んでいく。
CPUのピン数が多くなってくると4辺では足りなくなり、チップの下面いっぱいにピンを立て剣山風になったPGA(PinGridArray)が登場する。
あまりにピンが多いので押し込み型ソケットでは扱いずらく固定レバー付きのZIF(Zero Insertion Force socket)が使われたが
やっぱりピンを曲げてしまうことが多く今のLGA(LandGridArray)になっていく。
LGAの端子はピンではなく面だったのでソルダペーストを付けて基盤に表面実装もできなくもない。CPU同様にピン数が半端ない数だったチップセットもQFJからLGAへ進むかと思いきやLGAの端子をハンダボールで表面実装するBGA (Ball grid array)に変わっていった。
このBGAにはクセがあり、

  • 基盤に実装した後ちゃんとハンダ付けされたか目視できない。
  • チップが熱膨張収縮を繰り返すとハンダ付け箇所に横方向へのストレスがかかる。

が、ソケットを使わず基盤に表面実装することでその分高さが下がるので薄型ノートPCには向いている。
しかし、不良だったら基盤ごと諦めることになる。
Haswell(ハスウェル )ではこのBGAのみとなるそうだ。
既にATOMがBGAとして提供されているので技術的な面はクリアしているのだろう。
今でこそパソコンではHDDは3.5インチ、SSDは2.5インチ、メモリはDIMMが普通だが、
最近出てきたminiITXより小さい10センチサイズのNCUボードではmini PCI Express(mSATA対応) 用のSSDを使うし、メモリはSO-DIMMと他のものも変わるようだ。
でもビデオカードが必要なゲームはできそうもないが、多分nVidiaが出してきたサーバーサイドレンダリングに変われば事情も違ってくるかもしれない。
だが、そうなると、今のパソショップはサーバーサイドレンダリングなゲームの体験コーナがメインなアクセサリー屋になっているのかもしれない。ネカフェっぽくなっていそうだ。
また、小売を考えればグラボをレイド化したレンダリングサーバーなんてのも出てくるのかもしれない。(Not WINTEL inseide的なもの)
騒音も酷そうなので、冷却性と静穏性を兼ね備えた設計の筐体かもしれない。
それはもしかしたらグラボスロットが付いた冷蔵庫になっているかもしれない。
ベランダに置く空冷の室外機かもしれない。
もっとも、そのころには、モニターにINTELソケットが付いていて拡張ボード・アクセサリーとしてパソコンの子孫が残っているだけかもしれない。
そうなると、お高いWindowsは住む場所を失っているだろう。
勿論MS-Officeもだが・・・



Haswell(ハスウェル )

性能がどの程度になるのか判らないけど、
今のCORE i7ぐらいの性能でTDPが一桁小さければ沢山使って
グリッドコンピューティングとかスーパーコンピュータを作る
のにも向いているかもしれない。
しかし、UMPCが振るわずiPadに食われ挽回したいのが見え見えなので
最初はATOMよりは上の性能でTDPが10Wなものが出るのだろう。
当初UMPC向けだったATOMの失敗は、安いx86と云うメリットを強調する一方で、
価格の高いCOREシリーズと差別化する意味で、

  •  メモリ帯域を下げる(DDR2x1、クロック低い)
  •  I/Oを減らす(PCI express なし)
  •  旧式のチップセット

とやりすぎてしまい、旧式x86の安売り同然で、さっぱり売れなかった。
ただ、日本国内に限って云えば、
単価が安いハズのARMチップは、価格が高い開発向け(数万円)汎用ボードしか利用する手段がなかった。
ネジ穴位置もバラバラで、ちょうど良い電源やケースなどを作るのもめんどくさいしろものだった。
それに比べれば、miniITX規格のATOMマザボ(一万円未満)はお手軽だったので、それなりに売れたのだ。
今では、UMPCと競合するiPodやらAndroidが普通に売られているので、ATOMはどこにいっても過去の遺物
そこでHaswellを前倒ししてきたのだろう。
性能がSandy Bridgeより上でTDPが大幅にダウン(例えば当社比50%以下とか)すれば注目度は高くなるだろう。
TDPが下がって困るのは、大型PCケースを売っているメーカぐらいしか思いつかない・・・
欲目で見ればCPUチップの単価が2倍でも売れるかもしれない。
だがPCの販売台数が減っているのでそう安心はできない。
今でこそAndroidも文字入力めんどくさい、ショートカットが変!とか評判は散々であるけど、
これが許容範囲内になってきたら、もうPCが必要な理由なぞ無くなってしまう。
24インチワイドモニター、マウス、キーボードをそのままだけど、本体はiPodやAndroidです。(笑
ってのが普通になっても別に変ではない。
例えば、Javaの開発環境と云えばEclipseだが、これだってJAVAで出来ているから、Androidで動かない訳ではないからだ。
直接動かなくても、ブラウザをIDE(開発環境)とするものも有償で出てきているので、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成もありだ。
今この記事を書いている環境はそれに近いかもしれない。
もう、そうなったら、PCが高性能である必要なんて無くなってしまう。
高性能なCPUが必要だからINTELが必要なのだから、
その前に手を打たないとINTELも必要では無くなってしまうのだ。
つまり、
小さいAndroidに色々(モニターなど)つないで、開発サーバは隣のちっこい奴(Linuxマシン)
な構成ですが、INTEL Inside ですよね。(笑
を狙っているのだなぁ・・・




top