2016年のAMDをCPU&APUから見てみる。

 前回のエントリでは2015年の直近のAMDのロードマップを見てみたが、今回はその続きというかその先のネタを。
 Project Skybridge、Zenコア、DDR4移行、ソケット移行と盛り沢山(の筈)の2016年を見てみましょうか。

 あ、念のため。意見には個人差があります、ということで。
 さすがに来年のこととなると半年も経てばまた書き換わっているかも知れないが、現時点で見えているのはこんな感じ、と。

 3◇Project SkybridgeとZenとFXとOpteronと。

 さて、デスクトップ版Carizzoをスキップする程開発リソースを喰われているx86版Project SkybridgeことSummit Ridgeだが、予定通りだと製品が実際に出てくるのは2016年。Zenコアはそれまでお預けですな。
 そして、今出ている情報を見る限りでは、次期FXは実質的にSummit Ridge=Opteronと同一コア。恐らくUP専用でソケットFM3?もOpteron・ARM Opteron・FX・A-Seriesで共通になると個人的には予想している。

 ♯今のAMDにはそんなに多くの種類のソケットをサポートする体力は無いし、別にする理由も特に無いと思っているので。
  Freedom FabricとDisplay Port辺りはARM OpteronとA-Seriesで共通ピン位置にしてマザー側実装でどちらを取り出すか決まる、なんてのでも困らないだろうし。

 ・・・なのだが、個人的には既に黄色信号が灯っているような気がして心配というか。
 最大の問題になりそうなのは、Project Skybridgeが14nmプロセスがターゲットだという話。

 何故って、2016年中にGFで14nmプロセスが本当に立ち上がるのか、個人的には非常に厳しいというかほぼムリだと見ているので、またしてもプロセスに足を引っ張られて、ということになりかねないと思っているのですよ。
 とはいえ、実際問題として28nmで作るのはあり得ないし、20nmでは使えるプロセスが無いし、14nm以外の選択肢は既に残っていないのが辛いところなんですな。

 4◇Bristol RidgeでSocketFM3&DDR4移行、Summit Ridgeへの足がかりに。

 さて、同じ頃に世間というかIntelはSkylakeをデスクトップに持って来ている筈なので、ここでDDR4への世代交代が起こる筈。
 ところがSummit Ridgeは前述の通り14nmという爆弾を抱えた状態で、これでDDR4へ移行というのはさすがに博打が過ぎるというのはAMDも理解している模様。

 一方、DDR4移行というのはGPUに必須のメモリ帯域が稼げるという意味でAPUにとってはかなりプラスで、そういう意味でも世間でDDR4が出回り始めたら出来るだけ早くキャッチアップしたいところ。
 今までこの「メインストリームのDDR4移行」についてはAMDはコードネームの類が出てこなかったので「まさかいきなりZenコアで16or14nmのつもりか?」とか思っていたのだが、最近ついにBristol Ridgeなる名前が出てきて、漸く「流れが出来た」な、と。

 このBristol Ridgeなるもの、一言で言うとCarizzoのDDR4版で、デスクトップ向け、そしてこの頃には既に時代遅れと言われているかも知れない28nm製造。
 いかんせんプロセスがアレなのでSkylakeに正面から対抗出来るのかというと厳しいトコというのが本音だろうが、そもそも製品が無いという最悪の状況だけは回避出来るかと。

 ♯メモリ帯域が広がった分、GPUを全力でブン回して「APUとして」のパフォーマンスを稼ぐ方向だとは思うが。

 ◇

 以上、AMDのDDR4移行戦略は今見えているトコではこんな感じかと。

 ・・・ん~、何というか、確かに「盛り沢山」ではあるのだが。
 それでも刺激は少ないよな、と思ってしまう自分は間違っているんですかね。

 まぁ、PC性能がホントに倍々ゲームで伸びていた時代を知っている年寄りの戯れ言ということで。

Share

2015年のAMDをCPU&APUから見てみる。

 さて、nVIDIAのTegraは自動車組込向に舵を切って事実上Android界隈から撤退(折角高いカネかけてLTEモデム作ったのにね)し、こういうPCヲタ界隈ではすっかり話題に上らなくなってしまった今日この頃。

 ♯まぁ未練たっぷりというか、隙あらば再参戦しようとはしているけど。

 同じくというか、頑張ってもミドルレンジまでしかラインナップが無い上にぱっと見ではぶっちゃけ代わり映えのしないことで、一部のファン以外にはすっかり語られなくなってしまったのがAMDのロードマップ・・・とは言い過ぎですかね。

 とはいえ、個人的には取り上げないワケにはいかないと思うので。
 先日のCES、そしてAnalyst Dayの発表辺りから、AMDの2015年の戦略とロードマップを少し見てみましょうか。

 1◇Carizzoで低消費電力枠のシェア拡大に賭けるAMD。

 まずは何を差し置いてもコレから。

 IPCの向上とGPU強化という既定路線の延長線上、Carizzoは最大TDP 35W枠で、モバイルからデスクトップ代替・AIOまでの幅広いフォームファクタを狙うことに。
 メーカー機では今やメインストリームとも言えるフォームファクタに真正面から挑む形で、競合するのはIntelのBroadwell(-U)というこれまたガチンコ勝負。

 で、既に漏れてきているベンチマーク結果を見る限りAPU自体の出来はそんなに悪くなさそうなのだが、問題はこのフォームファクタに臨むということ自体が(今のAMDに体力的には)物凄くチャレンジングだということ。

 何しろIntel CPUを採用しておけば、そこそこ性能差のあるラインナップを展開しても、メインのロジックボードはCPU以外共通に出来るワケで、作る方にとってこれは有難い。
 そこにAMDが乗り込むとなると、まず全く新しいロジックボードを起こすところから話を始めないといけないワケで。それだけのコストをかけても尚AMDを売るだけのメリットが無ければ、実際の製品としては世に出ないワケですよ。

 ♯IntelとAMDがせめぎあっていた時代ならいざ知らず、今ではAMDを採用しなくともぶっちゃけ売上が目立って減ることも無いワケで。

 というワケで、Carizzo最大の挑戦そして問題は、いかにしてメーカー(OEM)に採用してもらうか、Design Winが取れるかだと思われるんですな。Salesに頑張ってもらわないと。

 2◇DesktopがKaveri Refreshで引っ張る理由。

 自作派としてはExcavatorがデスクトップに来ないのは非常に淋しいのだが、AMDの戦略としては理解出来るというかなんというか。
 まぁ要するに、Carizzoをデスクトップに持ってこれるだけの開発リソースが無い、ということ。
 逆に言うと、Project Skybridgeがそれだけ開発リソース喰っているかということでもある。

 そして、AMDのプランとしては2016年、Project Skybridge世代でDDR4メモリ&ソケット変更予定。
 つまり、CarizzoがDDR3メモリのメインストリーム最終形となる。

 で、その辺りを織り込んで、モバイル専用として割り切ってしまうことで、SoC化やPCIeレーンの削減、低消費電力向けプロセス採用等が可能になり、Carizzoがより競争力のある商品になった、ということかと。

 とはいえデスクトップでも多少新味を出しておかないとマズいので、Kaveri Refresh=Godavariが登場するという話。
 但しKaveri RefreshもどうRefreshするかというのが大問題で、28nmプロセス向けの最適化についてはKaveriでも既にカツカツ、あとはプロセスの熟成に頼るしかない上に、何度も書いているようにAPUの構造的弱点であるメモリ速度に足を引っ張られるせいでクロックを上げても性能の伸びは正直鈍い。
 そうなると後は価格勝負ということにもなりかねず・・・ん~、辛い年になりそう。

 あぁ勿論、オンボード貼付けではCarizzoマザーが出る可能性はあるし(まぁ出るとしたらMini-ITXでしょうな)、値付けさえ間違えなければ出たらそこそこ売れる気はするが、仮に出たところでメインストリームではないですな。

 一方、一応デスクトップのSocketAM1がCarizzo-Lに対応してくるかどうかは非常に怪しいのでは。
 何しろ、AM1の販売開始時期を考えると未だ1年も経っていないのに、CPU&APUラインナップをアップデートするのは早いと思うので。

 ♯確かに世代だけ見れば現行品は古臭いが、プロセスも変わっていないし。

 ◇

 以上、ここまでが2015年中の戦略かと。
 良く言えば「充電の年」、悪く言えば「我慢の年」になりそう、というのが個人的な印象。

 ♯・・・ってか、何かこのところ毎年こんなんな気が。
  イケイケなAMDもそろそろ見たいんですがねぇ、個人的には。

 ちなみに長くなってきたんでここで一旦切りますが、次エントリでは2016年以降のトコを少し見てみようかと。

Share

壊れるものには訳がある。

 BackBlazeが定期的に出しているHDDぶっ壊れレポート、新しいのが出ていますな。
 内容についてはまぁ従来通りの傾向といったところか。
 ということで、目立ったところをちょっとだけコメント。

 ◇相変わらず壊れまくってるST3000DM001。

 この会社では随分派手に壊れまくっているので気になってちょっと色々調べてみたのだが、やはりこういうことの模様。

 ・デスクトップユース、つまり稼働時間が短いうちでの故障率はそこまで高くはない。
 ・但し稼働時間が伸びて来ると加速度的に故障が増える。

 このHDDは想定稼働時間のあまりの短さに発売当時は極一部で衝撃が走ったのだが、設計も部材も相応ということなんでしょうな。一言でまとめると「ヤワ」。
 ある意味正しいコストカット策ではあるのだが、稼働時間が4桁後半になる辺りからぼちぼち・・・のようなので、おうちサーバやNASでは回避した方が良い模様。

 ♯ちなみに24365通電だと稼働半年でおよそ4,300時間。

 そういう意味では、現在壊れまくっているのは設計通り、という言い方も出来るかも知れない。

 ♯但しプラッタ品質はそう悪くないので、どちらかというとオフライン倉庫向き?
  とはいえHDDをオフライン倉庫にすること自体激しく推奨しないが。

 ◇壊れないHGST。

 MegaScaleなんて24365稼働を最初からターゲットにして開発されているモノなので、ある意味これだけの品質は「当たり前」とも言えるが、Deskstarも相変わらずの不良率の低さ。

 で、この数字をぼけ~っと見てて今更思い出したのが、そういえば日立のデスクトップHDDって原則24365稼働で設計していたよな、ということ。
 デスクトップユース前提にも関わらず24365稼働を想定するというのは過剰品質とも言える訳だが、BackBlazeのような長時間駆動ではこの設計の余裕が圧倒的な低故障率を実現するカギになっている、と言っても良い気がする。

 そして良い意味で日本的な発想の下に「可能な限り高品質なものを作る」を徹底していた結果、コスト高を反映して価格は高め(ここ重要)という悪い意味でも日本的な製品となり、ボリュームゾーンは取れなかったものの、信頼性についての定評は得られたのが日立のHDDだった、と。

 ♯一方で「稼働時間=コストと価格のバランス」を見ていたSeagateは、低価格で圧倒的ボリュームゾーンを手にしたものの、こういう風に設計時想定外の連続稼働をすると次々と壊れていく、と。

 ・・・とはいえWD傘下に入って以降、「可能な限り丈夫なものを作る」考え方が現在もHGSTで活きているかどうかは不明なのだけど。

 ◇

 まぁ、こんな感じですか。

 にしても、Seagateの4TB随分買ったのね。
 コレも想定稼働時間はあまり長くない筈なのだが、果たしてどうなりますやら。
 デスクトップユースではこれまた特に何かあるという話は聞いたこと無い機種なので、ある意味楽しみではある。

Share

何故熱アシストだとHDD容量が増やせるの?

 先日SMRをネタにしてしまったので、次は訊かれていないけどHAMRでもネタにしましょうか。
 あ、HAMRというのは熱アシスト記録のことですよ、念のため。
 中々に強引な方法で、逆に言うとこうでもしない限り記録密度は上げられないトコまで来ている、ということです。

 ◇どうして熱アシスト記録だと記録密度が上げられるの?

 前回書いた通り、記録密度を上げる為には強力な磁力で書き込む必要があるワケです。
 そして、その強力な磁力を発生させる為に物理的に大きな書込ヘッドを使う手法がSMR、と。
 でも、もし強力な磁力がどうしても使えなかったらどうする?

 ここでふと思い出していただきたいのが、小学校の頃の理科の実験。
 「磁気を持つ物をアルコールランプで熱すると磁気が消えてしまう」というネタ、覚えていますか。

 ♯普通に磁石を熱するとお高いので、磁石にしばらくくっつけておいて磁気を帯びた釘を使う、といったパターンだった気がする。

 この実験の通り、一般的な磁石は、熱せられると磁気の保持力が弱くなるワケです。
 そして、保持力が弱いということは逆に、弱い磁気の影響も受けてしまうということでもある。

 一方、磁気記録のプラッタの表面は言ってみれば磁石です。つまり、

 書込む瞬間だけプラッタを熱々に出来れば、弱い磁力でもきちんと書き込めるんじゃね

 という発想です。これが熱アシスト記録の原理。

 ♯研究段階ではこの熱源としてレーザーと電波(電子レンジの原理ね)が検討されたが、商品化されるのはレーザーだけになる模様。

 とはいえ実際には瞬間的に激小スポットの温度を上げ、更に瞬間的に冷まさなくてはいけないため、 実装となると大変なことに。
 のんびり熱してたら記録速度が上げられないし、さっさと冷やさないと折角記録した磁気が熱で飛んでしまうので。

 更に、一般的な素材は温度の上下で伸び縮みするのだから、そんなに加熱と冷却を繰り返していたら記録面が歪んだり割れたりする可能性も。
 そのような、プラッタ面にストレスがかかりまくるような状態で、果たしてどこまで信頼性や安定性が実現出来るのか。
 それが商品化のポイントですな。

 ◇

 ということで、当方は割と簡単に「次は熱アシストだ」とか言っていますが、実際にはそう簡単なシロモノではないんですな。
 とはいえSMRでない従来型のトラックパターンで密度をこれ以上上げようとすると、本当にコレぐらいしか直近使えそうな技術は無いので。
 今のところ商品化ターゲットは2016~2017年という話なので、以前のロードマップより確実に遅れてきております。
 さて、本当に商品になるのは何時でしょうかね。

Share

何故SMRだとHDD容量が増やせるの?

 さて、新年早々Seagateがコーポレートロゴ変えて来たり、東芝が2.5’で750Gプラッタ4枚の3TBを発表したりと、HDD周りは相変わらず微速前進といった状況ですが。

 またしても訊かれたので以下略なネタ。
 これ、一言で説明するのは結構難しいんですが、順序追って説明してみますか。

 ◇

 まず、従来と同じようにプラッタ密度を上げようとすると、引っかかる問題が2つあるんですな。

 1. 書き込みヘッドが小さくなり過ぎて、書き込みに必要な強い磁気が出せない。
 2. 小さいヘッドの弱い磁力で書き込めるようにプラッタを作ると、今度はプラッタの磁気保持力が無くなってしまう。

 簡単に書き込める素材は、簡単にデータが消えてしまうワケです、磁気メディアは。
 逆に言うと、簡単にデータが消えない素材には、簡単に書き込めない。

 この矛盾を解決する手法として、SMRが開発されたワケです。

 1. 書き込みヘッドは強力な磁力を出す為に大きくしよう。
 2. 強力な磁力で書き込む前提のプラッタだから、磁気保持力はそれなりに強く出来るよね。

 これだけでは容量は増やせない。なので、こうする。

 3. 磁気保持力が強いならば、高密度に書き込んでも大丈夫だよね。
 4. ヘッドが大きいから一部カブっていても、残りの部分が読めるから大丈夫だよね。
 5. 古いデータにカブるとこに書き込む時は、古いデータが壊れないように辻褄合わせしておけばいいよね。

 大雑把に言うと、こうしてSMR HDDが生まれたワケです。

 ◇

 ということで、SMRのポイントは実は「重ね書きで記録トラック幅が減る」ことではなく、「(相対的に)大きいヘッドを使って強力な磁力で書き込める」ことなんですな。
 そしてこの前提があれば、従来の垂直磁気記録の限界と言われている1.33TBプラッタを超える密度で記録が出来る、というワケなのですよ。

 そして、SMR用の特性を持つプラッタとヘッドを使って今のところ製品化が見えているのが1.66TBプラッタ、つまりHDDとしては10TB品なワケです。
 将来の話をすると、プラッタだと2.5TB~3TB、HDD単体では15~18TB辺りまではメインストリームはSMRで何とか引っ張ろうとしているのが現在のHDD業界なんですな。

 ・・・とまぁ、こんな感じで説明になりましたね。

 ♯その上は熱アシストですな。

 P.S.
 にしても東芝の2.5′ 750GBプラッタ、同一密度で3.5’を作ると1.5TB程度になるし、恐らくプラッタ記録密度としては発表時点で世界最高の筈。何でプレスリリースに書いてないんだろ。
 つか単なる垂直磁気記録ではもうこれがいよいよ密度限界なんじゃ・・・。

Share