いい加減SSDに新しい物理「形状」は必要だとは思うのだけど。

 さて、東芝「メモリ」=四日市工場(だと思うんだけどなぁ)を巡る混沌の事態は「一応」決着したことになったようだが、勿論こんな事態になった以上WDや他陣営が黙って引き下がっているワケもなく、実態としては「第一章が終わった」程度の状況の昨今ですが。
 このところSSDというかNANDというかフラッシュ関連のネタはあまり取り上げていなかったような気がするので、この辺りでうだうだ書いてみましょうか、というのが本日のエントリですよ。
 例によってだらだら箇条書きのパターンで行きますね、と。

 1◆兎に角値段の下がらないNAND、HDDメーカーにモラトリアムを与えることに。

 つーかね、スマホのフラッシュに持っていかれ過ぎ。おかげでちっとも値段が下がらず、結果としてはSeagateとWDに多いなるモラトリアムをもたらしているという状態。個人的には非常に気に入らん(笑。
 こうやってSeagateもWDもラクしているからHAMRとかの次世代記録方式がちっとも実用化されない、ってか本気で開発していないんだよなぁ、ホント。

 ・・・まぁ冗談はさておいても、データハングリーなエンタープライズ世界では現在の状況が気に入らんという人は決して珍しくない。少し前にGoogleのエンジニアが「HDDの容量単価は一桁高い」とか言っていたが、あれ別に珍しくない、というか多数派意見ですよ。

 2◆勢いの止まった3D NAND、この先はどうする。

 フラッシュの値段が下がらない理由のその2、3D集積の行き詰まり。
 ちょっと前までは32から48だ64だと勢いづいていたのに、その次は72という数字は出たもののその先がさっぱり出てこない。
 そもそも3D NANDの集積率の上昇はプロセスの難易度を上げる=コスト爆上げになるだけでなく、後述するようにTLCを成り立たせるための器の大きさも削ることになるので、現在の技術では商品として成り立たせるためにはここが限界だということなのでしょう。
 逆にいうと一つのブレイクスルーを使い切ってしまったワケで、この先当分は価格爆下げ&密度爆上げの手法は出てこない。つまりこの先も値下がりは当分見込めないということなんですな。ホントこれ厳しい。

 3◆QLC、まさかの商品化なるか?

 ということで、値下げの手段として急浮上してきたのがまさかのQLC。そう、TLC=8段階=3bitを超えて16段階=4bitを扱うという多値セルですな。
 但し・・・容量の代わりに犠牲になるのは例によってセル寿命とエラーレート。そこをどうするかってのが腕の見せ所、って・・・どんどんアレな方向性に走っている気がするんだが。

 ちなみにこのQLC、仮に実現するとなると実は3D NANDの多層化にはブレーキをかける方向に力が働くことに。何故かというと、既にTLCの段階で「3D NANDの奥行(高さ)を使ってセルの体積を大きくしないと使い物にならない」状態になってしまっているので(この辺りは卵と鶏の関係)。細かい話はさておいて(ggれば詳しい話なんていくらでも出てきます)、この「セルの体積」が確保されないとQLCは使い物にならない。
 一方で、QLCが使い物になる品質のセルが作れるなら、TLC向けにはもっと高信頼のものが作れるよね、とか、もっと雑に(=コストを下げて)作ってもTLCとして使い物になるんじゃね・・・という方向性も当然ある。将来的にはeTLCなんて(現在の感覚では)恐ろしいモノが出てくる可能性だって。

 なので、QLCがホントに広がるのか、それともTLCの品質や価格で勝負する方向性になるのか、現時点では不明だが、少なくともQLCの製品化を目指しているメーカーが存在することは確かなので、この先はてさてどうなることやら。

 4◆Optane vs Z-NAND、この先はどうなる。

 この先どうなるか不明といえばこちらもそう、OptaneとZ-NAND。相変わらずどちらも詳細不明なのだが、現在のNANDのレイテンシや寿命の問題というのは半分は構造の問題だが半分は「妥協してきた」面があるので、その妥協を取っ払えば(コストかかるけど)レイテンシとか詰められるよね、という意味ではZ-NANDは何となく分かるというか。

 まぁ取り敢えずボリュームを出さないと価格が下がらない、一方でフツーの「遅い」NANDは相変わらずの爆売れでボリュームがどんどん出ている、この状況では開いていく一方の「価格差」をどう埋めていくかというのは課題ではあるものの、その価格にさえ目をつぶれば「理想の半導体メモリに今一番近い」製品なだけに、この先の展開に注目していきたいところ。
 高性能品が価格故に自滅orニッチ留まりなんてケースはいくらでもあるしね。個人的にはOptaneは当初Intelが煽っていた程の性能は無さそうだし、今の売り方だとSLC&eMLC NANDを超えられないと思うんだが、実際どうなんだろね。

 ・・・ってか、いい加減もっと情報出せや>Intel&Micron&Samsang。

 5◆Intel提案の新形状「Ruler」、BTXの後を追うか。

 タイトルにも書いたけど、エンタープライズSSDにはそろそろ新しい形状が必要だと思うのですよ。
 何故って、現在の2.5’SFFとかは物理的形状に制約の大きかったHDDの時代のものであって、SSDがそれを真似する理由は何もない。一方で、振動に対する配慮は不要になったが発熱に対する配慮が必要になってきていて、実際一部のエンタープライズSSDではケース表面積の半分はフィンの立ったヒートシンク、なんてものも既に存在している。
 それに何より、現在のラックマウントサーバーは正面の縦横の長さには制約が大きいものの、奥行きは(昔より)どんどん伸びてきていて、正面横幅は430mmなのに奥行きは860mmとかいうサーバーだって存在する。当然データセンターのラック自体もそれだけの奥行きがあるので、この物理形状を最大限活用するには現在の2.5インチHDDの形状はとても無駄が多い。

 で・・・そういう理屈を考えると、Intelが提唱している「Ruler」というのは実はとても理にかなっている。正面の面積が小さく奥行きがあるデザインはサーバーに収めた際にとても空間効率が良いし、奥行方向に表面積が稼げるのでこの面をヒートシンクとすればサーバー本体の吸気経路になるので冷却効率も良くなる。
 なのだ、が・・・この「理論と理屈には合っているけど流行らなそう」感、あの幻のフォームファクタ「BTX」を彷彿とさせられてしまったのは自分だけ?

 ◆

 取り敢えず、最近のネタとしたしてはこの辺りですかね。
 個人的には兎に角「値段下がってくれ」としか。

 それでは、本日はこんなところで。

Share

「HGST ストレージ製品説明会 The First」に行ってきた。

 さて、今回は先日twitterではぽろっと出したHGSTのイベントに出てきた話でも。
 既に出ているITmediaとかImpress Watchの「当たり障りのない」記事とはなるべく被らない方向性で、つらつらと箇条書きっぽくに書いてみる。

 なお、当たり前だが、以下の記載内容については、当方のバイアスのかかった推測や補正込みの「印象」ということなのでお間違いなく。

 ◇

 全体としての印象は、HGSTの製品開発に対する姿勢というかポリシーは兎に角「カタい」ということを再認識。

 良い意味では「手堅い」ということであり、製品の品質といった部分ではHGST自身が絶対的な自信を持っているし、繰り返し出てきた「顧客のニーズ」「デマンド」「要望」といったキーワードをを取っても、本当に必要とされる製品を作ろうという姿勢はひしひしと伝わってくる。

 一方悪い意味では「固い」ということ。前述のひっくり返しではあるが、更に平たく言えば「面白みのない」ということでもある。これは更にひっくり返すと「面白みのある」製品がエンタープライズ市場で果たしてウケるのかという話でもあるのだが。

 ◇

 Heドライブについては、ユーザー側では当方も含めてヘリウム漏れの心配をしている声はやはり多いようだか、製造側としてはその要素についてはかなりの自信を持っている様子。ヘリウムシールの設計寿命は想定稼働時間5年に対して倍は見ているとか。

 ♯そしてヘリウム内圧は企業秘密。

 一方で2.5インチフォームファクタへのHe導入は今のところ考えていないそうで、理由としては2.5インチでは大容量のデマンドが非常に少ないから、だそうな。

 そして大容量といえば一般販売ではSeagateが先行しているSMRドライブだが、HGSTの現時点での姿勢は「特殊な用途向きで、直近で広く使われるものではないだろう」とのこと。
 HGSTとしては「大容量品でも今までと同じように使える」ことが重要だと考えていて、それ実際にHDDが使われる現場からのデマンドであり、正にそこにHeドライブの価値がある、ということらしい。

 HGSTはドライブメーカとして現在の旺盛な容量に対するデマンドは重々認識しているが、現状の技術ではどう頑張っても応えられていないのが現実、とのこと。

 次世代技術としてもHAMRやBPMRも勿論研究しているが、現状では研究室から出して製品化出来るレベルには達していないとのことで、特にストレージとして重要な信頼性という意味では・・・ということらしい。
 そういう意味で、現在の1.2TBプラッタ(密度)製品の販売期間は長くなるのでは、とも。

 一方で、現状以上にデマンドと製品の乖離が激しくなるようでは「プラッタを更に増やすという方向性も検討の余地あり」という風に解釈出来てしまう言い回しも。
 まぁ確かにプラッタ増やすってのは一番手っ取り早いテではあるし、HGSTが伝統的にプラッタ枚数マシマシ大好きなことを考えるとやりかねない気もする。が、現状7枚に更に追加って8枚ってことか?

 ちなみにヘリウム採用の決め手も結局「プラッタ増やすにはこれしかない」だったそうなので。
 ホントHGSTって多プラッタ好きだよね。

 ◇

 HGSTの現行ラインナップを見てみると、安売り競争となり利幅の薄いデスクトップ向けラインから手を引いたのは周知の事実だが、5K1500等の特色ある製品も整理されてしまったのは結局「ボリュームが出せないから」ということらしい。
 特に2.5インチについては大容量品へのデマンドは(コンシューマでも)殆んど無いそうで、逆に言うと、現在残っているTravelstarのラインナップ=デマンドがあるということらしい(具体的には500GB~1TBのライン)。

 5K1500については製品プロデュースを行ったHGSTの中の人としても思い入れはある製品で、購入者からも好評だったとのことだが、ビジネスとしての判断がなされたとのこと。
 また同じ理由で、個人的には大変期待していた5K2000も出ることは無い(現時点で製品企画自体が無い)とのこと。技術的には作ろうと思えばすぐ作れるんだけどね、らしいのだが。残念。

 ◇

 最後に、Ultrastar SNについてはNVMeやSCSI Expressの立ち上げ時期にフラッグシップとなる製品で特に(SSDの「見せ場」である)Queが深いトコでのIO密度が高いのがウリ、という位置づけのようだが、個人的に非常に気にしているハードウェア暗号化、具体的にはFIPS140-2やTCG Opal2、IEEE1667といったモノは実装していないそうな。その辺りは「これからの課題」らしい・・・う~ん。

 ♯SSD相手の高密度IOだとソフトウェア暗号化なんて全く歯が立たないので、個人的にはハードウェア暗号化は必須だと思っているので。

 また、この製品のEnduranceが3DWDなのは、HGSTとしてこのレベルを一つのスイートスポットとして見ているからとのこと。
 確かにIntelだとP3600がこの辺りの数字だったり、他社でも割とよく見る数字であり、やっぱ売れ筋なのかしらん・・・個人的にはエンタープライズで寿命を気にせず使い倒すには10DWDぐらい欲しい(Intelの3700とかがこの辺り)のだけど、やっぱり値段にも跳ね返ってくるし、ってことなんでしょうなぁ。

 ちなみに価格は「未定、検討中」とのこと。3.2TBのEnterprise SSDなんて、1台で100万は超えそうだが・・・。

 ◇

 以上、取り留めもない書き方ですが、当方の感想はこんな感じですかね。
 正直「マニアック」で、AMDがやってるAPUやnvidiaのGPUのイベントのようにライト層まで裾野広くファンが集うという性質のものではないとは思うが、それでも自分のような人間は「また新ネタが出来たらやってくれないかな」とは思いましたよ、はい。

Share

個人的にSSDを信用していない理由、そしてSMRが好きではないという理由。

 さて、ついにアキバにSMR採用HDDの現物がでてきたが、そろそろSMR HDDについてつらつらと書いておきますか。
 以下に目を通していただければ、個人的にSMRが「スジが悪い」と言い続けているのも納得していただけるのではないかと。

 最初にネタばらしてしまうと、実は、SMR HDDとSSDとでは動作原理は結構似ていたりするんですな。
 そしてそれこそが個人的にSSDをあまり信用していない理由でもあったりするのだが、まぁどの辺りが似ているかについては後で。

 ◇

 まず、SMR HDDとは何ぞやということで。超粗っぽく言うと

 「読み込みは4KB単位だが、書き換えが原則256MB単位でしか出来ないHDD」

 ということで。さすがにこれだけ粗っぽ過ぎるんで、もう少し細かく言うと、以下のように。

 ・SMR HDDでは256MB=65,536セクタを1ブロックとして扱う。
 ・読み込みは従来と同じように1セクタ単位で可能。
 ・書き込む場合、書き込み対象のセクタだけでなく、それ以降の同一ブロック内最後のセクタまで全てにデータを書き込む必要がある。

 ということで、書き込みに結構とんでもない制限が付いているHDD、という解釈がで良いかと。

 何故こんな必要があるかというと、SMRではデータトラックを重ね書きしているため。
 故に、一箇所にデータを書き込むと、書き換え対象ではない隣のトラックのデータも巻き添えになって壊れてしまうんですな。
 仕方ないので、壊れたデータを修復する為に、ブロック終端まで書き込み直す必要があるというワケ。

 #ちなみにブロックとブロックの間には間が空いていて、データ書き込みが次のブロックに影響を与えないようになっているんですな。
  従って、1ブロックの終端までデータを書き込めばHDD上の全データは正常な状態になる、ということ。

 ◇

 さてこの方法の何が問題かというと・・・その前に。
 従来の、というか今現在のHDDには信頼性に関わる大きな特徴があることを、おさらいしておきましょ。

 現在のHDDの大きな特徴は、

 「データ書き換えが物理セクタ単位でアトミックである」

 ということ。
 これはどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まったとしても、データエラーを起こすのは物理1セクタの中に限られる、ということ。
 書き換え予定だった領域には古いデータがエラーなく残っており、書き換え済みの領域もまたエラーなく保持されていることが保証されている、とも言い換えることが出来る。

 何故こんなことが担保されるかというと、それはHDDのヘッドが1つだけで、且つ完全に独立した物理セクタ単位で書き換えているから。
 要するにHDDの動作原理そのものが担保になるんですわ。

 #ここで敢えて「物理セクタ」と書いたのは、現在のコンシューマー向けHDDはほぼ全てが512eで、論理セクタ8個分が物理セクタ1つに対応しているので。

 ところがこれが、SSDやSMR HDDでは、「データ書き換えはブロック単位でアトミックである」となる。
 即ち、「物理セクタ単位ではアトミックではない」んですな。

 これどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まった場合、同一ブロックにあった他のデータが吹っ飛ぶ可能性があるということ。
 SSDでは1ブロック1~数MB、SMR HDDでは最悪256MB分が危機に晒されるワケですよ。

 どうしてこんなことが起こるかというと、前述したようにSMRではトラックが重ね書きされている為、旧データが新データで破壊されてしまうんですな。で、それを修復する作業が必要になるので、修復作業の途中で書き込みが止まってしまうと大問題、と。

 #SSDでも、素子にはデータを追記するようなことは出来ないので、書き換え作業は「データ読み出し」と「別ブロックへのデータ書き込み」という2段階の作業の組み合わせになっているのがポイント。旧データが新データによって破壊されるという現象は一緒。

 書き込み中のデータがエラーになるのは仕方ないけれど、既に書き込み済みのデータが巻き込まれて吹っ飛ぶ可能性があるなんて。
 こんな特性を持つドライブって、普通に考えてスジが良いとは言えないと思いません?

 #まぁ勿論、エンタープライズSSDでは対策としてSSD内に大容量キャパシタを積んだり、書き込み済みのデータが吹っ飛びにくい書き込み方法を駆使したりして、実際にデータが壊れる確率をかなり抑え込んでいるのが普通。
  逆に言うと、ベンチで速いだけが命のコンシューマー向けSSDの信頼性なんてね・・・。

 ◇

 まぁそんなアレな感じのSMR HDDなのだが、ドライブとしてはこの特性はどうしょうもないので、ある程度信頼性を持たせようとしたら、後はOS側でどうにかするしかないんですな。

 幸い、HDDのセクタではなくセクタグループ=ブロック単位でボリュームを管理する、ブロックストレージ(この単語はこのblogでも以前何度か出てきましたな)という考え方は最近では広く採用されているし、その辺りでは後塵を拝しまくってきたWindowsにも、漸くReFSと記憶域ボリュームという形で(不十分な部分もあるが)実装がされてきている。

 なので、個人的妄想としては、次のWindows Server 2015(?)には仮に間に合わなくとも、その次辺りのWindows ServerではReFS限定ででもSMR HDDがOSレベルでサポートされるのではないかと思ったり。
 個人的な感想はともあれ、HDD業界に残された数少ない「容量増加の切り札」の一つなので、じわじわと広がっていくことは間違いないと思うんですよね。

 ・・・とはいえ、一般人にSMR HDDが広まるような時代は来るのか、ねぇ。

 #もう一つの切り札である多プラッタ化は既にSeagateが6枚プラッタで使ってしまったし、残る最後の切り札である熱アシスト記録の方も製品化スケジュールが遅れているという話がね・・・。

Share

敢えて今SSDの欠点を見直してみる、という話。(3)性能の不安定性

 というワケで続きネタになってしまった第三弾。
 最終回は性能面について。

 3◇性能が不確実&未知数。

 端的に言ってしまうと、SSDの性能は誰にも分からない。
 新品ですらそう。更に使い込まれると不確定要素は増すという。

 この「性能が読めない」って話、エンタープライズの世界だと結構問題なんです。
 投資対効果をシビアに見るのがエンタープライズの世界なので、「わーい速い速い」で済むコンシューマとは違うんですよ。

 それではこれがHDDだとどうかと言われると、これがある程度は性能の見積もりが出来たりするんです。
 物理的に動くメカがある以上どう頑張っても一定以上の性能にはならないし、逆にどういう使い方しても一定以下にもならないので、メーカや世代が違ってもカタログスペックから推測出来るんですよ。

 つまり、HDDには性能見積もりに使えるだけの実績が既にあるが、SSDの実績はまだこれから作っていくというレベルなので。

 ちなみに、なんでこんなことになるかというと。
 SSDは同一コントローラを積んでる製品でもメーカが違うと性能傾向がバラバラだし、同一製品でもアクセスパターン次第でまた挙動が全然変わってしまうため、新品の状態ですら、実際に動かしてみないと「そのシステムでの」性能が未知数だったりするんですよ。
 更に、稼働を開始しても突然性能が落ちたり、また突然回復したり。
 一般論としてデータが埋まってくれば性能は落ちるのだが、そんな一般論で済む世界じゃないのですよ、エンタープライズは。

 ♯こういうことを言うと信用してくれない人も居るのだが、ファームが糞なSSDを使い込んでいくとHDD以下の性能になることすらあるんですよ、いやマジで。

 とはいえ、絶対値は兎も角相対的には値段が下がってきたのと、各社が実績を積んできた(=失敗しまくった)ことで製品の完成度が上がってきたことで、採用事例は増えてきてはいるんですよ。
 ブレイク目の前とは言い難いが、着実に勢力を伸ばしてはいる。
 エンタープライズSSDの現在はそんな状況です、はい。

 ◇

 エンタープライズといえば、FUSION-IOに代表されるエンタープライズPCI-Express SSDは相変わらず値段が高いですが。
 エンタープライズ向けを名乗る以上、どれだけ負荷が高くとも一定性能を確保する必要があるワケで、この最低性能の確保ってのはピーク性能と違って誤魔化しが効かない以上、どうしてもコストをかけざるを得ないワケです。
 コンシューマー向けでは殆どネタのような実装で見かけ上の性能を稼ぐのが流行ってますが、コレが出来ない世界なのですよ。

 ♯たまに本当にボッタクリな製品が出たりするが、そういうモノは割とあっさり消えまっせ。

 ◇

 以上、気の向くままに3項目書いてみましたが。
 取り敢えずコンシューマではどうでもいいかも知れないが、エンタープライズの世界ではこんなこともありますよ、という話でしたとさ。

Share

敢えて今SSDの欠点を見直してみる、という話。(2)データ信頼性

 というワケで続きネタになってしまったので第二弾。
 SSDの欠点も押さえつつ正しく活用した方が幸せだと思いますよ、という話。

 ◇

 前回は寿命ネタだが、今回はデータ信頼性ということで。 

 「SSDは動作中停電で保存済データが崩壊または消滅する可能性がある」

 これ意外と知られていない気がするが事実だし、個人的には(寿命より重い)最大の欠点だと思っている。

 ♯この話をすると必ず「フラッシュメモリの信頼性は・・・」ということを言い出す輩が出てくるのだが、メモリチップレベルの話なんかどうでも良くて。ここではSSDという製品の話をしているのですよ、念のため。

 で、何でこんなことが起こるのかといいますと。
 大雑把に言うと、SSDってPCからアクセスしていない間にも内部で勝手にデータを書き換えてたりするのですよ。
 この書換中に電源断を喰らうとデータが吹っ飛ぶ危険性があります。
 では何でそんなことしているのかって?
 そうしないとあっという間に性能がガタ落ちしてしまうから。

 物理的移動距離に制約されるHDDと違い、SSDではメモリチップ内にデータが綺麗に並んでいないと原理的に性能が落ちてしまう。
 読出はあまり気にならないのレベルなのだが、書込ではその構造上かなりトンでもないことになってしまう。

 で、何の工夫もなく書込で固まっていた=プチフリしていたのがいわゆる「第一世代」SSD。
 最近のSSDではファームウェアの工夫とDRAMキャッシュ搭載で、外部から書き込んでいる時でも急激に性能が落ちないようになっているワケです。

 その「ファームウェアの工夫」の一つが、PCからアクセスされていない間に内部でデータを整理=書き換えること。
 最近のSSDでは「使い込んでも性能が落ちない」という売り文句が良く見られるが、これはつまりそういうこと。
 これ逆に言うと、いつ書き込みしているのか外部から分からない、いつ電源OFFしていいのか分からない、ということです、はい。

 ♯ついでに言うとどの製品が実際にコレ(バックグラウンドメンテナンス)をやっているかも分からないという。

 勿論通常の使い方をしていれば、実際に電源が切れる前にOSからSSDにキャッシュフラッシュやスピンダウンのコマンドが飛んでくるので、これを見たSSDが動作を停止して、その後に実際に電源が切れるので、データ壊れることはない。
 が、HDDと同じノリで電プチをやってしまうと、運が悪けりゃデータを吹っ飛ばしかねないということ。

 ♯緊急時には電源OFFでなく再起動で。

 ちなみにエンタープライズ製品ではこの辺りどうなっているかというと。
 SSDの中に大きなキャパシタが入っていて、書換中に電源が吹っ飛んでも「その書き換えだけは最後まで完了する」だけの電力を確保しているのが普通。
 また、データ整理にしても、パフォーマンスやフラッシュメモリの寿命を犠牲にする代わりに「突然電源が落ちてもデータ不整合を起こさない」処理になっているのが普通。
 この2つの組み合わせ技で、

 ・普通にホストから書込中の停電なら書込完了までは何とかキャパシタの電力で持たせる
 ・データ整理中に停電してもフラッシュメモリ書込中でなければデータ不整合にならないのでセーフ
 ・運悪くデータ整理でフラッシュメモリに書込中でも書込完了まではキャパシタの電力で持たせる

 こんな風にデータを保護する構造になっている。
 で、最近ちらほら見かける「エンタープライズ品質を名乗って価格が高いクセにベンチマークでは書込が遅いSSD」の理由もこれ。
 結局このデータ保護の仕組みを作り込むのにカネがかかるし、パフォーマンスを上げようとすると更にデータ保護部分にカネがかかってしまうので、価格を抑えるためにパフォーマンスを妥協しているんですな。

 #Intel DC S3500なんて分かり易い例だと思う。

 ◇

 ・・・当方はECCメモリ信者でもあるぐらい「データそのものの信頼性」を重視しているので、多少表現がオーバーになっている(そして一般的にはコンシューマでは過剰レベルである)ことは重々承知ですが、でも実際そういう可能性があるからこそエンタープライズ品は対策がされているんですよ、と。

 さて、次は最終ネタ、性能の不安定性です。

Share