「HGST ストレージ製品説明会 The First」に行ってきた。

 さて、今回は先日twitterではぽろっと出したHGSTのイベントに出てきた話でも。
 既に出ているITmediaとかImpress Watchの「当たり障りのない」記事とはなるべく被らない方向性で、つらつらと箇条書きっぽくに書いてみる。

 なお、当たり前だが、以下の記載内容については、当方のバイアスのかかった推測や補正込みの「印象」ということなのでお間違いなく。

 ◇

 全体としての印象は、HGSTの製品開発に対する姿勢というかポリシーは兎に角「カタい」ということを再認識。

 良い意味では「手堅い」ということであり、製品の品質といった部分ではHGST自身が絶対的な自信を持っているし、繰り返し出てきた「顧客のニーズ」「デマンド」「要望」といったキーワードをを取っても、本当に必要とされる製品を作ろうという姿勢はひしひしと伝わってくる。

 一方悪い意味では「固い」ということ。前述のひっくり返しではあるが、更に平たく言えば「面白みのない」ということでもある。これは更にひっくり返すと「面白みのある」製品がエンタープライズ市場で果たしてウケるのかという話でもあるのだが。

 ◇

 Heドライブについては、ユーザー側では当方も含めてヘリウム漏れの心配をしている声はやはり多いようだか、製造側としてはその要素についてはかなりの自信を持っている様子。ヘリウムシールの設計寿命は想定稼働時間5年に対して倍は見ているとか。

 ♯そしてヘリウム内圧は企業秘密。

 一方で2.5インチフォームファクタへのHe導入は今のところ考えていないそうで、理由としては2.5インチでは大容量のデマンドが非常に少ないから、だそうな。

 そして大容量といえば一般販売ではSeagateが先行しているSMRドライブだが、HGSTの現時点での姿勢は「特殊な用途向きで、直近で広く使われるものではないだろう」とのこと。
 HGSTとしては「大容量品でも今までと同じように使える」ことが重要だと考えていて、それ実際にHDDが使われる現場からのデマンドであり、正にそこにHeドライブの価値がある、ということらしい。

 HGSTはドライブメーカとして現在の旺盛な容量に対するデマンドは重々認識しているが、現状の技術ではどう頑張っても応えられていないのが現実、とのこと。

 次世代技術としてもHAMRやBPMRも勿論研究しているが、現状では研究室から出して製品化出来るレベルには達していないとのことで、特にストレージとして重要な信頼性という意味では・・・ということらしい。
 そういう意味で、現在の1.2TBプラッタ(密度)製品の販売期間は長くなるのでは、とも。

 一方で、現状以上にデマンドと製品の乖離が激しくなるようでは「プラッタを更に増やすという方向性も検討の余地あり」という風に解釈出来てしまう言い回しも。
 まぁ確かにプラッタ増やすってのは一番手っ取り早いテではあるし、HGSTが伝統的にプラッタ枚数マシマシ大好きなことを考えるとやりかねない気もする。が、現状7枚に更に追加って8枚ってことか?

 ちなみにヘリウム採用の決め手も結局「プラッタ増やすにはこれしかない」だったそうなので。
 ホントHGSTって多プラッタ好きだよね。

 ◇

 HGSTの現行ラインナップを見てみると、安売り競争となり利幅の薄いデスクトップ向けラインから手を引いたのは周知の事実だが、5K1500等の特色ある製品も整理されてしまったのは結局「ボリュームが出せないから」ということらしい。
 特に2.5インチについては大容量品へのデマンドは(コンシューマでも)殆んど無いそうで、逆に言うと、現在残っているTravelstarのラインナップ=デマンドがあるということらしい(具体的には500GB~1TBのライン)。

 5K1500については製品プロデュースを行ったHGSTの中の人としても思い入れはある製品で、購入者からも好評だったとのことだが、ビジネスとしての判断がなされたとのこと。
 また同じ理由で、個人的には大変期待していた5K2000も出ることは無い(現時点で製品企画自体が無い)とのこと。技術的には作ろうと思えばすぐ作れるんだけどね、らしいのだが。残念。

 ◇

 最後に、Ultrastar SNについてはNVMeやSCSI Expressの立ち上げ時期にフラッグシップとなる製品で特に(SSDの「見せ場」である)Queが深いトコでのIO密度が高いのがウリ、という位置づけのようだが、個人的に非常に気にしているハードウェア暗号化、具体的にはFIPS140-2やTCG Opal2、IEEE1667といったモノは実装していないそうな。その辺りは「これからの課題」らしい・・・う~ん。

 ♯SSD相手の高密度IOだとソフトウェア暗号化なんて全く歯が立たないので、個人的にはハードウェア暗号化は必須だと思っているので。

 また、この製品のEnduranceが3DWDなのは、HGSTとしてこのレベルを一つのスイートスポットとして見ているからとのこと。
 確かにIntelだとP3600がこの辺りの数字だったり、他社でも割とよく見る数字であり、やっぱ売れ筋なのかしらん・・・個人的にはエンタープライズで寿命を気にせず使い倒すには10DWDぐらい欲しい(Intelの3700とかがこの辺り)のだけど、やっぱり値段にも跳ね返ってくるし、ってことなんでしょうなぁ。

 ちなみに価格は「未定、検討中」とのこと。3.2TBのEnterprise SSDなんて、1台で100万は超えそうだが・・・。

 ◇

 以上、取り留めもない書き方ですが、当方の感想はこんな感じですかね。
 正直「マニアック」で、AMDがやってるAPUやnvidiaのGPUのイベントのようにライト層まで裾野広くファンが集うという性質のものではないとは思うが、それでも自分のような人間は「また新ネタが出来たらやってくれないかな」とは思いましたよ、はい。

Share

個人的にSSDを信用していない理由、そしてSMRが好きではないという理由。

 さて、ついにアキバにSMR採用HDDの現物がでてきたが、そろそろSMR HDDについてつらつらと書いておきますか。
 以下に目を通していただければ、個人的にSMRが「スジが悪い」と言い続けているのも納得していただけるのではないかと。

 最初にネタばらしてしまうと、実は、SMR HDDとSSDとでは動作原理は結構似ていたりするんですな。
 そしてそれこそが個人的にSSDをあまり信用していない理由でもあったりするのだが、まぁどの辺りが似ているかについては後で。

 ◇

 まず、SMR HDDとは何ぞやということで。超粗っぽく言うと

 「読み込みは4KB単位だが、書き換えが原則256MB単位でしか出来ないHDD」

 ということで。さすがにこれだけ粗っぽ過ぎるんで、もう少し細かく言うと、以下のように。

 ・SMR HDDでは256MB=65,536セクタを1ブロックとして扱う。
 ・読み込みは従来と同じように1セクタ単位で可能。
 ・書き込む場合、書き込み対象のセクタだけでなく、それ以降の同一ブロック内最後のセクタまで全てにデータを書き込む必要がある。

 ということで、書き込みに結構とんでもない制限が付いているHDD、という解釈がで良いかと。

 何故こんな必要があるかというと、SMRではデータトラックを重ね書きしているため。
 故に、一箇所にデータを書き込むと、書き換え対象ではない隣のトラックのデータも巻き添えになって壊れてしまうんですな。
 仕方ないので、壊れたデータを修復する為に、ブロック終端まで書き込み直す必要があるというワケ。

 #ちなみにブロックとブロックの間には間が空いていて、データ書き込みが次のブロックに影響を与えないようになっているんですな。
  従って、1ブロックの終端までデータを書き込めばHDD上の全データは正常な状態になる、ということ。

 ◇

 さてこの方法の何が問題かというと・・・その前に。
 従来の、というか今現在のHDDには信頼性に関わる大きな特徴があることを、おさらいしておきましょ。

 現在のHDDの大きな特徴は、

 「データ書き換えが物理セクタ単位でアトミックである」

 ということ。
 これはどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まったとしても、データエラーを起こすのは物理1セクタの中に限られる、ということ。
 書き換え予定だった領域には古いデータがエラーなく残っており、書き換え済みの領域もまたエラーなく保持されていることが保証されている、とも言い換えることが出来る。

 何故こんなことが担保されるかというと、それはHDDのヘッドが1つだけで、且つ完全に独立した物理セクタ単位で書き換えているから。
 要するにHDDの動作原理そのものが担保になるんですわ。

 #ここで敢えて「物理セクタ」と書いたのは、現在のコンシューマー向けHDDはほぼ全てが512eで、論理セクタ8個分が物理セクタ1つに対応しているので。

 ところがこれが、SSDやSMR HDDでは、「データ書き換えはブロック単位でアトミックである」となる。
 即ち、「物理セクタ単位ではアトミックではない」んですな。

 これどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まった場合、同一ブロックにあった他のデータが吹っ飛ぶ可能性があるということ。
 SSDでは1ブロック1~数MB、SMR HDDでは最悪256MB分が危機に晒されるワケですよ。

 どうしてこんなことが起こるかというと、前述したようにSMRではトラックが重ね書きされている為、旧データが新データで破壊されてしまうんですな。で、それを修復する作業が必要になるので、修復作業の途中で書き込みが止まってしまうと大問題、と。

 #SSDでも、素子にはデータを追記するようなことは出来ないので、書き換え作業は「データ読み出し」と「別ブロックへのデータ書き込み」という2段階の作業の組み合わせになっているのがポイント。旧データが新データによって破壊されるという現象は一緒。

 書き込み中のデータがエラーになるのは仕方ないけれど、既に書き込み済みのデータが巻き込まれて吹っ飛ぶ可能性があるなんて。
 こんな特性を持つドライブって、普通に考えてスジが良いとは言えないと思いません?

 #まぁ勿論、エンタープライズSSDでは対策としてSSD内に大容量キャパシタを積んだり、書き込み済みのデータが吹っ飛びにくい書き込み方法を駆使したりして、実際にデータが壊れる確率をかなり抑え込んでいるのが普通。
  逆に言うと、ベンチで速いだけが命のコンシューマー向けSSDの信頼性なんてね・・・。

 ◇

 まぁそんなアレな感じのSMR HDDなのだが、ドライブとしてはこの特性はどうしょうもないので、ある程度信頼性を持たせようとしたら、後はOS側でどうにかするしかないんですな。

 幸い、HDDのセクタではなくセクタグループ=ブロック単位でボリュームを管理する、ブロックストレージ(この単語はこのblogでも以前何度か出てきましたな)という考え方は最近では広く採用されているし、その辺りでは後塵を拝しまくってきたWindowsにも、漸くReFSと記憶域ボリュームという形で(不十分な部分もあるが)実装がされてきている。

 なので、個人的妄想としては、次のWindows Server 2015(?)には仮に間に合わなくとも、その次辺りのWindows ServerではReFS限定ででもSMR HDDがOSレベルでサポートされるのではないかと思ったり。
 個人的な感想はともあれ、HDD業界に残された数少ない「容量増加の切り札」の一つなので、じわじわと広がっていくことは間違いないと思うんですよね。

 ・・・とはいえ、一般人にSMR HDDが広まるような時代は来るのか、ねぇ。

 #もう一つの切り札である多プラッタ化は既にSeagateが6枚プラッタで使ってしまったし、残る最後の切り札である熱アシスト記録の方も製品化スケジュールが遅れているという話がね・・・。

Share

敢えて今SSDの欠点を見直してみる、という話。(3)性能の不安定性

 というワケで続きネタになってしまった第三弾。
 最終回は性能面について。

 3◇性能が不確実&未知数。

 端的に言ってしまうと、SSDの性能は誰にも分からない。
 新品ですらそう。更に使い込まれると不確定要素は増すという。

 この「性能が読めない」って話、エンタープライズの世界だと結構問題なんです。
 投資対効果をシビアに見るのがエンタープライズの世界なので、「わーい速い速い」で済むコンシューマとは違うんですよ。

 それではこれがHDDだとどうかと言われると、これがある程度は性能の見積もりが出来たりするんです。
 物理的に動くメカがある以上どう頑張っても一定以上の性能にはならないし、逆にどういう使い方しても一定以下にもならないので、メーカや世代が違ってもカタログスペックから推測出来るんですよ。

 つまり、HDDには性能見積もりに使えるだけの実績が既にあるが、SSDの実績はまだこれから作っていくというレベルなので。

 ちなみに、なんでこんなことになるかというと。
 SSDは同一コントローラを積んでる製品でもメーカが違うと性能傾向がバラバラだし、同一製品でもアクセスパターン次第でまた挙動が全然変わってしまうため、新品の状態ですら、実際に動かしてみないと「そのシステムでの」性能が未知数だったりするんですよ。
 更に、稼働を開始しても突然性能が落ちたり、また突然回復したり。
 一般論としてデータが埋まってくれば性能は落ちるのだが、そんな一般論で済む世界じゃないのですよ、エンタープライズは。

 ♯こういうことを言うと信用してくれない人も居るのだが、ファームが糞なSSDを使い込んでいくとHDD以下の性能になることすらあるんですよ、いやマジで。

 とはいえ、絶対値は兎も角相対的には値段が下がってきたのと、各社が実績を積んできた(=失敗しまくった)ことで製品の完成度が上がってきたことで、採用事例は増えてきてはいるんですよ。
 ブレイク目の前とは言い難いが、着実に勢力を伸ばしてはいる。
 エンタープライズSSDの現在はそんな状況です、はい。

 ◇

 エンタープライズといえば、FUSION-IOに代表されるエンタープライズPCI-Express SSDは相変わらず値段が高いですが。
 エンタープライズ向けを名乗る以上、どれだけ負荷が高くとも一定性能を確保する必要があるワケで、この最低性能の確保ってのはピーク性能と違って誤魔化しが効かない以上、どうしてもコストをかけざるを得ないワケです。
 コンシューマー向けでは殆どネタのような実装で見かけ上の性能を稼ぐのが流行ってますが、コレが出来ない世界なのですよ。

 ♯たまに本当にボッタクリな製品が出たりするが、そういうモノは割とあっさり消えまっせ。

 ◇

 以上、気の向くままに3項目書いてみましたが。
 取り敢えずコンシューマではどうでもいいかも知れないが、エンタープライズの世界ではこんなこともありますよ、という話でしたとさ。

Share

敢えて今SSDの欠点を見直してみる、という話。(2)データ信頼性

 というワケで続きネタになってしまったので第二弾。
 SSDの欠点も押さえつつ正しく活用した方が幸せだと思いますよ、という話。

 ◇

 前回は寿命ネタだが、今回はデータ信頼性ということで。 

 「SSDは動作中停電で保存済データが崩壊または消滅する可能性がある」

 これ意外と知られていない気がするが事実だし、個人的には(寿命より重い)最大の欠点だと思っている。

 ♯この話をすると必ず「フラッシュメモリの信頼性は・・・」ということを言い出す輩が出てくるのだが、メモリチップレベルの話なんかどうでも良くて。ここではSSDという製品の話をしているのですよ、念のため。

 で、何でこんなことが起こるのかといいますと。
 大雑把に言うと、SSDってPCからアクセスしていない間にも内部で勝手にデータを書き換えてたりするのですよ。
 この書換中に電源断を喰らうとデータが吹っ飛ぶ危険性があります。
 では何でそんなことしているのかって?
 そうしないとあっという間に性能がガタ落ちしてしまうから。

 物理的移動距離に制約されるHDDと違い、SSDではメモリチップ内にデータが綺麗に並んでいないと原理的に性能が落ちてしまう。
 読出はあまり気にならないのレベルなのだが、書込ではその構造上かなりトンでもないことになってしまう。

 で、何の工夫もなく書込で固まっていた=プチフリしていたのがいわゆる「第一世代」SSD。
 最近のSSDではファームウェアの工夫とDRAMキャッシュ搭載で、外部から書き込んでいる時でも急激に性能が落ちないようになっているワケです。

 その「ファームウェアの工夫」の一つが、PCからアクセスされていない間に内部でデータを整理=書き換えること。
 最近のSSDでは「使い込んでも性能が落ちない」という売り文句が良く見られるが、これはつまりそういうこと。
 これ逆に言うと、いつ書き込みしているのか外部から分からない、いつ電源OFFしていいのか分からない、ということです、はい。

 ♯ついでに言うとどの製品が実際にコレ(バックグラウンドメンテナンス)をやっているかも分からないという。

 勿論通常の使い方をしていれば、実際に電源が切れる前にOSからSSDにキャッシュフラッシュやスピンダウンのコマンドが飛んでくるので、これを見たSSDが動作を停止して、その後に実際に電源が切れるので、データ壊れることはない。
 が、HDDと同じノリで電プチをやってしまうと、運が悪けりゃデータを吹っ飛ばしかねないということ。

 ♯緊急時には電源OFFでなく再起動で。

 ちなみにエンタープライズ製品ではこの辺りどうなっているかというと。
 SSDの中に大きなキャパシタが入っていて、書換中に電源が吹っ飛んでも「その書き換えだけは最後まで完了する」だけの電力を確保しているのが普通。
 また、データ整理にしても、パフォーマンスやフラッシュメモリの寿命を犠牲にする代わりに「突然電源が落ちてもデータ不整合を起こさない」処理になっているのが普通。
 この2つの組み合わせ技で、

 ・普通にホストから書込中の停電なら書込完了までは何とかキャパシタの電力で持たせる
 ・データ整理中に停電してもフラッシュメモリ書込中でなければデータ不整合にならないのでセーフ
 ・運悪くデータ整理でフラッシュメモリに書込中でも書込完了まではキャパシタの電力で持たせる

 こんな風にデータを保護する構造になっている。
 で、最近ちらほら見かける「エンタープライズ品質を名乗って価格が高いクセにベンチマークでは書込が遅いSSD」の理由もこれ。
 結局このデータ保護の仕組みを作り込むのにカネがかかるし、パフォーマンスを上げようとすると更にデータ保護部分にカネがかかってしまうので、価格を抑えるためにパフォーマンスを妥協しているんですな。

 #Intel DC S3500なんて分かり易い例だと思う。

 ◇

 ・・・当方はECCメモリ信者でもあるぐらい「データそのものの信頼性」を重視しているので、多少表現がオーバーになっている(そして一般的にはコンシューマでは過剰レベルである)ことは重々承知ですが、でも実際そういう可能性があるからこそエンタープライズ品は対策がされているんですよ、と。

 さて、次は最終ネタ、性能の不安定性です。

Share

敢えて今SSDの欠点を見直してみる、という話。(1) 寿命

 さて、コンシューマ市場では既に確たる地位を築いたと言って良い、SSD。
 とはいえ、最近のコンシューマ向けSSDの宣伝文句なんかを見ていると、正直ゲンナリすることも。
 製品の利点しか訴えないのは広告としては当然なのかも知れないが・・・にしてもねぇ。

 #エンタープライズ向製品を実際に扱ったりしている身分としてはね。

 ということで、エンタープライズでSSDを活用しようとした際ブチ当たる「SSDの欠点」についてちょっと書いてみることに。
 コンシューマ向けではこの辺りは「無かったこと」になっているが、別に問題が解消されているワケではないですよ、念のため。

 ♯所詮コンシューマ向け製品の「信頼性」なんてその程度、というだけの話です、はい。

 主要なネタは以下の3つ。

 ・寿命
 ・データ信頼性
 ・性能の不確実性

 SSDには利点も多いからこそ現在でも勢力拡大の一途を辿っているワケなのだが、別に完璧なストレージというワケでもなんでもなく。
 欠点も押さえつつ正しく活用した方が幸せだと思いますよ、という話なんですわ、要するに。

 ♯念のため、別にSSDが嫌いなワケではないですよ・・・というか当方は自分では「かなり好き」だと思っていますが。
  但し一部の連中のSSD「信仰」には辟易しています、いやホント。

 ◇

 ということで、第一弾はド定番の「寿命」から。

 「SSDは寿命がある消耗品だということをお忘れ無く」

 ということです、はい。

 現在のエンタープライズSSD導入は多くの場合「使い潰すことが前提」ですよ、念のため。
 まぁ要するに「設計寿命に達したら交換する」ということで、普通は製品保証書込容量ですな。

 一方現在のコンシューマ向けSSDでは「寿命を気にする必要はない」ということが半ば常識になってます。
 これはあくまでも「普通のコンシューマはあんまり書き込まない」ということを前提(メーカにより20GB/日または40GB/日)としているから成り立っている論法でありまして。
 「普通でないコンシューマ」であるヲタやクリエイタの類が、SSDのメリットを最大限活かす使い方をしようものなら、そんな前提を突破するのは特段難しいことではない、ということは知っておいて良いと思いまっせ。

 ところが一方で、実際にはメーカー規定値を超える書込をしてもSSDって意外と壊れないんですよ。
 この「取り敢えず動いているからいいや」というのはエンタープライズでは許されなくともコンシューマでは大抵OKなのよね。
 これにもちゃんと理由がありますよ。

 ・フラッシュメモリそのものにかかる負荷は、アクセスパターンが違うと同一の書込量でも全然違う
 ・一般的なMLCフラッシュメモリの「実質的な」寿命はカタログ値より余裕がある

 一般的には、コンシューマで書込容量が多い場合、大容量のデータを一度にまとめて書き込むような使い方が多い。この使い方は意外とフラッシュメモリへの負荷が低かったり。
 逆に細切れに頻度高くデータを書き込むような使い方では、フラッシュメモリへの負荷がかなり高くなってしまう。即ちフラッシュメモリがどんどん消耗するので、コントローラがどれだけ頑張って負荷を軽減出来るかが各メーカの腕の見せ所となるワケですな。

 とはいえ、この「意外と壊れない」幸せな状況も崩壊目前なんですな、実は。
 というのも、フラッシュメモリはこれからも「値段が下がる代償として書換回数も激減する」というのが既定路線なので、そうなるとフラッシュメモリ単位での余裕がどうのなんて話は無くなってしまう。
 後はSSDメーカがどれだけ余裕を「仕込む」か、という話になってしまうのだが、価格競争になったらそんなモノも無くなりますよね、当然。

 というワケで、そう遠くないうちにSSDの書込寿命はカタログ値を保証するのが精一杯、という時代が来るんでないかと思っています、個人的にはね。

 #3D構造は上手くいけば現在の寿命レベルのまま容量を増やせる技術なのだが、はてさてどうなることやら。
  今丁度「2D微細化もう無理、3D行くわ」陣営と「2D微細化はあともう少しだけ行ける、3Dはそれから」陣営に二分されている状況だが、どちらにしても近い将来「3Dしかない」時代が来るので、そうなった時にフラッシュの信頼性ってのはどの程度が「標準」になっているんだかね。

 ◇

 さて、次は・・・と書いてみたら何か当初予定より長くなってしまったので、章分割。
 次の「データ信頼性」ネタは次記事で。

Share