AMDのブロガー勉強会に出て、ぬるぬるしたり懐かしんだりしてきた件。

 さて、今回もまたAMDの「ブロガー向け勉強会」に行ってきましたよ、ということでそのレポでも。

 会場はいつものAMD日本オフィスの会議室。
 ところが入った途端、演説者側の席に何とまぁ明らかに外国人。何だか不穏な雰囲気を感じつつも、司会進行はいつもの森本氏・・・でない?!

 #つか思いっきり海外企業なんだから外国人が出てくることはある意味当たり前なワケなんだけど、さ。

 ということで、何とまぁ今回の司会進行は只今絶賛売り出し中(らしい)芸人の宮川大好。宮川大輔のそっくりさん。
 いやはや、まさかこの規模のプライベートイベントで芸人を呼ぶとは思いませんでした、はい。そして当人はPCに強いとかそういうのでも何でもないという・・・どうしてそういうチョイスになってしまったのか。しかしそんなアウェーな会場でも最後まで勢いで盛り上げ続けたのはさすがプロ、37歳にしてものまね芸人になってしまう人は気合いが違うようで。

 #自分は芸人詳しくないんでこれぐらいしか書けません。

 まぁそんなこんなで、個人的には過去2回参加したものとはかなり違う・・・かと思いきや、始まってしまえばまぁいつもの感じといいますか。英語の説明も(自分的には)聞き取り易い、綺麗な発音で助かりました、はい。逐次訳も付いていたので、英語聞き取り切れなくとも十分だったしね。

 ◇

 さてここまで来ると、次にはイベントの中身の紹介、ということになるのだが、今回はイベントのメイン部分が思いっきりNDAに引っかかってしまうので、ちょっと書き方考えながらまとめ中。解禁日の後のエントリでは細かいこと全部書きますが、NDAに引っかからない所は先出し出来るかな・・・と。
 取り敢えず、個人的には色々と思うところがあったなぁ、ということで。

 全体的な雰囲気としては、運営というか進め方については「こなれてきた」感が出てきたな、と。自分は参加3回目だが、ブロガー向けイベントという意味ではもう5~6回やっている筈だし。
 そして、今回もまた色々とぶっちゃけ話が飛び出したり、オープンな場所だとさすがに訊きにくい話を遠慮無く訊けてしまったりするので(無遠慮でスミマセン>セールス森本氏)、個人的には濃い2時間でしたな。

 一方、製品の魅力の「伝え方」については未だにTrial&Errorというか手探りというか、要するに「こなれてない」感が強い。
 AMD製品の持っているウリは「ピンポイントで刺さる」ものが多い(個人的偏見)ので、マス(大衆)に宣伝するのは難しいのかも知れないが、にしてもAMDブランドにとってはコレが目下最大の問題なのではないかね。

 #自分なんかにはこういうイベントは結構刺さるんだけど、んじゃこれと同じことアキバでやったところで会場ガラガラになる気しかしないし。

 まぁ最近のAMDは一般向けイベントも頑張って色々やっているし、一時期明らかに絞っていた頃に比べるとアピールする機会を積極的に増やしているので、後はへこたれずに頑張ってもらうしか。

 ◇

 さて、そして今回の豪華のお土産は。

 APU:A10-7800(Kaveri)
 マザー:A68HM-P33(MSI)
 ソフトウェア:Cyberlink PowerDVD14 Ultra
 ダウンロードクーポン:CIVILIZATION BEYOND EARTH(2015年2月末まで有効)

 以上を、AMD(ATi)のGPU30周年記念ロゴ入りエコバッグに入れて、ということで。
 実は他にも条件付きで「選べるおみやげ」もあったのだが、今回はそちらは見送り。まぁ他の人がレビュー書いてくれる筈なので、そちらを見て下さいなということで。
 あと、MSIマザーも自分的には何気に初、の筈。

 #取り敢えず覚えているのは>AOpen(7-MVP4・370-PLE133・370-CLE266)・ASUS(7-430TX・AM2+-780G-785G-790FX・1366-X58・AM3-880G-890GX-890FX・AM3+-990FX)・ABIT(Slot1-440BX・370-440BX・939-AMD760)・BIOSTAR(A/462-nForce2)・ECS(A/462-KT133A)・GIGABYTE(A/462-AMD750・939-AMD760・AM2-nForce550・FM2-A85X)・SOYO(7-MVP3・Slot1-440FX・370-i810)・Supermicro(1155/H2-C204)。多分結構抜けてる・・・忘れてたらゴメンナサイ。

 ちなみにこの中で悩ましいのがソフトウェアクーポン、例のAMD GAMING EVOLVEDロゴの入った厚紙の「Radeon買うとゲームクーポンが付いてくる」アレ(290買うと貰えるのと恐らく同じモノ)。何しろ自分、普段はスマホやWebモノも含めてゲームを全くやらないんですな。
 とはいえ世界的に評判の悪くないタイトルだし、折角貰ってしまったので期限が切れる前に少し起動してみましょうかね。まぁMANTLEがあったところでAPUだけで起動するというのは厳しい(重い)タイトルだと思うのだが、このゲームはベンチモードがあって既にいろんな環境の数字が出ているというのもあるし、もし続けたいと思うぐらいゲーム自体が面白ければその時はその時、メインPCのHD6450どうにかすることでも考えましょか。

 #といってもファンレスだとR7-250が限界なんだよなぁ。しかもそのSapphireのUltimateはOland(=無印250=8570)じゃなくてCape Verde Pro(=7750)だし。
 誰か260でファンレスか、285辺りで全力駆動時でも25db以下ぐらいの静かなVGA作ってくれませんかね(無茶。

Share

クラウドストレージを安心して使う為のローカル暗号化、という選択。

 オンラインストレージネタが最近多いが、今回もそのネタで。

 さて、当方の個人的な発想として、信用に足るクラウドストレージなんて代物は存在しない。
 いくら法律があろうが契約で縛ろうが、物理的にデータがそこに保存されている限り必ず自分以外の誰かにもアクセスが出来るし、そのことに自分が気づく手段は無い。

 ということで、当方はクラウドストレージには他人に覗かれてもあんまり困らないファイル以外、原則置いていない。

 ♯スマホの写真には時々個人情報が入っちゃっているのが何だかなぁだが、なるべく早く削除してます、はい。

 とはいえ、自動で複数端末で同期するという便利さは捨ておくには勿体ない。
 ということで、当方はCloudFoggerというソフトウェアを使っております。簡単に言うと、ローカルで暗号化してしまうことでクラウドストレージ上でのセキュリティを確保するという代物。
 登場当時は結構あちこちで取り上げられていたので、セキュリティとか気にする人種の間ではそこまでマイナーでは無いとは思うのだけど。

 ところがこのソフト、ベンチャーの製品ということもあるが、公式サイトのblogが2012年で更新が止まっていたり、そもそもベンチャーでは大事なマネタイズの手段が見えない等、継続使用にはかな~り不安感があるのも事実。

 とはいっても、正直このコンセプトは捨て難い。ということで、Alternativeは・・・というと、PKZIPのPKWareが出しているViivoというソフトがあるんですな。
 正直言って着想はCloudFoggerとそっくり、というかほぼパクリ(にしか思えない、こちらの方がだいぶ新しいし)。但しこちらはPKWareという現在進行形で商売しているソフトウェアベンダの製品だし、更にビジネス用途を最初から想定して有料版やFIPS準拠等のオプションがある辺り、CloudFoggerより長持ちしそうに見える。

 ということで、実際に試してみたが・・・結論は。

 「世間的にはOK、でも自分的にはビミョー」

 ・・・ということで、もっと具体的な不便や不具合が出る迄はCloudFoggerの使用継続ということで。
 以下、つらつらとどの辺りが「自分的にはビミョー」なのか書いていこうかと。

 ◇

 まず、当方はこのテの話をする時は「ゼロナレッジセキュリティ」という考え方をしている。

 SpiderOakやMozy(の高セキュリティオプション)等ではこれがベースになっている、というと偉そうだが、実際には別に難しいことは何もない、当たり前のことをカッコつけて言ってみただけ。

 1. データは脆弱性の無い手法によって暗号化されている
 2. 復号化鍵は手元以外には存在しない(=他人が知りようがない)
 3. よってデータは安全(=自分以外には復号不能)である

 たったこれだけ。ある意味暗号化の本質とも言う。

 これをWindows上で簡単に実現するのがCloudFoggerで、選択制でローカルアカウントを作成した時に暗号化鍵は手元にしか無く、正にこの状態になる。ローカルアカウント作成時は必要なのはパスワードのみ。

 さてそうなると次はこのCloudFoggerというソフト自体がどこまで信用出来るかという話になるが、以下が当方の解釈。やや面倒なので読み飛ばし可。

 1. 起動していると1時間に1回程度KeyServerに接続している。従ってKeyServerにローカルアカウントの情報をアップロードすることはいつでも可能。
 2. KeyServerでユーザ特定に使えるのはメアドのみ。他の情報はアカウント作成時に入力してないため。
 3. メアド情報が入っていない鍵情報が仮にアップロードされても、ユーザの特定は出来ない。
 4. 仮に鍵が流出し悪意ある第三者に渡ったところで、この鍵で復号出来る暗号化ファイルを特定不能(或いは特定の暗号化ファイルを復号出来る鍵が判別不能)の為役に立たない。
 5. 以上より、CloudFoggerというソフト自体がSpywareであるというオチでもない限り、セキュリティモデルは崩壊しない。

 まぁ要するに、自分的にはOKということで、当方はCloudFoggerを使い続けていたワケですわ。

 ◇

 さてここに来てViivoをビミョーと思った理由。結論から言うと、

 暗号化鍵・復号化鍵・ファイル履歴がしっかりとPKWARE社のサーバに保存されている

 ので。
 対するCloudFoggerは、鍵も情報も一切外に出さない(ことになっている)ので、どちらが安全かと言われると圧倒的後者。

 #というか、セキュリティ的な発想で言うと一切サーバに接続しない使い方「も」サポートするのが当然だと思うのだが、何故にそうなってないのさコレは。

 復号化キーは別名「秘密鍵」なので、コレがサーバ上にアップロードされてるってのはさすがにどうかと。
 勿論何らかの方法で、というか恐らくメアドとパスワードをキーにして暗号化されているのだろうが、それでもアップロードされていること自体どうなのさ、と。

 勿論、この方法にもメリットはある。
 複数のクライアント間で同一アカウントを使う場合(モバイルとデスクトップ等)、CloudFoggerではローカルの復号化鍵を何らかの手段でコピーする必要があるが、Viivoではアカウントさえ間違えなければシームレスに運用は可能。
 恐らく昨今ではセキュリティ的な完璧を求めた故の不便さより、ある程度脆弱になるのを覚悟してでも利便性を取った方がウケるだろうから、こういう仕様にしたのでしょうな、というのが当方の解釈。

 まぁ、登録するメアド・パスワード・ユーザIDは他では一切使用していない、連想も出来ないものにしておけば、仮にPKWARE社のサーバからアカウントや鍵情報が流出してもその鍵で復号化する暗号化ファイルを特定出来ない(逆方向も可)ので事実上役に立たず、セキュリティは保てる。

 そういう意味で、ユーザが正しく使えばViivoもかなり強い防壁となり得るのだが、それでも「ゼロナレッジセキュリティ」信奉者としては「何だかなぁ」という感覚が捨てきれない。

 ちなみに上記の鍵情報がアップロードされていることは、以下の作業で確認済。

 1. 検証用仮想マシンAの上でインストール、アカウント作成、暗号化ファイルα作成。
 2. 検証用仮想マシンBの上でインストール、アカウントログイン。
 3. この時点でBのViivoマネージャ画面には(Aで作業した)暗号化ファイルα作成履歴が表示される。
 3. AからBへ暗号化済ファイルαをコピー。
 4. Bマシン上で暗号化済ファイルαを復号、正常完了。
 5. Bマシン上で別のファイルβを暗号化。
 6. BからAへ暗号化済ファイルβをコピー。
 7. Aマシン上で暗号化済ファイルβを復号、正常完了。

 Step3で履歴情報がアップロードされていること、Step4で秘密鍵である筈の復号化鍵がアップロードされていることが確認出来る。

 ◇

 まぁここまでつらつら書いてきておいて、カッコ悪いオチを一つ。

 当方、個人メールはApps for Domains(旧称)に集約しているし、Google Calenderはフル活用しているし、ということで、今更ファイルだけ暗号化したところで既に個人情報ダダ漏れ状態ではあるんですよ、実はね。

 とはいえ、過去にはデータ流出に近いポカを実際やらかしたクラウドストレージも存在するし、個人情報というのは密度が大事なので、その密度を増強する強力な要素たり得るファイルを暗号化をしない理由にならない、というのが当方の考え方。

 何より、初期セットアップさえ済んでしまえばその後はそんなに面倒なモノでもないし。
 そりゃまぁこれが毎日イライラする程不便だったら、また別の結論になったかも知れないけど。

Share

容量無制限の魅力をクライアントの不出来で叩き潰す、Microsoftの平常運転。

 折角魅力ある製品要素を作ったのに、他の要素が決定的に駄目なせいで、トータルで見ると激しく製品に魅力が無い、というのはここ最近のMicrosoftの平常運転のようで。

 サブスクリプション中は容量無制限で使えるようにするというOneDrive。これ下手したらOffice使わない人でも登録するんじゃないか的な価格破壊だが、これとWindows 8.1が組み合わさると、とてつもなく色褪せて見えるというオチが。

 それは何故かというと、OneDriveのローカル同期アプリがOSにMicrosoft Accountログインしないと使えないので。

 別にOSにクラウドストレージを統合する自体は構わないが、その状態でローカル同期アプリに「OSにMicrosoft Accountログインしていないと起動しない」なんて妙な制約を仕込むのはさすがMicrosoftというか。

 ♯ストアアプリの仕様としては、そのアプリだけをMicrosoft Accountログインで起動することも出来るのに、それをさせないのがMicrosoftの素敵センス。

 ◇

 仕方ないのでどうするか。
 OneDriveに繋げられるストアアプリを使う、というのは正直解決策にならないので、ここは非公式ではあるがWebDAVで接続することにする。

 実はOneDriveのデスクトップ連携はWebDAVで繋いでいるので、非公式とはいえ無くなることはまず有り得ない。普通に使って大丈夫ではないかと。
 但しこのWebDAVのURLは公開されてはいないので、Office Online(Webアプリ)のローカル連携機能を使ってURLを取り出すこととする。

 方法は簡単で、(1)IEでMicrosoft AccountにログインしてOneDriveのWebにアクセスし、(2)OneDriveの中で何でも良いのでOfficeドキュメント作成・或いは開き、(3)Web上のOffice Online画面から「xxxxxで開く」をクリックすると、(4)ローカルのOfficeがWebDAV経由でOneDriveのファイルを開くので、(5)「名前を付けて保存」とすると保存ダイアログのパス欄にWebDAVアドレスが表示される。

 後はさくっとURL文字列をコピーして保存、「ネットワークドライブの割り当て」を使ってエクスプローラで開いてもよし、お気に入りのWebDAVクライアントがあればそれを使っても良し。
 MSのWebDAVは速度的にも安定度もイマイチという話もあるが、いかんせんWindows 8.1では純正クライアントがクソ仕様(しつこい)なので、ローカルアカウントでまともに使おうとしたらコレしかないという。

 最後に、Microsoft Account関連のネタを一つ。

 Office 2013のパッケージ版の認証プログラム(アクティベーション)には、うっかりMicrosoft Accountにログイン中にアクティベート作業を行うと、パッケージ記載のシリアルが通らないというトンでもなバグがある。
 間違いなく正規パッケージ品(高ぇよ)なのに「プロダクトキーが違います」はホント心臓に悪いでっせ。さっさと直してくれ・・・。

 #どうやらOffice 365(サブスクリプション登録時のローカルプログラム)と認識されてしまう模様。

Share

AMDの2系統のCPUコアをおさらいしてみる。

 先日、Excavatorコアのベンチがこっそりリークしており、対Steamrollerでかなり改善された値が出ているので、ここらでちょっとAMDのCPUコアについておさらいしてみましょうか、というのが本日のエントリ。
 AMDファン以外お断り的内容になっているかも、とは予告しておきます。

 ◇

さて、現在AMDのx86コアにとって「不都合な真実」というと、個人的には

 CPUコアは2系統に分化したのに同一世代のコア(スレッド)あたり実効IPCは大差ない

 ということかと。アーキテクチャ上ハイクロックに対応して高速動作出来るのはパフォーマンスコア(Bulldozer系)であることは間違いないのだが、半導体製造技術の限界にブチ当たってクロックが上げられない以上、実製品のパフォーマンスで見るとまぁ実際大差ないんですわコレが。

 #ちなみにIntelはパフォーマンス系(Core)とローパワー系(Atom)ではIPCが倍近く違います。

 ぶっちゃけ、Zambezi(Bulldozer)はBobcat(Zacate)とほぼタメ、Piledriver(Trinity)はJaguar(Kabini)とほぼタメという。さすがにSteamroller(Kaveri)はJaguarよりは効率良いが、消費電力差を考えると何だかなぁと。

 そして、実はAMDのローパワー系はAtomを遙かにしのぐ実効IPCを持っているんですな。電力効率を純粋に突き詰めても対Intelでそこまで悪くない戦いが出来る、それがJaguarコアの実力。

 #なのに採用例が増えないのは、プラットフォームとしての弱さとセールスの下手さとの相乗効果。

 一方、上記でカンの良い方は気づかれたように、パフォーマンスコアはといいますと「Atomを遙かにしのぐ」が即ち、Coreとは勝負にならないワケなんですよ。処理内容(一番不得意な処理ルーチン)によっては倍近くの差がある。

 まぁ最近Zenコアの話が出てきて漸くこの「格差」をAMDが認めた形ではあるが、勿論AMDも何もしていないワケではなく。Bulldozer系も「マイナーチェンジ」で何とか改善しようとしてきてはいる。それが時々出てくる「Bulldozer系は世代間で10%~15%のIPC改善」という景気の良いセリフと右肩上がり矢印のついたスライドだが、まぁ実態はナカナカ、といたところで。
 こりゃもうBulldozer系の小手先改善も限界か、と思っていたところに飛び込んできたのが「Excavatorで20%近く改善するのに成功した」というベンチの値。

 普通に考えると、同一アーキテクチャで20%改善というのは「有り得ない」数字なのだが、それもアリかもと思わせてしまうのがAMDという会社。

 何しろ、折角の新世代コアだというのにZambeziで見切り発車、後継のPiledriverでちょいちょい手を入れただけでIPCを10%改善、という「初物のテキトーっぷり」を実証してしまった実績があるので。
 しかも、SteamrollerではPiledriverで最大のボトルネックだった命令デコーダを増設したにも関わらずIPC改善は10%ちょいという、普通に考えて手の入れ具合とIPC改善が見合わない状態になっていたので。
 あちこち手を入れたExcavatorで漸くデコーダ4本分本来の性能が出るようになりました、と言われてしまったら「あぁそうですか」としか言いようがない。

 #まぁ、言葉のアヤを駆使して好意的に解釈すれば「新アーキテクチャをいち早く市場に投入している」ということなのだが、とはいえZambeziのダメージは大きかったよマジで。

 とはいえ、Carizzoが今のところMobile Onlyになるという話も。デスクトップはKaveri Refreshで引っ張るとか。
 これ単純にCarizzoがSoCだからなのか、それとも数が揃えられる自信が無いからなのか。

 どちらにしろ、現状と比べてかなり改善が見込める以上、普通にデスクトップ版を売ればいいと思うし、そうしない理由も正直見当たらないと思うのだが。
 単純に優先順位の問題で、開発リソース不足につきモバイル優先、という話なら分かるのだが、かといってモバイル版が出来上がればデスクトップ版なんてそう大騒ぎせずに作れるだろうに・・・どしてんな、これ。

 ◇

 もし万が一AMDが「Kaveriで商品力十分だから」なんて勘違いしてたらこの会社いよいよオワッていますが。
 方やIntelは既に出来上がっているコアの量産を先送りするぐらい好き放題に余裕ブチかましているというのに。

 まぁ、取り敢えずZenコアが2016年頭に出てくることは間違いなさそうですな。
 それまでAMDのCPU部門は何とかAPUで食い繋ぐしかないのだが、さてさてどうなりますか。

#つ~かAPUがウケてるのはGPUのパワーであってCPUパワーで無い以上、既にCPU部門じゃないんでね、という話も・・・。

Share

個人的にSSDを信用していない理由、そしてSMRが好きではないという理由。

 さて、ついにアキバにSMR採用HDDの現物がでてきたが、そろそろSMR HDDについてつらつらと書いておきますか。
 以下に目を通していただければ、個人的にSMRが「スジが悪い」と言い続けているのも納得していただけるのではないかと。

 最初にネタばらしてしまうと、実は、SMR HDDとSSDとでは動作原理は結構似ていたりするんですな。
 そしてそれこそが個人的にSSDをあまり信用していない理由でもあったりするのだが、まぁどの辺りが似ているかについては後で。

 ◇

 まず、SMR HDDとは何ぞやということで。超粗っぽく言うと

 「読み込みは4KB単位だが、書き換えが原則256MB単位でしか出来ないHDD」

 ということで。さすがにこれだけ粗っぽ過ぎるんで、もう少し細かく言うと、以下のように。

 ・SMR HDDでは256MB=65,536セクタを1ブロックとして扱う。
 ・読み込みは従来と同じように1セクタ単位で可能。
 ・書き込む場合、書き込み対象のセクタだけでなく、それ以降の同一ブロック内最後のセクタまで全てにデータを書き込む必要がある。

 ということで、書き込みに結構とんでもない制限が付いているHDD、という解釈がで良いかと。

 何故こんな必要があるかというと、SMRではデータトラックを重ね書きしているため。
 故に、一箇所にデータを書き込むと、書き換え対象ではない隣のトラックのデータも巻き添えになって壊れてしまうんですな。
 仕方ないので、壊れたデータを修復する為に、ブロック終端まで書き込み直す必要があるというワケ。

 #ちなみにブロックとブロックの間には間が空いていて、データ書き込みが次のブロックに影響を与えないようになっているんですな。
  従って、1ブロックの終端までデータを書き込めばHDD上の全データは正常な状態になる、ということ。

 ◇

 さてこの方法の何が問題かというと・・・その前に。
 従来の、というか今現在のHDDには信頼性に関わる大きな特徴があることを、おさらいしておきましょ。

 現在のHDDの大きな特徴は、

 「データ書き換えが物理セクタ単位でアトミックである」

 ということ。
 これはどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まったとしても、データエラーを起こすのは物理1セクタの中に限られる、ということ。
 書き換え予定だった領域には古いデータがエラーなく残っており、書き換え済みの領域もまたエラーなく保持されていることが保証されている、とも言い換えることが出来る。

 何故こんなことが担保されるかというと、それはHDDのヘッドが1つだけで、且つ完全に独立した物理セクタ単位で書き換えているから。
 要するにHDDの動作原理そのものが担保になるんですわ。

 #ここで敢えて「物理セクタ」と書いたのは、現在のコンシューマー向けHDDはほぼ全てが512eで、論理セクタ8個分が物理セクタ1つに対応しているので。

 ところがこれが、SSDやSMR HDDでは、「データ書き換えはブロック単位でアトミックである」となる。
 即ち、「物理セクタ単位ではアトミックではない」んですな。

 これどういう意味かというと、例えば急な停電等でデータ書き込みが途中で止まった場合、同一ブロックにあった他のデータが吹っ飛ぶ可能性があるということ。
 SSDでは1ブロック1~数MB、SMR HDDでは最悪256MB分が危機に晒されるワケですよ。

 どうしてこんなことが起こるかというと、前述したようにSMRではトラックが重ね書きされている為、旧データが新データで破壊されてしまうんですな。で、それを修復する作業が必要になるので、修復作業の途中で書き込みが止まってしまうと大問題、と。

 #SSDでも、素子にはデータを追記するようなことは出来ないので、書き換え作業は「データ読み出し」と「別ブロックへのデータ書き込み」という2段階の作業の組み合わせになっているのがポイント。旧データが新データによって破壊されるという現象は一緒。

 書き込み中のデータがエラーになるのは仕方ないけれど、既に書き込み済みのデータが巻き込まれて吹っ飛ぶ可能性があるなんて。
 こんな特性を持つドライブって、普通に考えてスジが良いとは言えないと思いません?

 #まぁ勿論、エンタープライズSSDでは対策としてSSD内に大容量キャパシタを積んだり、書き込み済みのデータが吹っ飛びにくい書き込み方法を駆使したりして、実際にデータが壊れる確率をかなり抑え込んでいるのが普通。
  逆に言うと、ベンチで速いだけが命のコンシューマー向けSSDの信頼性なんてね・・・。

 ◇

 まぁそんなアレな感じのSMR HDDなのだが、ドライブとしてはこの特性はどうしょうもないので、ある程度信頼性を持たせようとしたら、後はOS側でどうにかするしかないんですな。

 幸い、HDDのセクタではなくセクタグループ=ブロック単位でボリュームを管理する、ブロックストレージ(この単語はこのblogでも以前何度か出てきましたな)という考え方は最近では広く採用されているし、その辺りでは後塵を拝しまくってきたWindowsにも、漸くReFSと記憶域ボリュームという形で(不十分な部分もあるが)実装がされてきている。

 なので、個人的妄想としては、次のWindows Server 2015(?)には仮に間に合わなくとも、その次辺りのWindows ServerではReFS限定ででもSMR HDDがOSレベルでサポートされるのではないかと思ったり。
 個人的な感想はともあれ、HDD業界に残された数少ない「容量増加の切り札」の一つなので、じわじわと広がっていくことは間違いないと思うんですよね。

 ・・・とはいえ、一般人にSMR HDDが広まるような時代は来るのか、ねぇ。

 #もう一つの切り札である多プラッタ化は既にSeagateが6枚プラッタで使ってしまったし、残る最後の切り札である熱アシスト記録の方も製品化スケジュールが遅れているという話がね・・・。

Share