K75thunderbirdのブログ

どちらかというと自分の頭の整理用です。ネタとしてはモバイル、自動車、ロードバイク、電気関係やPC関係の突っ込んだ話題、ややデバイスやコンポーネント寄りの偏った内容になると思われます。

次世代のGPUはどうなるのか@NVIDIA

GPUを使って日々演算に勤しんでいると、次の世代のGPUがどのような形でいつごろ登場するのか知りたくなる。
実際にはそれほど勤しんでいるわけでもないが、個人的に気になるのは事実。
現状、GPUの規模や速度は半導体プロセスによって制限されているので、半導体プロセスについて知ることがGPUを知ることにつながる。
よって、ここ数世代のGPUについて整理しつつ、少し情報を集めてみたのでメモとして残しておきたい。

 

まず、現在に至るまでの過去数世代の動き。
AMDATI)は動きが読みにくい(独断と偏見)ので、ここではNVIDIAに絞る。

現在のアーキテクチャPascal、プロセスルールは16nm(TSMCの16FF+)だ。
製品リリースは2016年。
アーキテクチャをさかのぼると、新しい順にMaxwell(2014年)、Kepler(2012年)、Fermi(2010年)となる。
アーキテクチャの発表だけなら前年だったりするが、およそ2年周期と考えればよい。

なお、更に前世代となると設計思想が異なるので別物として考えてよいだろう。
そもそも前世代のコアはGT200系であり命名規則が異なるということからも、それが伺える。

さて、簡単に各世代の仕様というか特徴を確認しようと思ったが、各世代の詳細な情報が集めづらいため、今回は省略する。
もっとも、ここ数世代でTesla系列とGeforce系列で分裂しつつあるため、一律で比較できないということもある。
最大サイズで比較するのが分かりやすいかと思うが、これについては別途まとめてみたい。

 

で、最大の問題は、次世代GPUで使用するプロセスルールだ。
これについては、28nmでアーキテクチャ2回分足踏みしていたという前例もあるため、現在の16nmでもう1世代製造する可能性はあるかもしれない。

この可能性の根拠は、28nm当時、2世代目の時点で28nmは最先端プロセスではなかったことだ。
当時、既に20nmが使用可能であり、Appleは自社SoC製造のために20nmを使用している。
しかし、20nmはメジャープロセスではなかったため、NVIDIAは採用を見送ったという経緯がある。
その結果、28nmが予想以上に使われ続けることになった。

これに対して現在、10nmが使用可能となっており、例によってAppleは10nmを使用している。
しかし、この10nmもメジャープロセスではないとされているため、NVIDIAは採用しない意向だ。
10nmの次は7nmとなるが、これは現在立ち上げ中(リスク生産中)なので、まだ本格的に使用することはできない。
そのため、現時点での選択肢は16nmとなってしまう。


ここで考えたいのは、現在Voltaを製造している12nmプロセスだ。
10nmとは違うこれは何なのか。


簡単に言えば、これは16nmプロセスのトラック数を削減して面積を切り詰めたプロセスである。
具体的には16FF+というTSMCの一般的な16nmプロセスを元に、トラック数を削減してセルハイトを縮めている。
ただし、16FFCのようなシュリンクはほとんど行っていない・・・らしい。
つまるところ、ほぼ16nmプロセスと同一である。

このような成り立ちのため、16FF+よりも多少なりとも高密度にできる。
引き換えに、パフォーマンスの上限は低くなる。
しかし、Teslaブランドではクロックに対する要求は相対的に低くなる(無いわけではない)ため、少しでもロジックの密度を上げるために採用された、と考えられる。

とはいえ、高密度化したと言ってもダイサイズとトランジスタ数を見ると数%程度であり、それだけを見れば誤差と言ってもいいレベルだ。
また、NVIDIAは過去においてハイエンドチップの製造プロセスについては保守的な選択をしてきたので、今回は随分とチャレンジした印象を受ける。
本来であれば、巨大化というリスクを受け入れた上で枯れたプロセスを使っていたはずだ。
しかし、今回は新しいアーキテクチャで最大サイズのものを新規プロセスで製造している。
そのどれもがリスクを持っている。
ただ、GV100のダイサイズが半導体製造における一括露光の上限サイズとほぼ同一である事から推測するに、目標とする規模のロジックを収めるために逆算してプロセスを決めたようにも見える。
綱渡りだが、結果オーライということだろうか。
もちろん、勝算なくしてリスクは冒さなかったはずだが、担当者は生きた心地がしなかっただろう。

 

さて、この12nmプロセスがGeforce向けに使用される可能性はあるだろうか。
12nm採用によるパフォーマンス(クロック)の低下が許容範囲内であれば、可能性はあると思われる。

もちろん、12nmの歩留り改善が順調に進む保証はないものの、このプロセスが16nmの延長線上に位置することから考えて、それほど現実味のない話ではない。
現在使用している16FF+はハイパフォーマンス向けのセットであり、放熱に問題が無ければ十分すぎる高クロックを達成できていることから、多少パフォーマンスが落ちる程度なら欠点が露呈することはないはずだ。
また、折角設計したGV100があるのだから、これを元にして機能削減版を作成するのは過去の例から考えても自然な流れと言える。


ということで、次世代版のGeforceは16nmで足踏みする代わりに12nmで製造され、若干のダイサイズ拡大と併せてある程度のロジック規模拡大を果たし、スペック上の消費電力は据え置きつつも性能を何割か向上させてくるはずだ。
意地の悪い考え方をすれば、消費電力の実測値は増えるだろう。
ただし、クロックは現状から据え置きに近いレベルに設定するはずだ。

こう考える理由は、GP100からGV100になりベースクロックだけでなくブーストクロックが微減したこと。
これは、ロジック規模が大きくなるほどクロックが低くなるデメリットと、微細化によるメリットが相殺し、若干デメリットが上回っているものと考えられる。
また、TDPが据え置かれているので、電力的な制限もありそうだ。
というよりも、基本的に16nmからの変更点が少ないのだから、微細化したメリットらしいメリットは無い気がするので、微減で済んでいるのは意地と奇跡か。

ともあれ、同じことがGeforceでも繰り返されるとしても不思議ではない。

 

現在、世界的にGPU需要が高まっているためメーカー在庫が無い状態が続いている。
挙句、DRAMの高騰と相まってボード単価も上がっている。
これが、ただ単に需要による品不足ではなく、次の製品への切り替えなどによる生産調整も関係しているのでは?と考えてしまうのは考え過ぎだろうか。
もしそうなら、そう遠くないうちにVoltaアーキテクチャのミドルレンジ向けチップが出るかもしれない。
さて、真相やいかに。

それでは皆さん、ごきげんよう

効率良くGPUを冷やすには、ヒートシンクの形状に従うべし

現在販売されているグラフィックカードを見ると、その膨大な熱を放熱するためにヒートパイプを使用しているものが多数を占める。
TDPを基準として考えれば、CPUが100W程度に収めているところを、GPUは180Wや300Wといった値になっているので、そもそも熱量が違う。
また、形状の自由度が高く交換が容易なCPUクーラーと異なり、GPUクーラーは厚さに制限があり、交換するとしても選択肢が少ない。

GPUのチップを正面に見てPCIeスロットを下にした場合、当然前後方向は基板があるため風は抜けない。
必然的に左右か上下に風を抜けさせて放熱することになる。

どちらが多数派か?というと、恐らく左右方向にフィンを設けているパターンだろう。
動作中のグラフィックボードに手をかざしてみると分かるが、上下方向には排気せず、左側のブラケットや右側の開放部から排気している。

しかし最近、上下方向にフィンを設けている製品が増えてきたように思う。
そして、そのいずれも、高い放熱性能を発揮している場合が多い。
排気がM/Bに直接当たるのが難点だが、この形状の利点は何だろうか。

ヒートパイプの取り回しを見ると、何となく答えが見えてくる。
左右方向のフィンの場合、GPUに接触しているヒートパイプをUの字に曲げてフィンまで熱を運ぶ。
つまり、フィンまでの距離が長い。
上下方向のフィンの場合、GPUに接触しているヒートパイプは直線的に配置できる。
つまり、フィンまでの距離が短い。
また、使用可能な本数も、後者の方が多いようだ。

これらが要因となって、放熱性能の差が生じていると考えられる。

 

さて、今回注目したいのは上下左右の違いによる性能差ではない。
これを、リグとしてフレームに取り付けた場合のエアフローである。

市販のフレームを見ると、たいていブラケット側にファンを取り付けられるようになっている。
風の流れ方としては左右方向だ。
しかし、左右方向のフィンの場合、一方向の風の流れは左右どちらかの排気の妨げとなる。
ブラケット側から吹き付けるような風があれば、間違いなくブラケット側への排気は困難だろう。
特にスペースに制限のあるGPUクーラーは薄型のファンを使用しているため、風量はともかく排圧が弱い。
よって、排気を妨げないようにするため、可能であれば左右両方から排気するようファンを設置したい。

その場合、吸気はどこから行うか?という話になるが、暖かい空気は上へ動くため、ベストなのはPCIeスロット側、つまり下側だろう。
本来であればM/Bがあるので下から風を通すことはできないが、ライザーを使っていればそれも可能だ。

では、上下方向のフィンの場合はどうだろうか。
この場合、理屈上では左右方向から吸気して上下に排気するのが良さそうに思える。
しかし、暖かい空気は上へ動くため、下から排気するのは少々効率が悪そうだ。
また、下側にはM/Bなどがあるはずなので、それらを温めてしまうのも良くない。
少々手間ではあるが、横からダクトなどを使ってファンまでの吸気経路をある程度限定し、排気と混ざらないようにしたうえで、ダクトとは反対側から排気を引っ張るのがベターかもしれない。
また、左右方向の風は排気の妨げとはならないはずなので、素直にフレームにファンをつけて普通に使っても問題は小さいだろう。

 

・・・と、机上の空論を記してみたわけだが、市販のフレームを使う限り検証実験は難しい。
よって、自由に組める自作フレーム(アングルの組み合わせ)で、そのうち検証してみたいと思う。
もっとも、同形状のグラフィックボードを揃えないと検証しづらいので、ハードルは高めだが。

あと、違いがあっても数度程度だろうとは思っている。
夏の高温下でなければ恩恵はないだろう、おそらく。

 

それでは皆さん、ごきげんよう

PC内配線・コネクター・スロットの許容電流を知る

何故かPCに5枚も6枚もGPUが刺さっている方々向けの考察情報。
物理的に無理なのでは?という至極当然の疑問を抱いた方にとっては、残念ながら役に立たないと思われるのでウィンドウを閉じていただいて構わない。

 

PCを動かしているものは電気である。
大電力を要求される場合、電圧は一定であるので必然的に電流が増える。
しかし電流は無制限に流せるわけではなく、配線抵抗と接点抵抗によってある程度の制限を受ける。

配線抵抗の最たるものが配線の断面積によって定められる電流の定格値。
接点抵抗は、その名のとおりコネクタなどの接点に発生する抵抗であり、コネクタの設計電流が基準となる。

ここ数年のプラグイン電源は接点抵抗を増加させるので、その点では電源効率の改善に逆行するものと言える。
しかし、電源容量の増加により電源から取り出される配線本数が増加しているため、必要悪なのだと解釈している。

 

さて、配線抵抗については、少し調べれば断面積と電流の関係について一覧表が見つかると思うので割愛する。
PCの電源から出ている太さであれば、±2本1組で、10Aも流せれば御の字だと考えておけば良いはずだ。

問題は、様々な形状のコネクタがどれくらいの電流に耐えるよう設計されているのか、という点だ。

 M/B用のEPS24pin
 EPS12V8pin
 ペリフェラル4pin
 SATA用15pin
 GPU用6pin、8pin

挙げてみると、現在使われているのはこれくらいだろうか。
Pentium4世代にも12V4pinが存在したが、今は廃れてしまったので無視しよう。

 

M/B用のEPS24pin、その昔はATX20pinだったコネクタ。
ピンアサインを見てみると、ほとんどが3.3Vや5Vに割り当てられており、+12Vの供給は20pin中1本しかない。
24pinでも+12Vは2本しかない。
なるほど、CPU用に12Vを別途供給する必要がある理由がよく分かる。

20pinへの追加4pin部分について、許容電流は5Aであるとの情報を得た。
コネクタの形状が同一であるので、24pin全体において、12Vの許容電流は2本で10Aであると考えて良いだろう。
つまりEPS24pinの12Vについての供給電力は120W。


昨今、CPUの電力供給は12Vラインからの生成であると聞く。
また、PCIeの電力供給も12Vが主であり、他の電圧は必要最小限であるとも聞く。
PCIe形式のSSDで12Vからレギュレーターを介して給電することで安定化を図った、というものもあるくらいだ。
そのような12Vの位置づけを見ると、たった120Wでは心許ない。
CPUだけで使い切ってしまい、GPUまで電力供給できないのは非常に問題である。

ということでEPS12V8pinの必要性が明確となった。
±4組なので、20Aと考えて良いだろう。つまり240W。
24pinの120Wと合せて、360Wが確保できる。
これならば、問題はないだろう。


GPUの話が出たところで補足しておくと、GPU向けに設計されているx16形状のスロットは75Wまでの電力供給を想定している。
GPU向けのx1スロットは25Wとのこと。
また、GPU向けではない通常のx16、x8、x4スロットは25W、x1スロットは10Wである。
なお、12V以外の電圧についてどの程度含まれているかは確認できていないのでご容赦いただきたい。


話を戻して、次はペリフェラル4pinである。
これは規格が古いこともあり、明確な許容電流は不明確と言わざるを得ない。
ただ、5Aという説と、9.4~11Aという具体的な値が確認できたことは、一つの材料になるだろう。

5Aという説はどうだろうか。
以前使用していたSR2では、M/B付属の変換コネクタに、ペリフェラルx2⇒EPS8pin というものがあった。
上述のとおり、EPS8pinは20Aと予想される。
この場合、ペリフェラル1つで10Aとなり、5A説は少々考えづらい。
コネクタもATXやEPSのものより接点方向に奥行きがあるので、5Aより多くても不思議ではない。
よって、10A前後と考えるのが自然だと思われる。


SATA用15pinはどうだろうか。
これは3.3Vと5Vと12Vの3系統を15pinで繋いでいるものだ。
1pinあたり1.5Aで、各系統3本使っていて4.5Aである、という情報があるが、恐らく正しいだろう。
構造を見ても、EPSやペリフェラルのような電流は流せないと考えるのが自然だ。


GPU用の6pinや8pinだが、これは明確な定格値が知られている。
75Wと150Wだ。
なぜ2pin増えただけで倍なのか?という疑問もあるが、それ以上に疑問なのは8pinのピンアサインである。
6pinは±3組なのだが、8pinは+を3本のまま、GNDを5本にしているのだ。

一応、ATXやEPSと同系統のコネクタなので、1本あたりの許容電流は5Aだろう。
3本で15A、これで計算上は180Wとなる。
よって、+が3本しかないとしても、一応150Wという定格値は余裕を持った設定だと考えられる。
GNDの方が重要視されていることや、必要以上にマージンを取っていることは、GPUの動作安定性に繋がる何か裏付けがあってのことだろう。
あるいは、PCIeスロットによって供給電力が75Wの場合と25Wの場合があるので、この50Wを吸収する目的があるのかもしれない。
また、コネクタは全体的にGNDの数が少ないので、バランスをとるための設計かもしれない。

 

余談だが、ペリフェラル4pinからGPU用の6pinに変換するアダプターは、ここまで考察した事が正しければペリフェラル4pinは1つで足りるはずだ。
しかし、一般に出回っているアダプターは2つのコネクタを備えている。
やはりペリフェラルは5Aか?と不安になるが、これはpin数の違いを吸収することと安全性の向上の2つを両立するための選択ではなかろうか。
つまり、ペリフェラル4pinは12VとGNDとGNDの3pinを使用できる。
これを12V3つとGND3つにしなければならないので、どうせ線の数を増やすのであれば2つ目のコネクタを付けよう、という考えだ。

 

ここまでの情報を覚えておけば、GPUを複数枚使用する時の電力供給について誤った選択をすることはないだろう。
ライザーカードにSATAで給電するのは、ライザーのPCIeがGPU向けの設計だとすれば過電流(コネクタ54Wに対して要求75W)だと判断できる。
しかし一般的なPCIeであれば適正電流(コネクタ54Wに対して要求25W)だと判断できる。
恐らく、過電流による発熱や発火の事例を確認する限りは、GPU向けの75Wを想定しておいた方が無難であろう。
よって、SATAコネクタから給電するのは、よほど非常事態でもなければ行わない方が良いと結論できる。
ちなみに、ペリフェラル4pinであれば、どちらのパターンでも適正電流だろう。
GPU用の6pinも同様だ。


また、SATAペリフェラルのように1系統の配線に複数コネクタが存在する場合、1系統の許容電流は10A程度であろうと想像しているが、ライザーカードを2枚接続した場合は12.5A流れる計算になる。
この時点でマージンまで使い切ってギリギリだと考えられる。
よって、1系統の配線に3つ以上のライザーを接続した結果は容易に想像できるだろう。

 

以上、安全なPCの運用に役立てれば幸いだ。
それでは皆さん、ごきげんよう

 

UEFI と セキュアブート と CSM

UEFIとかUEFIモードという単語は出てくるものの、定義がイマイチ明確ではないものが多い(ように思う)。
そもそもの定義から確認してみたい。

 

そもそもUEFIとは。
これまでのBIOSに取って代わるファームウェアアーキテクチャである。
BIOSではシステムチェック、デバイスチェック、ディスク検出、OSブートコードのロードと実行、といったOS起動に至るまでの一連の処理を行っていた。
しかし、BIOSは16bitのリアルモードでしか動作できないため、機能的制限が増えてきた。
そのため、32bitや64bitのネイティブコードを使用できるUEFIが2012年頃から(?)使用されるようになった。

これによって緩和される制約は幾つかあるものの、分かりやすいのは以下の点だろう。
 ・MBRではなくGPT形式のディスク管理形式のサポート
 ・GPTによる2TBを超えるディスクからのブート

2TBを超えるディスクは、今までも使用できた。
が、それはデーターディスクとしてであって、起動ディスクとしては使用できなかった。

 

さて、システムがUEFIをサポートしているか否かで変わるのは2TBの壁だけではない。
ここで出てくるのが セキュアブート という単語だ。

セキュアブートによって可能となるもの。
それは、ブートコードが改ざんされないことが保証されること。
そのため、ブートコードを変更するようなウイルスから保護されることになり、システムの安全性が確保される。

 

また、高速な起動・シャットダウンも可能となる。
BIOSでは上述のように律儀にチェックを実施してからOSを起動させていたが、UEFIではレガシーデバイスのスキャンを省略して起動を高速化できる。
・・・らしい。
BIOSでもメーカーによって起動速度は様々だったので、どの程度差が出るのかは少々疑問ではあるが。

 

UEFIBIOSの切り替えは、BIOS(というかUEFI)のブート関連のところに設定がある。
PCによって異なるが、UEFIモードにするか、レガシーBIOSモードにするか、という設定になっているはずだ。
なお、これに関連してCSMという単語が出てくるかもしれない。
これはレガシーBIOSモードに属するもので、コンパチビリティナントカ だ。
大雑把に、互換性向上のための設定と理解しておけば良いと思う。

なお、セキュアブートの設定もBIOS(というかUEFI)にあるはずだ。
対応OSはWindows8以降の64bitなので、これだけ使用するなら有効に、過去バージョンも使用する予定なら無効にする。

また、同時に行っておく設定として、SATAモードもある。
世代的な意味で、UEFIならAHCIRAIDBIOSならIDEとしておくのが無難だろう。

 

ここまでで、UEFIBIOSに取って代わる高機能な存在であることは理解した。
しかし、必ずしも上に挙げたメリットを全て受けられるわけではない。
何故なら、OSの対応が必要となるからだ。

要求されるOSのバージョンは、VistaSP1(Server2008R2)以降の64bit版。
32bit版に関してはタブレットPCなどで例外があるが、ことPC環境に関して言えば無視して良いと思われる。
ただ、Windows7UEFI対応であるがCSMは有効にしておいた方が良いという記述を見る。
過渡期ゆえの、ということだろうか。

 

さて、対応OSであれば安心かと言うと、まだ問題がある。
WindowsBIOSからブートしてインストールした場合と、UEFIからブートしてインストールした場合とで、別々のモードで動作する。
動作モードはインストール時に確定し、以降変更することはできない。
UEFIのメリットを受けるためには、当然ながらOSをUEFIモードで動作させる必要がある。
OSをUEFIモードで動作させるには、UEFIからブートさせた状態でインストールする必要がある。

恐らくここが一番重要だと思うが、起動順序の設定が必要となる。
DVD ⇒ SSD の順にすればいい、ということではない。
インストールメディアを入れた状態で、BIOS(というかUEFI)のブート設定を行うのだ。
ドライブが空の状態では設定ができない。
インストールメディアを入れた状態だと、DVDドライブの左端に「UEFI:」という文字が付くものが出てくる。
これを指定してインストールを開始しなければならない。


余談だが、USBメモリからインストールする場合、BIOSでは先頭セクターにブートコードが必要である。
しかしUEFIでは必要なファイルが揃っていれば良いので、インストールメモリを作成する際はファイルコピーで済む、というメリットもある。
気にしなければならないのは、ファイルシステムNTFSFAT32か、という点くらいだ。


ここまでくれば、OSのインストールそのものはBIOSモードでもUEFIモードでも一緒である。
インストーラーが2TBを超える領域を認識するかどうか、といった違いはあれど、特に何かを意識することはないはずだ。

 

これを書くにあたって、幾つかの解説記事やBlogを見て思ったことがある。

UEFIモードという言葉が、BIOS(というかUEFI)の画面に関して用いられているのか、OSに対して用いられているのか紛らわしい。
ブート設定が分かりづらい。
正直なところUEFIでなくても起動は速くなっているからメリットが小さい。
OSをSSDにインストールするようになったので2TBの壁が問題となりにくい。

もう少し早く世に出ていれば、高速化のメリットも分かりやすかっただろう。
また、2TBの壁への対応も感謝されただろう。

 

とはいえ、Windows10のような新しいOSではUEFIが前提として設計されているだろうし、使わないのは勿体ない。
いささか消極的な選択ではあるが、今後UEFIを活用していけるだけの知識は持っておきたいと思う。

それでは皆さん、ごきげんよう

 

東芝のNANDチップの読み書き速度

少し前、3DNANDでTLCなチップの製品発表があったと思う。
出荷発表だったかどうかは忘れてしまったが。

そこに書いてあったスペックが、1チップあたりRead900MB/s、Write180MB/s、となっていた。
つまり書き込みは読み出し速度の1/5となっている。
コントローラー内蔵の1チップソリューションなので、各種制限があると思われるが、デバイスレベルでの読み書きの速度比率の参考程度にはなると思われる。

なお、この値は64GBのチップの場合のようだ。
バイスとしては256GBまで存在するので、大容量化したときに速度がどのように変化するかは別途確認してみたいとは思う。
仕様が公表されれば、であるが。

ということで、TLCの書き込み速度は、読み出し速度の1/5 という目安を覚えておいて損は無い。
それでは皆さん、ごきげんよう

 

バカと SATA と NVME版 の SSD

SSD関連ということで、個人的な脳内整理ネタ。

NVME版のSSDが標準で認識されるのはWindows10。
Windows7では別途ドライバのインストールが必要。

え? Windows8.1ですか? 知らない子ですね。

 

というわけで、まだユーザーが多いであろうWindows7であっても、まだどうにかなる。
ドライバーは各社提供のものを使うか、MS社が提供しているパッチを適用するか、何れかの対応となるようだ。
調べた限りでは、SamsungドライバとMSドライバ(パッチ)は併用不可という情報が出てきたので、複数共存はできないと思った方がいいだろう。
余談だが、MS社のパッチはSP1必須、各社のドライバは不明だがSP1関係ないかもしれない。


で、そのNVME版のSSDとドライバーについて検索すると、そこにWindows7をインストールするネタはいくらでも出てくる。
うん。たしかにOSの起動時間は明確な尺度だが、少し考え直してほしい。
1日に何度もOSを起動するだろうか。
冷静に考えれば、OSの起動時間が30秒から25秒になったところで、そこまで嬉しいわけではない。
他に気をとられていれば、どうせ気づいたときにはログイン画面だ。
それよりも、GB単位のデーター転送が速くなってくれた方が作業待ち時間の低減になるので有用ではなかろうか。
決して安くない(現状では最も高コストな部類に入る)ドライブなので、使いどころを誤ってはならない。

ちなみに、ASCIIかどこかのベンチマークテストで、SATAとNVMEのSSDにOSをインストールした場合の起動時間の比較があった。
結果、OSの起動とソフトウェアの起動において、両者には誤差程度の違いしかなかった。
検索すれば出てくると思うので、詳細が気になった方は調べてみてほしい。

ということで、あくまでも個人的な意見ではあるが、OSのインストール先を無理にNVME版のSSDにする必要は全くない。
そこそこ速い普通のSATASSDで十分だと考えている。
それより、作業領域をNVME版のSSDにすればファイルの読み書き速度は5倍にも6倍にもなるわけで、待ち時間の大幅短縮が図れる。
数十GBのファイルを転送しても、双方がNVME版のSSDであれば10秒や15秒で済む。
これがSATAだと1分近くかかってしまう。
しかも1回ではなく何度も発生するとなれば・・・ということだ。

 

なお、OSごとのSSDの扱いの違い、その他注意点などを把握しているうちに書いておこうと思う。

XP:SSDSSDとして扱ってくれない
   ⇒デフラグやプリフェッチや最終アクセス日時更新やインデックスサービスは手動停止が必要
   ⇒パーティション開始オフセット(アライメント)の調整が必要
  Trim非対応(ただし少なくともIntelはツールで対応可能)
  AHCIモード非対応なのでインストールはIDEモードで(ドライバ適用すればAHCI可能)
  2TBの壁(32bitのみ)
  4Kセクター非対応

Win7SSDSSDとして認識する
   ⇒デフラグやインデックスサービスなどを勝手に止めてくれる
   ⇒オフセットも問題なし
  Trim対応
  AHCIモード対応
  NVME版非対応(SP1以降ならMSパッチあり、あるいは各社のドライバで対応は可能)

Win10:NVME版対応

 

XPインストール時、AHCIモードのドライバを追加しないとIDEモードでしかSATAドライブを認識しない。

インストール中、XPに追加ドライバを適用するにはFDDが必要。USBメモリは不可。
7以降ならUSBメモリで問題ない。

オフセットについては、XPで使う前に7のインストールDVDで起動してフォーマットすれば問題ない。
ただしXPでフォーマットすると元に戻るので要注意。
オフセットが誤っていても使用はできるが、ランダム書き込み時のパフォーマンスが結構落ちる。

Trimについては、Intelはツール提供あり。
過去のTOSHIBA純正SSDはTrim関係なく性能が出せるらしい。

SandForceやMarvellコントローラーはTrim非対応環境で性能を発揮できない。

RAIDではTrimが効かない環境が多い。

NVME版のSSDWindows7のMSパッチはネイティブ対応ではないので、コントローラーによってはSMART情報読み出しに制限あり。
必要なコマンドが実行できないか、権限が足りないか、コマンドがドライバを通過できないか、そんな感じだったと思う。
SMART情報読み出し可能となる有志のドライバもあるが、試したところOSが起動しなくなったのでオススメしない。
なお試したのはPhisonコントローラーのNVME版SSD
Samsungなどメーカードライバーが用意されているSSDはMSパッチ関係ないため、普通にSMART情報が読めるはず。

 

ということで、まとめ。

WinXPをインストールする時は、SP3適用済み媒体が必須。(PCIe対策)
IDEモードで、オフセット設定後のパーティションへ。(アライメント対策)
使用するSSDIntel東芝で。(Trim対策)
インストール後に余計なサービスは停止。(SSD劣化対策)
2TBを超えるドライブは取扱注意。

Win7をインストールする時は、何も考えずにAHCIモードで。
NVMEも何とか対応。

Win10は、新しいのでどうにかなる。

 

もっとも、WinXPアクティベーションサーバーは2017年4月くらいまで稼働、その後停止という話もあるので、きちんと使える形にできるかどうかは別問題。
もっとも2017年8月くらいにアクティベーションできたという話も出ているので、この辺りの対応状況は不確定。
アクティベーションできたらラッキーくらいに考えておくべきかと。

ただ、一つ抜け穴があるようで、ボリュームライセンスのXPはアクティベーションが不要だとか。
よって、アクティベーションサーバーが停止していようが消滅していようが関係なくインストールができる・・・はず。
一応参考情報まで。

 

ちなみに、UEFIやらセキュアブートやらCSMといった単語については後日改めてまとめるつもりだ。

それでは皆さん、ごきげんよう

 

3300lmが3400lmになっても知覚できるかは別の問題

以前GXB260というHIDバーナーについて書いたことがある。
理屈は明確ではないが、純正と比較して暗いのは間違いないらしい、という結論に至ったアレである。

去年、このGXB260がモデルチェンジしていたことを知ったので、それについて少し書いておきたい。

モデルチェンジして何が変わったか。
カタログ上は明るくなった、らしい。
3300lmだった光束が3400lmに。
もっとも、数割変化しても知覚上は大差ないので、この違いを認識することは不可能と思われる。

それとは別に気になったことがある。
演色性(Ra値)が公表されていないことだ。
元々、CARMATEはRa値をパッケージに記載していた。
GXB260は、それが92となっていた。

しかし、モデルチェンジして数値の表記がなくなっている。

マーケティング上、不要であると判断されたのか。
あるいは、記載しなくても影響が小さいと判断されたのか。
どちらにせよ、一般消費者はそこまで気にしていないという判断が下ったのだと思われる。

この演色性、前にも書いたと思うが、値が高いほど自然に見えるという参考値だ。
しかし、明るく見えるわけではない。
よって、記載していないということは、演色性を落として光束の確保を優先した可能性が考えられる。
もっとも、100lm程度なら誤差とも言えるので、単なるコストダウンの可能性もあるわけだが。

それでは皆さん、ごきげんよう