K75thunderbirdのブログ

どちらかというと自分の頭の整理用です。ネタとしてはモバイル、自動車、ロードバイク、電気関係やPC関係の突っ込んだ話題、ややデバイスやコンポーネント寄りの偏った内容になると思われます。

動画におけるRAWと422の使い分け

写真好きであればRAWという単語は知っているはず。大容量であるが幾らでも後処理できる魔法のファイルだ。
しかし、これが動画の世界では少し意味合いが変わってくる。個人的な不明点について調べたので、ここに記しておきたい。

 

仮に4000万画素のカメラの場合、14bitのRAWファイルは70MBである。カメラによっては圧縮処理をするが、それは横に置いておく。
動画であれば、4Kを想定した800万画素の場合、12bitのRAWファイルは30fppsだとして360MB/sである。
※ この計算は大雑把なのであしからず

静止画であれば 「記録媒体への書き込みが終わるまでお待ちください」 という話が通用するが、動画の場合は待ったなしである。そのため、安定した転送レートを稼がなければならない。
また、記録媒体も有限なので、品質が保たれるのであれば転送レートは低い方が良い。

そこで、早くからラージセンサーでの撮影環境を提供してきたRED社の製品は、1:3とか1:7のような圧縮を行っている。圧縮率から考えて、当然非可逆圧縮だ。更に、提供開始された時期を考えれば、ProResなどと同じDCTベースの圧縮を行っている(あまり高度な事はしていない)と思われる。
最大で13とか15分の1くらいまでの圧縮モードが用意されていたと思うが、こんなに圧縮して問題ないのか?と思う。DCTベースの圧縮技術はDVでも使われているが、これは圧縮率が1:5だったはずだ。
ただ、JPEGに置き換えて考えてみた場合、4000万画素の写真は10MBもあれば十分に高画質であろう。元は各色8bitで120MBもあるのだが。
そう考えると、RED社の考えていることもあながち間違ってはいない(現実的な落としどころとしては悪くない)と思われる。

そんなわけで、静止画ではRAW=限りなく非圧縮に近い(ほとんどロスレスに近い)巨大なファイルだが、動画ではRAW=ディベイヤーされていない比較的低圧縮な(殆どの場合でロスレスではない)ファイル、という認識になる。

 

なお、逆算した値なのでどこまで正確かは不明だが、同じRAWでも圧縮率は様々だ。
RED社のRAWは前述のとおり、圧縮率について多数のオプションがある。ただし、どこかに品質の閾値になるようなラインがあるかもしれないので、事前テストは必須だろう。
Cinema DNGは、基本的に非圧縮のようだ。
ProRes RAW HQは、およそ1:2
ProRes RAWは、およそ1:3
SONYの16bit Linear RAWは、およそ1:3.3

ちなみに、SONYの16bitというのは実質12bitか14bitだと思われる。撮像素子の動作速度を考えれば12bitが正解に近いように思える。しかしラチチュードを考えると14bitの可能性もある。F65搭載の2000万画素級のセンサーが15bitだったはずなので、その辺までは可能性としてありそうだが。
しかし、世界のSONY様でもRAWを圧縮しているというのは少し感慨深いものがある。自分だけだろうか。

 

さて、422記録で低圧縮なファイルと、似たようなビットレートのRAW記録があった場合、どちらが良いだろうか。
前者であれば、重たいディベイヤー処理をする必要がないので、後処理は楽だろう。
しかし、カメラ内のディベイヤー処理がどの程度の品質を持っているのか不明な場合(数百万レベルの機材でそれはないだろうが、過去に高級コンデジで明確な違いを確認したことがある)は、後で時間をかけてディベイヤー処理した方が良いかもしれない。
また、同じビットレートでも圧縮率が異なる事も考慮したい。4K10bit30fpsの場合、非圧縮の422は450MB/sであるが、非圧縮のRAWは300MB/sである。
また、422記録で12bitというフォーマットは存在しないはずだ。ProRes4444であれば12bitに対応しているが、ProRes422は10bitまで。
そのため、品質を優先するのであれば後者を選択するのがベターである。

 

また、422記録でも各社独自のフォーマットがあったりするので比較が難しい。
デファクトスタンダードはProRes422だと思っているが、圧縮処理がDCTベースなのもあり、今となっては設計が少々古い。
浮動小数点演算が必要になるため、デコード誤差が発生する。
これに対して、SONYが採用しているXAVCはH.264ベースの圧縮であり、16bit整数演算で済むのでデコード誤差は発生しない。
他、諸々の改善によって、4K10bit24fpsで240Mbpsという低ビットレートで済むという。
ProResLTでも届かないくらいなので、これについては後発の利が発揮されている。
素直にうらやましい。

 

余談だが、ProRes422収録だと1TBでも3時間くらいしか撮影できないよ!バックアップの容量厳しいよ!4TBのHDDでも足りないよ!と嘆いている人がいるが、これについては規格の古さという点で同情はする。
が、10TBのSSDを搭載したPCに40TBクラスのRAIDを複数繋げて使っていて感覚がマヒしているので、「4TBで足りなければ10TBとか14TBを買えばいいのに(マリーアントワネット風味)」と思う。

 


それでは皆さん、ごきげんよう

 

PS5のSSDの謎

謎と言うほど謎でもないのだが、PS5のSSDコントローラは12チャネルアクセスで、PCI Express 4.0対応のカスタム品であることは公表されている。
製造するのはどこだろうか。

 

現時点で世間に出回っているPCI Express 4.0対応のSSDコントローラーは、全てがPhison製の PS5016-E16 だ。そもそも、SSDコントローラーを作っている会社自体が少ないが、2社目については聞こえてこない。
可能性があるとすれば Marvell、Samsung、Silicon Motion、この辺りになるが、カスタムチップを作るだけのフットワークがあるだろうか。
何となくではあるが、既に製品としての実績を持ち、なおかつ10カ月でチップを完成させたPhisonが今回のカスタムチップも製造するように思える。

 

ただ、現状の PS5016-E16 についてはいろいろと苦しいところがある。
一つは発熱だ。
この理由は仕様を見るとすぐに分かる。PCI Express 3.0でも爆熱で知られていたPhisonだが、今回も当時と同じ28nmプロセスなのだ。
正直なところ「いつまで28nm使い回してんねん!」と思わずツッコミを入れてしまうレベルだ。
まぁ、コストの問題もあるし、純粋にTSMCのキャパが足りなかったのもあるだろうし、そもそも製造数も多いとは言えないだろうから、仕方ないところはあるのだろう。

もう一つ、苦しいところはコントローラーだ。
ARM R5 2core の構成とされている。他社では5coreのコントローラーを使っている例もある。コアそのものの規模やクロックの違いはあるだろうが、性能を考えるともう少し欲しいところだ。

このまま12ch化するのであれば全体的に1.5倍の規模に拡大することになるが、狭い筐体に押し込んだ上で安定動作させる必要があるゲーム機において、発熱の問題は低減しておきたいと考えるだろう。絶対的な発熱量はCPUやGPUに及ばないが、この辺のチップにアクティブヒートシンクを付けるのはコスト的にも故障リスク的にも避けたいはずだ。

20nmプロセスはあまり一般的ではないので、16ないしは14nmプロセスで製造することで緩和策を講じるのだろうか。
この辺りはSONYさんが「お金のことは気にせず、ドーンとやりたまへ」とでも仰るのだろうか、仰って欲しい、仰るに違いない。

 

そして、一番の謎を思い出した。
825GBという中途半端な容量である。
チップ内のスタック数などによっては、一見すると中途半端な数字になる事もある。しかし825をチャンネル数で割っても550Gbitである。何となく切りが良いように思えるが、我々はこれを切りが良いとは認めない。64や128や192や256といった数こそスッキリする数字なのである。
192Gbitx3=576Gbit というのが最も正解に近いように思うが、これについては結論が出そうにない。ただし、容量を減らしている要因になりそうなものは推測できる。

<代替領域の確保>
NANDが基板実装なので、ある程度の冗長性は欲しいと思われる。

<SLC動作モードの領域確保>
普通、SLC動作モードの領域も含めての容量を示すはずなので、ちょっと違うような気もするが、可能性はゼロではないと思う。
これと関連して、DRAMキャッシュレス構成になる可能性もあるかもしれない。ゲーム機の性格上、データーの読み出しがメインになると思われるからだ。DRAMの実装コストが性能に及ぼす影響を考えれば、悪くない選択肢だとは思う。

この辺り、実機が出てからの分解レポートを待つことにしたい。

 

 

それでは皆さん、ごきげんよう

FUJIFILM GFX100 から読み解く、高画素モデルでの動画撮影

まず、この記事を読んで欲しい。
https://av.watch.impress.co.jp/docs/series/zooma/1251329.html

 

冒頭の、5Dmk2登場以来の業界の流れについては、素直に「なるほどね」と思う。
あと、センサーサイズが肥大化しているのは、8Kへの対応で画素面積を確保するための策であると思われる。

 

さて、記事になっているGFX100だが、35㎜フルサイズを超えるサイズでの動画撮影ができる。
元々の撮像素子が1億画素を超えているので、どうやって駆動しているのか、どうやって処理しているのか、疑問に思った。

富士フィルムのサイトを確認すると、動画再生時でも横方向のクロップはなく、純粋に縦方向がマスクされただけである。
4KDCIとQFHDの差異を無視して考えれば、読み出している画素数は11648×6552であり、約7630万画素である。

RED社のMonstroが3540万画素を60fpsで駆動するのであれば、倍近い画素数を30fpsで駆動するのはおかしいことではない。
と考えられるのは、製品レベルが同じである場合だけだ。
値段も全く異なれば、製品のコンセプトも異なる。
そのため、全画素読み出しは絶対に行っていないと断言できる。

 

では、どのような落としどころなのか。

 

ヒントになるのは、製品発表時の「約5,050万画素分の情報量を用いたオーバーサンプリングによる入力」という発言だ。
この段階で、全画素読み出しでないことは裏付けられる。

しかし、どうやって間引いているのか。

素数の比率を見ると、1/1.51であり、2の平方根である1.41に近い。
完全な分数であれば、ラインスキップやサブサンプリングなどで完全に無視している画素が発生しているのだと判断できる。
しかし、割り切れない数字であり、なおかつ1.4~1.5くらいの値が絡んでいるのであれば、ビニングのような処理を行っていると推測できる。

よく見れば、「画素分の情報量」という表現であるので、「~相当」という意味合いで使っているのだろう。
したがって、「実際に読み出している画素数は5050万画素未満だが、他の画素は無視しているわけではなく情報をある程度使っています」ということだ。

 

次に、使っている撮像素子から情報を探ろう。

 

これは簡単で、裏面照射のラージセンサーを製造しているのはSONYだけだろう・・・と考えて製品情報を探したところ、「IMX461AQR」にたどり着いた。
位相差画素についての記述はないものの、この派生品と考えて良いだろう。

ただ残念なことに、「Please refer to the datasheet for binning/subsampling details of readout modes.」と書かれており、ビニングについての情報は得られなかった。
そのため、推測するしかないのだが、フル解像度で10.1fpsであれば、動画向けのアスペクトでは1.33倍の13.4fpsが可能だ。
2x2ビニングして画素数が1/4になっても、フレームレートは4倍にならず2倍にしかならないので、2x2ビニング時は26.8fpsとなる。
3x3ビニングであれば40.2fpsであり、30fpsの基準を満たす。

あとは、ADCのbit数を減らすことで高速化できるはずだが、10.1fpsというのは12bit時の値である。
ADCのオプションは11,12,14,16bitで、16bit時は2.7fpsであるとも書かれているので、11bitであれば倍速ではないとしても多少の高速化はできそうだ。

したがって、可能性があるとすれば
 ・2x2ビニングで11bit駆動
 ・3x3ビニング
このどちらかだろう。

ちなみに、11648×6552を半分にしても4Kを上回る解像度であるため、2x2ビニングであれば画質的な弊害は表面化しにくい。
しかし、3x3ビニングだと4Kはギリギリ足りるが、4KDCIだと僅かに拡大処理することになる。また、ビニングの弊害が露骨に確認できそうな気もする。

そのため、可能性が高いのは2x2で11bitだと思われる。
これなら、処理する実画素としては1907万画素となり、昨今の2400万画素モデルの動画撮影時(2025万画素)と処理すべきデーター量は同等となる。
あとは、ビニングによってどの程度の情報量が畳み込まれているかによって品質が変わってくるわけだが、5050万画素という発表情報や撮影結果から判断する限りでは、それなりに意味のある結果が得られているのだと思う。
撮像素子のサイズが顕著に表れるのはSN比だと思うが、ビニングにより平滑化されることはこの点でもメリットになる。

 

ということで、GFX100について少し考察してみた。
しかし、ビニングして、更に縮小処理して、折角色解像度が上がったのに記録するときは4:2:0や4:2:2である。
勿体ないとは思うが、静止画向けのカメラの宿命でもある。
4:4:4で記録したところで、一般向けにはオーバースペックなのだ。
逆に、4:4:4映像を欲しいがために縮小前提での設計をしてくる業務用カメラが無いわけではないだろうが、読み出し速度と解像度のバランスを考えると、可能性は結構低そうだ。

動画向けのカメラは、どうせ4:2:2までしか求められないのだからベイヤー配列で画素数ネイティブでOK、という割り切りの元に成り立っている。
もっとも、必要な撮像素子を設計・製造できることが前提でもあるので、ラージサイズセンサーを使う機器に関してはその部分のハードルが高い。
とはいえ、CCD全盛期であれば製造できるところが限られていたものの、今はそれに比べればハードルは下がっている。
その変化に乗じて登場してきたのがREDなどのメーカーだ。
タイミングを考えると、とても先見の明があるものだと感心する。

 

 

それでは皆さん、ごきげんよう

ラージセンサーによる映像撮影の今

記録したものは、何らかの形で再生する必要がある。
業務用はともかく、民生用においての記録・再生装置は規格による制約を受ける。
ディスプレイのネイティブ解像度、ケーブルの伝送速度、記録ファイルフォーマット、などだ。

 

その制約内でも、幾つかのグループがある。
撮像素子をネイティブ解像度(ビニングを含む)で使用するか、オーバーサンプリングを前提として使用するか、だ。

 

ネイティブ系の機器としては、最近のスマートフォンやドローン、少し前のCanonの一眼レフなどが該当する。
1920x1080での撮影であれば、撮像素子上の1920x1080の領域を使用する。あるいは3840x2160をビニングして使用する。
メリットは、処理するデータ量の少なさだ。拡大も縮小も不要、そのままディベイヤー処理だけをすればよい。
読み出す行が少なくて済むため、ローリングシャッター歪みも少なくて済む
デメリットは、解像度に応じて画角が変動することと、絶対的な情報量の不足だ。

 

オーバーサンプリングを前提とする機器は、最近の一眼レフやミラーレス全般だ。
4K撮影に対して過剰なほどの画素数を持っている機器は、まずこのパターンである。
もっとも、画素数が多すぎるとビニングも併用する。
データ転送や画像処理が追い付かない、というのが理由だろう。

とても大雑把な情報ではあるが、フルサイズ一眼レフで2400万画素クラスのカメラは、少し前であれば24fpsなら全画素読み出ししてオーバーサンプリングしていた。
SONYのカメラで、そのような注意書きが記載されていたのを記憶している。
今は30fpsでもどうにか可能なようだ。NikonのZ6などがそれを示している。

使われていると思われる撮像素子の仕様を確認すると、ビデオ向けの12bitADC使用時で40fpsくらいまでは可能とされている。
そのため、少し前の24fpsの制限というのは、恐らく画像処理側がネックになっていたと思われる。

 

しかし、業務用の機器は記録ファイルフォーマットなどの制約がない。
データ転送レートなどの問題が無いわけではないが、自社で規格を作ってしまうので、制約は限りなく少ない。
また、民生用機器ではデータ転送や画像処理が追い付かないという壁が存在するが、業務用機器では撮像素子の駆動限界までキッチリと使い切り、必要なリソースは消費電力と引き換えにしっかりと用意する。
余談だが、それに近いことを民生用でやっているのが、パナソニックだろうか。
民生用の枠内で、他の機種よりも電気とシリコンを投入している感はある。

 

さて、業務用機器の最右翼と言えばRED社ではないだろうか。
調べてみて驚いたのは、会社を作ったのがサングラスで知られるオークリーの創業者だということ。
共に光学系なので、何となく納得する組み合わせではある。

なお、調べてみた限りではあるが、業務用機器ではネイティブ解像度での撮影しか行えないものが殆どだ。
ビニングもしない。
オーバーサンプリングもしない。
ビニングは品質を低下させるし、オーバーサンプリングするくらいならネイティブ解像度で記録しよう、ということなのだろう。
よって、解像度を下げると画角が挟角化する。
これは初代のRED ONEから変わっていない。

そんなREDのカメラは、今どのあたりの水準にあるのか。
8K対応のMonstroは、8192x4320で60fpsが可能である。
2400万画素を30fpsで使っている民生用機からすれば、約3倍の情報量をブン回していることになる。
たった3倍か、と思わなくもないが。

余談だが、このセンサーは対角線が46.31㎜もあり、35㎜フィルムの写真用レンズを使用した場合に少しケラレる。
43.3㎜から少しだけはみ出しているからだ。
とはいえ、ほとんどのレンズでギリギリ使えるのではないかと思うが。
そして、なぜこんな中途半端に大きいサイズの素子を作ったのかと考えてみたが、これは下位モデルのDragon搭載の素子をそのまま8K解像度になるまで拡大したものだ。
つまり、せめて下位モデルと同等の感度やDレンジを確保するために、結果的にこの大きさの素子になったということだ。

そんなわけで、同じ8Kでももう少しレンズに困らないモデルを作ろうと思ったのだろう。
中堅モデルのHeliumは、同じ8Kでありながら、もう一つ下のGeminiと同等のサイズの撮像素子を持つ。
とはいえ、本体に「S35」の文字がありながら、対角線が33.8㎜もある。
こちらはS35向けのレンズだったら確実にアウトだろう。
そのため、レンズ資産を優先させるのであれば、6Kくらいの解像度で撮影することになるのだろうか。
それでも十分高解像度であるが。

この廉価版8Kとも言えるHeliumに対して、もう少し感度的な余裕を持たせたい、解像度的にも下位モデルと同じでいい、と考えてバランスを取ったのが、Geminiなのだろう。
厳密にいえばHeliumと同サイズではないが、解像度を5Kまで落としたことで感度的にはかなり余裕があるはずだ。
これ、画素サイズを計算すると、フルサイズ一眼レフ向けの2400万画素とほぼ一緒である。
各社が発売している2400万画素モデルの高感度特性が素晴らしいことを考えれば、このGeminiも夜撮影では相当に活躍すると思われる。

そして、S35のサイズをほぼ守った状態で、できるだけ解像度を上げたモデルが、エントリーモデルのDragonだ。
レンズのケラレなども気にする必要が無く、フル解像度でも5Kであるので、普通に使うのであればもっとも使いやすいと思われる。

 

そんなわけで、少しだけRED社のカメラについて理解が深まったところで終わりとしたい。

それでは皆さん、ごきげんよう

 

新型コロナウイルスの終息、いつ?

Googleアシスタント経由で聞いていた某日経電子版ニュースで、「新型コロナ」と「新型コロナウイルス」を混ぜて読み上げていたのにイラッとしたのは自分だけだろうか。
正確な方に統一してほしい。
ウイルスを端折るほど舌っ足らずか?

 

 

それはともかくとして、この事態がいつになったら終息するのか。
 ※意味合いを考えて、収束ではなく、あえて終息と記す

誰もが思うだろう。

 

 

結論だけ先に言ってしまえば、国民の半数近くが感染しない限り終息しない。

 

 

良い記事があったので紹介しておこう。
というか、今回のネタはここから来ている。

https://pc.watch.impress.co.jp/docs/column/kaigai/1248879.html

 

PCの情報サイトに、何故?
そう考えるのが、たぶん正しい反応だろう。
しかし、論理立てて説明できるものは数値化できる。
数値化できるものは半導体で扱える。

 

 

非常事態宣言などの判断は、SIR数理モデルを用いている。
ざっくり言ってしまえば、基本再生産数が求められれば、どのタイミングで感染数が減少に転じるかが分かる。
問題は、未知のウイルスゆえに基本再生産数が正確に求められないことと、今が山の何合目であるか分からないことだ。

 

基本再生産数については、各国で数値が異なる。
しかし、おおよその傾向は似たものとなる。
インフルエンザなどと比較すれば、基本再生産数は高い。
それは確定している認識のようだ。

 

現在地についても各国で異なるが、こればかりはサンプリングしてみないと分からない。
抗体検査を開始した現状では、まだその判断ができない。

絶対確実なのは、どの国もまだ山を迎えていないということだ。
放っておいても終息する、という状況ではない。
押さえ込んでいるだけに過ぎない。
対処療法を行っているだけであり、緩めすぎれば次の山が来る。

 

 

ここ数日の東京都の新規感染者数の発表が多少落ち着いているからと言って、この人数がこのまま減少すれば早期にいろんなものが元に戻るという考えは、お花畑と言わざるを得ない。
そんな近視眼的な勘違いしている人はいないと信じたい。

もっとも、田舎で見かける都会ナンバーの車はその類だろうと思っている。いろんな意味で近寄りたくない。
某国の首相が言ったように、新鮮な空気を吸ったところで免疫は強化されないのだ。

 

しかし、医療技術がいくら進歩しようとも、それを支える半導体技術がいくら進歩しようとも、結局のところは人間の免疫を有効利用するための確率を向上させることしかできない。

そう考えると、人間の体は偉大なのだ。つくづく思う。

 

 

 

 

それでは皆さん、ごきげんよう

 

オンライン会議のWebカメラを豪華に

普段自宅ではデスクトップPCを使っているものの、ノートPCもある。
そのため、昨今流行りのオンライン会議も問題なく対応できる。

 

ただ、カメラの位置が画面上部に固定であるのは制約だ。

また、中途半端に広角なので不要なものまで映ってしまう。

そのため、カメラを外付けにしたいと考えていた。

 

外付けにする場合、素直にWebカメラとして売っているものを買ってきて、USBで接続する方法がある。
ただし、ズームできるものは皆無に等しい。
また、画質も良いとは言えない物ばかりで、MCによって退化したと言われるモデルまである始末。

こうなってくると、映像出力を持つ機器をPCに繋げる方法を選択することになる。
HDMIをUSBに変換する機器が必要だ。

 

 

 

最初、Amazonで中華製の1万数千円クラスの変換器を購入した。
UVC対応だったので、接続に苦労することは無く、ドライバも無しに普通に認識された。

ところが、喜んだのもつかの間、映像の質が著しく悪い。
一応30fpsは確保されているが、なんというか、ものすごくザラザラなのだ。
今にして思えば、たぶんUSB2.0で流せる程度の情報しかなかったのではないか。
映像機器からは1080i出力なので、60iで考えると元データは190MB/s程度。
YUVにしても125MB/s
色数を落とせば30~40MB/sくらいになるので、妥当な考え方だろう。

 

今にして思えば、USB2.0対応・3.0対応、となっていたのは地雷だったのかもしれない。
本当に3.0に対応しているかどうか不明というのもあるし、機器が誤認識して3.0で動作しないかもしれない。
というか、中身のチップに刻印を削ってあるものが複数あったので、チップレベルで3.0動作しない可能性が濃厚。
また、本体外装に踊る4Kの文字。実際には対応しているわけがない。

結論:怪しさ大爆発。

 

そんなわけで
 ・UVC対応は便利だけど非圧縮映像を扱うには低画質?
 ・USB2.0対応と書かれている安価な機器は地雷?
 ・1万円台は止めといた方がいい気がする
という知見が得られた。

 

 

そこで、もう少し素性の分かるものを購入。
AVerMedisのLive Gamer EXTREME 2 - GC550 PLUSを買ってみた。
並行輸入のGC551だが、同社サイトでは英語表示にしても中国語表示にしても同じ扱いをされているようなので、同一機種と考えて良さそうだ。

 

買ってから気づいたが、UVC対応ではない。
ドライバも必要だし、そのままではWindowsのカメラアプリなどでは使えない。
そこで、とりあえず動作確認のためにドライバとRECentralをインストールした。

 

ところが、RECentralを起動させてもスプラッシュウィンドウが表示されたところでフリーズする。
タスクマネージャから終了させても、サービスレベルで何か残っており、これを停止できない。
Windows10の1903だが、どこに不満があるというのか。
さっさとアンインストールすることにした。
各所の評価を見ていてある程度予想はしていたものの、使用以前の問題だとは思わなかった。

 

そもそも、ゴールはオンライン会議で使う事であって、録画配信することではない。
そう思いなおして、映像を配信用のアプリで受けた上で、仮想カメラとして出力する方法を模索した。

 

配信用のアプリはOBSを使用した。
仮想カメラ対応のためにはプラグインが必要になるが、このプラグインがなかなか動作しない。
最終的にはZoomで使用する予定だったので、ここで映像を受け取れるかどうか確認しながら進めたが、バージョンを戻したり権限を見直したりしているうちに、気づいたら動作していた。
納得できないが、一応許すことにする。

 

なお、Xsplitも試してみたが、登録しないと使用できない(一応登録はした)ことや、仮想カメラにXsplitのウォーターマークが入ってしまう(設定で無効化したり解像度を落としても変化なし)ことから、こちらは使えない子である。
起動するたびに有料登録を勧めてくるのもウザい。

 

ただ、Xsplitで設定を試しているときに分かったことがある。
GC551は、アプリからの要求解像度を下げると(元々1080だったものを720とかに)に切り替えると「Out of range」の表示が出る。

最初に疑ったのは、ビデオからのHDMI出力が対応していない可能性だ。
少々古い機器だったので、1080iしか対応していないのかもしれない。
そう考えたが、手持ちのデジカメに変更しても変わらなかったので、恐らくビデオ側の問題ではない。
また、取説などを見てみると、解像度は出力先の機器に応じて自動的に変更されることになっているので、そこの問題はないだろう。

 

恐らく・・・であるが、GC551は解像度変換まではしてくれない。
HDMIから映像信号を抜き出して、何らかの形でUSBに流すだけ。
入力解像度に応じた出力をするだけなのだ。
消費電力3.5W程度なので、そこまで高度なことをしてくれないだろう、という読みである。
もっとも、OBSで似たような設定変更をしたら、特に問題がなかった気がするので、アプリとの相性なのかもしれない。

 

そんなわけで
 ・RECentralは使えない子
 ・GC551に罪は無い
 ・GC551は解像度変換しないっぽいので、縮小するならアプリ側で
という知見が得られた。

 

 

 

さて、画面に映る自分の顔も見飽きてきたところで、動体のコーミングエフェクトが気になってきた。
ビデオからは60iしているので、仕方ない。
そこで、プログレッシブ変換(デインターレス処理)を試してみた。

しかし、設定によっては縦の解像度がガタ落ちする。
斜めの線にジャギーが出てしまう。
処理しなければジャギーは出ないが、コーミングエフェクトが出る。

なお、「x2」と書かれた処理を選択すると、コーミングエフェクトがそのまま残る。
x2というのは、処理範囲などのフィルタ名ではなく、単純に2倍のFPSで出力するということのようだ。
60i⇒30pにしたいのであれば、普通は使えないだろう。

 

あちらが立てばこちらが立たず・・・という感じだったのだが、そもそもWebカメラとして使うのであれば、30pあればよいのだ。
そう思い直して、ビデオカメラの設定を確認してみた。
気になる設定があったのを思い出したのだ。
撮影フレームレートの設定があり、60iから30pに変更してみたのが大当たり。
処理しなくてもコーミングエフェクトは出ないし、もちろんジャギーも発生しない。


これでいいのだ!

 

一応、取説を見る限りは、ビデオからの出力は60iのままのようだ。
ただ、CMOSからの読み出しをインターレースで行うか、プログレッシブで行うかが異なり、それをそのまま60iの信号としてHDMIに流している。


でも、これでいいのだ!

 

 

さて、ここまでたどり着いたところで力尽き、モニターにする画面配置やライティングまでは手が回っていない。
したがって、今回はここまで。

 

写真? これだけ映像ネタやってて写真くらいないのかって?
出せるような写真を撮るほど時間がなかったのです。あしからず。

 

 

 

それでは皆さん、ごきげんよう

なぜ、IMAXは凄いのか。

物理的な重厚長大は、ロマンである。
最終的には、この一言に尽きる。

 

何の話かというと、映画だ。
撮影機材、フィルム規格、そういった話だ。

 

順を追って説明しよう。

 

映画というのは、大半が35mmフィルムで撮影されている。
いや、「されていた」と過去形にした方が正しい。
今では撮影の大半はデジタル化され、上映もデジタルで行われている。
16mmフィルムの存在や、フィルムサイズとは関係ないサイズの撮像素子の登場については、今回は触れないことにする。

そもそも、35mmフィルム時代、フィルム1コマのサイズはどれくらいだったのだろうか。
まずはそこから情報を整理してみたい。
※ 面倒なので光学音声トラックは省略

写真では35mmフィルムを横方向に、8パーフォレーション分使い、横36mm、縦24mm、というサイズを使用する。
映画では35mmフィルムを縦方向に、4パーフォレーション分使い、横24mm、縦18mm、というサイズが基本となる。
写真で言うところのハーフサイズだ。
アスペクト比は4:3であり、映画ではこれがスタンダードサイズとなる。

ビスタサイズと呼ばれるのは、アスペクト比おおよそ16:9であり、縦を18㎜から14mmに縮めた規格である。
とはいえ、4パーフォレーションであることは変わらないので、上下に黒帯が存在する。

しかし、せっかくのフィルムに使わない場所があるのは勿体ない。
アスペクトを優先した結果情報量が削られてしまうのはいかがなものか。
そう考えたのか、より横長の規格としてシネマスコープでは、スタンダードサイズに横方向を圧縮した映像を記録し、上映時に伸張する方式を採用した。
これにより、2.35:1というアスペクト比を実現した。

 

映画の歴史は横長への歴史だと(勝手に)思っているが、横長にするのも限度がある。
誰も、ヘルメットの隙間から見るような視界を求めているわけではないのだ。
欲しいのは臨場感。
そのためには、さらなる情報量。
さらに上を目指して生まれたのが70㎜フィルムだ。

しかもIMAXではフィルムを縦に使うのではない。
横に走らせる。
アスペクト比こそ平凡だが、1コマで15パーフォレーションも使う。
結果、横70.41mm、縦52.63mm、という広大な面積を確保している。
面積比で言えば、35㎜フィルムの8.58倍である。

 

35㎜フィルムを写真で使った場合、感度400のネガフィルムで800万画素程度だということを、過去に個人的な実験で確認した記憶がある。
室内で、十分な光量を用意して、スローでもハイスピードでもないSSで、絞りは開放より少し絞り込んで、画面中央付近で解像度チャートを撮影した結果だったはずだ。
もちろんレンズや光源によって変動はあるだろうし、低感度になればもっと値は上がるだろう。
ただ、映画撮影で極端に低感度なフィルムは使用できないとすれば、映画なら35㎜フィルムで400万画素程度だと考えるのは妥当だと言える。
とすると、IMAXは3500万画素程度は見込めることになり、条件次第ではそれが7000万や1億くらいになってもおかしくない。
これは圧倒的な画質と言える。

余談だが、アナログで物理的に圧倒するやり方は、DVDが出てくる前のLDを彷彿とさせる。
1回転で1フレーム(走査線数525本)をアナログで記録し、30センチのアクリル製の円盤を最高で1800rpmでブン回す。
物理で殴っている好例だ。

 

話を戻そう。

35㎜フィルムに関して言えば、デジタル撮影に置き換わってきているのは承知のとおり。
だが、このIMAX(というか70㎜フィルム)についてはフィルムしか選択肢がない。
何故か。
話は簡単で、面積が大きすぎて撮像素子が製造できないからだ。

現状、製造されている撮像素子の最大サイズは、横60mm程度、縦45mm程度、のようだ。
試作品などであればもう少し大きいのもあるかもしれないが、極端な違いはないだろう。
そもそも、半導体の製造限界は800平方ミリメートル程度である。
よって、これを超えるサイズのチップを作る場合には繋ぎ合わせて作ることになる。
2分割でも足りないので、4分割くらいだろうか。相当に高度な製造技術が必要であることは間違いない。

また、仮にIMAXと同サイズの素子が製造できたとしても、フレームレートが確保できない。
前述したラージサイズの撮像素子であるが、1億5千万画素で6fpsくらいが限度。
4000万画素程度まで落とせば24fpsを実現できそうだが、ベイヤー配列であることやダイナミックレンジの事を考えると、もう少し画素数は欲しい。
とはいえ、撮像素子は大型化するほど低速化する傾向があるため、この辺は納得できる話ではある。

 

ということで、物理で殴るIMAXは強いのだ。
たとえそれがアナログであっても。
クリストファー・ノーラン監督も、その魅力にとりつかれた人の一人なのだろう。

 

長くなってきたので、上映時のデジタル化の話や、その解像度の話、撮像面積により異なるボケの大きさ、代用品の可能性、デジタルの弊害などについては、また別の時にまとめたい。

それでは皆さん、ごきげんよう