「現像前にFusion」させるPhotonic Engineと新型センサー
ところでiPhone 14シリーズのカメラスペックを見ていると、センサーサイズ拡大やレンズの明るさの違いなど、iPhone 13 Proシリーズのカメラから望遠カメラを取り除いただけのように思えるかもしれない。
しかしiPhone 14、iPhone 14 Pro双方ともにイメージセンサーから最終的なデジタル写真を生成するプロセスが見直されている。複数フレームの画像から被写体のディテールをより多く取り出すDeep Fusionという処理がiPhone内蔵カメラの画質向上において要になっている。
この考え方をさらに進め、RGB画像へと現像した上で「フュージョン(融合)」させるのではなく、カメラセンサーが捉えたRAWデータのレベルで情報を融合させ、現像以降のプロセスの精度を高めるプロセスに変えられている。アップルはこれをPhotonic Engineと呼んでいる。
新しい現像プロセスはハードウェア構成が近いiPhone 13 Proシリーズでも使えそうなものだが、実際にはカメラの信号処理をする上で、何らかの違いがあってサポートされない。
こうした違いが何を生み出すのかは、実機にて試す必要があるが、iPhone 14とiPhone 14 Proの比較で言うならば、その違いは明確だ。iPhone 14 Proシリーズには24ミリ相当の画角を持つメインカメラ(以前は広角カメラと言われていたが名称が変更されている)に、対角サイズ1/2インチの4800万画素CMOSセンサーが採用され、それに伴いレンズも更新されている。
このセンサーはソニーが2018年に発表していた「Quad Bayer配列」採用センサーの流れを汲むもののようだ。実際、4つの隣接する画素が同じカラーフィルターになっており、それこそがQuad Bayer配列の特徴だからだ。このセンサーを用いることで、解像度の向上を実現しつつも実効感度を落とさない。好感度と低照度性能の両立ができるとされている。
詳細は実機での撮影後にお伝えしたいが、実画素が増加したことで中央部をクロップ(切り抜き)することで精細度を失わない2倍ズームも可能になる。iPhone 14 Proに2倍ズームの固定ボタンが復活したのはこのためだ。
いずれにしろ、カメラ性能は実機評価となるが、ハンズオンコーナーで見せられたサンプル画像は、いずれも明所でのディテールと色解像度向上、暗所での低ノイズなどが顕著。特に暗所性能はiPhone 13 Proに比べ、超広角、望遠、イン側が2倍、メインカメラで3倍の性能とアナウンスされており、特にメインカメラはナイトモードが活躍する場面を大幅に減らしてくれるだろう。
ただしカメラレンズは従来よりも少しだけ出っ張りが大きくなっている。傍目にはわからない程度で、公式なスペックとしても公表されていない。個人的にはさほど気にする必要はなさそうだと感じたが、気になる人は実機で確認すべきだろう。
週刊アスキーの最新情報を購読しよう