Apple の新しい iPhone SE は、ポートレート モードの深度推定を機械学習のみに依存する同社初の、そして現時点で唯一の iPhone です。

iPhone SEは4月にリリースされ、一眼単眼カメラに至るまで、大部分がiPhone 8のコピーであるようだ。しかし、内部では、深度推定に関して、これまでのどの iPhone よりもはるかに多くのことが行われています。

によるとブログ投稿カメラアプリのメーカーからハロゲン化物, iPhone SEは、Appleのラインナップで初めて「単一画像単眼深度推定」を採用しています。つまり、単一の 2D 画像だけを使用してポートレートのぼかし効果を作成できる最初の iPhone となるのです。

過去の iPhone では、ポートレート モードには少なくとも 2 台のカメラが必要でした。それは、奥行き情報の最良の情報源は、わずかに異なる 2 つの場所から取得した 2 つの画像を比較することであるからです。システムがそれらの画像を比較すると、写真の被写体を背景から分離して、ぼやけた、または「ボケ効果」を考慮に入れることができます。

iPhone XRそれを変更し、センサーの「フォーカス ピクセル」を使用してポートレート モードのサポートを導入し、大まかな深度マップを生成できるようにしました。しかし、新しい iPhone SE にはフォーカス ピクセルがありますが、古いハードウェアには深度マッピングの目的に必要なカバレッジがありません。

「新しいiPhone SEは、古いセンサーのカバー範囲が十分でないため、フォーカスピクセルを使用できません」とHalideのBen Sandofsky氏は書いている。月曜日の iFixit の分解調査により、iPhone SE のカメラセンサーが基本的に交換可能iPhone 8と一緒に。

代わりに、エントリーレベルの iPhone は完全に機械学習を通じて深度マップを生成します。これは、前面カメラと背面カメラの両方からポートレート モードの写真を生成できることも意味します。それは間違いなく、そのボンネットの下にある最上位の A13 Bionic チップセットによって可能になったことです。

深度情報は完璧ではありませんが、3 年前の単一センサー カメラのセットアップの相対的なハードウェア制限を考慮すると、これは素晴らしい偉業だとハライド氏は指摘します。同様に、iPhone SEのポートレートモードは人物に対してのみ機能するが、Halide氏によると、アプリの新バージョンではiPhone SE上で人間以外の被写体にもボケ効果を与えることができるという。