のエンジニアリングに携わる多数の Apple 副社長へのインタビュー。iPhone13カメラ システムが公開され、2021 年リリースの改善の背後にある決定についてのさらなる洞察が証明されました。

月曜日に公開された「iPhone 13: カメラエンジニアと語る」エピソードスタルマン ポッドキャストApple の代表者 3 人が登場します。このグループは、ワールドワイド iPhone 製品マーケティング担当副社長の Kaiann Drance 氏と、カメラ ソフトウェア エンジニアリング担当副社長の Jon McCormack 氏、およびカメラ ハードウェア エンジニアリング担当副社長の Graham Townsend 氏が率いています。

iPhone 13 では、Apple はセンサー シフト OIS を導入するとともに、低照度写真、写真スタイル、シネマティック モードを改善しました。 Pro モデルには、ProRes ビデオのサポートに加えて、新しいマクロ モードがあります。

この30分のポッドキャストは、タウンゼント氏がAppleがカメラハードウェアを設計するメリットについて語るところから始まり、その中にはハードウェアチームが「初期の設計段階から」どのようにソフトウェアチームと緊密に連携できるかなども含まれる。レンズ、センサー、その他のハードウェアは、デバイスの「ファームウェアとソフトウェア処理を補完するように特別に設計」されています。

「私たちはフォトンから JPEG まで、スタック全体を所有しているので、特定の利点を提供するためにパイプライン内の最適な場所を選択できます」とタウンゼント氏は付け加えます。たとえば、センサー シフトは 1 秒間のビデオを安定させるのに十分強力で、ソフトウェア チームが拡張できる生の正確な画像データを提供するのに役立ちます。

iPhone 13 Proの新しいマクロは、Appleが使用しているオートフォーカスシステムによって部分的に有効になっているが、それ以外の場合は、オートフォーカスシステムなしで「専用のマクロカメラを持つことになる」とタウンゼント氏は認めた。 「私たちにとって、それは、これら 2 つの別々の、しかし何らかの形でリンクされた目的に同じカメラを使用できることほど効率的ではありません。」

マコーマック氏によると、機械学習は大幅に進歩しており、特に A15 が提供する処理能力が大幅に向上したという。 「これは本当に iPhone の処理能力の量を物語っています。実際、私たちは現在非常に多くの処理能力を持っているので、これらと同じコンピューテーショナル フォトグラフィー技術をビデオの世界に導入して、コンピューテーショナル ビデオグラフィーを実現することができます。 」

「実際、私たちは今、静止画で学んだのと同じ機械学習の魔法をすべて動画に適用しています。」マコーマック氏は、iPhone は現在、「各フレームをリアルタイムで分割し、空、肌、葉を個別に処理します。これにより、すでに業界をリードしている当社のビデオがさらに鮮明になり、さまざまな解像度でより詳細なビデオが得られるようになりました」と述べています。画像の一部。