iPhone 8 と次期 iPhone X で使用される Apple の新しい A11 Bionic チップには、特定のタスク向けに最適化された一連の処理コアと洗練されたコントローラーが組み込まれています。この SoC に他に何が詰め込まれているかは言うまでもなく、私たちはこれらについて少ししか知りません。ここでは、パッケージ内の新しい Apple GPU、Neural Engine、その 6 コア CPU、NVMe SSD コントローラー、および新しいカスタム ビデオ エンコーダーを見てみましょう。
グラフィックス、GPGPU、ML 用の新しい 3 コア GPU
アップル初の内部設計の GPUに組み込まれていますA11 バイオニックアプリケーション プロセッサは、iPhone 7 モデルで使用されている Imagination ベースの GPU よりも 30% 高速であると主張しています。これは、すでにスマートフォンの主要なグラフィック アーキテクチャでした。
同様に印象的なのは、Apple の新しい GPU は高速なだけでなく、より効率的であり、わずか半分のエネルギーで A10 Fusion GPU の動作に匹敵することを可能にしています。
GPU はもともとグラフィックスを高速化するために作成されましたが、長年にわたり、同様の反復性を持つ他の種類の計算を行う役割を担ってきました (「汎用 GPU」と呼ばれることがよくあります)。 Apple は当初、GPGPU を実行するための API として OpenCL を作成しましたが、最近では GPGPU Compute を、Apple が iOS デバイスや Mac で使用する GPU 向けに特別に最適化された Metal API に組み込みました。最新バージョンの Metal 2 は、詳しいこの夏のWWDC17で。
現在、Apple はグラフィックス シリコンとそれを管理するソフトウェアの両方を設計しているため、GPU と GPGPU の進歩がさらに速く進むことが期待されます。さらに、Apple は、GPU が特に得意とするタスクの 1 つである機械学習にも手を広げています。 ML では、さまざまな既知のもの (さまざまな花の写真など) に基づいてモデルを構築し、その「知識」モデルを使用して一致するもの (他の新しい写真やカメラのビューファインダーに写っている花である可能性のあるもの) を見つけて識別します。
Appleは、「3つのコア」を搭載していること以外、新しいGPU設計について多くの技術的な詳細をまだ明らかにしていない。さまざまな GPU 設計は特定のタスクや戦略に合わせて最適化されており、根本的に異なる方法で「コア」を定義しているため、Intel、Nvidia、AMD、Qualcomm、ARM Mali などの GPU と直接的で有意義な比較を行うことは不可能です。
TB;
Appleが新しいモバイルA11 Bionicについて説明していることは注目に値しますGPUファミリー4タイルベースの遅延レンダリングを使用するグラフィックス アーキテクチャ。 TBDR は、リソースが限られているモバイル デバイス向けに作成されたレンダリング テクノロジです。事実上、3D シーンでユーザーに表示されるオブジェクトのレンダリングのみが完了します。デスクトップ PC GPU (および Qualcomm Adreno および ARM Mali モバイル GPU) では、「即時モード」レンダリングがシーン内のすべての三角形に対して実行され、ラスタライズおよびフラグメント関数ステージを経て、最終的にカバーされる可能性がある場合でもデバイス メモリに出力されます。最後のシーンでは他のオブジェクトによって上にあります。
TBDR は表示されない作業をスキップし、シーンをタイルに分割してから、それぞれに何をレンダリングする必要があるかを分析します。出力は、高速かつ低遅延のタイル メモリに一時的に保存されます。このワークフローでは、頂点とフラグメントを非同期に実行できるため、GPU 全体をより効率的に使用できます。 Apple は、「通常、頂点ステージでは固定機能のハードウェアが多用されますが、フラグメント ステージでは演算と帯域幅が使用されます。これらを完全にオーバーラップさせることで、デバイスは GPU 上のすべてのハードウェア ブロックを同時に使用できるようになります。」と述べています。
TBDR は技術として、Imagination の PowerVR と密接に関連しています。並行して開発されたその後、最初の iPhone の発売頃に、PC GPU では匹敵できないスケールダウンされた効率の利点を備えた、完璧なモバイル最適化 GPU アーキテクチャとして登場しました。
しかし、想像しながら最初に不平を言ったApple は今春、自社の知的財産を「侵害していないことを証明」していないと述べたが、Apple の新しい GPU が無許可の PowerVR テクノロジーを使用しているという主張は現在も継続していないようだ。大幅な値引きで売り飛ばされたAppleのビジネスを失った後。
さらに、TBDR は Imagination に完全に独自のアプローチではありませんが、成功した GPU アーキテクチャは (失敗した多くの実験的アプローチの中で) ほんのわずかしかありません。これは、競合他社 (さらにはインテル自体) による現状を打破する試みが何度も失敗したにもかかわらず、現在、モバイル デバイスでは ARM、PC およびサーバーではインテルの x86 が支配している CPU の世界と似ています。
Apple の Metal 2 は、A11 Bionic GPU の開発者に TBDR の詳細を公開し、メモリ使用をさらに最適化し、「GPU 上でより多くの作業を維持するためのよりきめの細かい同期を提供」できるようにしました。同社はまた、新しい GPU が「TBDR を大幅に強化するいくつかの機能を提供」し、サードパーティのアプリやゲームが「新たなレベルのパフォーマンスと機能を実現」できると述べています。
デュアルコア ISP ニューラル エンジン
まったく新しい GPU アーキテクチャを作成することは「十分に革新的ではなかった」ため、A11 Bionic にはまったく新しい機能も搭載されています。ニューラルエンジン画像信号プロセッサ内では、カメラ センサーから押し寄せる大量の画像データ内の数千の参照点の照合、分析、計算など、非常に特殊な問題を解決するように調整されています。
これらのタスクは GPU に送信できますが、行列の乗算と浮動小数点処理に特化して最適化されたロジックを備えているため、ニューラル エンジンはこれらのタスクで優れた性能を発揮します。
Neural Engine 自体には、リアルタイム処理を処理するように設計された 2 つの並列コアがあり、1 秒あたり 6,000 億の演算を実行できます。これは、Apple が前世代の ISP で行ってきたように、写真に洗練されたエフェクトを適用することに加えて、ライブビデオにもエフェクトを実行できることを意味します。これにより、エフェクト以外にも、カメラ システムがシーン内のオブジェクトとその構成を識別し、撮影している被写体を追跡して焦点を合わせることができるようになるようです。
このニューラル エンジンが A11 Bionic の名前の由来となったと考えられています。 「バイオニック」とは一般に、電気機械的な強化を備えた人間を指し、それらの強化による超人的な能力の概念を示唆しています。 A11 Bionic はこれとは逆で、実際には人間のような機能が強化されたマシンであると考えることもできます。あるいは、このチップを、それを使用する人間のバイオニック強化として考えることもでき、ユーザーは通常の Android ではできないタスクを飛び越えることができます。
Apple の 6 つの新しい CPU コア、2G パフォーマンス コントローラー
A11 Bionic の 3 番目のチャンクは、Apple のオリジナルの ARM アーキテクチャ CPU コアのカスタム実装です。 Apple は 2010 年にオリジナルのカスタマイズされた A4 SoC を提供し、その設計を急速に反復してきました。 2013 年に同社は初の 64 ビット ARM チップである A7 を開発し、チップのライバルを追い詰めました。
昨年の A10 Fusion の名前は、パフォーマンス コアのペアと効率コアのペアの間でタスクを管理し、フルパワーでの実行と効率的なアイドル状態の間での柔軟性を可能にする新しいアーキテクチャに由来しています。
今年、Apple は「第 2 世代パフォーマンス コントローラー」を宣伝しています。これは、より多くの低電力コアにわたってタスクを拡張したり、ワークフローをさらに高速な高電力コアに拡張したり、さらには 6 コア CPU 全体を強化したりするように設計されています。破裂する。非対称マルチプロセッシングを使用する A11 Bionic は、実行中のタスクに応じて、任意の数のコアを個別にアクティブ化することができます。非対称マルチプロセッシングを使用する A11 Bionic は、実行中のタスクに応じて、任意の数のコアを個別にアクティブ化することができます。
受信タスクのキューを複数のコアにまたがって拡張するには、SoC 上に複数のコアだけが必要ではありません。アプリと OS の機能は、これらの複数のコアを活用できるように設計する必要があります。これは、Apple が iPhone が存在する前から何年もの間、OS レベルで、そして第 3 の開発者とともに取り組んできたことです。
Apple は、不要なプロセッサ ユニットをオフにし、プロセスができるだけ早く効率的に実行されるようにスケジュールを設定できるように、プロセスを効率的に命令することを中心としたソフトウェア OS 戦略を詳しく説明しています。同社は現在、同様の実践をシリコン ハードウェアに実装しています。 Samsung や LG などの他のモバイル デバイス メーカーは、これまで独自の PC OS プラットフォームを開発する必要がありませんでした。
Android をその起源からポータブル (JavaME) モバイル プラットフォームとして採用した Google は、パフォーマンスにお金を払うユーザーに Android を販売していません。同社には実際のタブレットやデスクトップ コンピューティング ビジネスはなく、その携帯電話プラットフォームは平均販売価格を 300 ドル未満にすることを目標としています。Android One 携帯電話の価格目標は 100 ドルと積極的です。 Android 購入者は広告主の聴衆であり、洗練された UI、アプリのパフォーマンス、マルチプロセッシング サポートなどの高度な機能を要求する顧客ではありません。 Android アプリは広告を配信するように最適化されています。
Apple は、A11 Bionic の 2 つのパフォーマンスが最適化された汎用 CPU コアは、昨年の A10 Fusion のものより最大 25% 高速であると述べています。さらに大きな利点は、効率コアの数が 2 倍の 4 つになり、最大 70% 高速化されたことによるものです。
同じスペックの iPhone 7 と iPhone 8 (同じ RAM と同じディスプレイ解像度を共有) を比較した Geekbench テストでは、A11 Bionic はシングルコア スコアで 25%、マルチコア スコアで 80% 高速なスコアを記録しました。
Apple の最新チップは、新しいニューラル エンジン、GPU、カメラ ISP、および汎用プロセッサ ベンチマークで効果的に測定されるものをはるかに超えるその他の機能も提供しているため、これは特に注目に値します。
まったく対照的に、サムスンは何年にもわたって「オクタコア」プロセッサを販売してきましたが、実際にはコアあたりのパフォーマンスが遅く、ベンチマーク以外のアプリで複数のコアを効果的に活用するように最適化されていないOSを実行します。 Google自体もかつてはそのことを自慢していました造りが悪いNexus 7 は発売時に「基本的に 16 コア」(CPU コアと GPU コアの合計) を搭載しているとしていましたが、これは全くの誤りで無意味なマーケティング上の主張であり、速度向上にはつながりませんでした。実際には、最初から速度が速くなく、時間の経過とともにパフォーマンスが急速に低下しました。
Apple のマーケティングは、抽象的な技術仕様の量を過度に自慢するのではなく、現実世界のアプリケーションに焦点を当てており、たとえば、A11 Bionic は「驚くべき 3D ゲームと AR 体験用に最適化されている」と述べており、これらは毎日誰でも体験できると主張しています。 App Store の訪問者。
Apple は、CPU とは別に、システムの残りの部分を隔てたシリコン内に機密データ (指紋生体認証) を保存できるように、A7 の Secure Enclave も設計しました。 AppleはA11 Bionicに改良を加えたと述べたが、その内容については言及しなかった。
秘伝のソース SSD シリコンの速度、ストレージの確保
A11 Bionic には、カスタム ECC (誤り訂正コード) アルゴリズムを備えた超高速 SSD ストレージ コントローラーなど、他の特殊な機能もあります。詳しいとのインタビューでマッシュ可能。これはスピードだけを目的としたものではありません。 「ユーザーがデバイスを購入すると、当社のストレージの耐久性とパフォーマンスは製品全体で一貫したものになります」と Srouji 氏は述べました。
言い換えれば、デバイスに保存されているデータ (ドキュメント、アプリ、写真) は、破損やストレージ障害 (SSD セルの磨耗など) からよりよく保護されます。文字通り)、記憶やドキュメントを失う可能性が低くなり、時間の経過とともに不思議なことにデバイスの速度が遅くなるというイライラが軽減されます。これは多くの Android デバイスに共通する問題です。
Apple は、独自のカスタム NVMe SSD ストレージ コントローラを初めて導入しました。2015 MacBookこれにより、ソリッド ステート ストレージ (つまり、回転するハード ドライブではなくチップ) からの読み取りと書き込みのハードウェア側を最適化できるようになります。
その後、同社はそのテクノロジーを A9 内の iOS デバイスに導入しました。iPhone 6s。 NVMe は元々、家庭用電化製品ではなく、エンタープライズ市場を念頭に置いて作成されました。電話機に NVMe コントローラを追加するための既製のソリューションはなく、SSD ストレージにアクセスするための安価な既存の (古いものではありますが) プロトコルがあります。 Apple は独自に構築し、記述しました。
A11 Fusion は、明らかに Apple の第 3 世代 iOS ストレージ コントローラーを提供します。さらに興味深いのは、Apple がステージ上でこれについてさえ話さなかったことです。それは、もっとセクシーなことについて他に話すことが多すぎたためです。
2 年前、Apple の A9 はハードウェアベースの HEVC デコーダを導入し、デバイスが H.265 / 「高効率」ビデオ コンテンツを効率的に再生できるようにしました。昨年の A10 Fusion では、ハードウェアが導入されました。エンコーダ、iPhone 7 でコンテンツをその形式で作成および保存できるようになります。これらの高効率フォーマットの利点は、高解像度の写真やビデオが占めるスペースを大幅に削減できることです。
この新機能は iOS 11 で利用可能になり、カメラ設定の「高効率カメラ キャプチャ」の設定として公開されます。オンにすると、写真は HEIF (高効率画像フォーマット) を使用して圧縮され、ビデオは HEVC (高効率ビデオ コーデック) を使用して記録されます。
これらの高効率フォーマットの利点は、高解像度の写真やビデオが占めるスペースを大幅に削減できることです。
Apple は、新しい HEVC 形式で記録された 1 分間の 4K 30fps ビデオは約 170MB になると述べていますが、以前の H.264 を使用した同じものは 350MB となり、2 倍以上の大きさになります。
この HEVC コンテンツを再生するには、デバイスがそれをデコードできる必要があります。 A9 より前の iOS デバイスはソフトウェアでデコードできますが、効率的な専用ハードウェア デコードを使用するよりも時間がかかり、バッテリーへの負担が大きくなります。
HEIF ビデオは H.264 にトランスコードできます (変換には時間がかかります)。また、デフォルトで「最も互換性のある」に設定し、写真を JPG として保存し、ビデオを H.264 で保存することもできます。ただし、これにより、60fps で 4K ビデオをキャプチャするための新しいビデオ録画オプション (A11 Bionic iPhone に新しく追加された 24fps の映画設定も同様) が無効になります。
Apple が A11 Bionic 用に独自のビデオ エンコーダを開発し、その事実を公表したことは興味深いです。これまで Apple は、Microsoft の WMA、WMV、VC-1 など、さまざまな独自のオーディオおよびビデオ コーデックのサポートを組み込んだ既製のコンポーネントを iPod やその他のデバイスに使用してきました。 Apple はこの機能をアクティブ化せず、代わりに MPEG LA パートナーによって開発された業界標準を使用することを好みました。
MicrosoftがAppleが購入したチップ上のWindows Media IPからライセンス料を受け取ったかどうかは不明だが、より大きな問題はAppleが使いたくないものを含むコンポーネントの代金を支払わなければならなかったということだ。独自のビデオ エンコーダを構築することで、チップ プロバイダーが選択したコーデックの汎用パッケージではなく、サポートするフォーマットのみを最適化できます。
Google の YouTube は当初、iOS ユーザーに H.264 ビデオ コンテンツを提供するために Apple と提携しました。しかし同社はそれ以来、独自の技術を進歩させようとしているVP8On2 から取得した VP9 コーデック。 iOS ユーザーに H.264 ビデオを送信し続けていますが、高解像度の 4K YouTube コンテンツを H.264 または YouTube を 4K にする新しい H.265/HEVC で公開していません。利用不可ウェブ上の Safari ユーザーへ。
これにより、Apple TV 4K は「YouTube 4K コンテンツを再生できない」という説も生まれましたが、実際には、Apple TV 4K がデコードするように設計されているコンテンツの提供を拒否しているのは Google です。それがどうなるのか、そして今後GoogleがiOSデバイスでの4Kのサポートも拒否するのかどうかはまだ分からない。
iPhone 7、8、および X (iPad、Apple TV、Mac で使用されている最近の世代の Intel Core プロセッサーと併せて) に効率的で最適化された HEVC エンコーダーが搭載されているということは、ユーザーがはるかに多くの写真やビデオ (通常は最大のストレージ) を保存できることを意味します。より少ないスペースで。また、書き込み、移動、その後の消去が半分になるため、SSD ストレージの消耗も軽減されると考えられます。
ただし、HEVC によって可能になるもう 1 つのことは、より高いフレーム レートのコンテンツの録画です。 iPhone 8 および X では、60fps での 4K ビデオのキャプチャが可能になり、カメラのパンがよりスムーズになりました。 iPhone 7 の既存の 4K ビデオは細部まで鮮明ですが、カメラや被写体の動きが速すぎると、ジッター効果が生じる可能性があります。スムーズな 60fps キャプチャにより、ビデオの見栄えが大幅に向上します。
ただし、これはフレーム数の 2 倍であり、より高度な圧縮を行わないと、1 分のビデオで約 800 MB が消費されることになります。 HEVC を使用すると、最終ビデオのサイズは 4K 30fps キャプチャと同等になります。 HEVC の 60fps ビデオを再生するには、かなりの処理能力または専用のハードウェア デコーダが必要であることに注意してください。古い Mac では、iPhone 7 の既存の 4K クリップを再生するのにすでに問題があります。
A11 Bionic の残りの興味深い側面の 1 つは、Apple が詳しく説明したチップの部品を積み重ねると、完全に謎のままの表面積が大量に存在することです。