金曜日の報道によると、Appleは顔認識や音声認識などの人工知能タスクを処理できるiPhoneなどのデバイスと統合するための専用チップを開発しているとのこと。

社内では「Apple Neural Engine」と呼ばれるこのシリコンは、AmazonのAlexaやGoogle Assistantなどの製品で過去1年間に急成長した急成長するAI市場を飛び越えようとするAppleの試みである。関係者によると、このチップは設計されています他の方法では人間の知性を必要とする複雑なタスクを処理するため、ブルームバーグ報告します。

Apple デバイスにはすでに AI テクノロジー (Siri 仮想アシスタントや基本的なコンピューター ビジョン アセット) が組み込まれていますが、専用チップがあればユーザー エクスペリエンスはさらに向上します。さらに、既存の A シリーズ SoC から AI 関連の計算処理をオフロードすることで、iPhone や iPad などのポータブル デバイスのバッテリー寿命が向上する可能性があります。それが実現すれば、この戦略は、Google やその Tensor Processing Unit などの競合メーカーが導入したチップと同様になるでしょう。

AppleはプロトタイプiPhoneでApple Neural Engineをテストしており、写真の顔認識、音声認識、iOS予測キーボードなどのコアアプリケーションをチップにオフロードすることを検討していると報告書は述べている。この情報筋によると、AppleはTouch IDなどの主要なハードウェア機能のAPIと同様に、AIシリコンへのサードパーティ開発者のアクセスを開放する計画だという。

このチップが今年後半の iPhone リビジョンに搭載されるまでに間に合うかどうかは不明だが、今日のレポートでは、Apple が来月の WWDC で Apple Neural Engine に関する取り組みを発表する可能性があると推測されている。

Apple が AI および関連する拡張現実技術に関心を持っていることは十分に文書化されています。 CEOのティム・クック氏は、Appleブランドのブランドであることを何度も示唆してきた。ARソリューション地平線上にあります。同社はAIに対する野心についてあまり積極的ではなかった。

しかし、その秘密の覆いは徐々に解けつつあります。カンファレンスで去年, Appleの人工知能研究担当ディレクター、ラス・サラハトディノフ氏は、AI研究に取り組む従業員が研究結果を発表し、その分野の学者と交流できるようになったと述べた。研究者の多くは自分の研究について同僚と話し合うことを好むため、企業方針の変更は価値の高い人材を維持するために設計されたと考える人もいる。

IP禁輸措置が解除されてからわずか数週間後、Appleは先進的なトレーニング方法に焦点を当てた初のAI研究論文を発表したコンピュータビジョン合成画像を使用してオブジェクトを認識するアルゴリズム。

Apple は、買収や個人雇用を通じて、人工知能と拡張現実のチームを積極的に構築してきました。たとえば、昨年8月、同社は急成長した機械学習スタートアップ Turi約2億ドルで。この買収は、Apple が別の機械学習スタートアップを買収してから 1 年も経たないうちに行われました。感知、および自然言語処理会社ボーカルIQSiri や iOS、MacOS、tvOS、CarPlay の特定の側面などの社内テクノロジーを強化します。

今年初めに、Apple は AI パートナーシップに加盟しました。創設メンバー、Siriの共同創設者でApple AIの専門家であるTom Gruberがグループの取締役会に任命されました。

つい最近では、アップル2月に同社のAI研究開発チームのハブとして機能するシアトルのオフィスを拡張する計画を明らかにした。同社では「」にも取り組んでいる。とても違う「日本の横浜にある研究開発施設での AI テクノロジー。