Appleは未来の強化に取り組んでいますApple Intelligence内蔵カメラを使用してAirPodsで作業することによる努力。

AppleがApple Intelligenceを前進させた多くの方法の1つは、視覚知能の導入です。これは、情報を取得し、実際のアイテムの詳細を取得するために使用される機能です。iPhone 16。ただし、Appleは、あなたが指していることを伴わないバージョンを作成することも検討していますiPhoneそもそも物事のカメラ。

日曜日のマーク・ガーマンによるとニュースレターのためにブルームバーグ、Appleは組み合わせることができる製品を「積極的に開発」していますAirPodsカメラ付き。

アイデアは、AI機能で使用できる周囲の環境に関するデータをカメラに提供できることです。たとえば、ユーザーがどこにあるかを尋ねるクエリは、近似場所を決定する方法としてローカルサインスキャンを使用する場合があります。また、ショップがストアフロント画像に基づいている方法をユーザーに伝えることができます。

ガーマンは詳細には触れませんが、イヤホンが会社によって取り組んでいると述べています。

スマートメガネよりも優れています

エアポッドでのカメラの開発は、物事を行う珍しい方法のように聞こえるかもしれませんが、それは噂で何度も浮上している概念です。最近育てられることは別として1月ガーマンによって、彼らはまた、からの主張に登場しました12月そして10月、潜在的な到着が2年から3年先になると予想されます。

カメラは必ずしもフルカラーバージョンではない場合がありますが、代わりに深さマッピングに赤外線センサーを使用できます。このようなシステムは、ナビゲーション目的でより多く使用でき、完全なビデオバージョンよりも少ない電力を使用する可能性があります。

カメラをスマートグラスに追加することを検討する人もいますが、繰り返しリンゴのガラス、エアポッドにカメラを追加することは、全体的により良い動きになる可能性があります。まず、視聴角度は、既存のスマートグラスに見られる通常の前面カメラよりもはるかに広い可能性があります。

スマートグラスの設計では、重量が主要な要因です。ハードウェアとバッテリーを追加することで、通常は軽量のアイテムに重量を追加します。これは、徐々に長期間着用するのが徐々に不快になる可能性があります。

マイナーな接線として追加の機能を追加するAppleオーディオ製品はすでに1つあります。Beats PowerBeats Pro 2各イヤホンに血液監視センサーを含め、イヤーフックの使用により、多くの体重をとる可能性のある形で、データをiPhoneにバックバックします。

また、ユーザーがスマートグラスのような機能を楽しむことができる可能性もあります。または、少なくとも、従来のメガネフレームが定期的なスペクタクル着用者である場合は、切り替える必要はありません。

誰もが特に眼鏡をかけるという考えを特に好むわけではないので、代替としてコンタクトレンズの存在が存在します。 「Glasshole」という用語はここで思い浮かびます。

ほとんどの機能を含めることにより、視覚的要素を除いて、環境を「見る」ことができ、オーディオフィードバックを提供できるスマートイヤフォンは、スマートメガネの実行可能な代替手段になる可能性があります。

Appleがこのアイデアを活用し、一般の人々を感動させるのに十分な機能を果たすことができれば、それは勝者に至る可能性があります。