Apple は、iOS 14 と macOS Big Sur の Vision フレームワークを更新し、開発者がアプリ内で体や手のポーズやジェスチャーを検出できるようにします。

でデビューする新機能iOS14そしてmacOS ビッグサー2020 年後半に、WWDC 2020 ビデオセッション水曜日に。しかし、Appleは月曜日の基調講演ではそれについて言及しなかった。

ビデオで説明されているように、Vision フレームワークの更新により、アプリで人体や手のジェスチャー、動き、特定のポーズを分析できるようになります。

Apple は、開発者がその機能をどのように活用できるかを一連の例で示しています。

これには、ユーザーが実行しているエクササイズを自動的に追跡できるフィットネス アプリ、ポーズに基づいて写真やビデオ クリップを検索できるメディア編集アプリ、人間工学に基づいた正しい姿勢について従業員を訓練するのに役立つ安全アプリなどが含まれます。

ハンドジェスチャー検出アプリにより、ユーザーがサードパーティのアプリを操作する機会が増える可能性もあります。

Apple のブレット・キーティング氏は、ユーザーがディスプレイに触れずに指のジェスチャーを使用して iPhone アプリ内で「描画」できるようにする概念実証アプリを披露しました。

同社は、Vision はフレーム内の複数の人の手を検出できるが、手袋やローブのような服を着ている人、前かがみになったり逆さまになったりするような特定の姿勢をしている人ではシステムに問題が発生する可能性があると述べています。

2019 年に、Apple は Vision フレームワークを更新して、機械学習で猫や犬を見つける画像やビデオで。

一方、Apple のARKitも同様の分析機能を提供しますが、背面カメラを使用した拡張現実セッションに制限されています。ただし、Vision のアップデートはあらゆる種類のアプリで使用できる可能性があります。

Apple は、プラットフォーム全体で機械学習およびコンピューター ビジョン システムの開発を強化する措置を講じています。

新しいiPad Pro LiDARセンサーに追加される可能性があります。iPhone12」、モーション キャプチャが大幅に改善されました。2020 のポートレート モードiPhone SEまた、機械学習のみに依存して、写真の被写体を前景から撮影