WWDCでAppleが紹介したアップルインテリジェンスAI機能の拡張として。実際にそれを実行すると非常に印象的であり、それをそのままにしておくと、仕事のやり方が変わります。

Apple Intelligence の範囲と野心は今や驚異的ですが、まだベータ版ですらありません。何年もかけて開発されたこのプロジェクトは、ビデオ コンテンツを検索し、パーソナライズされた質問に答え、イメージできるあらゆる画像を作成するのに役立ちます。

年次開発者会議の基調講演では、プレゼンテーションの実行時間のほぼ半分がこれらの機能に費やされました。その後、私たちも実際に見ることができました。

仕事の一環で言葉をぶつける必要がある私にとって、Apple Intelligence のライティング ツールは際立っていました。これらはテキストフィールドがあればどこでも機能します。

テキストを選択すると、切り取り/コピー/貼り付けボタンが表示されるのと同じように、Apple Intelligence の書き込みツールが表示されます。

これは、ブログ アプリ、メール、メッセージ、ブラウザーで見つけることができます。 Apple Intelligence があなたの作品を校正し、書き直し、またはトーンを調整します。

Apple Intelligence は、あなたの文章に自信を与えるのに役立ちます

校正時に、各変更が強調表示されます。それらを個別に確認して何が変更されたかを知ることも、すべてを一度に受け入れることもできます。

テキストを書き直す場合は、これまでとは異なる解釈を与えるスタイルを選択できます。たとえば、近所の人に不快なメールを送信した場合、Apple Intelligence を使用してメールをよりプロフェッショナルで、より中立的なものに再構築できます。

私たちのトライアルでは、Apple Intelligence がインターンシップ応募メールを受け取り、イントロや感嘆符を置き換え、いくつかの疑わしい文章を言い換えて、元に書かれたものよりもはるかにプロフェッショナルに聞こえるようにしました。

私たちのデモでは、Apple の基調講演と同じくらい素晴らしく見えました。将来的には、Grammarly および Microsoft Word の文法およびスペル チェッカーと比較する予定です。

Apple Intelligence による画像の操作

Apple Intelligence が画像を操作する主な方法は 3 つあります。源文字文字を作成したり、説明に基づいて独自の画像を作成したり、写真を編集したりできます。

写真を自動的に編集することは長い間待ち望まれており、Google と Samsung は写真を操作する AI 機能を宣伝しています。現在、Apple はこの分野への第一歩を踏み出しています。

Apple の目標は依然として、写真の本来の意図を維持することであることは明らかです。つまり、人を加えたり、誰かの目を開いたり、泣いている赤ちゃんを笑顔に変えたり、そのようなことはするつもりはありません。

Apple Intelligence クリーンアップ ツールは気を散らすものを取り除くのに役立ちます

写真を選択すると、自動的に写真がスキャンされ、邪魔なものがないか探してくれます。画像を処理してこれらの気を散らすものを強調する、見栄えの良いアニメーションがもう 1 つあります。

それらのいずれかをタップするだけで、それらは削除され、存在しないピクセルが埋められます。 Apple は、写真内の編集画像をできるだけ自然に見せるために、テクスチャの保持、髪のエッジ、その他のニュアンスの検出に多大な労力を費やしました。

ほとんどの気を散らすものは、背景を歩いている人々、フレームに飛び込んできた鳥、その他の写真爆撃機などの大きなオブジェクトです。シミも除去できる可能性があります。

さまざまな状況によって異なりますが、可能な場合には必ず自分たちでテストする予定です。ただし、気を散らすものは手動で選択できるため、顔にある赤い点のようなものはおそらく削除できるでしょう。

まったく新しいイメージを生成するのは、まったく別の作業です。 Apple は、これらの画像を作成するための専用アプリ「Image Playground」さえ作成しました。

3 つの異なるスタイルで画像を生成

画像はスケッチ、アニメーション、イラストの 3 つのスタイルで作成できます。特に、フォトリアルはオプションに含まれていません。

Apple は、一般に公開されているアート、ライセンスされたアート、および委託されたアートに基づいて、目的に合わせて生成モデルをトレーニングしました。

画像が生成されると、アダルト コンテンツや著作権で保護されたコンテンツがないか複数のチェックが実行されます。これは、送信時、リモート サーバー上で、ユーザーに送信される前に発生します。

何か問題が発生した場合、ユーザーはフィードバックを提供することもできます。生成された画像は、EXIF データ内で Image Playground で作成されたものとしてタグ付けされます。私たちはすでに話し合いました

Image Playground で画像を生成できます

Image Playground を使って得た主な成果は、それがいかにうまく機能したかということでした。画像は非常に速く返され、返されると、ユーザーはその場でさまざまなスタイル間を素早く移動できました。

画像にさらに基準を追加すると、新しい基準が反復されて進化します。何かを削除すると、作成した前のバージョンに戻ります。

すべてが楽しくて、簡単で、親しみやすいと感じました。 Apple Intelligence によって書き換えられたテキストを見つけるのははるかに難しいため、これが人々が使用し、結果を共有する最も明白なツールになると予想されます。

Apple Intelligence と Siri

iOS 18 および macOS Sequoia 以降、シリApple Intelligence を活用して、パフォーマンス、精度、音声アシスタントの機能を向上させます。

おそらく、これは Apple Intelligence のレパートリーの中で最も重要な部分かもしれません。現在、Apple の顧客によって 1 日に何百万ものクエリが実行されており、成功の度合いはさまざまです。

Siri は、すべてデバイス上でローカルに個人情報を利用できるようになります。これは、ユーザーとユーザーのニーズをよりよく認識できることを意味します。

テキスト、電子メール、写真、ビデオ、スケジュールなどに関する質問に答えることができます。重要なのは、これは他の AI アシスタントでは同じ程度のプライバシーを保って実行できないことです。

新しい滑らかな呼び出しアニメーションから始まります。

Siri は iOS 18 でエッジからアニメーションするようになりました

サイドボタンから呼び出すと、Apple は画面を押しているように見えるこれらの微妙な効果を追加しました。短い停止の後、カラフルで生き生きとしたアニメーションがディスプレイの端に広がります。

光るオーブからのステップアップです。そして、それは音量ボタンにも及びます。

大きな変化の 1 つは、Siri との会話が非常に自然になったことです。自分の言葉につまずいたり、質問の途中で気が変わったりしても、Siri は理解します。 Appleは基調講演でこれを実証した。

Siri は、「アラームを午前 7 時にセットしてください。ごめんなさい、本当は 5 時 45 分という意味でした。」と頼まれました。案の定、目覚ましは5時45分にセットされていた。

アシスタントが複数の質問にわたって意識を維持できるようになり、コンテキストも改善されます。

Siri はサンフランシスコ ジャイアンツについて尋ねられ、最初の質問の後に「次にいつプレーするか」と尋ねられると、「彼ら」が誰であるかを理解しました。 Siri は、「それをスケジュールに追加して」と尋ねて終了したときに何をすべきかさえ知っていました。

アプリ内のこれらのインタラクションにはアプリ インテントが使用されており、開発者も利用できます。また、それぞれのインタラクションに独特の外観を与えます。

下部をダブルタップして Siri に入力します

この未リリースのベータ版であっても、それぞれのインタラクションは活発かつ流動的で、特に印象的でした。

ただし、使用するアプリによっては、これらの操作の一部が制限されます。たとえば、Apple Home などの一部のアプリでは、このような複雑でコンテキストを意識した会話が行われる場合があります。

「リビングルームの電気をつけて、シェードを30パーセント開けてください」とはまだ言えません。ただし、これらのことは今後も行われる予定であり、開発者は App Intent を利用することでさらに多くのことができるようになります。

ChatGPT は難しい質問に答えます

Siri はユーザーの個人的な知識を十分に把握しているように見えますが、より多くの情報が役立つ場合もあります。そこで、ChatGPT のオプションの統合が役に立ちます。

仕組みは、質問することです。 Siri はそれを 1 分間かみ砕いて、ChatGPT の方が役立つかもしれないと示唆しました。

その後、クエリを ChatGPT に渡すかどうかを毎回明示的に尋ねます。すでに一部の恐怖を煽っているのとは対照的に、ChatGPT はユーザーが行うすべてのクエリを把握しているわけではありません。

ChatGPT の使用を承認すると、承認した場合にのみ、Siri はクエリに関する限定的な情報を渡します。回答を返す前に、該当する場合は写真も含めます。

Siri は ChatGPT を利用して質問に答えることができます

これに関して注意すべき重要な点がいくつかあります。ユーザーは究極のコントロールを持っています。

ChatGPT は設定で有効にする必要があり、使用するたびに許可を求められます。ユーザーの IP も毎回難読化されるため、OpenAI はユーザーを過去の検索と照合することはできませんが、Apple は OpenAI の契約条件に従ってこれを明示的に禁止しています。

最後に、OpenAI はこれらの検索でトレーニングすることも許可されていません。

ただし、OpenAI アカウントでログインすると、状況はすべて変わります。そうすると、そのプロファイルの作成時に同意したポリシーに拘束されます。

OpenAI アカウントにログインしたときに ChatGPT の応答が変化するかどうかは、やがてわかります。夏が進むにつれてそれをテストする予定です。

有望なスタートだが、普遍的なスタートではない

私たちは Apple Intelligence の素晴らしさに感動してデモを終えました。これは、macOS、iOS、iPadOS のオペレーティング システム全体に浸透しており、日常のタスクの多くに影響を与えます。

これらのタッチの多くは、ここでは説明しませんでした。主に、メールのインテリジェントな管理、または重要なものに基づいて通知を分類します。

Apple Intelligenceは拡大するばかりです

ほとんどのAppleInsiderスタッフは新機能に非常に興味を持っています。ただし、この機能は待機リストの後ろで制限されることを期待しています。

しかし、その待機リストに関係なく、2024 年には HomePod にそれが搭載されることはありません。そしておそらく、家族内の既存のデバイスにはまったく搭載されないでしょう。

持っている場合は、ホームポッドあるいは複数の場合、Apple Intelligence や最新の Siri の恩恵を受けることはできません。これは、あなたのような他のデバイスにも当てはまります。アップルウォッチまたはサポートされていない Mac または iPhone。

それまでの間は、端末から Siri を呼び出してください。iPhoneHomePod に乗っ取られないように手動で行います。通信しているデバイスに基づいてクエリを調整する必要があります。

ただし、これらは単なる成長痛です。未来は明るく、Apple Intelligence には拡張の余地がたくさんあります。

Apple Intelligence はベータ版で開始されます。iOS18この秋にベータ機能としてリリースされる前に、今夏にリリースされます。 Apple Siliconプロセッサを搭載したすべてのMacで動作します。iPhone15プロとiPhone 15 Pro Max。