Bard という Google の大規模言語モデル ツールは、Gmail でトレーニングされたと主張していますが、Google はそのような事実はないと否定しています。
Bard は、大規模なデータセットに基づいて情報を提供できる生成 AI または大規模言語モデル (LLM) です。 ChatGPT や同様のツールと同様、実際にはインテリジェントではなく、「幻覚」と呼ばれる間違った動作をすることがよくあります。
Microsoft Research の著者で主任研究員である Kate Crawford のツイートには、Gmail がそのデータセットに含まれていることを示唆する Bard の反応が示されています。これが本当であれば、ユーザーのプライバシーの明らかな侵害になります。
しかし、GoogleのWorkspace Twitterアカウントが応答しました、Bard は初期の実験であり間違いを犯すだろうと述べ、モデルが Gmail から収集した情報でトレーニングされていないことを確認しました。 Bard Web サイトのポップアップでは、Bard が常にクエリを正しく処理できるわけではないこともユーザーに警告します。
これらの生成 AI ツールは絶対確実というわけではなく、アクセス権を持つユーザーは、通常は隠されている情報を引き出そうとすることがよくあります。クロフォードのようなクエリは有益な情報を提供することがありますが、この場合、バードは間違っていました。
生成 AI と LLM は、テクノロジー コミュニティで人気のトピックになっています。これらのシステムは優れていますが、初期段階では多くの問題も抱えています。
ユーザーは、Google 自体からも、Bard のような LLM が応答を提供するたびにウェブ検索に戻るよう促されています。それが何を言うかを見るのは興味深いかもしれませんが、それが正確であるという保証はありません。