「AIのゴッドファーザー」を含む専門家は、人工知能はパンデミックや核戦争と同じくらい危険であり、厳しく管理される必要があると主張している。

Future of Life Institute は以前、公開書簡AIの危険性を警告する内容で、スティーブ・ウォズニアック氏やイーロン・マスク氏を含む1,000人以上が署名した。その書簡は、AI システムの「制御不能な」開発と表現される内容に関するものでした。

今回、AI安全性センター(CAIS)は、人工知能のリスクについて「議論を開く」ことを目的とした「簡潔な声明」を発表した。

AI による絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきです。

「AIの専門家、ジャーナリスト、政策立案者、そして一般の人々は、AIによる広範な重要かつ緊急のリスクについてますます議論するようになっている」とCAISは述べている。ウェブサイトで。 「それでも、高度な AI の最も深刻なリスクの一部について懸念を表明するのは難しい場合があります。」

「(声明は)また、先進AIの最も深刻なリスクの一部を真剣に受け止めている専門家や著名人の数が増えているという共通認識を生み出すことも目的としている」と続けている。

現在、OpenAI CEOのサム・アルトマン氏やAIに取り組むGoogleの幹部やマネージャーら数名を含む約370人の専門家がこの声明に署名している。彼はほとんどのものを持っています最近反対した同氏によれば、EU​​によるAIの「過剰規制」の可能性があるという。

CAIS はサンフランシスコに拠点を置いています。 LinkedIn の投稿やオンライン ニュースレターに基づくと、2021 年から設立され、2023 年初めに拡大されたようです。

組織そう言う「資金、研究インフラ、教育リソースを提供することで、AIの安全性の研究分野」を拡大することを目的としている。これらには、NeurIPS 2022 での機械学習安全性ワークショップへの 10 万ドルの資金提供が含まれています。

CAISの声明の署名者にはジェフリー・ヒントン博士も含まれる。 「AIのゴッドファーザー」として知られるヒントン氏最近辞めたGoogle からは、AI の危険性についての意識を高める必要があるとして、