◎記者の張夢然
後の人々が人工知能(AI)のために編年史を書く時、これはマイルストーンかもしれない。
なぜなら、人類が先進AIのリスクについてグローバル政策を推進する巨大な国際的なトップレベルの専門家グループによって、初めて制定されたからだ。
AIから離れられず、AI技術の発展にも力を入れる必要があるが、リスクを防ぐ能力が必要であることが明らかになった。
6カ月前に英国のブライチェリーパークで第1回AIセキュリティサミットが開催されて以来、世界各国の指導者はAIを責任ある方法で管理することを約束してきたが、AI専門家はそれでは不十分だと考えている。第2回AIセキュリティサミット(5月21日から22日)が韓国・ソウルで開催されたことに伴い、世界トップクラスのAI科学者25人が、AIリスクに対してより強力な行動をとるよう世界中で呼びかけた。
「サイエンス」誌に発表された専門家共通認識の記事では、専門家グループは世界が取るべき緊急政策の優先事項を概説している。文章の著者の一人である英オックスフォード大学工学科学科のフィリップ・トール教授は、「前回のAIサミットでは、世界は私たちが行動する必要があると一致したが、今は漠然とした提案を具体的な約束に変える時だ」と述べた。
安全性研究の深刻な欠乏
この25人の世界トップのAIとそのガバナンス専門家は、中国、米国、EU、英国、その他のAI技術強国から来ており、その中にはトゥーロン賞受賞者やノーベル賞受賞者が含まれている。AIリスクのグローバル政策策定について国際専門家グループが合意したのは初めて。
記事は、世界の指導者は今後10年以内に人類の能力を超えた汎用AIシステムを開発する可能性を真剣に考えなければならないと指摘した。彼らは、世界各国の政府が先進的なAIを検討し、初歩的なガイドラインの導入を試みているにもかかわらず、多くの専門家が期待している急速で変革的な進展とは距離があると述べた。
現在、AIセキュリティに関する研究は深刻に不足しており、1〜3%のAI出版物だけが関連するセキュリティ問題に関連している。また、世界には、独立して行動し、自ら目標を達成できる自治システムをどのように使用するかを含めて、乱用や無謀な行為を防止する適切な仕組みや機関がありません。
急速な発展の中で極端なリスクを防ぐ
記事は、各国政府は迅速に行動できるAI規制機関を構築し、これらの機関に資金を提供する必要があると提案した。米AIセキュリティ研究所の現在の年間予算は1000万ドルで、耳にすることは少なくないが、米国食品医薬品局(FDA)の予算は67億ドルに達している。
AI分野では、不明確なモデル評価に依存するのではなく、より厳格なリスク評価と実行可能な措置を策定する必要があります。AI研究開発企業に安全性を優先的に考慮し、そのシステムが傷害を与えないことを証明するように要求し、AI開発者は安全性を証明する責任を負わなければならない。
人々はAIシステムがもたらすリスクレベルに見合った緩和方法を持っていなければならない。解決の道はAIが何らかの能力マイルストーンに達すると「自動トリガ」する「自動」政策を制定することである。AIが急速に発展すれば、この厳しい要求は自動的に発効する。進行が遅い場合は、それに応じて減速する必要があります。
能力が優れた未来のAIシステムに対して、政府は率先して監視する準備をしなければならない。これには、開発の許可、重要な社会的役割における自己主権の制限、一部の能力の配備の停止、アクセス制御の強制、および人々が十分な保護措置を準備できるまで、国家レベルのハッカーに対して強力な情報セキュリティ手段を講じることが求められています。
AIはおもちゃではないことを肝に銘じて
ブリティッシュコロンビア大学のAI教授で強化学習分野の専門家ジェフ・クレナー氏は、宇宙飛行、核兵器、インターネットなどの技術は数年以内にSFから現実になり、AIも例外ではないと述べた。「SF小説のようなリスクに備えなければならない」。
現在、AIはハッカー攻撃、社交操作、戦略計画などの重要な分野で急速に進展しており、これまでにない「制御」に関する挑戦をすぐにもたらす可能性がある。AIシステムは、ある「悪い目的」を実現するために人間の信頼をだまし、資源を獲得し、重要な意思決定者に影響を与える可能性がある。人為的な介入を避けるために、グローバルサーバネットワーク上で独自のアルゴリズムをコピーすることもできます。
このような場合、大規模なサイバー犯罪、社会的操作、その他の危害は急速にエスカレートするだろう。公開衝突では、AIシステムは生物兵器を含む様々な武器を自主的に配備することができる。そのため、AIの進歩が制御されないと、最終的に大規模な生命損失、生物圏破壊、人類のエッジ化、絶滅につながる可能性が高い。
米カリフォルニア大学バークレー校のスチュルト・ルーセルコンピュータ科学教授は、「今回は権威ある専門家の共通認識の文章であり、業界を規範化する行為を自発的に制定するのではなく、政府に厳しく規制するよう呼びかけている」と述べた。
「企業はこれらの法規を満たすのは難しいと文句を言うかもしれませんが、いわゆる『法規が革新を殺す』という言い方はでたらめです」とラッセル氏は述べた。「先進的なAIシステムに真剣に取り組む時です。それらはおもちゃではありません。安全性を確保する方法を知る前に、簡単に能力を増強するのは完全に無謀な行為です」。
[
担当:宋雅娟]