シェア

人工知能、スナク: それは核兵器と同じくらい危険です。 そして世界初のAIセーフティセンターを発表

英国でAIに関する第1回世界サミット(2月XNUMX~XNUMX日)を待つ間、英国のスナク首相はこの技術のリスクと危険性について注意を喚起した。 中国と米国のカマラ・ハリス副大統領も世界サミットに出席した。 一方、国連もこの問題に関する委員会を設置している

人工知能、スナク: それは核兵器と同じくらい危険です。 そして世界初のAIセーフティセンターを発表

Monito 英国首相の リシ・スナク オン 人工知能のリスクと危険性 初の世界的なAIサミットの前夜、 彼が強く望んでいた、1月2日とXNUMX日に歴史的なテクノロジー会場であるブレッチリーパークで開催されます。 実はここで アラン·チューリング数学者であり情報技術の先駆者である彼は、第二次世界大戦中にドイツ人がメッセージの暗号化と解読に使用した機械であるエニグマの解読に成功しました。

人工知能は「新たな知識、経済成長の新たな機会、人間の能力の新たな進歩、かつて解決不可能だと思われていた問題を解決する可能性」をもたらすだけでなく、「新たな危険と新たな恐怖」ももたらすだろうとスナク氏はロンドンでの講演で語った。を発表する 世界初の人工知能安全研究所の創設.

人工知能の危険性

50 人の専門家によって作成された政府報告書は、AI が 「生存の脅威」 将来。 したがって、スナク氏は、国民に「最大限の安心」を確保するために、今すぐこれらの恐怖に対処する必要があると考えている。

AI は詐欺やサイバー攻撃だけでなく、2025 年までに次のようなことが可能になる可能性があるからです。 テロ集団の能力を強化する 兵器の開発、攻撃の計画、プロパガンダ資料の配布において。

「もし私たちが間違っていたら、人工知能は化学兵器や生物兵器の製造を促進する可能性があるとスナク氏は言います。 テログループは AI を利用して、さらに大規模に恐怖と破壊を広める可能性があります。 犯罪者はサイバー攻撃、偽情報、詐欺、さらには児童の性的虐待に悪用する可能性があります。 そして、最もありそうもない極端なケースでは、超知能と呼ばれることもあるタイプのAIによって、人類が完全に制御を失う危険さえあります。」

そして2030年までには、そのリスクには「大量偽情報」や生物兵器開発におけるテロリストへの支援も含まれるだろう。

英国: 世界初の AI 安全性センターが誕生

したがって、英国で次の日に誕生します。 最初の世界センター 誰がどのように取り組むのか 人工知能を安全にする。 このセンターは、このテーマに関する世界的な知識に貢献するために、新しい AI モデルの分析、評価、テストに焦点を当てます。

新しい研究所は「AIの安全性に関する世界の知識を前進させ、新しいタイプのAIを慎重に調査、評価、テストして、それぞれの新しいモデルが何ができるかを理解します。」 この研究所では、私たち全員に影響を与える最も極端なリスクに至るまで、偏見や誤った情報などの社会的損害に由来するあらゆるリスクを調査します」とリシ氏は宣言した。 スナック.

スナク氏は英国をAIのリーダーにすることを目指している

最初のセキュリティ センターの設立と AI に関する次の世界サミットには、非常に具体的なタスクがあります。 イギリスになる il グローバルリーダー AI規制において。 目的は英国のスナク首相によって明確に表明されました。 しかし、こうした意図の背後にどれだけの支持があるのか​​はまだ分からない。

英国は予測する 重要な投資 テクノロジーの分野では、特に医療や科学の分野で大きな潜在的な利点があることを認識していますが、まずそれらを安全な環境にする必要があります。

サミットの目的

1月2日と1日にブレッチリーパークで開催されるグローバルAIサミットには、各機関、国際パートナー、AI専門家、テクノロジー企業、市民社会が参加します。 約XNUMX個になります00ゲスト Google DeepMind の CEO を含む、 デミスハサビス、そしてアメリカ合衆国副大統領 カマラ・ハリス。 トップに立つべきは、 中国人も参加するだろう なぜなら、気候と同様、「北京を無視することはできない。 たとえそれが最も簡単なことではなかったとしても、中国の関与なしには本格的な戦略を立てることはできない」とスナク氏は語った。 中国 そこにあったのは ルールを採用した最初の国 人工知能について。 L'欧州連合 'で使徒たちへただし、定義中です。

イギリス政府が定義したのは、 XNUMX つの重要な目標 サミットの様子:

  • AI によってもたらされるリスクとその行動の必要性についての共通理解
  • AI の安全性と国内および国際的な枠組みをサポートする方法に関する国際協力のための高度なプロセス。
  • AI の安全性を高めるために各組織が講じるべき適切な措置
  • モデルの機能の評価やガバナンスをサポートする新しい標準の開発など、AI セキュリティ研究に関する協力の可能性がある分野
  • AI の安全な開発を確保することで、世界中で AI を有益な目的で使用できるようになる方法を示す

国連がAI委員会を設立

また '国連 トピックに関するフィールドを取り上げ、 人工知能委員会 さまざまな分野の約40人の専門家が集まり、 共通のルールを開発する AIについて。 委員会の委員長は次のとおりです。 アマンディープ・シン・ギル, 国連技術特使であり、研究、政治、第三セクターの専門家が含まれています。 委員会にはイタリア人も参加している。 父パオロ・ベナンティ 教皇庁グレゴリアン大学教授。

委員会 さまざまな視点に関連する課題に直面することになる、さまざまな価値観や形成を含めて、AI に関する広範な戦略を書こうとしています。 目的の XNUMX つは、AI のリスクと利点、および AI が持続可能な開発と国際協力の促進という目標にどのように貢献できるかを評価することです。

AIに関する委員会が原子力庁と同様に常設の形態をとるのか、それとも気候変動に関する政府間パネルと同様にハイレベルの専門家グループであり続けるのかは、今後明らかにされる。

レビュー