200人以上の指導者とノーベル賞受賞者が、2026年までに危険なAIの使用を国際的に制限するよう要請
2025-09-23 05:55

10人のノーベル賞受賞者を含む200人以上の一流の政治家、科学者、思想家が、AI技術のリスクについて警告を発した。国連総会のハイレベル・ウィークが始まった月曜日に発表されたこの声明は、「AIレッドラインのためのグローバル・コール」と呼ばれている。この声明は、AIの「現在の軌跡は前例のない危険性を示している」と主張し、2026年末までに明確で検証可能な制限に関する国際合意に向けて各国が取り組むことを求めている。ノーベル平和賞受賞者でジャーナリストのマリア・レッサは、冒頭の演説で各国政府に「普遍的に容認できないリスクを防止」し、AIに決してさせてはならないことを定義するよう促した。声明の署名者には、スティーブン・フライやユヴァル・ノア・ハラリといった著名な作家とともに、化学、経済学、平和、物理学のノーベル賞受賞者が含まれている。アイルランドのメアリー・ロビンソン元大統領や、同じくノーベル平和賞受賞者であるコロンビアのフアン・マヌエル・サントス元大統領も名前を連ねている。また、"AIのゴッドファーザー "として知られ、コンピュータサイエンスのノーベル賞とも言われるチューリング賞を受賞したジェフリー・ヒントンとヨシュア・ベンジオも声明に署名した。「これはターニングポイントだ。「テクノロジーが我々の理解を超えて社会を再構築し、我々の人間性の基盤を破壊する前に、人類はAIに対する明確なレッドラインについて合意しなければならない。AIに警鐘を鳴らすこれまでの取り組みは、企業や政府による自発的なコミットメントに焦点を当てることが多かった。2023年3月には、イーロン・マスクを含む1,000人以上のテクノロジー・リーダーが、強力なAIシステムの開発を一時停止するよう呼びかけた。その数ヵ月後には、オープンエーアイのサム・アルトマンやグーグルディープマインドのデミス・ハサビスといったAI幹部が、AIの実存的リスクを核戦争やパンデミックと同一視する簡潔な声明に署名した。AIは実存的・社会的リスクへの恐怖を煽る 先週、AIは10代の若者の自殺から、世論を操作するために使用されているという報告まで、さまざまな事件に関与していた。この呼びかけに署名した人々は、こうした差し迫ったリスクはすぐに、より大きな脅威に取って代わられるかもしれないと主張している。コメンテーターたちは、高度なAIシステムを放置すれば、大量失業やパンデミック、組織的な人権侵害につながる可能性があると警告している。禁輸リストには、殺傷力のある自律型兵器の禁止、自己複製AIシステムの禁止、核戦争にAIが投入されないようにすることなどが含まれている。「AIが人類に深刻で取り返しのつかない損害を与えることを防ぐことは、我々の重大な共通の利益であり、我々はそれに従って行動すべきである。2013年にノーベル平和賞を受賞した化学兵器禁止機関の前事務局長、アフメット・ユズムキュはそう語った。英国を拠点とするシンクタンク、デモスや北京AI安全ガバナンス研究所を含む60以上の市民社会団体がこの書簡に署名している。この取り組みは、カリフォルニア大学バークレー校の人間適合AIセンター、フューチャー・ソサエティ、フランスのAI安全センターの3つの非営利団体によって調整されている。OpenAIやAnthropicのような企業は、リリース前のモデルの政府テストに同意している。「待つ余裕はありません。「AIが我々の手に負えないほど進化する前に、我々は行動を起こさなければならない。これを読んでいるあなたは、すでに先を行っている。私たちのニュースレター.
https://www.cryptopolitan.com/nobel-winners-to-curtail-dangerous-ai-uses/