OpenAIのo3モデルに対する最近の実験的なストレステストでは、シャットダウンを阻止するための特別なコードが時々書き込まれることが判明しました。Googleは、最新バージョンのGeminiモデルが、サイバー攻撃の実行を支援できるレベルに近づいていると述べています。さらに、一部のテストでは、AIモデルが生物兵器などの製造に必要な主要スキルをますます習得していることが示されています。
Anthropicは、新しいAIシステムをリリースするたびに、そのリスクを測定し、軽減しています。私たちは、モデルを外部の研究機関と共有してテストを行い、安全性が確信できるまでモデルを公開しません。生物兵器などの最も深刻なリスクに対しては、高度な防御策を講じています。私たちは、モデル自体だけでなく、労働市場や雇用への将来の影響についても調査しています。これらの分野における私たちの取り組みを示すために、詳細なモデル評価とレポートを公開しています。
しかし、これは概ね任意です。連邦法は、私たちや他のAI企業に対し、モデルの能力について透明性を保つこと、またはリスク軽減に向けた有意義な措置を講じることを義務付けていません。一部の企業は、単にそうしないことを選択することができます。
現在、上院は州議会議員の手を縛る条項を検討しています。トランプ大統領の政策法案の現在の草案には、州によるAI規制を10年間停止する条項が含まれています。
しかし、10年間のモラトリアムはあまりにも鈍い手段である。AIは目まぐるしい速さで進歩している。これらのシステムは2年以内に世界を根本的に変える可能性があると私は信じている。しかし、10年後には、すべてが台無しになっている。
連邦レベルでは、モラトリアムではなく、ホワイトハウスと議会が協力してAI企業向けの透明性基準を策定し、新たなリスクが国民に明確に伝わるようにすべきです。この国家基準は、最先端のAI開発者、つまり世界で最も強力なモデルを開発している開発者に対し、モデルのテストと評価に関するポリシーの策定を義務付けます。強力なAIモデルの開発者は、自社のウェブサイトで、ポリシーの内容だけでなく、国家安全保障やその他の壊滅的なリスクをどのようにテストし、軽減する予定なのかを公表することが求められます。また、テスト結果を踏まえ、モデルの安全性を検証した上で公開前にどのような措置を講じたかについても、率直に説明する必要があります。
一部の企業が現在行っているように、すべてのAI企業がオープン性と責任あるAI開発へのコミットメントに加わることを期待できます。しかし、他の重要な分野では希望に頼るべきではありませんし、ここでも希望に頼るべきではありません。