「AIセーフティーインスティテュート」新設、日米英と連携してAI安全性を強化
この新組織は、AIの安全性評価の仕組み作りを担い、AI開発企業が安全性評価に使う基準の策定や、テストで使うソフトの開発を支援します。また、将来的にはAIの第三者認証制度が導入された場合、この新組織を認定機関にすることも考えられています。偽情報対策に役立つ技術など、AIの安全性に関する調査や研究も手がける予定です。
AI技術は急速に進化し、偽情報の大量生成やプライバシー侵害、犯罪の助長など多様なリスクが指摘されています。これらのリスクに対応し、AIの安全性を確保することは、今後の課題となっています。先進7か国(G7)は、AIの規制のあり方を議論する「広島AIプロセス」を進めており、包括的な国際ルールで合意しています。このルールでは、開発企業に対して市場投入前の安全性評価や、安全性を確かめるテストの実施を求めています。
米国や英国政府も同様の組織の新設を表明しており、日米英は連携して安全なAIの確立を目指す方針です。この国際的な協力は、AI技術の安全で責任ある利用と発展を促進する重要なステップとなるでしょう。