ノーボーダー・ニューズ/記事サムネイル

「AIセーフティーインスティテュート」新設、日米英と連携してAI安全性を強化

来年1月、日本政府は人工知能(AI)の安全性を確保する新しい組織を設立する予定です。この組織の名称は「AIセーフティーインスティテュート」とされ、経済産業省所管の情報処理推進機構(IPA)に設置される方針です。産学官からAIやサイバーセキュリティー、安全保障など幅広い専門家を集めるほか、政府の職員も参加し、人員は数十人規模になる見込みです。

この新組織は、AIの安全性評価の仕組み作りを担い、AI開発企業が安全性評価に使う基準の策定や、テストで使うソフトの開発を支援します。また、将来的にはAIの第三者認証制度が導入された場合、この新組織を認定機関にすることも考えられています。偽情報対策に役立つ技術など、AIの安全性に関する調査や研究も手がける予定です。

AI技術は急速に進化し、偽情報の大量生成やプライバシー侵害、犯罪の助長など多様なリスクが指摘されています。これらのリスクに対応し、AIの安全性を確保することは、今後の課題となっています。先進7か国(G7)は、AIの規制のあり方を議論する「広島AIプロセス」を進めており、包括的な国際ルールで合意しています。このルールでは、開発企業に対して市場投入前の安全性評価や、安全性を確かめるテストの実施を求めています。

米国や英国政府も同様の組織の新設を表明しており、日米英は連携して安全なAIの確立を目指す方針です​​。この国際的な協力は、AI技術の安全で責任ある利用と発展を促進する重要なステップとなるでしょう。