有料

偽情報の拡散 対策検討 政府 AI活用のリスク軽減


偽情報の拡散 対策検討 政府 AI活用のリスク軽減 政府が検討するAIのリスク軽減策ポイント
この記事を書いた人 Avatar photo 琉球新報朝刊

 政府は7日、生成人工知能(AI)の利活用に関するルール作りなどを議論する「AI戦略会議」を開き、偽情報の拡散や人権侵害といったリスクを軽減するための新たな対策の検討に入る考えを示した。具体策として、政府部門や医療、放送などリスクの高い8分野における活用の規制や、開発者に情報開示を促す仕組みの創設を挙げた。

 先進7カ国(G7)による国際ルールや国内向けの事業者ガイドラインの最終案が2023年末までに固まる見通しとなっている。政府はこうした動きも踏まえて23年度末までに基礎調査を行い、具体策の構築を進める考えだ。
 政府は高リスク分野として、政府部門、金融、エネルギー、運輸、交通、電気通信、放送、医療の8分野を例示。こうした分野で生成AIを用いたサービスを提供する場合、追加ルールの策定などにより規制を強める方向だ。リスクの低い分野についてはAI運用を巡る「ガバナンスポリシー」のような情報開示策を課す検討を進める。
 AIの開発者に対しては、リスク軽減や透明性向上のための情報開示を促す枠組みとして、第三者機関による認証制度を設けたり、外部監査を実施したりすることが検討対象となる。
 生成AIを巡っては、偽情報の拡散などが問題となっている。岸田文雄首相の声や画像を使い、性的な発言をしたように見せかけた偽動画がインターネットで拡散。生成AIを用いたとみられ、民放のニュース番組のロゴも使われていた。
 政府は今年10月、生成AIの国際ルール作りの枠組み「広島AIプロセス」に関するG7首脳声明を発表した。開発者向けの行動規範ではプライバシー侵害などを減らすため、開発段階で内部と外部による検証を要求。AIが生成したコンテンツと判別できる技術の開発や導入も求めた。AIの利用者にまで対象を広げたルールも策定する。