有料

感情の不当操作抑止 急速な技術進化に対応


この記事を書いた人 Avatar photo 琉球新報朝刊

 政府が人工知能(AI)ガイドライン(指針)の実効性を確保するため策定するチェックリストには、AI開発企業や団体が留意する計25項目程度にわたる注意点を盛り込んだ。AIの急速な技術進化に対応し、利用者の意思決定や感情を不当に操作することを抑止するなど、項目は多岐にわたる。
 リストには、AIが利用者に合った情報を提供するあまり、好みの情報以外が届かなくなる「フィルターバブル」を避ける措置を加える。特に選挙情報では、利用者の支持政党の情報に偏らない、多様な価値観に基づいた情報の提供に留意するよう求める。
 AIでロボットを操作する際はロボットが制御不能になる危険を最小限にするよう要請する。AIを人間の脳や身体と連携させる場合は、諸外国や研究機関の生命倫理の議論を参照することも大切だと指摘した。
 利用者がAIに過度に依存し、重要な判断をAIに任せきりになることを防ぐ機能を取り入れ、AIサービスを提供する企業にリスクや安全性について情報を提供することも要請する。
 明治大の湯浅墾道教授(情報法)は「AIはまだ新しい分野のため、事業者では対応を判断しにくい。チェックリストがあれば事業者は分かりやすくなり、リストに沿えばいいので結果的に負担が軽くなる利点がある。リストの中身も全体を網羅している」と評価した。
 欧州連合(EU)は日本と違って、違反すると巨額の制裁金を科す包括的な法規制を実施する見通しだ。湯浅教授は「法規制まで踏み込むと、日本ではコンプライアンス(法令順守)の面で過剰反応してしまう可能性もある。
 またグローバル展開する海外企業が法規制の網を逃れ、対象となる国内企業と不公平になる恐れもある。法規制は最後の手段だ」と語った。