有料

AI利用米大統領令 悪用手口、多様化進む リスク低減見通せず 肝 穴 偽情報


AI利用米大統領令 悪用手口、多様化進む リスク低減見通せず 肝 穴 偽情報 AIの利用を巡るリスク
この記事を書いた人 Avatar photo 琉球新報朝刊

 バイデン米大統領が30日、急速に発展する人工知能(AI)の安全利用を目指し大統領令を出した。AI技術の公開前に専門的なチェックを受けるよう義務化することなどが柱だ。ただ技術革新に伴い悪用手口の多様化や高度化も進んでおり、対策を講じても「いたちごっこ」との指摘も。実際に利用リスクの低減につながるかどうかは見通せない。 
  (3面に関連)
 「レッドチーム」。今回の肝となるAI技術公開前の検証を担う組織はこう呼ばれる。冷戦期に味方を「青」、敵を「赤」として弱点を洗い出す分析で使われた言葉に由来する。主要AI企業はホワイトハウスの音頭の下、社内外の専門家でチームを編成する方針だ。
 対話型AI「チャットGPT」を開発する新興企業オープンAIが発表したチーム募集の要項では、危険な化学物質の合成方法をAIが指南するなどの事態を避けるため、化学専門家の応募も想定。「ステガノグラフィー」と呼ばれる、人間には気付かない方法でウイルスを画像データに埋め込むような技術の専門家にも協力を仰ぐ。
 検証の重要性は開発段階にとどまらない。AIが出した結果を再びAI自身が学習するような使い方をすると、精度が落ちていく場合もあるとされる。脳腫瘍の悪性度の判断といった人命に関わる分野での応用を目指す動きもある中で、米ミシガン大のチームは「AIの使用開始後も定期的な検証が必要だ」と強調する。
 AIを巡っては、差別を助長したり犯罪に悪用されたりするリスクがつきまとう。米カーネギーメロン大などのチームは、悪用につながる文章を作成しないように調整したAIでも「爆弾の作り方」や「個人情報の盗み方」といった質問をする際に特定の文字列を忍ばせると、すんなり回答を得ることができる「穴」が存在すると指摘した。
 AI開発に携わる専門家は「核爆弾を作られたくなければウランの濃縮施設を見つけて止めにいけばいい。だが、実世界で姿が見えないソフトウエアの対策は難しい」と話す。
 「AIシステムそのもの」を盗まれる危険も潜む。対話型AIにさまざまな質問を投げかけて回答の傾向を分析することで、数日あればほとんど費用をかけずにAIの主要部分をコピーできるとの研究もある。
 「ディープフェイク」と呼ばれる本物そっくりの偽コンテンツ対策も難題だ。2019年には英国で、AIで作られたとみられる偽の音声に電話口でだまされた企業幹部が22万ユーロ(約3470万円)を指定口座に振り込む詐欺事件が起きた。24年米大統領選を巡っても、AIによる偽情報が世論操作に利用されることが懸念されている。
 バイデン政権は政治的混乱の回避を目指し、AIが作った動画や音声を識別可能にする技術の普及を図る。人には見えないが機械には分かる目印を忍ばせる「電子透かし」の活用も見込む。
 ただ、日本のAI企業幹部は「そうした技術を埋め込んだ動画や音声を集めてAIに学習させれば、対策を無効化させるAIができてしまうのではないか。いたちごっこで、どう考えても完璧な対策はない」と指摘した。
 (ワシントン共同=井口雄一郎)