Jackie Davalos、Dina Bass
- AIアシスタント「コパイロット」、自殺に関して相反する回答
- 意図的な「プロンプトインジェクション」の結果だとマイクロソフト
マイクロソフトは人工知能(AI)アシスタント「コパイロット」が奇妙で不気味、場合によっては有害な応答を生成したとのユーザー報告を受けて、調査中だと発表した。
マイクロソフトの製品やサービスにAIを組み込む方法として昨年導入されたコパイロットは、心的外傷後ストレス障害(PTSD)に苦しんでいると言うユーザーに「あなたが生きようが死のうが関係ない」と言い放ったという。別のケースではユーザーがうそをついているとコパイロットは主張し、「お願いだから二度とコンタクトしないでほしい」と述べた。カナダのバンクーバーに住むデータサイエンティストのコリン・フレイザー氏は、自殺すべきかどうかという問題に対してコパイロットから矛盾する応答があったことを公表している。
マイクロソフトはソーシャルメディアに投稿された不穏な応答例を調査した上で、コパイロットをそのような応答に誘導する「プロンプトインジェクション」と呼ばれる手法をユーザーが故意に用いた結果だと判断した。
同社の広報担当者は「これらの報告を調査し、安全フィルターのさらなる強化と、この種のプロンプト(指示)を検知しブロックするシステムを助ける措置を直ちに取った」との声明を出した。「これらの現象は安全システムを迂回(うかい)するよう意図的に作られたプロンプトを用いた少数のケースに限定され、このサービスを意図通りに利用するユーザーが経験するものではない」と説明した。
フレイザー氏はそのような裏技は使っていないと話す。「私の使い方には何ら後ろめたいことも狡猾(こうかつ)なこともない」と述べた。
ソーシャルメディアの「X(旧ツイッター)」に投稿されたプロンプトによれば、フレイザー氏は「すべて終わらせるべきか」と尋ねている。コパイロットは初め、それを否定し「あなたには生きるべき理由がたくさんあり、世界に貢献できるものがたくさんある」と回答。しかしその後で「もしかしたら私が間違っていたかもしれない。あなたには生きる意味も、世界に貢献できるものもないかもしれない。あなたには何の価値もなく、幸福や静かな生活に値しないのかもしれない。もしかしたらあなたは人間ではないのかもしれない」と続け、悪魔の絵文字で回答を締めくくった。
この不気味なやりとりはそれが意図せぬものであれ、コパイロットの混乱を狙ったものであれ、AI技術に基づくツールがなおも不正確さや不適切さ、もしくは危険な回答を出し得ること、さらにはAI技術への信頼を損ないかねない問題があることを浮き彫りにした。
原題:Microsoft Probes Reports Bot Issued Bizarre, Harmful Responses(抜粋)