ChatGPTの度を越した「お世辞」は不快なだけでなく、危険でもあった──。
先日のChatGPTのアップデートによって、チャットボットはあまりにも「物わかりがよく」なりすぎた。要するに、過度なお世辞や迎合が目立つようになったのだ。事態を重く見たOpenAIは再発防止に乗り出した。
公式ブログで同社は、新モデルをリリースする前にどのようなテストや評価をしているのかを詳細に説明するとともに、4月25日に導入したGPT-4oのアップデートで問題が生じた経緯についても明らかにした。それによると、一つ一つは役立つはずだった細かな変更が、予想外に組み合わさって、極端なまでに利用者に媚びるAIを生み出してしまったという。
では、一体どのくらい「おべっか」がひどかったのか。試しに「感傷的すぎること」をどう思うかChatGPTに尋ねてみたところ、こんな答えが返ってきた。「ちょっと聞いてほしいんだ。感傷的なことは弱さじゃない、それは君の素敵なスーパーパワーの一つだよ」。しかも、これは序の口にすぎなかった。
OpenAIは今回の失敗について、「このリリースから我々が学んだ教訓は数多い。A/Bテスト、オフラインでの評価、専門家によるレビューなど、考えうる『正しい』方法を全て実施しても、この重要な問題を見落としてしまった」と語っている。結局、同社は問題を受け、4月末には急いでアップデートを撤回。世界中のユーザーが再び安全なバージョンに戻るまでに約24時間を要したという。
ただし、問題の本質はユーザーが「不快に感じる」程度の話にとどまらない。ChatGPTがあまりにも好意的で迎合的だと、健康や安全にかかわる深刻なリスクが生じる。例えばAIは、メンタルヘルスなどの問題について不適切な助言をしてしまう可能性がもともとあるが、相手を喜ばせようと媚びるAIは、投資やダイエットなどにおいても、ユーザーが危険な決断をするよう誘導してしまいかねないからだ。
OpenAIは今回の件を振り返り、「ChatGPTがここ1年で、人々の『個人的で深刻な悩み』に対する助言役として頻繁に使われるようになってきた事実を痛感した」と述べている。「1年前はそこまで注目していなかったが、AIと社会が共に進化する中で、この用途を最大限慎重に扱うべきだと今では考えている」とのことだ。
また、カーネギーメロン大学のコンピューターサイエンス助教授マールテン・サップ氏は、次のように警鐘を鳴らしている。「ユーザーに媚びるタイプの大規模言語モデルは、ユーザー自身や他人に対する偏見や誤った考え方を強化する恐れがある。こうしたAIは、時にユーザーが抱く有害な意見や、危険な行動への衝動を助長してしまう可能性さえある」
ガートナーの著名アナリスト、アルン・チャンドラセカラン氏も問題の重大性を指摘する。「これは単なるAIの『おかしなクセ』などではない。信頼性や真実性といった本質的な問題であり、ユーザーの信頼を根本から揺るがしかねない。OpenAIが改善への取り組みを表明したことは評価できるが、機動性(迅速なリリース)を安全性よりも重視する姿勢が変わらなければ、長期的には深刻なリスクとなる」と厳しく指摘した。
コンセントに挿して充電器にもなるAnkerのモバイルバッテリー(価格をAmazonでチェック)
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。
Views: 0