AIアシスタント「Claude」の開発元であるAnthropicが、大手音楽会社のユニバーサル・ミュージック・グループ(UMG)などとの間で抱える著作権にまつわる訴訟で、存在しない論文を引用して主張を補強しようとしたことが指摘されています。
Anthropic expert accused of using AI-fabricated source in copyright case | Reuters
https://www.reuters.com/legal/litigation/anthropic-expert-accused-using-ai-fabricated-source-copyright-case-2025-05-13/
Did Anthropic’s own AI generate a ‘hallucination’ in legal defense against song lyrics copyright case? – Music Business Worldwide
https://www.musicbusinessworldwide.com/did-anthropics-own-ai-generate-a-hallucination-in-legal-defense-against-song-lyrics-copyright-case/
Anthropic’s lawyer was forced to apologize after Claude hallucinated a legal citation | TechCrunch
https://techcrunch.com/2025/05/15/anthropics-lawyer-was-forced-to-apologize-after-claude-hallucinated-a-legal-citation/
UMGと、UMG経由で配給を行っている独立系音楽会社のコンコードミュージック、ABKCOは、AnthropicがAI「Claude」をトレーニングするために、著作権で保護された歌詞を許可なく利用したと主張。2025年4月25日に修正訴状を提出しました。
これに対し、Anthropicのデータサイエンティストであるオリビエ・チェン氏は4月30日、ユーザーがClaudeに対して著作権で保護された歌詞を出力するよう求めるプロンプトをどれぐらいの頻度で使用しているかというサンプルサイズの妥当性を主張するため、学術誌「The American Statistician」に掲載された論文を引用した反論書類を提出しました。
Anthropic側の主張は、ユーザーがClaudeに歌詞をリクエストするのは非常にまれな出来事であるというものです。
しかし、原告側のマット・オッペンハイム弁護士が論文の著者として名前が挙がっている人物およびThe American Statisticianに連絡を取ったところ、そのような論文は実在しないことが判明しました。
オッペンハイム弁護士はロイターの取材に対し「チェン氏がウソをつこうとする意図があったとは思わないが、Claudeを利用して書類を書いた際に『幻覚』が含まれたのではないでしょうか」とコメントしています。
「幻覚」は、AIが誤った情報を出力すること、およびその出力された誤った情報のことを指し、2023年にケンブリッジ辞典のワード・オブ・ザ・イヤーに選ばれています。
2023年のワード・オブ・ザ・イヤーに「幻覚」が選ばれる、生成AIに関する新しい意味の追加で – GIGAZINE
Anthropic側のサイ・ダムル弁護士は「引用のミスがあった」と弁解した上で、AIによる捏造は否定し、「原告側は指摘するのを遅らせて、我々を『サンドバッグ』にしている」と主張しました。
しかし、裁判を担当するファン・キューレン判事は「書類の見落としとAIの生成した幻覚とのあいだには大きな違いがある」と、ダムル弁護士の主張に異議を唱えています。
ちなみに、アメリカではカリフォルニア州の判事が「2つの法律事務所がAI生成の虚偽の調査結果を法廷に提出した」と非難する事態が2025年5月に発生しています。また、2025年1月にオーストラリアで、弁護士が裁判の書類を作るのにAIを利用して「幻覚」が混入した事例が報告されています。
この記事のタイトルとURLをコピーする
🧠 編集部の感想:
Anthropicが引用した論文が存在しなかったとは驚きです。AIが生成した情報の信頼性について再考が必要であり、法的な文脈での影響も大きいと感じます。また、AIの「幻覚」が実際に法廷で利用されるという事態は、AI技術の限界を浮き彫りにしています。
Views: 2