グーグルは、2024年に実施した不正広告対策のレポート「Ads Safety Report」を発表した。生成AI(大規模言語モデル、LLM)で51億件の広告を不正なものとして、ブロックしたり停止したりした。
レポートによれば、2024年、51億件以上の不正な広告がブロックまたは削除された。また、91億件以上の広告にも制限が課せられた。
広告アカウントに対しては、3920万件以上が停止となった。その半数以上は広告を一度も掲載する前に停止されたとのことで、前年実績と比べて3倍以上に増えた。これは、グーグルにとって悪意ある広告アカウントの活動前に先手を打てたことを示す。
停止後も復活しないよう本人確認のプロセスが導入済み。広告主が支払いをしている国に基づいて認証を進め、その認証に基づいて本人かどうかチェックする。実際、グーグルのプラットフォームで配信される広告の90%以上が、本人確認済みの広告主によるもの。
著名人のなりすましに対しては、2024年、偽の宣伝・提携を示唆する広告が増加する傾向にあった。多くはAIで制作された広告で、グーグル社内では100人以上の専門家を集めて詐欺を分析。効果的な対策を開発したという。この際にはGoogle DeepMindなどとも協力した。ディープフェイク動画のような広告に対しても、識別して不適切な使用を検知するモデルの開発・教科を進めている。
このほか、5億件の詐欺関連の広告がブロックまたは削除され、500万件以上のアカウントも、詐欺関連のポリシーに違反したため、停止された。
生成AIが活躍
グーグルで広告の安全性を担当するジェネラルマネージャーであるアレックス・ロドリゲス氏は「広告の安全性がWeb上のエコシステムにとって非常に重要であり、無料でアクセスできる豊富で多様なコンテンツを支えている」とコメント。信頼性と透明性を提供することがグーグルにとっても重要であり、生成AIが悪質な広告への対策において、大きな進歩をもたらしたと語る。
生成AIは悪質な広告の検出と対策の実行に役立ち、グーグル側の意思決定にも貢献。大規模言語モデルが検出能力を大幅に向上させ、新たな脅威の発見や悪用パターンの特定などに必要なデータを減少させているという。
たとえば、広告を掲載するWebサイトの運用者にとって、自社サイトのブランドや安全性を損なう広告は掲出したくない。グーグルのAIは、悪質なコンテンツの97%を検出しており、それを支えたのが生成AIだという。
ロドリゲス氏は、予防が鍵になると指摘し、被害発生前に防ぐことを目指すという。透明性も重要な視点であり、広告が不承認担った場合、その理由をわかりやすく伝える取り組みも進めていく。