新しいトレンドがバイラルになることには多少懸念されています。人々はChatGptを使用して、写真に示されている場所を把握しています。
今週、Openaiは最新のAIモデルをリリースしました。 O3およびO4-MINIどちらもアップロードされた画像を介して独自に「理由」があります。実際には、モデルは写真をトリミングし、回転させ、ズームインすることができます – ぼやけて歪んだものでさえ、それらを徹底的に分析することができます。
これらの画像分析機能は、モデルのWebを検索する能力と組み合わせて、強力な位置調査ツールを作成します。 Xのユーザーは、特にO3が推測するのが非常に得意であることをすぐに発見しました 都市、 ランドマーク微妙な視覚的な手がかりからのレストランやバーでさえ。
うわー、それを釘付けにし、目の前にある木でさえありませんでした。 pic.twitter.com/bvcoe1fq0z
– swax(@swax) 2025年4月17日
多くの場合、モデルは過去のChatGPTの会話の「記憶」を描いているようには見えません。 exifデータこれは、写真が撮影された場所などの詳細を明らかにする写真に添付されたメタデータです。
Xは、ChatGptを提供するユーザーの例で満たされています レストランメニュー、 近所のスナップ、 ファサードそして 自画像O3に「Geoguessr」をプレイしていることを想像するよう指示します。これは、Google Street View画像の場所を推測するようプレイヤーに挑戦するオンラインゲームです。
これは楽しいChatGpt O3機能です。 Geoguessr! pic.twitter.com/hrcmixs8yd
– ジェイソンバーンズ(@vyrotek) 2025年4月17日
これは明らかな潜在的なプライバシーの問題です。悪い俳優がスクリーンショッティングを妨げるものは何もありません。たとえば、人のInstagramストーリーを使用して、ChatGptを使用してDoxxを試みます。
O3は非常識です
私は私の友人にランダムな写真を与えるように頼みました
彼らは私に図書館で撮ったランダムな写真をくれました
O3は20秒でそれを知っていて、それは正しいです pic.twitter.com/0k8dxifkoy– ユミ(@izyuuumi) 2025年4月17日
もちろん、これはO3とO4-Miniの発売前でも行うことができます。 TechCrunchは、Modelsの位置推測スキルを比較するために、O3と画像の味付け機能のない古いモデルGPT-4Oを通じて多くの写真を実行しました。驚くべきことに、GPT-4Oは同じようにO3と同じように正解に到達し、頻繁に到着し、時間が少なくなりました。
O3がGPT-4oができなかった場所を見つけた短いテスト中に、少なくとも1つのインスタンスがありました。薄暗い照明のバーに紫色のマウントされたサイの頭の写真を考えると、O3は、それがウィリアムズバーグの話すことからのものであると正しく答えました。
これは、この点でO3が完璧であることを示唆するものではありません。私たちのテストのいくつかは失敗しました – O3はループで立ち往生し、それが合理的に自信を持っているか、間違った場所を志願した答えに到達することができませんでした。 Xのユーザーも、O3になる可能性があると述べました かわいい 遠い その場所控除。
しかし、この傾向は、より有能でいわゆる推論AIモデルによって提示される新たなリスクのいくつかを示しています。 ChatGptでこの種の「逆位置検索」を防ぐための保護手段はほとんどないようで、ChatGPTの背後にある会社であるOpenaiはその問題に対処していません 安全レポート O3およびO4-MINIの場合。
コメントを求めてOpenaiに連絡しました。彼らが応答した場合、私たちは私たちの作品を更新します。
更新された午後10時19分太平洋:この物語が公開されてから数時間後、OpenaiのスポークスマンがTechCrunchに次の声明を送信しました。
「Openai O3とO4-MINIは、視覚的推論をCHATGPTにもたらし、アクセシビリティ、研究、緊急対応の場所の特定などの分野でより役立ちます。私たちは、プライベートまたはデリケートな情報の要求を拒否するようにモデルを訓練するために取り組みました。
Views: 0