Openaiは、特定の将来のAIモデルにアクセスするために、組織がID検証プロセスを完了することをすぐに要求する場合があります。 サポートページによると 先週、会社のウェブサイトに公開されました。
検証済みの組織と呼ばれる検証プロセスは、「開発者がOpenAIプラットフォーム上の最も高度なモデルと機能へのアクセスを解除するための新しい方法」です。検証には、OpenaiのAPIによってサポートされている国の1つから政府が発行したIDが必要です。 IDは90日ごとに1つの組織のみを検証でき、すべての組織が検証の対象となるわけではない、とOpenaiは述べています。
「Openaiでは、AIが広くアクセス可能で安全に使用されることを保証するために、責任を真剣に考えています」とページを読みます。 「残念ながら、少数の開発者は、使用ポリシーに違反してOpenai APIを意図的に使用しています。AIの安全でない使用を緩和するための検証プロセスを追加し、より広範な開発者コミュニティが高度なモデルを利用できるようにします。」
Openaiは、開発者がプラットフォーム上の最も高度なモデルと機能へのアクセスを解除し、「次のエキサイティングなモデルリリース」の準備を整えるための新しい方法として、新しい検証済みの組織ステータスをリリースしました。
– 検証には数分かかり、有効なものが必要です… pic.twitter.com/zwzs1oj8ve
-Tibor Blaho(@btibor91) 2025年4月12日
新しい検証プロセスは、Openaiの製品がより洗練され、能力があるため、Openaiの製品の周りにセキュリティを強化することを目的としています。会社は持っています いくつかのレポートを公開しました 北朝鮮に拠点を置くとされるグループによるモデルの悪意のある使用を検出し、軽減する努力について。
また、IPの盗難を防ぐことを目的としている場合があります。今年初めにブルームバーグのレポートによると、 Openaiは調査を調査していました 中国に本拠を置くAIラボであるDeepseekとリンクしたグループは、2024年後半にAPIを介して大量のデータを除去しました。
Openai ブロックされたアクセス 昨年の夏に中国でのサービスに。
Views: 0