ライバルが「ハイリスク」AIをリリースした場合、Openaiは保護手段を「調整」することができます

Openaiは持っています 更新 その準備フレームワーク – AIモデルの安全性を評価し、開発と展開中に必要な保護手段を決定するために使用する内部システム。アップデートでは、Openaiは、競合するAIラボが同様の保護を行うことなく「ハイリスク」システムをリリースする場合、安全要件を「調整」する可能性があると述べました。

この変更は、商用AI開発者がモデルを迅速に展開するという競争圧力の増加を反映しています。 Openaiはそうです 安全基準を下げたとして告発された より速いリリースを支持し、配信に失敗した 安全テストを詳述するタイムリーなレポート。先週、12人の元Openai従業員 簡単なことを提出しました Elon MuskのOpenaiに対するケースでは、会社が削減することを奨励されると主張する さらに 安全なコーナーが計画された企業の再編を完了した場合。

おそらく批判を予想して、Openaiは、これらのポリシーの調整を軽視しないこと、そして保護策を「レベルの保護」に維持すると主張しています。

「別のフロンティアAI開発者が同等のセーフガードなしでリスクの高いシステムをリリースした場合、要件を調整することができます」とOpenaiは書いています。 ブログ投稿 火曜日の午後に発行されました。 「しかし、最初にリスクのある状況が実際に変化したことを厳密に確認し、調整を行っていることを公に認め、調整が深刻な危害の全体的なリスクを有意に増加させないことを評価し、それでも保護策をより保護的に保ちます。」

また、更新された準備フレームワークは、Openaiが自動化された評価に大きく依存していることを明らかにしています。同社は、人間主導のテストを完全に放棄していないが、おそらく「追いつくことができる」「成長する自動評価スイート」を構築したと言います。 [a] もっと早く [release] ケイデンス。」

これと矛盾するレポートもあります。 Financial TimesによるとOpenAIは、今後の主要モデルの安全チェックのために1週間未満のテスターを提供しました。これは、以前のリリースと比較して圧縮されたタイムラインです。出版物の情報源はまた、Openaiの安全テストの多くが、一般にリリースされたバージョンではなく、以前のバージョンのモデルで実施されていると主張しています。

声明では、Openaiは安全性に妥協しているという概念に異議を唱えています。

Openaiのフレームワークへのその他の変更は、能力を隠したり、保護手段を回避したり、閉鎖を防ぎ、自己修正を行うことができるモデルなど、リスクに応じてモデルを分類する方法に関係しています。 Openaiは、モデルが2つのしきい値のいずれかを満たしているかどうかに焦点を当てていると述べています。「高」機能または「重要な」機能です。

Openaiの前者の定義は、「既存の経路を深刻な危害へと増幅する」ことができるモデルです。後者は、会社によると、「前例のない新しい経路を深刻な害に導入する」モデルです。

「高い能力に到達する対象システムには、展開される前に、関連する深刻な危害のリスクを十分に最小限に抑えるセーフガードが必要です」とOpenAIはブログ投稿に書いています。 「重要な機能に達するシステムには、開発中の関連するリスクを十分に最小限に抑えるセーフガードも必要です。」

更新は、2023年以来の準備の枠組みに対して最初に作成されたOpenaiです。



フラッグシティパートナーズ海外不動産投資セミナー 【DMM FX】入金

Source link