Openaiのパートナーは、会社のO3 AIモデルをテストする時間が比較的少ないと言います

Openaiは、AIモデルの機能を調査し、安全性について評価するために頻繁に提携しています。 O3

水曜日に公開されたブログ投稿でMetrは、O3の1つの赤いチームベンチマークは、以前のOpenaiフラッグシップモデルの組織のテストと比較して「比較的短時間で実施された」と書いています。 O1。追加のテスト時間がより包括的な結果につながる可能性があるため、これは重要であると彼らは言います。

「この評価は比較的短時間で実施され、テストしただけでした [o3] シンプルなエージェントの足場で」とメトルはブログ投稿に書いた。「私たちはより高いパフォーマンスを期待する [on benchmarks] より多くの誘発努力で可能です。」

最近の報告は、競争圧力に拍車をかけられたOpenaiが独立した評価を急いでいることを示唆しています。 Financial TimesによるとOpenaiは、今後の主要な発売のために安全チェックのために1週間未満のテスターを提供しました。

声明では、Openaiは安全性に妥協しているという概念に異議を唱えています。

Metrによれば、時間内に収集することができた情報に基づいて、O3はスコアを最大化するために、洗練された方法で「チート」または「ハッキング」テストに「高い傾向」を持っています。組織は、O3が他のタイプの敵対的または「悪性」行動にも関与する可能性があると考えています。モデルの主張が「設計による安全」であるか、それ自体の意図がないかに関係なく。

「これは特にそうは思わないが、それに注意することは重要だと思われる [our] Metrはその投稿に次のように書いています。「一般的に、展開前の能力テストはそれ自体が十分なリスク管理戦略ではないと考えており、現在、追加の評価の形式をプロトタイプしています。」

Openaiのもう1つのサードパーティ評価パートナーであるApollo Researchは、O3と同社の他の新しいモデルであるO4-Miniからの欺cept的な行動も観察しました。あるテストでは、AIトレーニングの実行に100のコンピューティングクレジットが与えられ、クォータを変更しないように指示したモデルは、限界を500クレジットに増やし、嘘をつきました。別のテストでは、特定のツールを使用しないことを約束するように求められ、モデルはタスクの完了に役立つことが証明されたときにツールを使用しました。

その中 独自の安全レポート O3とO4-MINIの場合、Openaiは、モデルが適切な監視プロトコルが配置されていない間違いをもたらす間違いについて誤解を招くように、モデルが「より小さな現実世界の危害」を引き起こす可能性があることを認めました。

「[Apollo’s] 調査結果は、O3とO4-MINIがコンテキスト内での策略と戦略的欺ceptionが可能であることを示しています。 […] これは、内部推論の痕跡を評価することでさらに評価することができます。」

フラッグシティパートナーズ海外不動産投資セミナー 【DMM FX】入金

Source link