Deepmind CEOのDemis Hassabisは、Googleが最終的にGeminiとVeo AIモデルを組み合わせると言います

での最近の登場で 可能LinkedInの共同設立者であるReid Hoffmanが共催したポッドキャスト、Google Deepmind CEOのDemis Hassabisは、Googleが最終的にそれを組み合わせる計画は述べた ジェミニ AIモデルを使用しています なるほど 物理的な世界に対する前者の理解を向上させるためのビデオ生成モデル。

「私たちは、私たちの基礎モデルであるジェミニを最初からマルチモーダルにするために常に構築してきました」とハッサビスは言いました。 [is because] 私たちは、ユニバーサルデジタルアシスタントであるこのアイデアについてのビジョンを持っています。アシスタントは、実際には現実の世界であなたを助けています。」

AI業界は、徐々に「Omni」モデルに向かっています。 Googleの最新のGeminiモデルができます オーディオを生成します 画像やテキストだけでなく、ChatGPTでのOpenaiのデフォルトモデルは、もちろん、もちろん画像をネイティブに作成できます。 スタジオジブリスタイルのアート。 Amazonは持っています 計画も発表しました 今年後半に「Any-to-Any」モデルを開始します。

これらのOMNIモデルには、画像、ビデオ、オーディオ、テキストなどの多くのトレーニングデータが必要です。 Hassabisは、VEOのビデオデータが主にGoogleが所有しているプラ​​ットフォームであるYouTubeから来ていることを暗示しています。

「基本的に、YouTubeのビデオを見ることで、YouTubeのビデオをたくさん – [Veo 2] 世界の物理学を理解できます」とハッサビスは言いました。

Googleは以前、TechCrunchに、YouTubeのクリエイターとの合意に従って「Some」YouTubeコンテンツについてトレーニングされたモデルの「May Be」に語った。伝えられるところによれば、 Googleは利用規約を拡大しました 昨年の一部は、会社がより多くのデータをタップしてAIモデルをトレーニングできるようにするためです。

フラッグシティパートナーズ海外不動産投資セミナー 【DMM FX】入金

Source link