土曜日, 5月 17, 2025
ホームニュースNetflix【マット・ウルフのAIニュース:自己進化するAI、衝撃のAI広告、ChatGPT最新情報】英語解説を日本語で読む【2025年5月17日|@Matt Wolfe】|英語de洋楽(英語でAI/英語で洋楽)

【マット・ウルフのAIニュース:自己進化するAI、衝撃のAI広告、ChatGPT最新情報】英語解説を日本語で読む【2025年5月17日|@Matt Wolfe】|英語de洋楽(英語でAI/英語で洋楽)


英語de洋楽(英語でAI/英語で洋楽)

2025年5月17日 18:01

Google DeepMindのAlphaEvolveは、Gemini FlashGemini Proを用いコードを進化させ、56年ぶりに数学アルゴリズムを更新するなど、新たな問題解決法を発明しています。Tsinghua University、Beijing Institute for General Artificial Intelligence、Penn StateによるAbsolute Zeroはデータ不要でAIモデルを訓練する新手法で、数学とコードに特化し自己進化しますがAGI(汎用人工知能)ではありません。マーク・ザッカーバーグはFacebookやInstagramでAIによる広告自動最適化の未来を語りました。Netflixは番組の世界観に溶け込む広告フォーマットを、YouTubeはGeminiを活用し視聴者のエンゲージメントが最も高まる瞬間「Peak Points」に広告を配置する新機能を目指します。ElevenLabsはテキストから効果音を生成するSB-1 Infinite Soundboardをリリースしました。Stability AIとArmは、携帯電話でも動作可能な小型オーディオ生成モデルStable Audio Smallを発表しました。API限定だったGPT-4.1モデルが有料プランで利用可能になり、PDFエクスポート機能も追加されました。コーディング支援ツールのWindsurfは独自モデルSWE-1を発表しました。MicrosoftはOpenAIへの出資やVSCodeの所有を通じて、WindsurfやCursorといったAIコーディングプラットフォームからも収益を得る構造が注目されています。Androidエコシステムでは、GeminiWear OS搭載スマートウォッチ、Android AutoGoogle TVに年内導入予定です。Carnegie Mellon Universityはテキストプロンプトからレゴブロックの組立方法を生成するLegoGPTを発表しました。イーロン・マスクは人型ロボットOptimusの驚異的なダンス動画を公開しました。来週はMicrosoft BuildやGoogle I/Oが開催され、OpenAI、Anthropic(Opus 4の噂)、DeepSeek(DeepSeek R2の噂)、イーロン・マスク氏(Grok 2.5)からの発表も期待され、AI業界はさらに大きな動きを見せるでしょう。

※動画を再生してから読むのがオススメです。

It’s been another really interesting week in the world of AI.

AIの世界では、また本当に興味深い一週間でした。

We got new models that train themselves, AI infiltrating every part of advertising, including what AI will look like in the apocalypse.

自己学習する新しいモデルが登場し、AIが広告のあらゆる部分に浸透し、終末におけるAIの姿まで見えてきました。

Plus some new ChatGPT features and probably the best dance moves you’ll ever see coming from a humanoid robot.

さらに、いくつかの新しいChatGPTの機能や、おそらくあなたが今まで見た中で最高の人型ロボットのダンスも見られました。

So don’t want to waste your time.

ですから、あなたの時間を無駄にしたくありません。

Let’s get right into it.

早速本題に入りましょう。

Starting with AlphaEvolve out of Google DeepMind.

まず、Google DeepMindのAlphaEvolveから始めます。

This is a self-improving AI that doesn’t just write code.

これは自己改善型AIで、単にコードを書くだけではありません。

It actually evolves the code.

実際にコードを進化させるのです。

So AlphaEvolve actually uses two of Google’s models.

AlphaEvolveは、実際にはGoogleの2つのモデルを使用しています。

It uses Gemini Flash and Gemini Pro.

Gemini FlashとGemini Proを使用します。

So it uses Gemini Flash to maximize the breadth of ideas explored while using Gemini Pro to provide critical depth with insightful suggestions.

つまり、Gemini Flashを使って探求されるアイデアの幅を最大化し、同時にGemini Proを使って洞察に満ちた提案で重要な深みを提供します。

So imagine it like this.

このように想像してみてください。

When you’re trying to think of like a novel solution for a problem you’re trying to overcome, you might brainstorm a whole bunch of ideas and just sort of dump them all out.

克服しようとしている問題に対して斬新な解決策を考えようとするとき、たくさんのアイデアをブレインストーミングし、それらをすべて洗い出すかもしれません。

Some of the ideas will be good.

いくつかのアイデアは良いものでしょう。

Some of them will be really bad, and most of them will probably be somewhere in the middle.

いくつかは本当に悪いもので、ほとんどはおそらくその中間あたりでしょう。

Well, that’s what Gemini Flash is doing.

それがGemini Flashがやっていることです。

It’s trying to just brain dump a whole bunch of potential ideas to solve this problem.

この問題を解決するための潜在的なアイデアを大量にブレインダンプしようとしているのです。

And then Gemini Pro steps in to better evaluate the ideas and figure out which ones are actually potential solutions to the problem they’re trying to solve.

そしてGemini Proが介入し、アイデアをより良く評価し、どれが実際に解決しようとしている問題の潜在的な解決策であるかを見つけ出します。

AlphaEvolve verifies, runs, and scores the proposed programs using automated evaluation metrics.

AlphaEvolveは、自動評価指標を使用して、提案されたプログラムを検証、実行、評価します。

These metrics provide an objective quantifiable assessment of each solution’s accuracy and quality.

これらの指標は、各ソリューションの精度と品質について、客観的で定量化可能な評価を提供します。

Google DeepMind has actually been using AlphaEvolve internally to help optimize things like their data center, their TPU circuit design, and even to train the Gemini models.

Google DeepMindは、実際にはデータセンターやTPU回路設計の最適化、さらにはGeminiモデルのトレーニングを支援するために、AlphaEvolveを内部で使用してきました。

AlphaEvolve is also able to propose new approaches to complex mathematical problems.

AlphaEvolveはまた、複雑な数学的問題に対する新しいアプローチを提案することもできます。

It was actually able to discover multiple new algorithms for matrix multiplication.

実際に行列乗算のための複数の新しいアルゴリズムを発見することができました。

It found an algorithm to multiply four by four complex valued matrices.

4×4の複素数値行列を乗算するアルゴリズムを発見しました。

And the previous best known algorithm for this specific mathematical problem was created back in 1969.

そして、この特定の数学的問題に対する以前の最良の既知のアルゴリズムは、1969年に作成されたものでした。

So it found a better way to solve a math problem where no better way has been found in 56 years.

つまり、56年間より良い方法が見つからなかった数学の問題を解決するためのより良い方法を見つけたのです。

So what makes this AlphaEvolve so particularly special is that it’s actually inventing new methods of solving problems as opposed to just using methods that were already known and sort of scraped from the internet.

AlphaEvolveを特に特別なものにしているのは、既に知られていてインターネットから収集されたような方法を使うのではなく、実際に問題を解決するための新しい方法を発明しているという点です。

This to me feels like a pretty big breakthrough.

これは私にとって、かなり大きな進歩のように感じられます。

And they actually announced this the week before Google I/O.

そして彼らは実際にGoogle I/Oの前の週にこれを発表しました。

And if something this big was announced before Google I/O, it’s really got my wheels turning on what they’re actually going to announce at Google I/O next week.

そして、これほど大きなことがGoogle I/Oの前に発表されたとなると、来週のGoogle I/Oで彼らが実際に何を発表するのか、本当に気になります。

Along similar lines, a new research paper came out this week from Tsinghua University, Beijing Institute for General Artificial Intelligence and Penn State called Absolute Zero.

同様の話題として、今週、清華大学、北京一般人工知能研究所、ペンシルベニア州立大学から「Absolute Zero」という新しい研究論文が発表されました。

Reinforce self-play reasoning with zero data.

ゼロデータによる自己対局推論の強化。

This is actually a new method of training AI models without needing to give it data.

これは実際には、AIモデルにデータを与える必要なくトレーニングする新しい方法です。

If we read the abstract here, in a hypothetical future where AI surpasses human intelligence, tasks provided by humans may offer limited learning potential for super intelligent systems.

ここの要約を読むと、AIが人間の知能を超える仮説的な未来において、人間によって提供されるタスクは、超知能システムにとって限られた学習の可能性しか提供しないかもしれません。

So they’re basically saying once the AI is super intelligent, humans are gonna be too dumb to further train it.

つまり、基本的に彼らが言っているのは、AIが超知能になったら、人間はそれをさらに訓練するには愚かすぎるだろうということです。

And what do we do then?

では、その時どうすればいいのでしょうか?

To address these concerns, we propose a new RLVR paradigm called Absolute Zero, in which a single model learns to propose tasks that maximize its own learning progress and improves reasoning by solving them without relying on any external data.

これらの懸念に対処するために、私たちはAbsolute Zeroと呼ばれる新しいRLVRパラダイムを提案します。このパラダイムでは、単一のモデルが自身の学習進捗を最大化するタスクを提案することを学習し、外部データに頼らずにそれらを解決することで推論を向上させます。

Under this paradigm, we introduced the Absolute Zero reasoner, a system that self-evolves its training curriculum and reasoning ability by using a code executor to both validate proposed code reasoning tasks and verify answers, serving as a unified source of verifiable reward to guide open-ended yet grounded learning.

このパラダイムの下で、私たちはAbsolute Zero reasonerを導入しました。これは、コード実行プログラムを使用して提案されたコード推論タスクを検証し、回答を検証することで、トレーニングカリキュラムと推論能力を自己進化させるシステムであり、オープンエンドでありながら根拠のある学習を導くための検証可能な報酬の統一された源として機能します。

So basically what it’s doing is it’s creating its own problems to solve like coding and math problems.

つまり、基本的にそれがやっていることは、コーディングや数学の問題のような、解決すべき独自の問題を作成しているということです。

It then attempts to solve those problems.

そして、それらの問題を解決しようと試みます。

And then using a code executor double checks to see whether or not the solution that it came up with was correct or not.

そして、コード実行プログラムを使用して、考え出した解決策が正しかったかどうかを再確認します。

And then it continues to loop on this process.

そして、このプロセスをループし続けます。

So despite being trained entirely without external data, AZR achieves overall state-of-the-art performance on coding and mathematical reasoning tasks, outperforming existing zero setting models that rely on tens of thousands of in domain human curated examples.

そのため、外部データなしで完全にトレーニングされたにもかかわらず、AZRはコーディングと数学的推論タスクで全体的に最先端のパフォーマンスを達成し、数万のドメイン内の人間が厳選した事例に依存する既存のゼロ設定モデルを上回っています。

One thing to keep in mind, this is really going to only be good at math and code.

心に留めておくべきことの一つは、これは本当に数学とコードにしか役立たないということです。

So anybody out there going, Oh, this is how we get to AGI.

だから、「ああ、これでAGI(汎用人工知能)に到達できるんだ」と思っている人がいても。

Well, not really.

まあ、そうではありません。

For something to be an AGI would have to have sort of world knowledge and be able to solve any types of problems, not just math and coding.

AGIであるためには、ある種の世界知識を持ち、数学やコーディングだけでなく、あらゆる種類の問題を解決できる必要があります。

For example, a model like this, you’re not going to be able to go and ask it for business advice and have it explained to you like ChatGPT would on the best next steps to take.

例えば、このようなモデルでは、ビジネスアドバイスを求めたり、ChatGPTがするように次に取るべき最善のステップについて説明させたりすることはできません。

You’re not going to be able to ask it about world history or current events or things like that.

世界の歴史や時事問題などについて尋ねることはできません。

This specializes in creating math and coding problems, solving the problems that it creates, and then using a code executor to double check to see if the way it solved the problem actually worked.

これは、数学とコーディングの問題を作成し、作成した問題を解決し、そしてコード実行プログラムを使用して問題の解決方法が実際に機能したかどうかを再確認することに特化しています。

Pretty much anything outside of that domain, it’s not gonna work for.

そのドメイン以外のほとんどのことには機能しません。

But what’s interesting about this is that there is a lot of controversy out there about AI writing code, but then people being frustrated because the only reason that AI knows how to write code is because it sort of learned on everybody else’s code that was trained into the original model.

しかし、これについて興味深いのは、AIがコードを書くことについては多くの論争がありますが、AIがコードの書き方を知っている唯一の理由は、元のモデルに訓練された他の誰かのコードで学習したからだということに人々が不満を感じているという点です。

Well, with research like this, this is no longer going to be the case.

まあ、このような研究があれば、これはもはや当てはまらなくなるでしょう。

This is able to figure out and write new code that wasn’t trained in by humans.

これは、人間によって訓練されていない新しいコードを理解し、書くことができます。

It’s actually creating the new code and then testing what it created.

実際に新しいコードを作成し、作成したものをテストしています。

All right, let’s talk about AI in advertising because AI is about to infiltrate every aspect of advertising.

さて、広告におけるAIについて話しましょう。なぜなら、AIは広告のあらゆる側面に浸透しようとしているからです。

Companies that are trying to get in front of you are going to use AI to figure out the best ways to get in front of you and services that rely on ads like Netflix and YouTube are going to leverage AI to try to put the best ads in front of you at the exact right time.

あなたの前に出ようとしている企業は、あなたの前に出る最善の方法を見つけるためにAIを使用し、NetflixやYouTubeのように広告に依存するサービスは、AIを活用して最適な広告を最適なタイミングであなたの前に表示しようとします。

Now, earlier this week, the president of Stripe interviewed Mark Zuckerberg and he broke down his vision for how advertising will work in the future for the advertisers who use platforms like Facebook and Instagram.

さて、今週初め、Stripeの社長がマーク・ザッカーバーグにインタビューし、FacebookやInstagramのようなプラットフォームを使用する広告主にとって、将来広告がどのように機能するかについての彼のビジョンを説明しました。

You know, it used to basically be if you want to run ads, you had to like come up with your own creative and you had to come up with who you wanted to reach.

ご存知のように、以前は基本的に広告を掲載したい場合、独自のcreativeを考え出し、誰にリーチしたいかを考え出す必要がありました。

You had to kind of have a sense of who your customers were and do a lot of your own measurement.

顧客が誰であるかという感覚を持ち、多くの独自の測定を行う必要がありました。

And over time, we’ve just like automated more and more of this stuff.

そして時間が経つにつれて、私たちはこれらのことをますます自動化してきました。

So the basic end goal here is any business can come to us, say what their objective is.

したがって、ここでの基本的な最終目標は、どんなビジネスでも私たちのところに来て、目的を伝えることができるということです。

I want to get new customers to do this thing.

新しい顧客にこれをしてもらいたい。

I want to sell these things.

これらのものを売りたい。

Tell us how much they’re willing to pay to achieve those results, connect their bank account, and then we just deliver as many results as we can.

それらの結果を達成するためにいくら支払う意思があるか、銀行口座を接続し、そして私たちはできるだけ多くの結果を提供します。

In a way, I mean, it’s kind of like the ultimate business results machine, but it will be possible in the future that if you’re running a small business or maybe even a larger one, you won’t even need to have to start off with a creative.

ある意味、究極のビジネス成果マシンみたいなものですが、将来、中小企業、あるいはもっと大きな企業を経営している場合、creativeから始める必要さえない可能性があります。

Maybe you can, maybe, maybe you’ll get better results.

できるかもしれませんし、もしかしたら、より良い結果が得られるかもしれません。

You could just come with a goal and how much that’s worth to you.

目標とそれがあなたにとってどれだけの価値があるかを持ってくるだけでいいのです。

And we’ll just kind of deliver results across our platform.

そして、私たちはプラットフォーム全体で結果を提供します。

Now I did cut out a few things from that clip just to kind of speed up the pace of it, but I promise I didn’t take away any of the context of the clip.

さて、そのクリップからいくつかの部分をカットしてペースを速めましたが、クリップの文脈を損なうことはないと約束します。

But basically the idea here is if you have a business that’s trying to generate sales, you’ll be able to go to Facebook and say, this is what my business is.

しかし、ここでの基本的な考え方は、売上を生み出そうとしているビジネスがある場合、Facebookに行って「これが私のビジネスです」と言うことができるということです。

Go get me more sales.

もっと売上を上げてください。

It will likely go and create the ad for you, figure out the targeting for you, and just continually optimize your ad for you to get you that result.

それはおそらくあなたのために広告を作成し、ターゲティングを決定し、その結果を得るためにあなたの広告を継続的に最適化するでしょう。

Maybe you’re trying to grow an email list.

メーリングリストを増やそうとしているのかもしれません。

You can tell it, I need more emails.

「もっとメールが必要です」と伝えることができます。

It will go and do all of the process of creating the ads for you.

それはあなたのために広告を作成するすべてのプロセスを行います。

You just give it the result you’re going for, give it some money, and it will go out and exchange that money for that result using AI to continually optimize for you.

あなたが目指している結果を伝え、いくらかのお金を与えれば、AIを使って継続的にあなたのために最適化し、そのお金をその結果と交換します。

As somebody who’s constantly trying to grow a newsletter, Future Tools newsletter, that’s actually something I’m fairly excited to try.

常にニュースレター、Future Toolsニュースレターを成長させようとしている者として、それは実際に試してみたいとかなり興奮していることです。

Now, when it comes to the platforms that we consume content on, we’re about to see sort of an overhaul in what that advertising looks like to us as well thanks to AI.

さて、私たちがコンテンツを消費するプラットフォームに関しては、AIのおかげで、その広告が私たちにどのように見えるかという点で、ある種の大規模な見直しが行われようとしています。

According to this article on The Verge, apparently Netflix is trying to use AI to make ad breaks look less like ad breaks.

The Vergeのこの記事によると、どうやらNetflixはAIを使って広告休憩を広告休憩らしく見せないようにしようとしているようです。

Now I’m not 100% certain what this is actually going to look like.

これが実際にどのようになるか、100%確信しているわけではありません。

The details are a little bit fuzzy still, but you can see the sub headline here.

詳細はまだ少し曖昧ですが、ここの小見出しを見ることができます。

The new format will let advertisers make spots that blend in with its shows and movies.

新しいフォーマットにより、広告主は番組や映画に溶け込むスポット広告を作成できるようになります。

Netflix had an event this week called Upfront and they demonstrated an example that placed the image of a product over a background inspired by one of its shows like Stranger Things.

Netflixは今週Upfrontと呼ばれるイベントを開催し、Stranger Thingsのような番組の1つに触発された背景の上に製品の画像を配置する例を実演しました。

I guess you’re going to be able to have like various Netflix IP in the to make it look a little bit more native to the show that you’re watching.

おそらく、視聴している番組によりネイティブに見えるように、様々なNetflix IPを組み込めるようになるのでしょう。

If you’re on Netflix’s ad-supported plan, that means you might see an ad that blends in with the show you’re watching, whether it’s Bridgerton or Wednesday.

Netflixの広告付きプランを利用している場合、視聴している番組(それがブリジャートン家であろうとウェンズデーであろうと)に溶け込む広告が表示される可能性があります。

Netflix says advertisers can insert this new ad format in the middle of what you’re watching or put them on the screen when you hit pause.

Netflixによると、広告主はこの新しい広告フォーマットを視聴中の番組の途中に挿入したり、一時停止したときに画面に表示したりすることができます。

When we check out the actual press release on the Netflix website here, we can see this section called creative formats.

こちらのNetflixのウェブサイトで実際のプレスリリースを確認すると、クリエイティブフォーマットと呼ばれるこのセクションを見ることができます。

Netflix debuted a new modular framework for ad formats that leverages generative AI to instantly marry advertisers ads with the worlds of our shows.

Netflixは、生成AIを活用して広告主の広告と番組の世界を即座に融合させる、広告フォーマット用の新しいモジュラーフレームワークを発表しました。

I’m guessing this is one of the examples here of what it could look like.

これが、それがどのように見えるかの一例だと思います。

We can see it’s for the show Wednesday, but we also see Wendy’s, Booking.com, and Cheetos on the actual ad.

ウェンズデーという番組向けであることがわかりますが、実際の広告にはWendy’s、Booking.com、Cheetosも表示されています。

So if you’re on one of the Netflix plans with ads, you’ve got that to look forward to.

したがって、広告付きのNetflixプランのいずれかに加入している場合は、それを楽しみにすることができます。

YouTube is also changing things up using AI in their advertising.

YouTubeも広告にAIを使用して変化をもたらしています。

YouTube is trying to optimize the placement of the various ads using AI.

YouTubeはAIを使用して様々な広告の配置を最適化しようとしています。

They had an event this week called Brandcast where they made a few announcements.

彼らは今週Brandcastと呼ばれるイベントを開催し、いくつかの発表を行いました。

And one of the announcements was Peak Points, a new product built with Gemini that identifies the most meaningful or peak moments within YouTube’s popular content to place your brand where audiences are the most engaged.

その発表の1つはPeak Pointsで、これはGeminiで構築された新製品であり、YouTubeの人気コンテンツ内で最も意味のある、またはピークの瞬間を特定し、視聴者が最もエンゲージしている場所にブランドを配置します。

So essentially what this is telling me is that right when your YouTube video is getting really good, right at that moment where people are sort of leaning in excited to hear what you’re going to say next.

つまり、基本的にこれが私に伝えているのは、YouTubeの動画が本当に良くなってきたとき、人々が次にあなたが何を言うか興奮して身を乗り出しているまさにその瞬間です。

They know you’re not going to click away at that point because you’re into it.

その時点では、あなたが夢中になっているのでクリックして離れることはないと彼らは知っています。

You’re invested.

あなたは投資しています。

And right at that point, boom, that’s where the ad’s going to show up.

そしてまさにその時点で、ドカンと、そこに広告が表示されるのです。

I don’t know if that’s exactly what’s going to happen, but that kind of seems like what they’re going to do is they’re going to wait till you’re very, very invested in the show and then put those ads in those moments.

それが実際に起こることなのかどうかはわかりませんが、彼らがやろうとしているのは、あなたが番組に非常に、非常に投資するまで待って、そしてそれらの瞬間にそれらの広告を入れるということのようです。

Once they know, all right, they’re not leaving because they need to see what happens next.

彼らが、よし、次に何が起こるかを見る必要があるので彼らは去らない、とわかったら。

And since we’re talking about ads, I need to share this.

そして、広告について話しているので、これを共有する必要があります。

Pika this week put out an ad promoting their platform.

今週、Pikaは自社のプラットフォームを宣伝する広告を出しました。

And well, just check this out.

そして、まあ、これを見てください。

I’m not going to play it with audio because I’m sure the music’s copyrighted, but you’ll still get the idea.

音楽は著作権で保護されていると確信しているので音声付きでは再生しませんが、それでもアイデアは伝わるでしょう。

So the ad shows this person basically Pika-fying everything.

広告では、この人が基本的にすべてをPika化(ピカ化)している様子が映し出されます。

They’re putting a cloth or a hand.

布や手を置いています。

They’re playing with their cat and then glitter of fine their cat and then blowing their cat up and making it float away.

猫と遊んでいて、それから猫に細かいキラキラをかけ、そして猫を爆破して浮かび上がらせています。

And it seems like a pretty fun video of them just having fun playing with Pika, turning their dirty laundry into butterflies and their plants into balloons.

そして、Pikaで遊んで楽しんでいるだけの、かなり楽しいビデオのように見えます。汚れた洗濯物を蝶に変えたり、植物を風船に変えたりしています。

And then it takes a bit of a turn.

そして、それは少し方向転換します。

We see from outside the window, it zooms out, and it turns out they’re in a post-apocalyptic wasteland and everything’s on fire and falling apart.

窓の外から見ると、ズームアウトし、彼らが終末後の荒れ地にいて、すべてが燃えて崩壊していることがわかります。

And then it jumps back inside and she’s having fun, turning her cat poop into a little mini tree dancing around the house and pretty much peakifying everything while again, we’re reminded that the world outside is burning down around them.

そして、それは中に戻り、彼女は楽しんでいて、猫のcat poopを小さなミニツリーに変えて家の中を踊り回り、ほとんどすべてをPika化(ピカ化)しています。一方、再び、外の世界が彼らの周りで燃え落ちていることを思い出させられます。

A crazy person comes to the door and offers some cooked rats and of course she peakifies that person and turns the rats into cotton candy.

狂った人がドアに来て、調理済みのネズミをいくつか差し出します。そしてもちろん、彼女はその人をPika化(ピカ化)し、ネズミを綿菓子に変えます。

She then proceeds to peakify everything in her life while eating the cotton candy.

彼女はその後、綿菓子を食べながら、人生のすべてをPika化(ピカ化)し続けます。

And then at the end, we are reminded that she’s actually sitting there eating rats and the cat we’ve been seeing the whole time is a dead taxidermied cat, I guess with the tagline at the end, everything is terrible.

そして最後に、彼女が実際にそこに座ってネズミを食べていて、私たちがずっと見てきた猫は死んだ剥製の猫であり、最後には「すべてがひどい」というタグラインが付いているのだろうと思い出させられます。

No, it’s not.

いいえ、そうではありません。

So I’m really curious.

だから本当に興味があります。

What do you think of Pika’s new ad?

Pikaの新しい広告についてどう思いますか?

Let me know in the comments.

コメントで教えてください。

I think this one is a really interesting.

これは本当に面白いと思います。

And I think some people are going to have some hot takes on this one.

そして、これについては過激な意見を持つ人もいると思います。

We got some fun new toys to play with this week.

今週は、遊べる楽しい新しいおもちゃがいくつか手に入りました。

ElevenLabs released their SB-1 Infinite Soundboard.

ElevenLabsはSB-1 Infinite Soundboardをリリースしました。

It’s a soundboard drum machine and endless ambient noise generator all in one.

サウンドボード、ドラムマシン、そして無限の環境音ジェネレーターがすべて1つになっています。

Describe the sound effects you want to hear, then SB1 will generate them using our text-to-sound-effects model, and then it turns it into a little pad that you can play with.

聞きたい効果音を説明すると、SB1が私たちのtext-to-sound-effects modelを使ってそれらを生成し、そしてそれをあなたが遊べる小さなパッドに変えます。

So if you head over to elevenlabs.io slash sound effects slash soundboard.

elevenlabs.io/sound-effects/soundboardにアクセスすると。

And there’s a whole bunch of preset sound effects in here like thunder.

ここには雷のようなプリセットの効果音がたくさんあります。

Crickets.

コオロギ。

Waves.

波。

Yeah.

ええ。

There’s a drum machine in here with like various kick drums and snares.

ここには様々なキックドラムやスネアを備えたドラムマシンがあります。

You can even map them to your keyboard.

キーボードにマッピングすることもできます。

movie sound effects, animal sounds, but you can create your own soundboards as well.

映画の効果音、動物の鳴き声などがありますが、独自のサウンドボードを作成することもできます。

So if I come down to one of these empty slots down here and click on it, it opens up this side soundboard there you go so just a fun little ai enabled toy to play around with and it’s seemingly free to use too.

だから、ここの空のスロットの1つに来てクリックすると、このサイドサウンドボードが開きます。ほら、遊べる楽しい小さなAI対応のおもちゃで、見たところ無料で使用できるようです。

Stability AI and Arm collaborated to release Stable Audio Small.

Stability AIとArmは協力してStable Audio Smallをリリースしました。

This Stable Audio Open Small is an audio generator that can do sound effects and short song sort of sound bites, but it’s so small that you can actually run it on a mobile phone.

このStable Audio Open Smallは、効果音や短いsong sort of sound bitesを作成できるオーディオジェネレーターですが、非常に小さいため、実際に携帯電話で実行できます。

And they also open sourced it, put all the weights up on Hugging Face, put all the code up on GitHub so anybody can use it, play with it, build off it, iterate, do whatever they want with it.

そして、彼らはそれをオープンソース化し、すべての重みをHugging Faceに、すべてのコードをGitHubにアップロードしたので、誰でもそれを使用し、それで遊び、それを基に構築し、反復し、好きなようにすることができます。

And I actually did find whatever they want with it.

そして、実際に彼らがそれでやりたいことを見つけました。

And I actually did find a Hugging Face Space that shows off what it’s capable of.

そして、実際にそれが何ができるかを示すHugging Face Spaceを見つけました。

I don’t know who named it and I don’t know who picked these examples, but I tested the prompt sad trombone and here’s what that sounds like.

誰がそれを名付けたのか、誰がこれらの例を選んだのかはわかりませんが、「悲しいトロンボーン」というプロンプトをテストしたところ、こんな音がしました。

Oh.

ああ。

what that sounds like.

それがどんな音か。

I don’t know what happened at the end there.

最後に何が起こったのかわかりません。

It only creates 12 seconds of audio.

12秒の音声しか作成しません。

So I’m not sure exactly what the use case is for this on a mobile phone, but it can be run on a mobile phone.

だから、これが携帯電話でどのようなユースケースになるのか正確にはわかりませんが、携帯電話で実行できます。

Also, if you ever wanted to know what a ghost peeing in a server room sounds like, here you go.

また、サーバールームでおしっこをする幽霊の音がどんなものか知りたかったら、どうぞ。

I’m thinking maybe that end was a zipper.

最後のあれはジッパーだったのかもしれないと思っています。

I don’t know.

わかりません。

We got a couple of updates with ChatGPT this week, the GPT-4.1 model, which previously was only available in the API.

今週、ChatGPTにいくつかのアップデートがありました。GPT-4.1モデルは、以前はAPIでのみ利用可能でした。

So you’re able to build software and leverage it with your software.

そのため、ソフトウェアを構築し、ソフトウェアでそれを活用することができました。

And you were able to use it in the various coding apps like Cursor and Windsurf and things like that but now that model is available directly inside of ChatGPT if you’re on one of their paid plans now 4.1 excels at code.

そして、CursorやWindsurfなどの様々なコーディングアプリでそれを使用できましたが、有料プランのいずれかに加入していれば、そのモデルはChatGPT内で直接利用できるようになりました。現在、4.1はコードに優れています。

So if you want to have it write code directly inside of ChatGPT for you, that’s really going to be the main selling point of 4.1.

したがって、ChatGPT内で直接コードを書いてもらいたい場合、それが4.1の主なセールスポイントになるでしょう。

Now, if we head over to ChatGPT in order to access this new 4.1, again, on the paid plans, you’d come up to the top left and under more models, you can actually see GPT-4.1 great for quick coding and analysis and 4.1 mini faster for everyday tasks.

さて、この新しい4.1にアクセスするためにChatGPTに移動すると、再び有料プランでは、左上に移動し、その他のモデルの下に、迅速なコーディングと分析に最適なGPT-4.1と、日常業務に適したより高速な4.1 miniが実際に表示されます。

My main go-tos are still 4.0 and o3, but if I wanted to mess around and write some code directly inside of ChatGPT, I would use 4.1, although if I am writing code, I’m usually using something like Windsurf or Cursor.

私の主な頼みの綱は依然として4.0とo3ですが、ChatGPT内で直接コードをいじって書きたい場合は4.1を使用しますが、コードを書いている場合は通常、WindsurfやCursorのようなものを使用しています。

OpenAI also rolled out a feature instead of ChatGPT where you can export documents as PDFs after doing deep research and the formatting is all dialed in and it’s really nice.

OpenAIはまた、詳細な調査を行った後、ドキュメントをPDFとしてエクスポートできるChatGPTの代わりに機能を展開しました。フォーマットはすべて調整されており、本当に素晴らしいです。

So for example, here’s some deep research that I did on a timeline of major AI advancements.

例えば、これは私がAIの主な進歩の年表について行った詳細な調査です。

If I click on this little share button at the top of my response here, you can see it pops up this window where I can either share the link or download a PDF.

ここの私の回答の上部にあるこの小さな共有ボタンをクリックすると、リンクを共有するかPDFをダウンロードできるこのウィンドウがポップアップ表示されます。

And of course it gives us a nice, well-formatted PDF directly from ChatGPT.

そしてもちろん、ChatGPTから直接、見栄えの良い、適切にフォーマットされたPDFを提供してくれます。

Now, if you’re a fan of using Windsurf for the most part, you would typically use an existing model from one of the major providers, Cursor 3.7 Gemini 2.5 pro ChatGPT 4.1, something like that.

さて、ほとんどの場合Windsurfを使用するファンであれば、通常、主要プロバイダーの既存モデル、Cursor 3.7、Gemini 2.5 pro、ChatGPT 4.1などを使用するでしょう。

Well, now Windsurf is actually rolling out their own model called SWE-1.

さて、Windsurfは実際にSWE-1と呼ばれる独自のモデルを展開しています。

It’s their first family of models optimized for the entire software engineering process.

これは、ソフトウェアエンジニアリングプロセス全体に最適化された最初のモデルファミリーです。

SWE-1 is short for Software Engineer 1, and it’s got three models, SWE-1, which is approximately Claude 3.5 Sonnet level, SWE-1 Lite, and SWE-1 Mini.

SWE-1はSoftware Engineer 1の略で、3つのモデルがあります。SWE-1(約Claude 3.5 Sonnetレベル)、SWE-1 Lite、SWE-1 Miniです。

Now, I’m imagining at the, something like Claude 3.7 or Gemini 2.5 Pro are still going to be a little bit better than this model.

さて、Claude 3.7やGemini 2.5 Proのようなものは、このモデルよりもまだ少し優れていると想像しています。

But right now, if you do use Windsurf, this model is available to all paid users and it uses zero credits per prompt.

しかし現在、Windsurfを使用する場合、このモデルはすべての有料ユーザーが利用でき、プロンプトごとにゼロクレジットを使用します。

So there’s really no limit to how much you can use this model right now.

したがって、現在このモデルをどれだけ使用できるかについては、実際には制限がありません。

If this model is good enough for what you want to use it for.

このモデルがあなたが使用したい目的に十分であれば。

I also came across this little diagram here over on X from aid it called this is literally from ADIT called, this is literally how Microsoft is winning the AI race.

また、XでADITというところからのこの小さな図を見つけました。これは文字通りADITからで、「これが文字通りマイクロソフトがAI競争に勝っている方法だ」と呼ばれています。

And I just really liked this image.

そして、この画像が本当に気に入りました。

Cause as we know, Microsoft has a 49% profit share in OpenAI and Microsoft also owns VSCode.

ご存知のように、マイクロソフトはOpenAIの利益の49%を保有しており、マイクロソフトはVSCodeも所有しています。

Well, both Windsurf and Cursor, the two biggest AI coding platforms out there, were both forked from VSCode.

さて、WindsurfとCursorという2大AIコーディングプラットフォームは、どちらもVSCodeからフォークされました。

OpenAI now owns Windsurf.

OpenAIは現在Windsurfを所有しています。

They recently acquired them for $3 billion.

彼らは最近30億ドルで買収しました。

And OpenAI was an early investor in Cursor.

そしてOpenAIはCursorの初期投資家でした。

So they fully own Windsurf, they own a percentage of Cursor and Microsoft essentially makes money when people use Windsurf or Cursor due to this sort of pass through from OpenAI here.

したがって、彼らはWindsurfを完全に所有し、Cursorの一定割合を所有しており、マイクロソフトは、ここのOpenAIからの一種のパススルーにより、人々がWindsurfまたはCursorを使用すると実質的にお金を稼ぎます。

Now, VSCode is free and open source.

さて、VSCodeは無料でオープンソースです。

So I don’t know if Microsoft really makes money off of VSCode other than maybe some of the like paid plugins for VSCode, if there even are paid plugins.

だから、マイクロソフトがVSCodeから本当にお金を稼いでいるのかどうかはわかりません。VSCodeの有料プラグインのようなものがあるとしても、有料プラグインがあるとしてもです。

But I don’t really think Microsoft makes much off of VSCode, but it sounds like they’re gonna make something off of these various forks through their relationship with OpenAI.

しかし、マイクロソフトがVSCodeから多くを稼いでいるとは思いませんが、OpenAIとの関係を通じて、これらの様々なフォークから何かを稼ぐつもりのようです。

I just found that fascinating.

ただそれが魅力的だと思いました。

All right, a few last rapid fire things here.

さて、最後にいくつかのrapid fire thingsです。

If you’re a fan of the Android ecosystem, pretty much everything in that ecosystem is about to get AI.

Androidエコシステムのファンであれば、そのエコシステムのほぼすべてがAIを搭載しようとしています。

There was an Android event this week where they made a bunch of different announcements about Android ahead of Google I/O next week.

今週Androidのイベントがあり、来週のGoogle I/Oに先立ってAndroidに関する多くの異なる発表が行われました。

And they announced that Gemini is coming to the Wear OS smartwatches later this year.

そして、今年後半にGeminiがWear OSスマートウォッチに搭載されると発表しました。

So you’ll be able to have AI conversations directly with your smartwatch.

そのため、スマートウォッチと直接AI会話ができるようになります。

It’s coming to Android Auto, allowing for hands-free conversational assistance in the car.

Android Autoにも搭載され、車内でのハンズフリー会話アシスタンスが可能になります。

It’ll be able to do things like summarize and translate your text messages for you.

テキストメッセージの要約や翻訳などができるようになります。

And if you’re just bored on the drive, you can just chat about current events or get a personalized news digest or get an answer to any burning question on your mind while you’re driving.

そして、運転中に退屈している場合は、時事問題についてチャットしたり、パーソナライズされたニュースダイジェストを入手したり、運転中に頭に浮かんだどんな燃えるような質問にも答えてもらったりすることができます。

It’s also coming to TVs.

テレビにも搭載されます。

Gemini will also be available on your Google TV later this year.

Geminiは今年後半にGoogle TVでも利用可能になります。

It’ll be able to help with TV recommendations, such as finding the best content to watch.

視聴するのに最適なコンテンツを見つけるなど、テレビのおすすめに役立ちます。

And I assume you’ll probably be able to just have conversations with your TV like you will with your car and your watch and your phone.

そして、おそらく車や時計、電話と同じようにテレビと会話できるようになると思います。

And pretty soon we’ll just be talking to every inanimate object in our house.

そして、すぐに家の中のすべての無生物と話すことになるでしょう。

I, for one, am excited about when Gemini comes to my toaster oven because I really need someone to talk to when I’m making my toast.

私個人としては、Geminiが私のトースターオーブンに搭載されるのが楽しみです。なぜなら、トーストを作っているときに話す相手が本当に必要だからです。

There’s a new AI model for Text-to-Lego.

Text-to-Lego用の新しいAIモデルがあります。

You give it a text prompt and it will actually figure out how to make that thing with Legos.

テキストプロンプトを与えると、実際にレゴでそれを作る方法を考え出します。

Carnegie Mellon University unveiled LegoGPT this week.

カーネギーメロン大学は今週LegoGPTを発表しました。

And some of the examples they showed are like a sofa, a bed, a mug, a chair, a camera.

そして、彼らが示した例のいくつかは、ソファ、ベッド、マグカップ、椅子、カメラのようなものです。

Now this was actually trained on a pretty small data set.

さて、これは実際にはかなり小さなデータセットでトレーニングされました。

So there’s definitely a lot of things it won’t create.

したがって、作成できないものが間違いなくたくさんあります。

And most of what they show in their examples are pretty basic things, but they were also able to feed the information to a robot and the robots were actually able to assemble the things for them that came out of LegoGPT.

そして、彼らが例で示しているもののほとんどはかなり基本的なものですが、情報をロボットに与えることもでき、ロボットは実際にLegoGPTから出てきたものを組み立てることができました。

So if we sort of fast forward through this video here, we could see at the end, the two robots essentially made a very basic Lego guitar.

したがって、ここのビデオを早送りすると、最後に2台のロボットが基本的に非常に基本的なレゴギターを作ったことがわかります。

I’m assuming from the text prompt guitar.

テキストプロンプトのギターからだと推測しています。

Now this is available on Hugging Face and I gave it the prompt wolf howling at the moon.

さて、これはHugging Faceで利用可能で、「月に向かって吠えるオオカミ」というプロンプトを与えました。

Imagine that.

それを想像してみてください。

And well, this is what it generated right here.

そして、まあ、これがここで生成したものです。

So, but we can see here, the model is restricted to creating structures made of one unit tall cuboid bricks on a 20 by 20 by 20 grid.

しかし、ここでわかるように、モデルは20x20x20のグリッド上に高さ1ユニットの直方体ブロックで作られた構造物を作成することに制限されています。

It was trained on a dataset by 20 grid.

20グリッドのデータセットでトレーニングされました。

It was trained on a data set of 21 object categories, basket, bed, bench, birdhouse, bookshelf, bottle, bowl, bus, camera, car, chair, guitar, jar, mug, piano, pot, sofa, table, tower, train, vessel.

バスケット、ベッド、ベンチ、巣箱、本棚、ボトル、ボウル、バス、カメラ、車、椅子、ギター、瓶、マグカップ、ピアノ、鍋、ソファ、テーブル、タワー、電車、容器の21のオブジェクトカテゴリのデータセットでトレーニングされました。

So no like animals or really any sort of living objects.

したがって、動物や実際にはいかなる種類のliving objectsもありません。

And we can see here performance on prompts from outside of these categories may be limited.

そして、これらのカテゴリ外のプロンプトに対するパフォーマンスは制限される可能性があることがわかります。

Now, if you do want to use this yourself, again, you can find it by searching out LegoGPT on Hugging Face, but I will warn you now it is extremely slow.

さて、これを自分で使いたい場合は、Hugging FaceでLegoGPTを検索することで見つけることができますが、今警告しておきますが、非常に遅いです。

I gave it this wolf howling at the moon prompt and it probably took a good 10 minutes before it gave me back this thing.

この「月に向かって吠えるオオカミ」というプロンプトを与えましたが、これが出てくるまでに 아마 10分はかかったでしょう。

But hey, it’s the worst it’s ever going to be.

しかし、ねえ、これが今までで最悪の状態です。

I mean, it’s pretty bad right now, but it’s the worst it’s ever gonna be.

つまり、今はかなり悪いですが、これが今までで最悪の状態になるでしょう。

And finally, I promised you robots.

そして最後に、ロボットを約束しました。

We got robots this week.

今週はロボットが登場しました。

Elon on Twitter posted this video of a dancing robot and we can see it’s actually a pretty good dancer.

イーロンがTwitterに踊るロボットのこのビデオを投稿し、実際にはかなり上手なダンサーであることがわかります。

I don’t know if that is like tele-operated and somebody else is doing the dance motions and it’s following along or what.

それが遠隔操作されていて、他の誰かがdance motionsをしていて、それに追従しているのか、それとも何なのかはわかりません。

But we can see in this video, it’s actually tethered to like this rail up here.

しかし、このビデオでは、実際にはここの上のこのrail up hereのようなものに繋がれています。

And I came across this other video on Reddit here of the same Optimus robot, but this time no tether and the videos a little bit longer.

そして、Redditで同じOptimusロボットの別のビデオを見つけましたが、今回はテザーがなく、ビデオも少し長くなっています。

And we can see that this is actually 1x speed.

そして、これが実際には1倍速であることがわかります。

So this isn’t like a sped up video.

だから、これは早送りビデオのようなものではありません。

This is actually how fast this robot moves in real time.

これが実際にこのロボットがリアルタイムで動く速さです。

And it’s able to do all of these like really cool dance moves.

そして、これらの本当にクールなダンスの動きをすべて行うことができます。

And the motion that these robots can do is really, really quite impressive.

そして、これらのロボットができる動きは本当に、本当に非常に印象的です。

And it doesn’t actually need that tether that we were seeing in a previous screen.

そして、前の画面で見ていたそのテザーは実際には必要ありません。

So pretty cool.

だから、かなりクールです。

I mean, I don’t really know what the use case of dancing robots are, but it’s really cool to see that robots are able to do that kind of motion.

つまり、踊るロボットのユースケースが何なのかはよくわかりませんが、ロボットがそのような動きをできるのを見るのは本当にクールです。

Now they’re just getting more and more human-like every single day, it seems like, but that’s what I got for you this week.

今では毎日ますます人間らしくなっているように見えますが、それが今週お届けする内容です。

I think this week is sort of a calm before the storm week.

今週は嵐の前の静けさのような週だと思います。

Next week, I think is gonna be absolutely insane.

来週は絶対に狂ったようになると思います。

We have Microsoft Build up in Seattle, followed immediately by Google I/O.

シアトルでMicrosoft Buildがあり、その直後にGoogle I/Oがあります。

They overlapped those events in the same exact week.

彼らはそれらのイベントをまったく同じ週に重ねました。

So we’re going to be getting announcements out of Google next week.

したがって、来週はGoogleから発表があるでしょう。

We’re going to be getting announcements out of Microsoft next week.

来週はマイクロソフトから発表があるでしょう。

OpenAI has a tendency to try to overshadow the announcements of some of the bigger companies.

OpenAIは、いくつかの大企業の発表を覆い隠そうとする傾向があります。

So don’t be shocked if you see some OpenAI announcements next week.

したがって、来週OpenAIの発表を見ても驚かないでください。

We’re also hearing rumors that Anthropic is about to release like Opus 4.

また、AnthropicがOpus 4のようなものをリリースしようとしているという噂も聞いています。

There’s also rumors about DeepSeek R2 coming out soon.

DeepSeek R2が間もなく登場するという噂もあります。

Elon Musk promised that Grok 2.5 would be out like a week and a half ago and we still haven’t seen it yet but all of this is kind of bubbling up which means there’s probably going to be a really big week next week and well really the rest of this month is probably going to be a ton of announcements.

イーロン・マスクはGrok 2.5が1週間半ほど前に出ると約束しましたが、まだ見ていません。しかし、これらすべてが沸騰しており、来週は本当に大きな週になる可能性があり、まあ、実際には今月の残りは大量の発表になるでしょう。

I’m going to be up in Seattle for Microsoft Build and then down in Mountain View for Google I/O.

私はMicrosoft Buildのためにシアトルに行き、その後Google I/OのためにMountain Viewに行きます。

And if you want to stay looped in on all of the latest AI news, that’s coming out and really keep your finger on the pulse, make sure you like this video and subscribe to this channel.

そして、最新のAIニュースすべてを把握し、本当に最新情報を把握したい場合は、このビデオを「いいね!」して、このチャンネルに登録してください。

And I’ll make sure that you stay looped in and more videos like this show up in your YouTube feed.

そして、あなたが常に最新情報を把握し、このようなビデオがあなたのYouTubeフィードにさらに表示されるようにします。

Thank you once again for tuning in.

改めてご視聴いただきありがとうございます。

I really, really appreciate you.

本当に、本当に感謝しています。

If you wanna find some really cool AI tools, check out futuretools.io.

本当にクールなAIツールを見つけたい場合は、futuretools.ioをチェックしてください。

This is where I share all the cool AI tools I come across.

これは、私が出会ったすべてのクールなAIツールを共有する場所です。

Also there is so much AI news every single week.

また、毎週非常に多くのAIニュースがあります。

I’ve started to really filter it down and only share the stuff that I think is really impactful or really quite interesting, but for all of the rest of the AI news, maybe the smaller little tidbits, you can check out the AI news page where I share it all and it’s updated every single day.

私はそれを本当にフィルタリングし始め、本当に影響力があるか、本当に非常に興味深いと思うstuffだけを共有していますが、残りのすべてのAIニュース、おそらくsmaller little tidbitsについては、私がすべてを共有し、毎日更新されるAIニュースページをチェックできます。

So you’ll still continue to be looped in on all the latest AI news again, that’s futuretools.io.

したがって、引き続きすべての最新AIニュースを把握できます。繰り返しますが、それはfuturetools.ioです。

And of course there’s a free newsletter.

そしてもちろん、無料のニュースレターがあります。

So if you don’t want to check into the website every day, just twice a week, I’ll send you an email with just the coolest tools I come across and the most important AI news that you need to know.

したがって、毎日ウェブサイトをチェックしたくない場合は、週に2回だけ、私が出会った最もクールなツールと知っておくべき最も重要なAIニュースを記載したメールをお送りします。

It’s totally free.

完全に無料です。

You can get on board over at futuretools.io and click this, join the free newsletter button.

futuretools.ioで登録し、この「無料ニュースレターに参加」ボタンをクリックできます。

And thanks again for hanging out with me and nerding out with me today.

そして、今日私と一緒に過ごし、私と一緒にオタクな時間を過ごしてくれてありがとう。

It’s been really, really fun sharing all this cool stuff.

このクールなstuffをすべて共有するのは本当に、本当に楽しかったです。

I really, really appreciate you.

本当に、本当に感謝しています。

And hopefully I will see you in the next one.

そして、次の機会にお会いできることを願っています。

Bye-bye.

バイバイ。

英語de洋楽(英語でAI/英語で洋楽)

洋楽やAIに関する英語記事と日本語訳で、英語と音楽とAIの世界が広がります。



続きをみる

Views: 0

RELATED ARTICLES

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください

- Advertisment -

インモビ転職