金曜日, 5月 23, 2025
ホームニューステックニュースAnthropic の Code with Claude に関する発表まとめ

Anthropic の Code with Claude に関する発表まとめ


Anthropic の発表動画が 01:30-、適宜休憩を挟み、08:00- まで続くので、だいたい 9 時頃にはひと通り埋まっている予定です。また後で遊びに来ていただければうまくまとまったものを読めるかと思います。拡散モデルかの如く?デノイジング中なのでのんびりお待ちください。

tl;dr

  • Anthropic の開発者向けイベント Code with Claude が開催されたよ
  • Claude 4 Opus と Claude 4 Sonnet が発表されたよ
  • 無課金を含むすべてのプランで Claude 4 Opus と Claude 4 Sonnet が使えるよ
  • Anthropic API に Code Execution Tool、MCP Connector、Files API、Extended Prompt Caching の 4 つの機能が追加されたよ(ベータ版)
  • Claude Code が正式リリースされたよ

これはなに?

2025 年 5 月 22 日にサンフランシスコにて開催された Anthropic の開発者向けイベント、Code with Claude に関する発表まとめ。公開されたモデルや機能などをひと通り紹介、実際に動かすところまでを網羅的に解説した記事です。公式のリソースが多いので、参考文献として最後にまとめています。

そもそもこのイベントはなに?

https://www.anthropic.com/news/Introducing-code-with-claude

Anthropic 初の開発者向けイベント。2025 年 5 月 22 日にサンフランシスコの The Midway にて開催。Anthropic API や CLIツール、Model Context Protocol(MCP)を用いた実装やベストプラクティスに焦点を当てたプラクティカルなイベント。応募者全員が参加できる訳ではありません。ちなみに私は抽選に外れました…Claude Max プラン三ヶ月分が参加者全員に配られたよう…

では早速本題に移りましょう。

記事のまとめ

https://www.anthropic.com/news/claude-4

Claude 4 が公開されました。モデルはふたつで Claude Opus 4 と Claude Sonnet 4。Claude Opus 4 は世界最高のコーディング性能を誇るモデル。SWE-bench で 72.5%、Terminal-bench で 43.2%、数時間ぶっ続けで作業を進めることができます。Claude Sonnet 3.7 との大きな差分はコーディング、リーズニング、指示追従性。いずれのモデルもハイブリッドリーズニングモデルで、ひとつのモデルであるにもかかわらず、すぐに回答を返すこともよく考えて回答を返す(Extended Thinking)こともできます。これは Claude Sonnet 3.7 から変わりません。また、Extended Thinking 中にツールを使うことができるようになりました。

わらわらと先行利用したであろう企業の面々からのポジティブレビューが寄せられていますが、楽天ではリファクタリングを続けて 7 時間実行したり、Goose を開発している Block では初めてのコード品質を向上させるモデルと言われたり、好評のよう。

下記の画像は記事より転載。OpenAI の評価ベンチマーク SWE-Bench Verified の結果では、直近 OpenAI から公開された Codex の中で使用されている o3 ベースの codex-1 と比べても Claude Opus 4 / Claude Sonnet 4 のいずれもが優れた成績を残しています。他の評価ベンチマークにおいてもなかなかのスコアを叩き出していることが見て取れます。

また、メモリ機能も改善。ローカルファイルにアクセスできる権限のある状態で、ポケモンをプレイしながらナビゲーションガイドをメモするなどのエージェンティックにタスクを認識、実行することができるようになりました。この部分はさらっとしか書いていないので、別の文献があれば追記します。

また、Claude Code が正式リリース。VSCode と JetBrains と統合、GitHub Actions にも対応。VSCode の設定の方法は後述。

[追記予定]

https://www.anthropic.com/news/agent-capabilities-api

Anthropic API に四つの機能が追加。これらはすべてベータ版。それぞれ解説します。

  1. Code execution tool(コード実行ツール)

https://docs.anthropic.com/en/docs/agents-and-tools/tool-use/code-execution-tool

Claude がサンドボックス環境で Python のコードを実行できるように。データセットの読み込み、チャートの作成、パターンの特定、実行結果をもとにした反復的な改良など。ユースケースとして、財務指標の分析およびモデリング、科学計算、ビジネスインテリジェンス(レポートの作成、データの分析、ダッシュボードの作成など)、書類の処理、統計分析などが挙げられています。一日 50 時間まで無料で利用でき、超過分は一時間あたり $0.05(7.5 円程度)。一日 50 時間とはなにごと!?と思うのですが、二並列までは無料で動かせるよう。あとでやってみます。

動画は 17 秒なのですぐ見終わります。実行中に実行結果のプレビューが表示されています。

https://www.youtube.com/watch?v=18E6j6mo3_o

  1. MCP connector

https://docs.anthropic.com/en/docs/agents-and-tools/remote-mcp-servers

従来は MCP クライアント経由でのみ MCP サーバを繋ぐことはできませんでしたが、Anthropic API 経由でリモート MCP サーバに接続できるようになりました。Anthropic API 側に接続管理、ツールの検出、エラー処理などをまるっと受け持ってくれます。公式ドキュメント内では Asana、Atlassian、Cloudflare、Intercom、invideo、Linear、PayPal、Plaid、Square、Workato、Zapier が紹介されています。

ここに記載はないですが、Devin の開発元の Cognition AI から公開されていた DeepWiki MCP サーバを Anthropic API 経由で試してみます。だいたい 24 秒程度でレスポンスが返ってきました。

https://cognition.ai/blog/deepwiki-mcp-server

export ANTHROPIC_API_KEY=sk-ant_xxx
curl https://api.anthropic.com/v1/messages \
  -H "Content-Type: application/json" \
  -H "X-API-Key: $ANTHROPIC_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "anthropic-beta: mcp-client-2025-04-04" \
  -d '{
    "model": "claude-sonnet-4-20250514",
    "max_tokens": 1000,
    "messages": [
      {
        "role": "user",
        "content": "tegnike/aituber-kit-docs リポジトリについて教えてください"
      }
    ],
    "mcp_servers": [
      {
        "type": "url",
        "url": "https://mcp.deepwiki.com/sse",
        "name": "deepwiki"
      }
    ]
  }' | jq .

レスポンスは大変に長いので下記にて折りたたみます。また、GitHub より取得したテキストは xxx に置き換えています。

レスポンス
{
  "id": "msg_01SKBjzxCnLLXUzjqepC5qLi",
  "type": "message",
  "role": "assistant",
  "model": "claude-sonnet-4-20250514",
  "content": [
    {
      "type": "text",
      "text": "tegnike/aituber-kit-docsリポジトリについて詳しく調べてみますね。"
    },
    {
      "type": "mcp_tool_use",
      "id": "mcptoolu_013Z4F1Qamj9Ft2hfHN5D6rL",
      "name": "read_wiki_contents",
      "input": {
        "repoName": "tegnike/aituber-kit-docs"
      },
      "server_name": "deepwiki"
    },
    {
      "type": "mcp_tool_result",
      "tool_use_id": "mcptoolu_013Z4F1Qamj9Ft2hfHN5D6rL",
      "is_error": false,
      "content": [
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": "xxx"
        },
        {
          "type": "text",
          "text": ""
        }
      ]
    },
    {
      "type": "text",
      "text": "tegnike/aituber-kit-docsリポジトリは、AITuberKitというオープンソースのAI VTuber(バーチャルYouTuber)作成ツールキットのドキュメントサイトです。\n\n## 📖 AITuberKitとは\n\nAITuberKitは、AI駆動のバーチャルキャラクターを作成・運用するためのWebアプリケーションです。主な特徴は以下の通りです:\n\n### 🤖 AI機能\n- **複数のAIサービス対応**: OpenAI、Anthropic、Google Gemini、Azure OpenAI、xAI、Groq、Cohere、Mistral AI、Local LLMなど\n- **複数の対話モード**: 標準チャット、リアルタイムAPI、音声モード、外部連携モード\n- **マルチモーダル対応**: テキスト、画像、音声、画面共有、カメラ入力\n\n### 👤 キャラクターシステム\n- **3Dモデル**: VRM形式の3Dアバター対応\n- **2Dモデル**: Live2D(Cubism 3+)による2Dアニメーション\n- **感情表現**: AIの応答に応じた表情や動作の自動制御\n- **キャラクター設定**: 性格、プロンプト、感情タグシステム\n\n### 🎤 音声機能\n- **音声合成**: VOICEVOX、Koeiromap、Google TTS、ElevenLabs、OpenAIなど複数のTTSエンジン\n- **音声認識**: ブラウザ音声API、OpenAI Whisperによる音声入力\n- **リップシンク**: 音声に合わせた口の動き\n\n## 🌐 ドキュメントサイトの特徴\n\n### 多言語対応\n- **日本語**(メイン)\n- **英語**\n- **中国語**\n\n### VitePressベース\n- 高速な静的サイト生成\n- Vue.js搭載\n- 検索機能付き\n\n### 詳細なガイド\n- 導入手順\n- 設定方法\n- APIリファレンス\n- トラブルシューティング\n- 使用事例\n\n## 🚀 主要機能\n\n### 1. 基本機能\n- AIキャラクターとのチャット\n- 音声による対話\n- キャラクターアニメーション\n\n### 2. 配信機能\n- YouTube Live連携\n- コメント自動応答\n- 配信用UI\n\n### 3. 拡張機能\n- スライドモード(プレゼンテーション)\n- メッセージ受信API\n- 外部システム連携\n- WebSocket通信\n\n## 🛠️ 技術スタック\n\n### フロントエンド\n- Next.js\n- React\n- TypeScript\n- Three.js(VRM)\n- PixiJS(Live2D)\n\n### AI・音声\n- 各種LLM API\n- 音声合成エンジン\n- WebRTC(音声入力)\n\n### ドキュメント\n- VitePress\n- Markdown\n- Vue.js\n\n## 📋 ライセンス\n\n- **v1.x.x**: MIT License\n- **v2.0.0以降**: カスタムライセンス\n  - 個人・教育・非営利利用: 無料\n  - 商用利用: 別途ライセンス取得が必要\n\nこのドキュメントサイトは、AITuberKitを効果的"
    }
  ],
  "stop_reason": "max_tokens",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 48468,
    "cache_creation_input_tokens": 0,
    "cache_read_input_tokens": 0,
    "output_tokens": 1102,
    "service_tier": "standard",
    "server_tool_use": {
      "web_search_requests": 0
    }
  }
}
  1. Files API

https://docs.anthropic.com/en/docs/build-with-claude/files

Files API では何度も同じファイルをアップロードすることを避けられるように。具体的には、最大 32MB までのアップロードしたファイルに file_id が付与、以後この file_id を用いてファイルを参照することができるようになりました。ナレッジベースや技術文書、データセットといった長大なドキュメントを扱う時に便利。アップロード、ダウンロード、一覧の取得、メタデータの取得、削除などのファイル操作に対応。これらのファイル操作には費用はかかりません。ただし、読み込む際には入力トークンとしてカウント、課金されます。また、ダウンロードができるのは Code Execution Tool 経由で作成されたファイルのみ。anthropic-beta: files-api-2025-04-14 のヘッダーが必要。ストレージのようには使えないが、LLM に読み込む時には便利。ストレージは組織単位で 100GB まで、ベータ期間中は 100 RPM のレート制限が課されています。

では実際に実行してみましょう。三つ目のイベントが始まったのであとで[追記予定]。

export ANTHROPIC_API_KEY=sk-ant_xxx
curl -X POST https://api.anthropic.com/v1/files \
  -H "x-api-key: $ANTHROPIC_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "anthropic-beta: files-api-2025-04-14" \
  -F "file=@/path/to/document.pdf"

[追記予定]

  1. Extended prompt caching

https://docs.anthropic.com/en/docs/build-with-claude/prompt-caching

[追記予定]

https://www.anthropic.com/news/activating-asl3-protections

[追記予定]

Claude Code について

https://docs.anthropic.com/en/docs/claude-code/overview

Claude Code が正式リリース。これに伴い、VS Code や JetBrains などの IDE と統合。GitHub Actions にも対応。

https://docs.anthropic.com/en/docs/claude-code/overview

OAuth 2.0 の対応。[追記予定]

VSCode にて Claude Code を使う方法

まずは Claude Code をアップデートしてください。認証などは済んでいる前提で進めます。

npm install -g @anthropic-ai/claude-code

VSCode の Terminal を開き、claude コマンドを実行。下記の表示になっていれば OK です。Cmd + Esc で Claude Code を実行します。

その他開発者向けドキュメントの更新内容について

Claude Code について

GitHub プルリク出せる

Claude 4 へのマイグレーション(Claude 3.7 Sonnet からの移行)

https://docs.anthropic.com/en/docs/about-claude/models/migrating-to-claude-4

プロンプトキャッシュの時間がのびた

これまで 5 分だったのが 1 時間に。

https://claude.ai/referral/pXFnz_rF4g

Anthropic API にて使ってみる

API におけるモデルは名は下記のふたつ。

claude-opus-4-20250514
claude-sonnet-4-20250514

Claude 4 のプロンプトエンジニアリングのベストプラクティス

https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/claude-4-best-practices

Claude 4 は従来のモデルより指示に従いやすくなったので、他のモデルと比べて若干ベストプラクティスたるものが違うよう。最後に Claude Sonnet 3.7 から Claude 4 に移行する際のマイグレーション的な節もあります。

共通して効く手法として、

[追記予定]

Extended Thinking について

https://docs.anthropic.com/en/docs/build-with-claude/extended-thinking

前からある機能ですが、アップデートが加わっていたのでまとめます。Extended Thinking は thinking content blocks にて段階的に思考プロセスを積み上げ、最終的な回答を出力する機能です。API で使う場合、thinking パラメータを enabled に設定、budget_tokens(ここに使ってほしいトークン数の上限)を指定して使う。これまでの Claude 3.7 では完全な thinkging output が返されていたものの、Claude 4 からは要約された thinking output のみが返却される。Tool Use と併用可能になり、interleaved-thinking-2025-05-14 ヘッダーを指定することで、Tool Use 中のリーズニングも可能となる。ストリーミング対応。ひとつ前の thinking blocks はコンテキストウインドウから消える。Claude 4 では、要約されるトークンではなく、フルトークンに課金される。

モデルの一覧ページ

https://docs.anthropic.com/en/docs/about-claude/models/overview

細かいモデルの話をメモ書き程度にまとめておきます。

その他

リソースまとめ

https://www.youtube.com/watch?v=EvtPBaaykdo

日本時間 01:30-: 終了

https://www.youtube.com/watch?v=nZCy8E5jlok

日本時間 03:00-: 終了

https://www.youtube.com/watch?v=oDks2gVHu4k

日本時間 06:00-

https://www.youtube.com/watch?v=6eBSHbLKuN0

日本時間 08:00-


A day with Claude

https://www.youtube.com/watch?v=oqUclC3gqKs

Claude との一日。我々の数年先の日常がここに詰まっている気がします。Claude Code を見守るところ、クライアントファーストに専念できるところが素敵です。ぜひご覧ください。

https://www.youtube.com/watch?v=L_WFEgry87M

GitHub の PR のコメントにて、コメントに @claude を含めると Claude が指摘をしてくれます。

公式ポスト

https://x.com/AnthropicAI/status/1925591505332576377

https://x.com/alexalbert__/status/1925608796707225846

Alexa との連携

Future of Agents

  1. Contextual intelligence
  2. Long-running execution
  3. Genuine collaboration

おまけ

既に Claude 4 対応を謳っているサービスを列挙します。

GitHub Copilot

https://github.com/copilot

Cursor

https://x.com/cursor_ai/status/1925594428095561941

Cline

https://x.com/cline/status/1925610645963382820

まとめ

Google I/O からの Responses API の大幅アップデート、そしてこの発表…今週末はゆっくり休みましょう…お疲れさまでした。追記予定となっているところは適宜埋めていきます。



Source link

Views: 0

RELATED ARTICLES

返事を書く

あなたのコメントを入力してください。
ここにあなたの名前を入力してください

- Advertisment -

インモビ転職