Gemini 2.5: さらに進化した、これまでで最も高性能なモデル

3 月に、これまでで最も高性能なモデルである Gemini 2.5 Pro を発表し、2 週間前に、開発者の皆様が素晴らしいウェブアプリを構築できるように、いち早く I/O アップデートに関する情報をお届けしました。本日、Gemini 2.5 モデルシリーズのさらなるアップデートについて詳しくご紹介します。
- 2.5 Pro のアカデミックベンチマークで目覚ましいパフォーマンスを発揮するだけでなく、WebDev Arena および LMArena の両リーダーボードで現在世界トップのモデルとなっています。また、学習支援においても最高レベルのモデルとなりました。
- 2.5 Pro と 2.5 Flash に、会話体験をより自然で豊かなものにするネイティブ音声出力、高度なセキュリティ対策、Project Mariner のコンピューター利用機能といった新機能を追加します。2.5 Pro は、実験的な強化推論モードである Deep Think により、さらに進化します。Deep Think は、非常に複雑な数学やコーディングに対応できるよう設計されています。
- 開発者体験の向上に注力を続けており、 Gemini API および Vertex AI に透明性を高めるための思考サマリーを導入し、2.5 Pro には制御性を高める思考バジェットを拡張しました。さらに、より多くのオープンソースツールを利用できるよう、Gemini API とSDK に Model Context Protocol (MCP) 定義のサポートを追加しています。
- 2.5 Flash は現在、Gemini アプリを通じてどなたでも利用できます。そして 6 月上旬に、開発者向けには Google AI Studio で、企業向けには Vertex AI で、アップデート版の一般提供を開始します。その後まもなく 2.5 Pro も一般提供の開始を予定しています。
これらの進歩は、 Google 全体のチームが技術を向上させ、それらを安全かつ責任ある方法で開発し公開するために注力を続けている結果です。
2.5 Pro がこれまで以上に優れたパフォーマンスを発揮
最近、開発者がよりリッチでインタラクティブなウェブアプリを構築できるよう、2.5 Pro をアップデートしました。ユーザーや開発者からの好意的な反応をいただき、大変嬉しく思っています。今後もユーザーからのフィードバックに基づいて改善を続けていきます。
アカデミックベンチマークでの強力なパフォーマンスに加え、新しい 2.5 Pro は、コーディングリーダーボードである WebDev Arena で ELO スコア 1420 を獲得し、現在トップに立っています。また、様々な次元における人間の好みを評価する LMArena のすべてのリーダーボードをリードするモデルです。さらに、100 万トークンのコンテキストウィンドウにより、2.5 Pro は最先端の長文コンテキスト理解および動画理解のパフォーマンスを備えています。
教育の専門家と共に構築したモデルファミリーである LearnLM を組み込んで以来、2.5 Pro は現在、学習に最適なモデルとなっています。その教育法と有効性を評価する直接比較において、教育者や専門家は、多様なシナリオで他のモデルよりも Gemini 2.5 Pro を高く評価しました。そして、学習のための AI システム構築に使用される学習科学の5つの原則の全てにおいて、トップモデルを凌駕するパフォーマンスを発揮しました。
詳細については、更新された Gemini 2.5 Pro モデルカードおよび Gemini テクノロジーページをご覧ください。
Deep Think
Gemini の思考能力の最先端を探求する中で、モデルが応答前に複数の仮説を検討することを可能にする新しい研究技術を用いた、Deep Think と呼ばれる高度な推論モードのテストを開始しています。
2.5 Pro Deep Think は、現在最も難しい数学のベンチマークの 1 つである 2025 USAMO で優れたスコアを獲得しています。また、競技レベルのコーディングの難易度の高いベンチマークであるLiveCodeBench でもトップに立ち、マルチモーダル推論をテストする MMMU で 84.0% のスコアを記録しています。

2.5 Pro DeepThink は最先端の技術を追求しているため、最先端の安全性評価を実施し、安全専門家からさらなる意見を得るために、通常よりも時間を費やしています。その取り組みの一環として、広く一般に提供する前に、Gemini API を通じてテスターの方々に提供し、フィードバックをいただく予定です。
さらに進化した 2.5 Flash
2.5 Flash は、速度と低コストを重視して設計された、最も効率的な主力モデルです。そして、今やあらゆる側面で性能がさらに向上しています。推論、マルチモーダル、コード、長文コンテキストに関する主要なベンチマーク全体で改善されると同時に、さらに効率化も進んでおり、当社評価ではトークン使用量が 20 〜 30 % 削減されています。

新しい 2.5 Flash は現在、開発者向けには Google AI Studio で、企業向けには Vertex AI で、そして全てのユーザーの方に Gemini アプリでプレビュー版として提供しています。6 月上旬には、本番環境向けに一般提供を開始する予定です。
詳細については、更新された Gemini 2.5 Flash モデルカードおよび Gemini テクノロジーページをご覧ください。
Gemini 2.5 の新機能
ネイティブ音声出力と Live API の改善
本日、Live API はネイティブ音声出力による対話機能のプレビュー版を導入します。これにより、開発者の皆様は、より自然で表現力豊かな Gemini との会話体験を直接構築できます。また、ユーザーは話し方、アクセント、スタイルの指示を出すことができます。例えば、物語を語る際にドラマチックな声にするようにモデルに指示できます。思考プロセスとツール使用もサポートするようになり、ユーザーの代わりに検索します。
また、以下のような初期段階の実験的機能もお試しいただけます。
- Affective Dialogue(感情認識対話): モデルがユーザーの声に含まれる感情を検知し、適切に応答します。
- Proactive Audio(プロアクティブ音声): モデルがバックグラウンドの雑音を無視し、視覚的なイベントにそれぞれ応答することで、よりスムーズな会話を実現します。
- Thinking in the Live API(ライブ API での思考): モデルが Gemini の思考能力を活用し、より複雑なタスクをサポートします。
また、2.5 Pro および 2.5 Flash のテキスト読み上げ(TTS)の新しいプレビュー版も公開しています。これらは、複数の話者に初めて対応しており、ネイティブ音声出力により2つの声によるテキスト読み上げを可能にします。ネイティブ音声出力による対話機能と同様に、テキスト読み上げは表現力豊かで、ささやき声のような非常に微妙なニュアンスも捉えることができます。24 以上の言語で機能し、言語間をシームレスに切り替えます。
この テキスト読み上げ機能は、Gemini API で本日より順次、公開します。
コンピューター利用
Project Mariner のコンピューター利用機能を Gemini API や Vertex AIを通じて提供を開始します。Automation Anywhere、UiPath、Browserbase、Autotab、The Interaction Company、Cartwheelのような企業がその可能性を検証しており、この夏、開発者の皆さまが試用できるようにより広範囲に展開できることを楽しみにしています。
セキュリティの向上
また、間接プロンプトインジェクションのようなセキュリティ脅威に対する保護を大幅に強化しました。これは、AI モデルが取得するデータの中に悪意のある指示が埋め込まれることです。Google の新しいセキュリティアプローチは、ツール使用時の間接プロンプトインジェクション攻撃に対する Gemini の保護率を大幅に向上させ、Gemini 2.5 をこれまでで最も安全性の高いモデルファミリーになっています。
安全性、責任、セキュリティに関する取り組み、および Gemini のセキュリティ対策の進歩について、詳しくは Google DeepMind ブログをご覧ください。
開発者体験の強化
思考サマリー
2.5 Pro および Flash は、Gemini API および Vertex AI に思考サマリーを含むようになります。思考サマリーは、モデルの生の状態の思考を取り込み、ヘッダー、主要な詳細、およびツールを使用する際のようなモデルのアクションに関する情報を伴う明確な形式に整理します。
モデルの思考プロセスがより構造化され、わかりやすい形になることでで、開発者やユーザーが Gemini モデルとの対話をより簡単に理解し、デバッグが容易になることを期待しています。
思考バジェット
開発者がレイテンシと品質のバランスを取りながらコストをより細かく管理できるように、思考バジェット機能を備えた 2.5 Flash を提供しました。そして本日、この機能を 2.5 Pro にも拡張し、提供を開始します。これにより、モデルが応答する前に思考に使用するトークンの数を制御したり、場合によっては、思考機能自体をオフにしたりすることも可能です。
思考バジェット機能を搭載した Gemini 2.5 Pro は、一般提供モデルとともに、今後数週間で安定した本番環境での利用向けに一般提供が開始される予定です。
MCP のサポート
オープンソースツールとの連携をより容易にするため、Gemini API に Model Context Protocol (MCP) 定義のネイティブ SDK サポートを追加しました。また、MCP サーバーやその他のホスト型ツールを展開し、エージェント型アプリケーションをより簡単に構築できるよう支援していきます。
私たちは、モデルと開発者の皆様の体験をより良いものにするため、常に新しいアプローチを模索しています。より効率的で高性能なモデルを目指し、開発者の皆様からのフィードバックに常にお応えしたいと考えていますので、ぜひフィードバックをお寄せください。また、Gemini の機能の可能性を広げ、基礎研究の幅と深さを強化し続けています。近日中にさらに多くの情報をお届けします。
Gemini と機能詳細については、こちらをご覧ください。