
Googleは、待望の新しいフラッグシップAIモデルであるGemini 2.0 Pro Experimentalを水曜日に発表しました。この発表は他のAIモデルのリリースシリーズの一環でした。また、同社はGeminiアプリで「思考モデル」であるGemini 2.0 Flash Thinkingを利用できるようにしています。
特筆すべきは、GoogleがこれらのAIモデルをリリースする中、中国のAIスタートアップDeepSeekが提供する安価なAI推論モデルに注目が集まっていることです。DeepSeekのモデルは、アメリカのテック企業が提供する有力なAIモデルに匹敵し、またはそれを上回る性能を持っています。同時に、事業者はDeepSeekのモデルを同社のAPIを通じて比較的安価で利用できます。
GoogleとDeepSeekは12月にそれぞれAI推論モデルをリリースしましたが、DeepSeekのR1がより多くの注目を集めました。今、GoogleはGeminiアプリを通じて、Gemini 2.0 Flash Thinkingモデルをより多くの人に目にするよう努めているかもしれません。
一方、Gemini 2.0 Proは、Googleが昨年2月に発表したGemini 1.5 Proモデルの後継機種であり、Googleによれば、これはGemini AIモデルファミリーでトップのモデルとなっています。
Googleは1週間ほど前に、Geminiアプリの変更ログでGemini 2.0 Proモデルの発表を間違えてしまいました。しかし今回は本物です。同社は水曜日に実験バージョンのモデルをAI開発プラットフォームであるVertex AIとGoogle AI Studioでリリースします。Gemini 2.0 Proは、GeminiアプリのGemini Advancedのサブスクリバーにも提供されます。
具体的には、新しいGemini Proモデルは、Googleによれば、複雑なプロンプトのコーディングと処理を優れたものであり、これまでのいずれのモデルよりも「世界の知識の理解と推論」が向上しています。Gemini 2.0 Proは、Google検索などのツールを呼び出し、ユーザーの代わりにコードを実行できます。
Gemini 2.0 Proのコンテキストウィンドウは200万トークンであり、一度に約150万語を処理できます。別の言い方をすれば、Googleの最新のAIモデルはハリーポッターシリーズの7冊全てを1つのプロンプトで読み込み、それでも約40万語残ります。
Googleはまた、Gemini 2.0 Flashモデルを水曜日に一般提供します。このモデルは12月に発表され、現在はGeminiアプリのすべてのユーザーが利用できます。
最後に、DeepSeekのモデルに対抗するために、Googleは新しい、よりコスト効率の良いAIモデルであるGemini 2.0 Flash-Liteを導入しています。同社によれば、このモデルはGemini 1.5 Flashモデルよりも優れた性能を発揮しますが、同じ価格と速度で稼働します。