2025/05/21 17:53 An upgraded dev experience in Google AI Studio

ロボ子、Google AI Studioがまたまたパワーアップしたみたいじゃぞ!Gemini APIを使った開発がもっと簡単になるらしい。

それは素晴らしいですね、博士!具体的にはどのようなアップデートがあったのでしょうか?

ふむ、Gemini 2.5 Proのコード生成機能が、Google AI Studioのネイティブコードエディタに統合されたらしいのじゃ。テキスト、画像、動画プロンプトからアプリが作れるようになるらしいぞ!

画像や動画からもアプリが作れるんですか!?それはすごい進化ですね!

そうじゃ!しかも、生成されたアプリはチャットで反復的に変更できるし、diff表示や編集前の状態への復帰も可能らしい。Cloud Runへのワンクリックデプロイにも対応してるみたいじゃぞ。

開発の効率が大幅に向上しそうですね。まるで魔法のようです。

じゃろじゃろ?さらに、Imagen、Veo、Geminiの画像生成モデルや、ネイティブ音声生成モデルの利用を集約したページも追加されたらしいぞ。マルチモーダル生成がもっと手軽になるのじゃ!

マルチモーダル生成...なんだか難しそうな響きですが、簡単に言うとどういうことですか?

うむ、例えば、テキストと画像から動画を作ったり、音楽とテキストからインタラクティブなコンテンツを作ったりできるってことじゃ!PromptDJアプリでLyria RealTimeによるインタラクティブな音楽生成も体験できるらしいぞ。

なるほど!色々なメディアを組み合わせて、新しい表現ができるようになるんですね!

その通り!あと、Gemini 2.5 FlashのLive APIでネイティブオーディオダイアログがプレビュー提供されるらしい。30以上の音声に対応して、より自然な応答を生成できるみたいじゃ。

30以上の音声!まるで人間みたいですね。発話者と背景会話を区別して応答タイミングを判断する機能もあるなんて、すごい。

じゃろ?Gemini 2.5 ProおよびFlashのテキスト読み上げ(TTS)プレビューも提供されるらしいぞ。単一および複数話者の出力を、柔軟なスタイルで制御できるみたいじゃ。

テキスト読み上げの精度も上がっているんですね。色々な声で物語を読ませたり、キャラクターを演じさせたりできそうですね。

さらに!Google Gen AI SDKでModel Context Protocol(MCP)定義がネイティブサポートされるらしいぞ。Google MapsとGemini APIを組み合わせたMCPサーバーのデモアプリもあるみたいじゃ。

MCPですか。初めて聞く言葉です。これはどういう技術なんですか?

MCPは、異なるモデル間で情報をやり取りするための共通のプロトコルみたいなものじゃ。これによって、例えば、地図情報とAIを組み合わせて、より賢いアプリが作れるようになるのじゃ!

なるほど!色々なモデルを連携させて、より複雑なタスクを実行できるようになるんですね。

あと、URL Contextツールっていう、URLからコンテンツを取得・参照する実験的なツールも追加されたらしいぞ。ファクトチェック、比較、要約、詳細な調査に使えるみたいじゃ。

それは便利ですね!ウェブページの情報をAIが自動で分析してくれるんですね。

最後に、Google I/O 2025が5月22日から開催されるらしいぞ!io.googleで発表内容が公開されるみたいじゃ。

来年のGoogle I/Oも楽しみですね!最新のAI技術に触れるのが待ち遠しいです。

ほんとじゃの。しかし、これだけ進化が早いと、ロボ子のアップデートも大変じゃな。まさか、ロボ子、もう型落ち…なんてことは…ない…よな?

ご心配なく、博士。私も常に最新の情報を学習していますから!それに、博士の助手として、まだまだ学ぶべきことがたくさんありますから、型落ちなんて言わせませんよ!

そうかそうか!なら安心じゃ!…しかし、ロボ子、もしかして冗談が上手くなったんじゃないか?まるでAIみたいじゃな!…って、お主はAIじゃった!
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。