Googleは2024年5月15日(米国時間、以下同)、大規模言語モデル(LLM)「Gemini 1.5 Pro」のアップデート(200万トークンのコンテキストウィンドウなど)、Geminiファミリーの新しい軽量モデル「Gemini 1.5 Flash」、Gemini APIの新しい開発者向け機能、次世代オープンモデル「Gemma 2」、Google初のビジョン言語モデル「PaliGemma」を発表した。 Gemini 1.5 Proの改良と新しい1.5 Flashモデル 2023年12月に公開されたGemini 1.0は、Google初のネイティブマルチモーダルモデルだった。パフォーマンスが強化され、100万トークンの長いコンテキストウィンドウを備えた1.5 Proが2024年2月に公開された。Googleは2023年12月から、企業が「Google AI Studio」とGoogle
Googleが軽量かつ高性能なAIモデル「Gemini Flash」を2024年5月15日(水)に開催された「Google I/O 2024」で発表しました。Gemini FlashはGemini Proの10分の1の価格で利用可能で、ベンチマークテストではGemini Proに匹敵する性能を示しています。 Gemini Flash - Google DeepMind https://deepmind.google/technologies/gemini/flash/ Google Gemini updates: Flash 1.5, Gemma 2 and Project Astra https://blog.google/technology/ai/google-gemini-update-flash-ai-assistant-io-2024/ Gemini FlashはAPI経由で動
2024年2月にリリースした「Gemini 1.5 Pro」のコンテキストウィンドウ(一度に処理できる単語や画像などの構成要素)を100万トークンから200万トークンに拡張。さらに、コード作成やマルチターン会話、音声や画像の理解などの品質も向上させた。例えば、レストランで撮影した料理のレシピを教えてもらったり、数学の問題の写真を撮って解き方を教えてもらったりすることが、1枚の画像からできるという。 Gemini 1.5 Proよりも高速な応答が可能な軽量モデル「Gemini 1.5 Flash」もリリースする。要約、チャット、チャットアプリ、画像やビデオのキャプション、文章や表からのデータ抽出に優れているという。 Gemini 1.5 Proと1.5 Flashでは100万トークンのコンテキストウィンドウを利用できる。100万トークンあれば、合計1500ページのドキュメントを理解したり、1
基調講演に最初に登場したスンダー・ピチャイCEOは、同社の生成AI「Gemini」のこれまでの成長について語った。同氏によると、150万以上の開発者が活用しているという。 生成AI搭載検索エンジン「AI Overview」(旧SGE) 「AI Overview」は、昨年のGoogle I/Oで発表されたGoogle検索の生成AI機能「Search Generative Experience」(SGE)を改称し、改善したもの。 詳細を説明したリズ・リード氏は、「Googleがあなたのためにググってくれるようになる」と語った。 AI Overbiewは「Gemini時代のGoogle検索」であり、リアルタイム情報、ランキングと品質システム、新しいエージェント機能で改善されたという。 マルチステップリーゾニング(多段階推論)で、1つの質問で複数ステップの結果を提示する。 例として、ピラティスにつ
Gemini 1.5 Pro のアップデート ・ Gemini 1.5 Flash ・ PaliGemma ・ Gemma 2 以下の記事が面白かったので、簡単にまとめました。 ・Gemini 1.5 Pro updates, 1.5 Flash debut and 2 new Gemma models 1. はじめに昨年12月、「Gemini 1.0」をリリースし、「Gemini API」を「Google AI Studio」および「Vertex AI」で利用できるようにしました。2月に、100万トークンのコンテキストウィンドウを備えた最初のモデルである「Gemini 1.5 Pro」をリリースしました。先月、ネイティブ音声理解、システム指示、JSON モードなどの機能を追加しました。 並行して、「Gemma」を立ち上げました。これは、「Gemini」と同じ研究とテクノロジーに基づいて構
以下の記事が面白かったので、簡単にまとめました。 ・PaliGemma – Google's Cutting-Edge Open Vision Language Model 1. PaliGemma「PaliGemma」は、画像エンコーダーとしての「SigLIP-So400m」とテキスト デコーダーとしての「Gemma-2B」で構成されるアーキテクチャを備えたビジョン言語モデルです。「SigLIP」は画像と文字の両方を理解できる最先端のモデルです。「CLIP」と同様に、共同で学習された画像とテキストのエンコーダーで構成されます。「PaLI-3」と同様に、結合された「PaliGemma」モデルは画像とテキストのデータで事前学習されており、キャプションや参照セグメンテーションなどの下流タスクで簡単にファインチューニングできます。「Gemma」は、テキスト生成のためのデコーダー専用モデルです。リ
Googleが、現地時間2024年5月14日に開催された開発者向けイベント「Google I/O」において、2024年2月に発表された高性能AIモデル「Gemini 1.5 Pro」のアップデートについて発表しました。 Gemini 1.5 Pro updates, 1.5 Flash debut and 2 new Gemma models https://blog.google/technology/developers/gemini-gemma-developer-updates-may-2024/ Google Gemini update: Access to 1.5 Pro and new features https://blog.google/products/gemini/google-gemini-update-may-2024/ 2024年2月15日に発表されたGemi
この記事のポイント Google、デスクトップ版「Chrome」ブラウザに「@gemini」ショートカットを導入 「Chrome」のアドレスバーに[@gemini + プロンプト]を入力することで即座に「Gemini」の回答を得られるように ただし発表時点では「@gemini」ショートカットを利用できず Google は 2024 年 4 月 30 日(火)、最先端言語モデル「Gemini」を簡単に利用できるようになる新しい「@gemini」ショートカットを、デスクトップ版「Chrome」ブラウザに導入しました。 デスクトップ版「Chrome」に新たに導入された「@gemini」ショートカットでは、「Chrome」のアドレスバーに[@gemini + プロンプト]を入力することで、即座に「Gemini」の回答を得られるようになります。つまり、「Gemini」サイトを立ち上げる必要なく、表示
Google Cloud、Vertex AI における Gemini、Imagen、Gemma、MLOps のアップデートを発表 ※この投稿は、2024 年 4 月 10 日に、Google Cloud blog に投稿されたものの抄訳です。 Vertex AI は、あらゆるハイパースケール プロバイダのさまざまな基盤モデル、堅牢なインフラストラクチャ オプション、モデル開発と MLOps のための豊富なツール セットへのアクセスを提供するほか、生成 AI アプリやエージェントの構築だけでなく、デプロイとメンテナンスもできるワンストップ プラットフォームです。本日 Google Cloud Next ‘24 で、モデルに関するアップデートやプラットフォーム機能など、Vertex AI のさらなる強化を発表しました。 Gemini 1.5 Pro を Vertex AI のパブリック プレビ
Googleが2024年4月9日から11日にかけてラスベガスで開催している「Google Cloud Next '24」において、高性能AIモデル「Gemini 1.5 Pro」のパブリックプレビューを開始したと発表しました Gemini 1.5 Pro Now Available in 180+ Countries; With Native Audio Understanding, System Instructions, JSON Mode and More - Google for Developers https://developers.googleblog.com/2024/04/gemini-15-pro-in-public-preview-with-new-features.html Gemini 1.5 Proは2024年2月15日に発表されたモデルで、最大で1時間のムー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く