Gemma オープンモデル
Gemini モデルの作成に使用されたものと同じ研究とテクノロジーに基づいて構築された、軽量で最先端のオープンモデルのファミリー
Gemma 2 のご紹介
大きなパフォーマンスと卓越した効率性のために再設計された Gemma 2 は、多様なハードウェアでの超高速推論向けに最適化されています。
5 ショット
MMLU
MMLU ベンチマークは、事前トレーニング中に大規模言語モデルによって習得された幅広い知識と問題解決能力を測定するテストです。
25 ショット
ARC-C
ARC-c ベンチマークは ARC-e データセットのより焦点を絞ったサブセットで、一般的な(検索ベースと単語の共起)アルゴリズムで誤って回答された質問のみが含まれています。
5 ショット
GSM8K
GSM8K ベンチマークは、複数の段階の推論が必要になることの多い小学校レベルの数学の問題を、言語モデルが解く能力をテストします。
3-5 ショット
AGIEval
AGIEval ベンチマークは、人間の知的能力を評価するよう設計された現実世界の試験で出された問題を使用して、言語モデルの一般的な知性をテストします。
3 ショット、コットン
BBH
BBH(BIG-Bench Hard)ベンチマークは、現在の言語モデルの能力を超えると見なされるタスクに焦点を当て、さまざまな推論と理解の領域で限界をテストします。
3 ショット、F1
DROP
DROP は読解力のベンチマークであり、段落に対する個別の推論が必要です。
5 ショット
Winogrande
Winogrande ベンチマークは、一般化された常識的な推論を必要とする、あいまいな穴埋めタスクをバイナリ オプションによって解決する言語モデルの能力をテストします。
10 ショット
HellaSwag
HellaSwag ベンチマークは、ストーリーにとって最も論理的な結末を選択することで、常識的な推論を理解し、適用する能力を言語モデルの能力に試します。
4 ショット
MATH
MATH は、推論、複数ステップの問題解決、数学的概念の理解を必要とする、複雑な数学の文章問題を解く言語モデルの能力を評価します。
ゼロショット
ARC-e
ARC-e ベンチマークは、本物の小学校レベルの多肢選択式科学の問題で、言語モデルの高度な質問応答スキルをテストします。
ゼロショット
PIQA
PIQA ベンチマークは、日々の身体的なやり取りに関する質問に答えることで、言語モデルの身体的な常識的な知識を理解し応用する能力をテストします。
ゼロショット
SIQA
SIQA ベンチマークは、人々の行動と社会的影響について質問することで、言語モデルの社会的インタラクションと社会的常識に対する理解度を評価します。
ゼロショット
ブールク
BoolQ ベンチマークは、自然に生じる「はい/いいえ」の質問に答える言語モデルの能力をテストし、現実世界の自然言語推論タスクを実行するモデルの能力をテストします。
5 ショット
TriviaQA
TriviaQA ベンチマークは、質問と回答の 3 つのエビデンスで読解力をテストします。
5 ショット
NQ
NQ(Natural Questions)ベンチマークは、現実世界の質問応答シナリオをシミュレートして、Wikipedia の記事全体から回答を見つけて理解する言語モデルの能力をテストします。
パス@1
HumanEval
HumanEval ベンチマークは、言語モデルのコード生成能力をテストするために、そのソリューションがプログラミングの問題に対する機能単体テストに合格するかどうかを評価します。
スリーショット
MBPP
MBPP ベンチマークは、基本的なプログラミングの概念と標準的なライブラリの使用方法に重点を置き、基本的な Python プログラミングの問題を解決する言語モデルの能力をテストします。
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
LLAMA 3 星
80 億
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
Gemma 1
25 億
Gemma 2
26 億
Mistral
70 億人
Gemma 1
70 億人
Gemma 2
90 億
Gemma 2
270 億
*これらは事前トレーニング済みモデルのベンチマークです。他の手法でのパフォーマンスの詳細については、技術レポートをご覧ください。
Gemma モデル ファミリー
デベロッパー向けクイック スタートガイド
パートナー様向けクイック スタートガイド
Gemma クックブック
PaliGemma による画像キャプション、CodeGemma によるコード生成、ファインチューニングされた Gemma モデルを使用した chatbot の構築などのタスクにおける Gemma のパワーと汎用性を示す実用的なレシピと例のコレクションをご覧ください。
責任ある AI 開発
設計による責任
慎重にキュレートされたデータで事前にトレーニングされ、安全性を考慮して調整されているため、Gemma モデルに基づく安全で責任ある AI 開発に役立ちます。
堅牢で透明性の高い評価
包括的な評価と透明性の高い報告により、各ユースケースに対して責任あるアプローチを採用するためのモデルの限界が明らかになります。
責任ある開発の促進
責任ある生成 AI ツールキットは、責任ある AI のベスト プラクティスを設計して実装する開発者をサポートします。
Google Cloud 向けに最適化
Google Cloud で Gemma モデルを使用すると、Vertex AI のフルマネージド ツールや GKE のセルフマネージド オプションを使用して、特定のニーズに合わせてモデルを詳細にカスタマイズし、AI に最適化された柔軟で費用対効果の高いインフラストラクチャにデプロイできます。
Google Cloud クレジットで学術研究を加速
Google Cloud で Gemma 2 モデルを使用して研究を進めましょう。この新たなオープンモデルの波により、最先端の研究に対する Google のサポートが拡大します。今すぐ応募して Google Cloud クレジットを獲得しましょう。研究の限界を押し広げ、科学コミュニティの発展に貢献できます。
コミュニティに参加
ML モデル コミュニティで他のユーザーとつながり、探索し、知識を共有します。