Offene Gemma-Modelle
Eine Familie leichter, hochmoderner offener Modelle, die auf derselben Forschung und Technologie basieren, die auch für die Erstellung der Gemini-Modelle verwendet wurde
Jetzt neu:
Gemma 2
Gemma 2 wurde für überragende Leistung und unübertroffene Effizienz optimiert und optimiert für blitzschnelle Inferenz auf unterschiedlicher Hardware.
5 Aufnahme
MMLU
Die MMLU-Benchmark ist ein Test, der das Umfang des Wissens und der Problemlösungsfähigkeiten misst, die von Large Language Models während des Vortrainings erworben wurden.
25 Aufnahme
ARC-C
Der ARC-c-Benchmark ist eine spezifischere Teilmenge des ARC-e-Datasets, die nur Fragen enthält, die von gängigen Algorithmen („Retrieval-Base“ und „Co-Vorkommen“) falsch beantwortet wurden.
5 Aufnahme
GSM8K
Mit dem GSM8K-Benchmark wird die Fähigkeit eines Sprachmodells getestet, mathematische Aufgaben für Schuljahre zu lösen, für die häufig mehrere Begründungen erforderlich sind.
3–5-Aufnahmen
AGIEval
Der AGIEval-Benchmark testet die allgemeine Intelligenz eines Sprachmodells anhand von Fragen, die aus realen Prüfungen zur Bewertung der menschlichen geistigen Fähigkeiten abgeleitet wurden.
3-shot, CoT
BBH
Der BBH-Benchmark (BIG-Bench Hard) konzentriert sich auf Aufgaben, die über die Fähigkeiten der aktuellen Sprachmodelle hinausgehen, und testet ihre Grenzen über verschiedene Logik- und Verständnisbereiche hinweg.
Drei Aufnahme, F1
DROP
DROP ist eine Benchmark für das Leseverständnis, die diskrete Schlussfolgerungen über Absätze hinweg erfordert.
5 Aufnahme
Winogrande
Der Winogrande-Benchmark testet die Fähigkeit eines Language Models, mehrdeutige Ausfüllaufgaben mit binären Optionen zu lösen, die allgemeine allgemeine Begründungen erfordern.
10-shot
HellaSwag
Der HellaSwag-Benchmark fordert die Fähigkeit eines Sprachmodells, gesunde Schlussfolgerungen zu verstehen und anzuwenden, indem das logische Ende einer Geschichte ausgewählt wird.
4 Aufnahme
MATH
MATH bewertet die Fähigkeit eines Language Models, komplexe mathematische Textaufgaben zu lösen, die logisches Denken, eine mehrstufige Problemlösung und ein Verständnis mathematischer Konzepte erfordern.
0-shot
ARC-e
Der ARC-e-Benchmark testet die fortgeschrittenen Fähigkeiten eines Language Models zum Beantworten von Fragen mit echten Multiple-Choice-Fragen für Schulkinder.
0-shot
PIQA
Der PIQA-Benchmark testet die Fähigkeit eines Sprachmodells, physisches allgemeines Wissen zu verstehen und anzuwenden, indem Fragen zu alltäglichen physischen Interaktionen beantwortet werden.
0-shot
SIQA
Der SIQA-Benchmark bewertet das Verständnis eines Language Models von sozialen Interaktionen und sozialem gesundem Menschenverstand, indem Fragen zu den Handlungen von Menschen und ihren sozialen Auswirkungen gestellt werden.
0-shot
Boolescher Wert
Mit dem BoolQ-Benchmark wird die Fähigkeit eines Sprachmodells zur Beantwortung natürlich auftretender Ja-/Nein-Fragen getestet. Dabei wird die Fähigkeit des Modells getestet, reale Inferenzaufgaben für natürliche Sprache auszuführen.
5 Aufnahme
TriviaQA
Der TriviaQA-Benchmark testet das Leseverständnis mithilfe von Dreifach-Fragen/Antworten/Beweisen.
5 Aufnahme
NQ
Der NQ-Benchmark (Natürliche Fragen) testet die Fähigkeit eines Sprachmodells, Antworten in ganzen Wikipedia-Artikeln zu finden und zu verstehen, und simuliert dabei reale Szenarien für die Beantwortung von Fragen.
Bestanden@1
HumanEval
Der HumanEval-Benchmark testet die Fähigkeiten eines Language Models zur Codegenerierung, indem er bewertet, ob seine Lösungen funktionale Einheitentests für Programmierprobleme bestehen.
Drei Aufnahme
MBPP
Der MBPP-Benchmark testet die Fähigkeit eines Sprachmodells, grundlegende Python-Programmierprobleme zu lösen, und konzentriert sich dabei auf grundlegende Programmierkonzepte und die Verwendung von Standardbibliotheken.
100 %
75 %
50 %
25 %
0 %
100 %
75 %
50 %
25 %
0 %
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
LLAMA 3
8 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
Gemma 1
2,5 Mrd.
Gemma 2
2,6 Mrd.
Mistral
7 Mrd.
Gemma 1
7 Mrd.
Gemma 2
9 Mrd.
Gemma 2
27 Mrd.
*Dies sind die Benchmarks für die vortrainierten Modelle. Details zur Leistung mit anderen Methoden finden Sie im technischen Bericht.
Gemma-Modellfamilie
Tools entdecken
Kurzanleitungen für Entwickler
Kurzanleitungen für Partner
Gemma-Rezepte
Entdecken Sie eine Sammlung praktischer Rezepte und Beispiele, die die Leistungsfähigkeit und Vielseitigkeit von Gemma für Aufgaben wie Bilduntertitel mit PaliGemma, Codegenerierung mit CodeGemma und das Erstellen von Chatbots mit fein abgestimmten Gemma-Modellen unter Beweis stellen.
Verantwortungsbewusste Entwicklung von KI
Verantwortungsbewusstsein von Anfang an
Mit sorgfältig ausgewählten Daten vorab trainiert und auf Sicherheit abgestimmt, um eine sichere und verantwortungsvolle KI-Entwicklung basierend auf Gemma-Modellen zu ermöglichen.
Robuste und transparente Bewertung
Umfassende Bewertungen und transparente Berichterstattung zeigen die Grenzen des Modells auf, die für jeden Anwendungsfall einen verantwortungsvollen Ansatz bieten kann.
Verantwortungsvolle Entwicklung fördern
Das Toolkit für Responsible Generative AI unterstützt Entwickler bei der Entwicklung und Implementierung von Best Practices für Responsible AI.
Für Google Cloud optimiert
Mit Gemma-Modellen in Google Cloud können Sie das Modell mit den vollständig verwalteten Tools von Vertex AI oder der selbstverwalteten Option von GKE umfassend an Ihre spezifischen Anforderungen anpassen und in einer flexiblen und kosteneffizienten KI-optimierten Infrastruktur bereitstellen.
Akademische Forschung mit Google Cloud-Guthaben beschleunigen
Bringen Sie Ihre Forschung mit Gemma 2-Modellen in Google Cloud voran. Diese neue Welle offener Modelle erweitert unsere Unterstützung für bahnbrechende Forschung. Bewerben Sie sich jetzt, um Google Cloud-Guthaben zu erhalten, mit dem Sie die Grenzen Ihrer Forschung erweitern und zur Weiterentwicklung der wissenschaftlichen Gemeinschaft beitragen können.
Community beitreten
Vernetzen, entdecken und Ihr Wissen mit anderen in der ML-Modell-Community teilen.