Gemma Open Models

กลุ่มโมเดลแบบเปิดที่ทันสมัยและน้ำหนักเบาซึ่งสร้างขึ้นจากการวิจัยและเทคโนโลยีเดียวกันกับที่ใช้สร้างโมเดล Gemini

ไอคอน "มีความรับผิดชอบจากการออกแบบ"

ออกแบบอย่างรับผิดชอบ

โมเดลเหล่านี้มีมาตรการความปลอดภัยที่ครอบคลุม ซึ่งช่วยให้มั่นใจได้ว่าโซลูชัน AI ที่มีความรับผิดชอบและเชื่อถือได้ผ่านชุดข้อมูลที่คัดสรรมาและการปรับแต่งอย่างเข้มงวด

ไอคอนประสิทธิภาพที่เหนือกว่า

มีประสิทธิภาพที่เหนือกว่าทุกขนาด

โมเดล Gemma ได้ผลลัพธ์การเปรียบเทียบที่ยอดเยี่ยมที่ขนาด 2B, 7B, 9B และ 27B ซึ่งมีประสิทธิภาพสูงกว่าโมเดลแบบเปิดที่มีขนาดใหญ่กว่าบางโมเดล

เฟรมเวิร์กที่ยืดหยุ่น

เฟรมเวิร์กที่ยืดหยุ่น

Keras 3.0 ให้ความสามารถในการใช้งานร่วมกันอย่างราบรื่นกับ JAX, TensorFlow และ PyTorch ทำให้คุณเลือกและเปลี่ยนเฟรมเวิร์กได้อย่างง่ายดายตามงานที่ทำ

ขอแนะนำ
Gemma 2

Gemma 2 ออกแบบมาเพื่อประสิทธิภาพที่เหนือระดับและประสิทธิภาพที่เหนือระดับ โดยเพิ่มประสิทธิภาพให้การอนุมานของฮาร์ดแวร์ที่หลากหลายได้อย่างรวดเร็ว

5 นัด

MMLU

การเปรียบเทียบ MMLU เป็นการทดสอบที่วัดความรู้และความสามารถในการแก้ปัญหาที่โมเดลภาษาขนาดใหญ่ได้รับในระหว่างการฝึกล่วงหน้า

25 ช็อต

ARC-C

การเปรียบเทียบ ARC-c คือชุดย่อยของชุดข้อมูล ARC-e ที่โฟกัสมากกว่า ซึ่งมีเฉพาะคำถามที่ตอบไม่ถูกต้องโดยอัลกอริทึมทั่วไป (การดึงข้อมูลจากฐานข้อมูลและคำที่เกิดขึ้นร่วมกัน)

5 นัด

GSM8K

การเปรียบเทียบ GSM8K จะทดสอบความสามารถของโมเดลภาษาในการแก้โจทย์คณิตศาสตร์ระดับชั้นเรียนที่มักต้องมีการให้เหตุผลหลายขั้นตอน

3-5 ช็อต

AGIEval

การเปรียบเทียบ AGIEval ทดสอบความฉลาดทั่วไปของโมเดลภาษา โดยใช้คำถามที่ได้จากการสอบจริงที่ออกแบบมาเพื่อประเมินความสามารถทางปัญญาของมนุษย์

3 ช็อต, CoT

BBH

การเปรียบเทียบ BBH (BIG-Bench Hard) มุ่งเน้นงานที่ถือว่าเหนือกว่าความสามารถของโมเดลภาษาในปัจจุบัน โดยทดสอบขีดจำกัดในโดเมนการให้เหตุผลและความเข้าใจที่หลากหลาย

3 ช็อต, F1

วาง

DROP เป็นเกณฑ์เปรียบเทียบด้านการอ่านที่ต้องมีการให้เหตุผลที่ชัดเจนในย่อหน้าต่างๆ

5 นัด

Winogrande

การเปรียบเทียบ Winogrande จะทดสอบความสามารถของโมเดลภาษาเพื่อแก้ปัญหางานเติมคำในช่องว่างที่ไม่ชัดเจนด้วยไบนารีออปชัน ซึ่งจำเป็นต้องมีการให้เหตุผลทั่วไปสามัญสำนึก

10 นัด

HellaSwag

การเปรียบเทียบ HellaSwag จะท้าทายความสามารถของโมเดลภาษาในการทำความเข้าใจและใช้การให้เหตุผลตามสามัญสำนึกด้วยการเลือกตอนจบที่สมเหตุสมผลที่สุดของเรื่องราว

4 ช็อต

MATH

MATH ประเมินความสามารถของโมเดลภาษาในการแก้โจทย์ปัญหาคณิตศาสตร์ที่ซับซ้อน ซึ่งจำเป็นต้องมีการให้เหตุผล การแก้ปัญหาแบบหลายขั้นตอน และความเข้าใจในแนวคิดทางคณิตศาสตร์

0-ช็อต

ARC-e

การเปรียบเทียบ ARC-e จะทดสอบทักษะการตอบคำถามขั้นสูงของโมเดลภาษาด้วยคำถามวิทยาศาสตร์แบบปรนัยจริงในระดับโรงเรียน

0-ช็อต

PIQA

การเปรียบเทียบ PIQA จะทดสอบความสามารถของโมเดลภาษาเพื่อทำความเข้าใจและนำความรู้ทั่วไปด้านกายภาพไปใช้โดยการตอบคำถามเกี่ยวกับการโต้ตอบทางกายภาพในชีวิตประจำวัน

0-ช็อต

SIQA

การเปรียบเทียบ SIQA จะประเมินความเข้าใจของโมเดลภาษาเกี่ยวกับการโต้ตอบทางสังคมและสามัญสำนึกทางสังคมโดยการถามคำถามเกี่ยวกับการกระทำของผู้คนและนัยทางสังคมของพวกเขา

0-ช็อต

บูลค์

การเปรียบเทียบ BoolQ จะทดสอบความสามารถของโมเดลภาษาในการตอบคำถามแบบใช่/ไม่ใช่ที่เกิดขึ้นตามธรรมชาติ เป็นการทดสอบความสามารถของโมเดลในการทำงานอนุมานภาษาที่เป็นธรรมชาติในโลกแห่งความเป็นจริง

5 นัด

TriviaQA

เกณฑ์มาตรฐาน TriviaQA จะทดสอบทักษะการอ่านทำความเข้าใจด้วยคำถามพร้อมหลักฐานประกอบ 3 ประการ

5 นัด

NQ

การเปรียบเทียบ NQ (Natural Questions) จะทดสอบความสามารถของโมเดลภาษาในการค้นหาและทำความเข้าใจคำตอบในบทความ Wikipedia ทั้งหมด ซึ่งจำลองสถานการณ์การตอบคำถามในโลกแห่งความเป็นจริง

บัตร@1

HumanEval

การเปรียบเทียบ HumanEval ทดสอบความสามารถในการสร้างโค้ดของโมเดลภาษาโดยประเมินว่าโซลูชันของโมเดลผ่านการทดสอบหน่วยฟังก์ชันสำหรับปัญหาการเขียนโปรแกรมหรือไม่

3 ช็อต

MBPP

การเปรียบเทียบ MBPP จะทดสอบความสามารถของโมเดลภาษาในการแก้ปัญหาพื้นฐานการเขียนโปรแกรม Python โดยเน้นที่แนวคิดพื้นฐานด้านการเขียนโปรแกรมและการใช้ไลบรารีมาตรฐาน

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

เจมมา 1

2.5 พันล้าน

42.3

เจมมา 2

2.6 พันล้าน

51.3

Mistral

7 พันล้าน

62.5

LLAMA 3

8 พันล้าน

66.6

เจมมา 1

7 พันล้าน

64.4

เจมมา 2

9 พันล้าน

71.3

เจมมา 2

2.7 หมื่นล้าน

75.2

เจมมา 1

2.5 พันล้าน

48.5

เจมม่า 2

2.6 พันล้าน

55.4

Mistral

7 พันล้าน

60.5

LLAMA 3

8 พันล้าน

59.2

เจมมา 1

7 พันล้าน

61.1

เจมมา 2

9 พันล้าน

68.4

เจมมา 2

2.7 หมื่นล้าน

71.4

เจมมา 1

2.5 พันล้าน

15.1

เจมมา 2

2.6 พันล้าน

23.9

Mistral

7 พันล้าน

39.6

LLAMA 3

8 พันล้าน

45.7

เจมมา 1

7 พันล้าน

51.8

เจมมา 2

9 พันล้าน

68.6

เจมมา 2

2.7 หมื่นล้าน

74.0

เจมมา 1

2.5 พันล้าน

24.2

เจมม่า 2

2.6 พันล้าน

30.6

Mistral

7 พันล้าน

44.0

LLAMA 3

8 พันล้าน

45.9

เจมมา 1

7 พันล้าน

44.9

เจมมา 2

9 พันล้าน

52.8

เจมมา 2

2.7 หมื่นล้าน

55.1

เจมมา 1

2.5 พันล้าน

35.2

เจมมา 2

2.6 พันล้าน

41.9

Mistral

7 พันล้าน

56.0

LLAMA 3

8 พันล้าน

61.1

เจมมา 1

7 พันล้าน

59.0

เจมม่า 2

9 พันล้าน

68.2

เจมมา 2

2.7 หมื่นล้าน

74.9

เจมมา 1

2.5 พันล้าน

48.5

เจมม่า 2

2.6 พันล้าน

52.0

Mistral

7 พันล้าน

63.8

LLAMA 3

8 พันล้าน

58.4

เจมมา 1

7 พันล้าน

56.3

เจมม่า 2

9 พันล้าน

69.4

เจมม่า 2

2.7 หมื่นล้าน

74.2

เจมมา 1

2.5 พันล้าน

66.8

เจมมา 2

2.6 พันล้าน

70.9

Mistral

7 พันล้าน

78.5

LLAMA 3

8 พันล้าน

76.1

เจมมา 1

7 พันล้าน

79.0

เจมมา 2

9 พันล้าน

80.6

เจมมา 2

2.7 หมื่นล้าน

83.7

เจมมา 1

2.5 พันล้าน

71.7

เจมมา 2

2.6 พันล้าน

73.0

Mistral

7 พันล้าน

83.0

LLAMA 3

8 พันล้าน

82.0

เจมมา 1

7 พันล้าน

82.3

เจมมา 2

9 พันล้าน

81.9

เจมมา 2

2.7 หมื่นล้าน

86.4

เจมมา 1

2.5 พันล้าน

11.8

เจมมา 2

2.6 พันล้าน

15.0

Mistral

7 พันล้าน

12.7

เจมมา 1

7 พันล้าน

24.3

เจมมา 2

9 พันล้าน

36.6

เจมมา 2

2.7 หมื่นล้าน

42.3

เจมมา 1

2.5 พันล้าน

73.2

เจมมา 2

2.6 พันล้าน

80.1

Mistral

7 พันล้าน

80.5

เจมมา 1

7 พันล้าน

81.5

เจมมา 2

9 พันล้าน

88.0

เจมมา 2

2.7 หมื่นล้าน

88.6

เจมมา 1

2.5 พันล้าน

77.3

เจมมา 2

2.6 พันล้าน

77.8

Mistral

7 พันล้าน

82.2

เจมมา 1

7 พันล้าน

81.2

เจมมา 2

9 พันล้าน

81.7

เจมมา 2

2.7 หมื่นล้าน

83.2

เจมมา 1

2.5 พันล้าน

49.7

เจมมา 2

2.6 พันล้าน

51.9

Mistral

7 พันล้าน

47.0

เจมมา 1

7 พันล้าน

51.8

เจมมา 2

9 พันล้าน

53.4

เจมมา 2

2.7 หมื่นล้าน

53.7

เจมมา 1

2.5 พันล้าน

69.4

เจมมา 2

2.6 พันล้าน

72.5

Mistral

7 พันล้าน

83.2

เจมมา 1

7 พันล้าน

83.2

เจมมา 2

9 พันล้าน

84.2

เจมมา 2

2.7 หมื่นล้าน

84.8

เจมมา 1

2.5 พันล้าน

53.2

เจมมา 2

2.6 พันล้าน

59.4

Mistral

7 พันล้าน

62.5

เจมมา 1

7 พันล้าน

63.4

เจมมา 2

9 พันล้าน

76.6

เจมมา 2

2.7 หมื่นล้าน

83.7

เจมมา 1

2.5 พันล้าน

12.5

เจมมา 2

2.6 พันล้าน

16.7

Mistral

7 พันล้าน

23.2

เจมมา 1

7 พันล้าน

23.0

เจมมา 2

9 พันล้าน

29.2

เจมม่า 2

2.7 หมื่นล้าน

34.5

เจมมา 1

2.5 พันล้าน

22.0

เจมมา 2

2.6 พันล้าน

17.7

Mistral

7 พันล้าน

26.2

เจมมา 1

7 พันล้าน

32.3

เจมมา 2

9 พันล้าน

40.2

เจมมา 2

2.7 หมื่นล้าน

51.8

เจมมา 1

2.5 พันล้าน

29.2

เจมมา 2

2.6 พันล้าน

29.6

Mistral

7 พันล้าน

40.2

เจมมา 1

7 พันล้าน

44.4

เจมม่า 2

9 พันล้าน

52.4

เจมมา 2

2.7 หมื่นล้าน

62.6

*ข้อมูลเหล่านี้เป็นการเปรียบเทียบสำหรับโมเดลก่อนการฝึก โปรดดูรายละเอียดในรายงานทางเทคนิคเกี่ยวกับประสิทธิภาพร่วมกับวิธีการอื่นๆ

ตระกูลโมเดล Gemma

คู่มือเริ่มใช้งานฉบับย่อสำหรับนักพัฒนาซอฟต์แวร์

คู่มือเริ่มใช้งานฉบับย่อสำหรับพาร์ทเนอร์

ตำราอาหาร Gemma

สำรวจคอลเล็กชันสูตรอาหารที่ใช้ได้จริงและตัวอย่างที่แสดงให้เห็นถึงพลังและความอเนกประสงค์ของ Gemma สำหรับงานต่างๆ เช่น การใส่คำบรรยายภาพด้วย PaliGemma, การสร้างโค้ดด้วย CodeGemma และการสร้างแชทบ็อตด้วยโมเดล Gemma ที่ปรับแต่งมาอย่างดี

การพัฒนา AI อย่างมีความรับผิดชอบ

ความรับผิดชอบตามการออกแบบ

ผ่านการฝึกล่วงหน้าด้วยข้อมูลที่ได้รับการดูแลจัดการอย่างละเอียดและปรับแต่งเพื่อความปลอดภัยเป็นสำคัญ ช่วยส่งเสริมการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบโดยใช้โมเดล Gemma

การประเมินที่มีประสิทธิภาพและโปร่งใส

การประเมินที่ครอบคลุมและการรายงานที่โปร่งใสเผยให้เห็นข้อจำกัดของโมเดลในการนำแนวทางที่มีความรับผิดชอบไปใช้ในแต่ละกรณี

ขับเคลื่อนการพัฒนาอย่างมีความรับผิดชอบ

ชุดเครื่องมือ Generative AI ที่มีความรับผิดชอบจะช่วยสนับสนุนให้นักพัฒนาแอปออกแบบและนำแนวทางปฏิบัติแนะนำสำหรับ AI ที่มีความรับผิดชอบไปใช้

ไอคอน Google Cloud

เพิ่มประสิทธิภาพเพื่อ Google Cloud

เมื่อใช้โมเดล Gemma บน Google Cloud คุณสามารถปรับแต่งโมเดลให้เหมาะกับความต้องการที่เฉพาะเจาะจงได้อย่างละเอียดด้วยเครื่องมือที่มีการจัดการครบวงจรของ Vertex AI หรือตัวเลือก GKE ที่จัดการด้วยตนเอง และทำให้ใช้งานได้ในโครงสร้างพื้นฐานที่ยืดหยุ่นและประหยัดด้วย AI ซึ่งเพิ่มประสิทธิภาพโดย AI

การเร่งการวิจัยทางวิชาการด้วยเครดิต Google Cloud

พัฒนาการวิจัยของคุณด้วยโมเดล Gemma 2 ใน Google Cloud โมเดลแบบเปิดคลื่นลูกใหม่ช่วยขยายขอบเขตการสนับสนุนการวิจัยที่ล้ำสมัย สมัครตอนนี้เพื่อรับเครดิต Google Cloud เพื่อขยายขอบเขตการวิจัยและสนับสนุนความก้าวหน้าของชุมชนวิทยาศาสตร์

นักวิจัยที่ได้รับเลือกจะได้รับเครดิต Google Cloud เพื่อเร่งการพัฒนาด้านวิทยาศาสตร์

สมัครเลย

เข้าร่วมชุมชน

เชื่อมต่อ สำรวจ และแชร์ความรู้ของคุณกับคนอื่นๆ ในชุมชนโมเดล ML