Gemma ओपन मॉडल

यह लाइटवेट और बेहतरीन ओपन मॉडल है. इन्हें Gemini मॉडल बनाने में इस्तेमाल की गई रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है

ज़िम्मेदार डिज़ाइन से जुड़े आइकॉन

डिज़ाइन के हिसाब से ज़िम्मेदार

सुरक्षा के बड़े उपायों को शामिल करके, ये मॉडल चुनिंदा डेटासेट और बेहतर ट्यूनिंग के ज़रिए, एआई (AI) के बेहतर और भरोसेमंद समाधान पाने में मदद करते हैं.

मेल न खाने वाली परफ़ॉर्मेंस का आइकॉन

आकार के हिसाब से बेजोड़ परफ़ॉर्मेंस

Gemma मॉडल अपने 2B, 7B, 9B, और 27B साइज़ में बेहतरीन मानदंड हासिल करते हैं. भले ही, ये बड़े ओपन मॉडल की परफ़ॉर्मेंस से बेहतर परफ़ॉर्म करते हों.

फ़्रेमवर्क सुविधाजनक

फ़्रेमवर्क सुविधाजनक

Keras 3.0 के साथ, JAX, TensorFlow, और PyTorch के साथ आसानी से काम करने का आनंद लें. इससे आपको अपने टास्क के हिसाब से आसानी से फ़्रेमवर्क चुनने और उनमें बदलाव करने में मदद मिलेगी.

पेश है
Gemma 2

शानदार परफ़ॉर्मेंस और बेहतरीन परफ़ॉर्मेंस के लिए, Gemma 2 को फिर से डिज़ाइन किया गया है. यह अलग-अलग तरह के हार्डवेयर के लिए, तेज़ी से अनुमान लगाने की सुविधा को ऑप्टिमाइज़ करता है.

5-शॉट

MMLU

MMLU बेंचमार्क एक ऐसा टेस्ट है जिससे पता चलता है कि प्री-ट्रेनिंग के दौरान, बड़े लैंग्वेज मॉडल ने कितनी जानकारी हासिल की है और समस्याओं का हल निकालने की कितनी क्षमता है.

25-शॉट

ARC-C

ARC-c बेंचमार्क, ARC-e डेटासेट का ज़्यादा फ़ोकस वाला सबसेट है. इसमें सिर्फ़ ऐसे सवाल शामिल हैं जिनके जवाब सामान्य (डेटा पाने का आधार और शब्द के साथ आने) वाले एल्गोरिदम का गलत तरीके से दिए गए हैं.

5-शॉट

जीएसएम8के

GSM8K बेंचमार्क, ग्रेड-स्कूल के गणित के सवालों को हल करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसमें अक्सर रीज़निंग के कई चरणों की ज़रूरत होती है.

3-5-शॉट

AGIEval

एजीआईईवल बेंचमार्क में, भाषा के मॉडल के सामान्य इंटेलिजेंस की जांच की जाती है. इसके लिए, असल दुनिया की परीक्षाओं से मिले सवालों का इस्तेमाल किया जाता है, जो लोगों की बौद्धिक क्षमताओं का आकलन करने के लिए डिज़ाइन किए गए हैं.

3-शॉट, CoT

BBH

BBH (बिग-बेंच हार्ड) मानदंड उन कामों पर फ़ोकस करता है जो मौजूदा लैंग्वेज मॉडल की क्षमताओं से बाहर होते हैं. साथ ही, इसमें अलग-अलग रीज़निंग और समझ वाले डोमेन की सीमाओं की जांच की जाती है.

3-शॉट, F1

नीचे झुक जाएं

DROP, पढ़ने और समझने की क्षमता का मानदंड है. इसके लिए पैराग्राफ़ के तौर पर, अलग-अलग तर्क की ज़रूरत होती है.

5-शॉट

Winogrande

विनोग्रांडे बेंचमार्क, बाइनरी विकल्पों की मदद से मुश्किल भरे कामों को पूरा करने में भाषा के मॉडल की क्षमता का परीक्षण करता है, जिसके लिए सामान्य सामान्य सामान्य तर्क की ज़रूरत होती है.

10-शॉट

HellaSwag

HellaSwag बेंचमार्क किसी कहानी के सबसे तार्किक अंत को चुनकर, सामान्य ज्ञान से जुड़े तर्क को समझने और उसे लागू करने की भाषा मॉडल की क्षमता को चुनौती देता है.

4-शॉट

MATH

MATH, गणित के जटिल शब्द सवालों को हल करने में भाषा के मॉडल की क्षमता का आकलन करता है. इसमें तर्क के साथ, कई चरणों में सवाल हल करना, और गणित के सिद्धांतों को समझना ज़रूरी है.

0-शॉट

ARC-e

ARC-e बेंचमार्क की टेक्नोलॉजी, भाषा से जुड़े ऐडवांस लेवल के सवालों के जवाब देने के ऐडवांस कौशल की जांच करती है. इसके लिए, ग्रेड-स्कूल लेवल के कई विकल्प वाले विज्ञान के सवालों का इस्तेमाल किया जाता है.

0-शॉट

PIQA

PIQA बेंचमार्क की मदद से, हर दिन की शारीरिक बातचीत से जुड़े सवालों के जवाब देकर, भाषा के मॉडल की शारीरिक सामान्य जानकारी को समझने और उसे लागू करने की क्षमता को परखा जाता है.

0-शॉट

SIQA

SIQA बेंचमार्क लोगों की कार्रवाइयों और उनके सामाजिक असर के बारे में सवाल पूछकर, किसी भाषा के मॉडल की सामाजिक इंटरैक्शन और सामाजिक आम समझ का आकलन करता है.

0-शॉट

बूल्क

BoolQ बेंचमार्क, स्वाभाविक रूप से हां या नहीं में जवाब देने की भाषा के मॉडल की क्षमता को परखता है. साथ ही, इस मॉडल की मदद से असल दुनिया में प्राकृतिक भाषा का अनुमान लगाने के टास्क कर पाता है.

5-शॉट

TriviaQA

ट्रिवियाQA बेंचमार्क तीन बार सवालों के जवाब के साथ, समझने की क्षमता की जांच करता है.

5-शॉट

NQ

NQ (सामान्य सवाल) मानदंड की मदद से, विकिपीडिया के सभी लेखों में जवाब ढूंढने और समझने की भाषा मॉडल की क्षमता का आकलन किया जाता है. इसमें, असल दुनिया में होने वाले सवालों के जवाब दिए जाते हैं.

पास@1

HumanEval

HumanEval बेंचमार्क, लैंग्वेज मॉडल के कोड जनरेट करने की क्षमताओं की जांच करता है. इसके लिए, यह आकलन किया जाता है कि इसके समाधान, प्रोग्रामिंग से जुड़ी समस्याओं के लिए फ़ंक्शनल यूनिट टेस्ट को पास करते हैं या नहीं.

3-शॉट

MBPP

MBPP मानदंड, Python प्रोग्रामिंग की बुनियादी समस्याओं को हल करने में भाषा मॉडल की क्षमता की जांच करता है. इसमें बुनियादी प्रोग्रामिंग सिद्धांतों और स्टैंडर्ड लाइब्रेरी के इस्तेमाल पर ध्यान दिया जाता है.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

जेमा 1

2.5 अरब

42.3

जेमा 2

2.6 अरब

51.3

Mistral

7 अरब

62.5

लामा 3

8 अरब

66.6

जेमा 1

7 अरब

64.4

जेमा 2

9 अरब

71.3

जेमा 2

27 अरब

75.2

जेमा 1

2.5 अरब

48.5

जेमा 2

2.6 अरब

55.4

Mistral

7 अरब

60.5

लामा 3

8 अरब

59.2

जेमा 1

7 अरब

61.1

जेमा 2

9 अरब

68.4

जेमा 2

27 अरब

71.4

जेमा 1

2.5 अरब

15.1

जेमा 2

2.6 अरब

23.9

Mistral

7 अरब

39.6

लामा 3

8 अरब

45.7

जेमा 1

7 अरब

51.8

जेमा 2

9 अरब

68.6

जेमा 2

27 अरब

74.0

जेमा 1

2.5 अरब

24.2

जेमा 2

2.6 अरब

30.6

Mistral

7 अरब

44.0

लामा 3

8 अरब

45.9

जेमा 1

7 अरब

44.9

जेमा 2

9 अरब

52.8

जेमा 2

27 अरब

55.1

जेमा 1

2.5 अरब

35.2

जेमा 2

2.6 अरब

41.9

Mistral

7 अरब

56.0

लामा 3

8 अरब

61.1

जेमा 1

7 अरब

59.0

जेमा 2

9 अरब

68.2

जेमा 2

27 अरब

74.9

जेमा 1

2.5 अरब

48.5

जेमा 2

2.6 अरब

52.0

Mistral

7 अरब

63.8

लामा 3

8 अरब

58.4

जेमा 1

7 अरब

56.3

जेमा 2

9 अरब

69.4

जेमा 2

27 अरब

74.2

जेमा 1

2.5 अरब

66.8

जेमा 2

2.6 अरब

70.9

Mistral

7 अरब

78.5

लामा 3

8 अरब

76.1

जेमा 1

7 अरब

79.0

जेमा 2

9 अरब

80.6

जेमा 2

27 अरब

83.7

जेमा 1

2.5 अरब

71.7

जेमा 2

2.6 अरब

73.0

Mistral

7 अरब

83.0

लामा 3

8 अरब

82.0

जेमा 1

7 अरब

82.3

जेमा 2

9 अरब

81.9

जेमा 2

27 अरब

86.4

जेमा 1

2.5 अरब

11.8

जेमा 2

2.6 अरब

15.0

Mistral

7 अरब

12.7

जेमा 1

7 अरब

24.3

जेमा 2

9 अरब

36.6

जेमा 2

27 अरब

42.3

जेमा 1

2.5 अरब

73.2

जेमा 2

2.6 अरब

80.1

Mistral

7 अरब

80.5

जेमा 1

7 अरब

81.5

जेमा 2

9 अरब

88.0

जेमा 2

27 अरब

88.6

जेमा 1

2.5 अरब

77.3

जेमा 2

2.6 अरब

77.8

Mistral

7 अरब

82.2

जेमा 1

7 अरब

81.2

जेमा 2

9 अरब

81.7

जेमा 2

27 अरब

83.2

जेमा 1

2.5 अरब

49.7

जेमा 2

2.6 अरब

51.9

Mistral

7 अरब

47.0

जेमा 1

7 अरब

51.8

जेमा 2

9 अरब

53.4

जेमा 2

27 अरब

53.7

जेमा 1

2.5 अरब

69.4

जेमा 2

2.6 अरब

72.5

Mistral

7 अरब

83.2

जेमा 1

7 अरब

83.2

जेमा 2

9 अरब

84.2

जेमा 2

27 अरब

84.8

जेमा 1

2.5 अरब

53.2

जेमा 2

2.6 अरब

59.4

Mistral

7 अरब

62.5

जेमा 1

7 अरब

63.4

जेमा 2

9 अरब

76.6

जेमा 2

27 अरब

83.7

जेमा 1

2.5 अरब

12.5

जेमा 2

2.6 अरब

16.7

Mistral

7 अरब

23.2

जेमा 1

7 अरब

23.0

जेमा 2

9 अरब

29.2

जेमा 2

27 अरब

34.5

जेमा 1

2.5 अरब

22.0

जेमा 2

2.6 अरब

17.7

Mistral

7 अरब

26.2

जेमा 1

7 अरब

32.3

जेमा 2

9 अरब

40.2

जेमा 2

27 अरब

51.8

जेमा 1

2.5 अरब

29.2

जेमा 2

2.6 अरब

29.6

Mistral

7 अरब

40.2

जेमा 1

7 अरब

44.4

जेमा 2

9 अरब

52.4

जेमा 2

27 अरब

62.6

*ये पहले से ट्रेन किए गए मॉडल के मानदंड हैं. दूसरे तरीकों के साथ परफ़ॉर्मेंस की जानकारी पाने के लिए तकनीकी रिपोर्ट देखें.

जेमा मॉडल फ़ैमिली

डेवलपर के लिए आसानी से सिखाने वाली गाइड

पार्टनर के लिए आसानी से सीखें

जेमा कुकबुक

Gemma की बेहतरीन रेसिपी और कई तरह के काम दिखाने वाली रेसिपी और उदाहरणों का कलेक्शन देखें. जैसे, PaliGemma के साथ इमेज कैप्शनिंग, CodeGemma की मदद से कोड जनरेट करना, और बेहतरीन जेमा मॉडल की मदद से चैटबॉट बनाना.

ज़िम्मेदारी के साथ एआई का डेवलपमेंट

डिज़ाइन के हिसाब से ज़िम्मेदारी

गेम को बहुत ध्यान से चुने गए डेटा के आधार पर ट्रेनिंग दी जाती है. साथ ही, बेहतर सुरक्षा के लिए इसे तैयार किया जाता है. इससे Gemma मॉडल की मदद से, एआई को सुरक्षित और भरोसेमंद बनाने में मदद मिलती है.

मज़बूत और पारदर्शी आकलन

बेहतर आकलन और पारदर्शी रिपोर्टिंग से, मॉडल की सीमाओं के बारे में पता चलता है, ताकि इस्तेमाल के हर उदाहरण के लिए ज़िम्मेदार तरीका अपनाया जा सके.

ज़िम्मेदारी के साथ डेवलपमेंट को बढ़ावा देना

ज़िम्मेदार जनरेटिव एआई टूलकिट, डेवलपर को ज़िम्मेदारी के साथ एआई के इस्तेमाल के सबसे सही तरीके डिज़ाइन और लागू करने में मदद करता है.

Google Cloud का आइकॉन

Google Cloud के लिए ऑप्टिमाइज़ किया गया

Google Cloud पर Gemma मॉडल की मदद से, मॉडल को अपनी ज़रूरत के हिसाब से कस्टमाइज़ किया जा सकता है. इसके लिए, Vertex AI के पूरी तरह से मैनेज किए गए टूल या GKE के खुद से मैनेज होने वाले टूल का इस्तेमाल किया जा सकता है. साथ ही, इसे ज़रूरत के हिसाब से और किफ़ायती एआई को ऑप्टिमाइज़ करने वाले इन्फ़्रास्ट्रक्चर के लिए डिप्लॉय किया जा सकता है.

Google Cloud क्रेडिट की मदद से शिक्षा से जुड़ी रिसर्च को बढ़ावा देना

Google Cloud में Gemma 2 मॉडल की मदद से अपनी रिसर्च को बेहतर बनाएं. नए ओपन मॉडल की मदद से, हम बेहतरीन रिसर्च में मदद कर पाते हैं. Google Cloud क्रेडिट पाने के लिए अभी आवेदन करें. इससे आपको अपनी रिसर्च का दायरा बढ़ाने और वैज्ञानिक समुदाय को बेहतर बनाने में मदद मिलेगी.

चुने गए रिसर्चर को Google Cloud क्रेडिट मिलेंगे, ताकि वे विज्ञान से जुड़ी अपनी कोशिशों को तेज़ी से आगे बढ़ा सकें.

अभी आवेदन करें

कम्यूनिटी से जुड़ें

मशीन लर्निंग मॉडल की कम्यूनिटी के अन्य लोगों से जुड़ें, उनके बारे में जानें, और अपनी जानकारी शेयर करें.