Models

L'endpoint dei modelli offre un modo per elencare in modo programmatico i modelli disponibili e recuperare metadati estesi come la funzionalità supportata e il dimensionamento della finestra di contesto. Scopri di più nella guida ai modelli.

Metodo: models.get

Recupera informazioni su un Model specifico, come numero di versione, limiti di token, parametri e altri metadati. Per informazioni dettagliate sul modello, consulta la guida ai modelli Gemini.

Endpoint

recupera https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parametri del percorso

name string

Obbligatorio. Il nome risorsa del modello.

Questo nome deve corrispondere a un nome di modello restituito dal metodo models.list.

Formato: models/{model} Prende il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta deve essere vuoto.

Esempio di richiesta

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Conchiglia

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di Model.

Metodo: model.list

Elenca i Model disponibili tramite l'API Gemini.

Endpoint

recupera https://generativelanguage.googleapis.com/v1beta/models

Parametri di query

pageSize integer

Il numero massimo di Models da restituire (per pagina).

Se non specificati, verranno restituiti 50 modelli per pagina. Questo metodo restituisce al massimo 1000 modelli per pagina, anche se passi un valore pageSize più grande.

pageToken string

Un token di pagina, ricevuto da una precedente chiamata a models.list.

Fornisci il valore pageToken restituito da una richiesta come argomento per la richiesta successiva per recuperare la pagina successiva.

Durante l'impaginazione, tutti gli altri parametri forniti a models.list devono corrispondere alla chiamata che ha fornito il token della pagina.

Corpo della richiesta

Il corpo della richiesta deve essere vuoto.

Esempio di richiesta

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Conchiglia

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corpo della risposta

Risposta da ListModel contenente un elenco impaginato di modelli.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
models[] object (Model)

I modelli restituiti.

nextPageToken string

Un token, che può essere inviato come pageToken per recuperare la pagina successiva.

Se questo campo viene omesso, non ci sono altre pagine.

Rappresentazione JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Risorsa REST: modelli

Risorsa: modello

Informazioni su un modello linguistico generativo.

Campi
name string

Obbligatorio. Il nome della risorsa di Model. Consulta Varianti del modello per tutti i valori consentiti.

Formato: models/{model} con una convenzione di denominazione {model} di:

  • "{baseModelId}-{version}"

Esempi:

  • models/gemini-1.5-flash-001
baseModelId string

Obbligatorio. Il nome del modello di base, passalo alla richiesta di generazione.

Esempi:

  • gemini-1.5-flash
version string

Obbligatorio. Il numero di versione del modello.

Rappresenta la versione principale (1.0 o 1.5)

displayName string

Il nome leggibile del modello. Ad es. "Gemini 1.5 Flash".

Il nome può contenere fino a 128 caratteri e può essere composto da qualsiasi carattere UTF-8.

description string

Una breve descrizione del modello.

inputTokenLimit integer

Numero massimo di token di input consentiti per questo modello.

outputTokenLimit integer

Numero massimo di token di output disponibili per questo modello.

supportedGenerationMethods[] string

I metodi di generazione supportati dal modello.

I nomi dei metodi API corrispondenti sono definiti come stringhe con maiuscole e minuscole Pascal, ad esempio generateMessage e generateContent.

temperature number

Controlla la casualità dell'output.

I valori possono essere superiori a [0.0,maxTemperature] inclusi. Un valore più alto produrrà risposte più variegate, mentre un valore più vicino a 0.0 genererà risposte meno sorprendenti da parte del modello. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello.

maxTemperature number

La temperatura massima utilizzabile da questo modello.

topP number

Per Campionamento del nucleo.

Il campionamento del nucleo prende in considerazione l'insieme più piccolo di token la cui somma di probabilità è almeno topP. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello.

topK integer

Per il campionamento Top-k.

Il campionamento Top-k prende in considerazione l'insieme di topK token più probabili. Questo valore specifica il valore predefinito che deve essere utilizzato dal backend durante la chiamata al modello. Se vuoto, indica che il modello non utilizza il campionamento top-k e topK non è consentito come parametro di generazione.

Rappresentazione JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}