Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration senden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.
Sie können mit Prompts und Modellkonfigurationen experimentieren und mit Vertex AI Studio schnell iterieren.
Gemini Zu den Konfigurationsoptionen für Imagen Zu den Konfigurationsoptionen für
Gemini-Modelle konfigurieren
In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Gemini-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.
Modellkonfiguration einrichten (Gemini)
Konfiguration für allgemeine Anwendungsfälle
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel
-Instanz mit dieser Konfiguration.
Swift
Legen Sie die Werte der Parameter in einem GenerationConfig
fest, wenn Sie eine GenerativeModel
-Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
let config = GenerationConfig(
temperature: 0.9,
topP: 0.1,
topK: 16,
maxOutputTokens: 200,
stopSequences: ["red"]
)
// Specify the config as part of creating the `GenerativeModel` instance
let model = vertex.generativeModel(
modelName: "GEMINI_MODEL_NAME",
generationConfig: config
)
// ...
Kotlin
Legen Sie die Werte der Parameter in einem GenerationConfig
fest, wenn Sie eine GenerativeModel
-Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
val config = generationConfig {
maxOutputTokens = 200
stopSequences = listOf("red")
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `GenerativeModel` instance
val generativeModel = Firebase.vertexAI.generativeModel(
modelName = "GEMINI_MODEL_NAME",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einem GenerationConfig
fest, wenn Sie eine GenerativeModel
-Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;
GenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModel gm = FirebaseVertexAI.getInstance().generativeModel(
"GEMINI_MODEL_NAME",
generationConfig
);
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// ...
Web
Legen Sie die Werte der Parameter in einem GenerationConfig
fest, wenn Sie eine GenerativeModel
-Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
const generationConfig = {
max_output_tokens: 200,
stop_sequences: ["red"],
temperature: 0.9,
top_p: 0.1,
top_k: 16,
};
// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(vertex, { model: "GEMINI_MODEL_NAME", generationConfig });
// ...
Dart
Legen Sie die Werte der Parameter in einem GenerationConfig
fest, wenn Sie eine GenerativeModel
-Instanz erstellen.
// ...
// Set parameter values in a `GenerationConfig` (example values shown here)
final generationConfig = GenerationConfig(
maxOutputTokens: 200,
stopSequences: ["red"],
temperature: 0.9,
topP: 0.1,
topK: 16,
);
final model = FirebaseVertexAI.instance.generativeModel(
model: 'GEMINI_MODEL_NAME',
// Specify the config as part of creating the `GenerativeModel` instance
config: generationConfig,
);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Konfiguration für Gemini Live API
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue LiveModel
-Instanz mit dieser Konfiguration.
Swift
Die Live API wird für Apps auf Apple-Plattformen noch nicht unterstützt. Schauen Sie aber bald wieder vorbei.
Kotlin
Legen Sie die Werte der Parameter in einem LiveGenerationConfig
fest, wenn Sie eine LiveModel
-Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
val config = liveGenerationConfig {
maxOutputTokens = 200
responseModality = ResponseModality.AUDIO
speechConfig = SpeechConfig(voice = Voices.FENRIR)
temperature = 0.9f
topK = 16
topP = 0.1f
}
// Specify the config as part of creating the `LiveModel` instance
val generativeModel = Firebase.vertexAI.liveModel(
modelName = "gemini-2.0-flash-live-preview-04-09",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einem LiveGenerationConfig
fest, wenn Sie eine LiveModel
-Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
LiveGenerationConfig.Builder configBuilder = new LiveGenerationConfig.Builder();
configBuilder.setMaxOutputTokens(200);
configBuilder.setResponseModalities(ResponseModality.AUDIO);
configBuilder.setSpeechConfig(new SpeechConfig(Voices.FENRIR));
configBuilder.setTemperature(0.9f);
configBuilder.setTopK(16);
configBuilder.setTopP(0.1f);
LiveGenerationConfig generationConfig = configBuilder.build();
// Specify the config as part of creating the `LiveModel` instance
LiveGenerativeModel gm = FirebaseVertexAI.getInstance().liveModel(
"gemini-2.0-flash-live-preview-04-09",
generationConfig
);
LiveModelFutures model = LiveModelFutures.from(gm);
// ...
Web
Die Live API wird für Web-Apps noch nicht unterstützt. Wir arbeiten aber daran, das bald zu ändern.
Dart
Legen Sie die Werte der Parameter in einem LiveGenerationConfig
fest, wenn Sie eine LiveModel
-Instanz erstellen.
// ...
// Set parameter values in a `LiveGenerationConfig` (example values shown here)
final generationConfig = LiveGenerationConfig(
maxOutputTokens: 200,
responseModalities: [ResponseModality.audio],
speechConfig: SpeechConfig(voice: Voice.fenrir),
temperature: 0.9,
topP: 0.1,
topK: 16,
);
// Specify the config as part of creating the `LiveModel` instance
final model = FirebaseVertexAI.instance.LiveModel(
model: 'gemini-2.0-flash-live-preview-04-09',
config: generationConfig,
);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Gemini)
Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.
Parameter | Beschreibung | Standardwert |
---|---|---|
Audio-Zeitstempel
audioTimestamp
|
Ein boolescher Wert, der das Verstehen von Zeitstempeln für Eingabedateien mit reiner Audiowiedergabe ermöglicht. Gilt nur, wenn |
false |
Häufigkeitsstrafe
frequencyPenalty
|
Bestimmt die Wahrscheinlichkeit, dass Tokens eingeschlossen werden, die wiederholt in der generierten Antwort vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. |
--- |
Max. Ausgabetokens
maxOutputTokens
|
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. | --- |
Präsenzminderung
presencePenalty
|
Damit wird die Wahrscheinlichkeit gesteuert, dass Tokens eingeschlossen werden, die bereits in der generierten Antwort vorkommen. Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. |
--- |
Stoppsequenzen
stopSequences
|
Gibt eine Liste an Strings an, die das Modell anweist, Inhalte nicht mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird. Gilt nur bei Verwendung einer |
--- |
Temperatur
temperature
|
Steuert den Grad der Zufälligkeit der Antwort. Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten. |
Je nach Modell |
Top-K
topK
|
Damit wird die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit begrenzt, die in den generierten Inhalten verwendet werden. Ein „Top-K“-Wert von 1 bedeutet, dass das nächste ausgewählte Token das wahrscheinlichste unter allen Tokens im Vokabular des Modells sein sollte. Ein „Top-K“-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (je nach festgelegter Temperatur).
|
Je nach Modell |
Top-P
topP
|
Steuert die Vielfalt der generierten Inhalte. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“ oben) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. |
Je nach Modell |
Antwortmodalität
responseModality
|
Gibt den Typ der gestreamten Ausgabe an, wenn Live API verwendet wird, z. B. Text oder Audio. Gilt nur bei Verwendung von Live API und einer |
--- |
Sprache (Stimme)
speechConfig
|
Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn Live API verwendet wird. Gilt nur bei Verwendung von Live API und einer |
Puck |
Imagen-Modelle konfigurieren
In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Imagen-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.
Modellkonfiguration einrichten (Imagen)
Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel
-Instanz mit dieser Konfiguration.
Swift
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie eine ImagenModel
-Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
let config = ImagenGenerationConfig(
negativePrompt: "frogs",
numberOfImages: 2,
aspectRatio: .landscape16x9,
imageFormat: .jpeg(compressionQuality: 100),
addWatermark: false
)
// Specify the config as part of creating the `ImagenModel` instance
let model = vertex.imagenModel(
modelName: "IMAGEN_MODEL_NAME",
generationConfig: config
)
// ...
Kotlin
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie eine ImagenModel
-Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig(
negativePrompt = "frogs",
numberOfImages = 2,
aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
addWatermark = false
)
// Specify the config as part of creating the `ImagenModel` instance
val imagenModel = Firebase.vertexAI.imagenModel(
modelName = "IMAGEN_MODEL_NAME",
generationConfig = config
)
// ...
Java
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie eine ImagenModel
-Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
.setNegativePrompt("frogs")
.setNumberOfImages(2)
.setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
.setImageFormat(ImagenImageFormat.jpeg(100))
.setAddWatermark(false)
.build();
// Specify the config as part of creating the `ImagenModel` instance
ImagenModel m = FirebaseVertexAI.getInstance().imagenModel(
"IMAGEN_MODEL_NAME",
config
);
ImagenModelFutures model = ImagenModelFutures.from(m);
// ...
Web
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie eine ImagenModel
-Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
const generationConfig = {
negativePrompt: "frogs",
numberOfImages: 2,
aspectRatio: ImagenAspectRatio.LANDSCAPE_16x9,
imageFormat: ImagenImageFormat.jpeg(100),
addWatermark: false
};
// Specify the config as part of creating the `ImagenModel` instance
const imagenModel = getImagenModel(vertexAI, { model: "IMAGEN_MODEL_NAME", generationConfig });
// ...
Dart
Legen Sie die Werte der Parameter in einem ImagenGenerationConfig
fest, wenn Sie eine ImagenModel
-Instanz erstellen.
// ...
// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
final generationConfig = ImagenGenerationConfig(
negativePrompt: 'frogs',
numberOfImages: 2,
aspectRatio: ImagenAspectRatio.landscape16x9,
imageFormat: ImagenImageFormat.jpeg(compressionQuality: 100)
addWatermark: false
);
// Specify the config as part of creating the `ImagenModel` instance
final model = FirebaseVertexAI.instance.imagenModel(
model: 'IMAGEN_MODEL_NAME',
config: generationConfig,
);
// ...
Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.
Beschreibung der Parameter (Imagen)
Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.
Parameter | Beschreibung | Standardwert |
---|---|---|
Negativ-Prompt
negativePrompt
|
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten
Dieser Parameter wird von |
--- |
Anzahl der Ergebnisse
numberOfImages
|
Die Anzahl der generierten Bilder, die pro Anfrage zurückgegeben werden | Standard ist ein Bild für Imagen 3-Modelle |
Seitenverhältnis
aspectRatio
|
Das Verhältnis zwischen Breite und Höhe der generierten Bilder | Standard ist quadratisch (1:1) |
Bildformat
imageFormat
|
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und die Komprimierungsstufe der generierten Bilder | Standard-MIME-Typ ist PNG Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist) |
Wasserzeichen
addWatermark
|
Ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll | Standardwert ist true für Imagen 3-Modelle
|
Personengenerierung
personGeneration
|
Ob die Generierung von Personen durch das Modell zulässig ist | Standardeinstellung hängt vom Modell ab |
Weitere Optionen zur Steuerung der Inhaltsgenerierung
- Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
- Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, einschließlich Hassrede und sexuell expliziter Inhalte.
- Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
- Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.