Google hat mit Gemini 3 Flash ein neues, schnelles KIâModell verĂśffentlicht, das Entwicklern Ăźber die GeminiâAPI/Vertex AI zur VerfĂźgung steht und gleichzeitig als StandardâModell in der GeminiâApp ausgerollt wird.
Gemini 3 Flash ist ein âfrontierâ-Modell, das die ReasoningâFähigkeiten von Gemini 3 Pro mit der Geschwindigkeit und Effizienz der FlashâReihe kombiniert. Es soll in Benchmarks 2.5 Pro bei ähnlicher Qualität deutlich Ăźbertreffen, dabei bis zu dreimal schneller reagieren und rund 30% weniger Tokens in typischen Workloads verbrauchen.
Das Modell ist voll multimodal: Es verarbeitet Text, Bilder, Audio und Video, kann also z.B. Screenshots, Skizzen, kurze Clips oder Audioaufnahmen analysieren und darauf basierend antworten. Google positioniert es als âWorkhorseâ-Modell fĂźr Agenten, CodingâAssistenten, Datenextraktion, Videoanalyse und interaktive Anwendungen mit hoher Anfragenfrequenz.
In der GeminiâApp ersetzt Gemini 3 Flash das bisherige 2.5 Flash als Standardmodell (âFastâ/âThinkingâ), sowohl in der App selbst als auch im AIâMode von Google Search. In der ModellâAuswahl erscheinen jetzt:
FĂźr Nutzer bedeutet das: schnellere Antwortzeiten, bessere Verständnisleistung bei multimodalen Anfragen (z.B. Fotos, UIâScreenshots, Notizzettel) und mehr visuelle Ausgaben wie Tabellen und Bilder in den Antworten.
FĂźr Entwickler steht Gemini 3 Flash als PreviewâModell gemini-3-flash-preview in der GeminiâAPI und in Vertex AI bereit. Eckdaten:
Durch KontextâCaching und BatchâAPI lassen sich bei wiederholter Kontextnutzung bis zu 50â90% Kosten einsparen, was das Modell fĂźr produktive Systeme mit vielen Anfragen interessant macht.