1000+ FĂźnf-Sterne-Bewertungen und Top-Auszeichnungen machen uns zu einer der gefragtesten Lernplattformen.
maschke academy blog

Wissen. Technik. Kreativität.

Der offizielle Blog der Maschke Akademie: Updates, Tutorials und Insights aus der Welt der digitalen Bildbearbeitung, KI und visuellen Medien.
Google verĂśffentlicht TranslateGemma
KĂźnstliche Intelligenz 17.01.2026

Google verĂśffentlicht TranslateGemma

Google hat mit TranslateGemma eine neue Familie offener Übersetzungsmodelle veröffentlicht, die auf der Gemma‑3-Architektur basiert und 55 Sprachen mit deutlich verbesserter Qualität abdeckt.

Was TranslateGemma ist

  • TranslateGemma ist eine Suite spezialisierter KI-Modelle fĂźr maschinelle Übersetzung, nicht ein Endnutzer-Produkt wie Google Translate.
  • Die Modelle sind als „Open Weights“ verfĂźgbar, kĂśnnen also lokal, in der eigenen Cloud oder Ăźber Dienste wie Vertex AI und Hugging Face genutzt bzw. feinjustiert werden.

Modellgrößen und Hardware

  • Es gibt derzeit drei Größen: 4B, 12B und 27B Parameter; 4B ist fĂźr Mobile/Edge optimiert, 12B fĂźr Laptops/Desktops, 27B fĂźr Server/H100/TPU.
  • Trotz vergleichsweise kleiner Größe schlägt das 12B-Modell in Benchmarks sogar ein größeres 27B-Basismodell, weil es stark auf Übersetzungsqualität spezialisiert ist.

Sprachabdeckung und Qualität

  • TranslateGemma wurde fĂźr 55 Sprachen trainiert und evaluiert, inklusive vieler Low-Resource-Sprachen; zusätzlich existieren hunderte weiterer, noch nicht voll evaluierter Sprachpaare im technischen Report.
  • In der WMT24++-Evaluation sinken die Fehlerraten gegenĂźber den Gemma‑Basismodellen Ăźber alle Sprachen deutlich, mit besonders großen Gewinnen z.B. bei Isländisch und Swahili.

Training und Technik

  • Technisch nutzt Google ein zweistufiges Verfahren: Supervised Fine-Tuning auf parallelen Daten (human + hochwertige Gemini-Synthese), danach Reinforcement Learning mit automatischen Bewertungsmodellen zur Optimierung der Übersetzungsqualität.
  • Rund 30% des Trainingsmix bestehen aus allgemeinen Instruction-Daten, sodass die Modelle auch einfache Chat-/Anweisungsfunktionen behalten und nicht nur „nackt Ăźbersetzen“.

Nutzung fĂźr deinen Workflow

  • Die Modelle sind u.a. Ăźber Hugging Face (z.B. google/translategemma-4b-it und -27b-it), Kaggle und Vertex AI Model Garden verfĂźgbar und lassen sich damit in eigene Tools, lokale Inferenzserver oder z.B. ein Python‑basiertes Übersetzungs-Backend integrieren.
  • FĂźr dich als Fotograf/Retoucher bieten sich z.B. an: eigenes Offline-Übersetzungs-Backend fĂźr Workshops/Slides, Lokalisierung von Kursmaterial in mehrere Sprachen oder Integration in Captioning-/Keywording‑Pipelines fĂźr internationale Bilddatenbanken.

Hier findest du weiterfĂźhrende Informationen: Google Blog


Ähnliche Beiträge

Hol’ dir die Weiterbildung im Mail-Format
Starttermine, exklusive Rabatte und spannende Updates direkt in dein Postfach.

Kontakt
+ 4917664380939
Rick Maschke & Partner
Spezialist fßr exzellente Präsentationen Innovative Prozesse & Digitale Bildbearbeitung
rick@maschke.academy