Auf dieser Seite

AI-Übersetzung

Mit der KI-Übersetzungsfunktion können Sie automatisch Übersetzungen für die geöffnete TS-Datei mithilfe von großen Sprachmodellen (LLMs) generieren. Sie können entweder einen lokalen LLM-Server (wie Ollama, LM Studio oder llama.cpp) oder Cloud-basierte APIs verwenden, die das OpenAI-kompatible REST-Protokoll unterstützen (wie OpenAI, Groq oder Anthropic).

Qt Linguist unterstützt zwei API-Modi:

  • Ollama - Ollamas native REST-API. Verwenden Sie dies, wenn Sie Ollama lokal ausführen.
  • OpenAI-kompatibel - Das standardmäßige OpenAI-REST-API-Format. Verwenden Sie dies für:
    • Lokale Server: LM Studio, llama.cpp, oder Ollama (das auch den OpenAI-kompatiblen Modus unterstützt)
    • Cloud-Anbieter: OpenAI, Groq, DeepSeek, und andere

Einrichten eines lokalen LLM-Servers

Um AI Translation mit einem lokalen Server zu verwenden, installieren Sie eines der folgenden Programme und laden Sie mindestens ein Modell herunter:

  • Ollama - Einfach zu benutzen, verwaltet Modelle automatisch
  • LM Studio - GUI-Anwendung mit Modell-Browser
  • llama.cpp - Leichtgewichtig, führt GGUF-Modelle direkt aus

Hinweis: Die lokale Ausführung von LLMs erfordert je nach Modellgröße und Quantisierungsgrad ausreichend Speicherplatz. Spezifische Anforderungen finden Sie in der Dokumentation Ihres LLM-Servers, zum Beispiel LM Studio System Requirements.

Für Ollama ziehen Sie ein Modell über die Kommandozeile:

ollama pull qwen3:14b
ollama serve

Bei LM Studio laden Sie Modelle über die Schnittstelle der Anwendung herunter und starten den lokalen Server:

lms server start

Für llama.cpp können Sie entweder eine der integrierten Modellvoreinstellungen verwenden:

llama-server --fim-qwen-7b-default

Oder Sie laden eine GGUF-Modelldatei herunter und starten den Server manuell:

llama-server -m model.gguf --port 8080

Cloud-APIs verwenden

Um Cloud-basierte Übersetzungsdienste zu verwenden, wählen Sie OpenAI Compatible als API-Typ, geben Sie die API-Endpunkt-URL des Anbieters ein und geben Sie Ihren API-Schlüssel an.

Geben Sie nur die Basis-URL ohne das Pfad-Suffix /v1 ein. Verwenden Sie zum Beispiel für OpenRouter https://openrouter.ai/api. Die richtige Endpunkt-URL finden Sie in der Dokumentation Ihres Anbieters.

Verwendung des AI-Übersetzungsdialogs

Wählen Sie in Linguist Tools > AI Translation, um den AI-Übersetzungsdialog zu öffnen:

Der Configuration Teil des Dialogs bietet:

  • API Type: wählen Sie Ollama für lokale Ollama-Server, die die native API von Ollama verwenden, oder OpenAI-kompatibel für LM Studio, llama.cpp, Cloud-APIs oder Ollama im OpenAI-kompatiblen Modus.
  • Server URL: die Basis-URL, an der der Server lauscht. Fügen Sie das Pfad-Suffix /v1 nicht ein. Standard: http://localhost:11434 für Ollama, http://localhost:8080 für OpenAI-kompatibel.
  • API KeyAuthentifizierungsschlüssel: Authentifizierungsschlüssel für Cloud-APIs (optional für lokale Server).
  • ModelDropdown-Liste der verfügbaren Modelle.
  • Context: optionaler Anwendungskontext zur Verbesserung der Übersetzungsgenauigkeit (z. B. "medizinische Software", "Videospiel", "Finanzanwendung").

Screenshot des Qt Linguist AI Übersetzungsdialogs - Konfiguration

Der Selection Teil des Dialogs bietet:

  • File: die zu übersetzende TS-Datei.
  • Filter: Begrenzung der Übersetzung auf bestimmte Gruppen (Kontexte oder Labels).
  • Translate: die AI-Übersetzung starten.

Screenshot des Qt Linguist AI Übersetzungsdialogs - Auswahl

Der Progress Teil des Dialogs bietet:

  • eine Stopp-Schaltfläche, um den Übersetzungsprozess zu stoppen
  • Apply Translations: Übernahme der übersetzten Elemente in die TS-Datei.

Screenshot des Qt Linguist AI Übersetzungsdialogs - Fortschritt

Während der Übersetzung werden auf Translation Log Fortschrittsmeldungen angezeigt. Nach Abschluss der Übersetzung können Sie die übersetzten Texte im Protokoll einsehen. Klicken Sie auf Apply Translations, um die von AI erstellten Übersetzungen in die TS-Datei einzufügen.

Die folgenden Modelle werden für Übersetzungsaufgaben empfohlen, um ein Gleichgewicht zwischen Qualität, Geschwindigkeit und Ressourcenverbrauch herzustellen. Diese Modelle finden Sie auf:

  • Ollama - Suche nach dem Modellnamen (z. B. ollama pull qwen3:14b)
  • LM Studio - Suche im Modellbrowser
  • Hugging Face - GGUF-Dateien für llama.cpp herunterladen
ModellGrößeAnmerkungen
Mistral Klein 24B14 GBHohe Übersetzungsqualität mit starker mehrsprachiger Unterstützung. Erfordert >16 GB VRAM für optimale Leistung.
Qwen3 14B9 GBAusgewogenes Verhältnis zwischen Qualität und Ressourcenverbrauch. Unterstützt über 100 Sprachen.
Qwen3 30B19 GBHochwertige Übersetzungen. Verwendet MoE-Architektur für effiziente Inferenz.
Qwen2.5 14B9 GBStarke mehrsprachige Unterstützung für mehr als 29 Sprachen, einschließlich CJK-Sprachen.
Gemma 3 12B8 GBUnterstützt über 140 Sprachen. Gut für ressourcenbeschränkte Systeme.
7shi/llama-translate 8B5 GBSpezialisiertes Übersetzungsmodell für Englisch, Französisch, Chinesisch und Japanisch. Leichte Option für begrenzte Hardware. Nur auf Ollama verfügbar.

Für Systeme mit begrenzten Ressourcen bieten kleinere Varianten wie Qwen3 8B (5 GB) oder Qwen2.5 7B (5 GB) eine angemessene Übersetzungsqualität bei geringerem Speicherbedarf.

Hinweis: Die Übersetzungsqualität variiert je nach Sprachpaar und Modell. Testen Sie verschiedene Modelle, um die beste Kombination aus Geschwindigkeit, Qualität und Ressourcenverbrauch für Ihre speziellen Übersetzungsanforderungen zu finden.

© 2026 The Qt Company Ltd. Documentation contributions included herein are the copyrights of their respective owners. The documentation provided herein is licensed under the terms of the GNU Free Documentation License version 1.3 as published by the Free Software Foundation. Qt and respective logos are trademarks of The Qt Company Ltd. in Finland and/or other countries worldwide. All other trademarks are property of their respective owners.