
Die Zukunft der Translation Memory-Technologie
Dazu haben wir uns mit zwei Experten bei SDL zusammengesetzt, Director of Product Management Daniel Brockmann, einem alten Hasen in der Übersetzungsbranche, und Principal Research Engineer Kevin Flanagan. Beide haben reichlich Erfahrung in den Bereichen Softwareentwicklung und Übersetzung.
Wir haben die beiden gefragt, wie sie die zukünftige Rolle des TMs einschätzen. Als Gesprächseinstieg haben wir uns das derzeit wohl heißeste Thema ausgesucht: Künstliche Intelligenz (KI).
Wie schätzen Sie die zukünftige Rolle der KI für das Translation Memory ein?
DB: KI und maschinelles Lernen sind im Moment in aller Munde. Ob Siri und Alexa, selbstfahrende Autos oder Wearables für Gesundheit und Fitness – die KI entwickelt sich rasend schnell weiter. SDL hat bereits Erfahrung mit maschinellem Lernen – so haben wir etwa schon 2016 unsere innovative Technologie für adaptive maschinelle Übersetzung eingeführt. Es stellt sich jedoch die Frage, was KI möglicherweise für das Translation Memory bedeutet. Wir könnten uns ein Szenario vorstellen, bei dem KI die Übersetzungsproduktivität auf die nächste Stufe hebt und CAT-Tools damit im Kern unterstützt.
Ein konkreter Aspekt wäre die Verbesserung von Übersetzungsvorschlägen. Wir könnten zum Beispiel Translation Memorys mit Ergebnissen aus Terminologieressourcen und neuronaler maschineller Übersetzung kombinieren, damit Anwender immer das beste Match zum Review erhalten, anstatt neu übersetzen zu müssen. Eine Engine für neuronale maschinelle Übersetzung könnte beispielsweise mit einem großen TM und einer Termbank aus einem bestimmten Fachgebiet konfiguriert werden, um die Qualität der NMT für einen bestimmten Anwendungsfall noch weiter zu verbessern. Eine andere Idee wäre, ein NMT-Ergebnis durch Inhalte aus dem Translation Memory und der Termbank zu ergänzen und dadurch alle Vorteile miteinander zu verbinden.
In jedem Fall ginge es aber darum, den Übersetzer nicht zu ersetzen, sondern zu unterstützen, damit er den Übersetzungsprozess noch effizienter überwachen und noch bessere Ergebnisse erzielen kann.
KF: Auch über den eigentlichen Übersetzungsprozess hinaus könnte KI zum Beispiel die Projekteffizienz verbessern, indem sie Ihre TMs analysiert und ermittelt, welches davon für das aktuelle Projekt am geeignetsten ist. Für einen Projektmanager, der zahlreiche Projekte und Ressourcen gleichzeitig verwalten muss, könnte das eine unschätzbare Hilfe bei der effizienten Abwicklung von Projekten sein.
Wie werden Translation Memorys in Zukunft in der Cloud funktionieren, und welche Vorteile werden sich daraus ergeben?
DB: Die cloudbasierte Arbeit mit TMs birgt viele neue Möglichkeiten, von denen alle Beteiligten profitieren können. Jeder wird jetzt auf TMs zugreifen können, ob Gruppen von Freiberuflern, die gemeinsam an einem Projekt arbeiten, Übersetzungsdienstleister, die ihre Ressourcen effektiver nutzen möchten, oder große Unternehmen, die Riesenprojekte bewältigen müssen. Wer diese Arbeitsweise mit einer vielseitigen, leistungsstarken Desktop-Umgebung verbinden kann, wird dabei im Wettbewerb die Nase vorn haben. Ein Beispiel dafür ist die innovative Funktion LookAhead in SDL Trados Studio. Sie ermöglicht ein Nutzererlebnis in der Cloud, das ebenso gut, wenn nicht sogar besser ist als bei der Arbeit mit lokalen TMs auf der Festplatte des Anwenders.
Wie werden TMs im Zusammenhang mit Augmented Translation funktionieren?
DB: Es gibt drei grundlegende Ressourcen, die jedem Übersetzer die Arbeit erleichtern: Erstens das altbekannte TM, bei dem nichts über ein 100 %- oder Kontext-Match geht. Zweitens das vertraute Terminologiemanagement, das die Qualität und Konsistenz der Übersetzung auf Begriffsebene gewährleistet. Und drittens ist jetzt die neuronale maschinelle Übersetzung dazugekommen. Dank NMT ist maschinelle Übersetzung in den verfügbaren Sprachpaaren definitiv gut genug, um vollständig und nahtlos in den Übersetzungsworkflow eingebunden zu werden – nicht zuletzt, weil sie inzwischen von immer mehr Auftraggebern und Auftragsverarbeitern akzeptiert wird.
Und nun stellen Sie sich vor, wie diese drei Ressourcen ineinandergreifen könnten: Ein Terminus könnte einen NMT-Vorschlag verbessern, ein NMT-Fragment könnte ein Fuzzy-Match erweitern usw. Das sind spannende Aussichten, denn so können wir noch jahre- oder sogar jahrzehntelang hochwertige TMs erstellen und sie gemeinsam mit hochwertiger Terminologie nutzen, vor allem aber – und das ist neu – auch mit hochwertiger maschineller Übersetzung. Das bedeutet allerdings nicht, dass der Computer plötzlich nur noch perfekte Übersetzungen ausspucken wird. Im Gegenteil – NMT kann, was den Übersetzungsfluss angeht, durchaus problembehaftet sein, denn eine flüssige Übersetzung enthält möglicherweise Ungenauigkeiten. Und hier kommen der Übersetzer und der Reviewer ins Spiel: Sie müssen die Übersetzung sorgfältig überarbeiten, damit sie den hohen Qualitätsansprüchen des Kunden entspricht.
Trotzdem ist NMT aber auf jeden Fall ein nützliches neues Tool für jeden Übersetzungsworkflow.
Translation Memory oder neuronale maschinelle Übersetzung – was hat die besseren Zukunftsaussichten?
DB: Wahrscheinlich wird es eine neue Arbeitsweise für Fuzzy-Matches geben. Was genau bedeutet das? Ein NMT-Vorschlag, der nicht bearbeitet werden muss, kann besser sein als ein Fuzzy-Match mit 70 % oder 80 % Übereinstimmung, das noch Korrekturen erfordert – selbst, wenn es sich um ein optimiertes Fuzzy-Match handelt. Der zukünftige Ablauf könnte also wie folgt aussehen: TM = am besten für 100 %-Matches und Fuzzy-Matches bis 90 %, NMT = am besten für 90 % und darunter. Das wird sich natürlich auch auf die bislang üblichen Preismodelle auswirken. Werden Auftraggeber jetzt Rabatte für neue Inhalte fordern, weil diese sich mit einer NMT-Engine relativ gut übersetzen lassen? Werden die Auftragsverarbeiter damit einverstanden sein? Werden sich beide Parteien auf ein Modell für die Zusammenarbeit einigen können?
Neben diesen finanziellen Aspekten stellt sich auch die Frage, ob die aktuellen Bearbeitungsumgebungen für die Arbeit mit einer Kombination aus TM und NMT optimiert sind.
Gut ist auf kurze Sicht, dass CAT-Tool-Umgebungen wie SDL Trados Studio sich als offene Plattform perfekt dazu eignen, jede beliebige NMT-Engine zu integrieren, ohne dabei die gewohnte Arbeitsweise zu beeinträchtigen. Das macht sie ideal für die harmonische Einbindung von NMT in die Ressourcen, die Anwender ohnehin verwenden und mit denen sie vertraut sind. Diese Vertrautheit ist ein wichtiger Aspekt. Zudem arbeiten die aktuellen NMT-Engines auf Segmentebene, was bedeutet, dass sie sich ganz natürlich in die segmentbasierte Arbeitsweise einfügen.
Zusammenfasend lässt sich also sagen, dass CAT-Tools wie Studio sehr gut darauf eingestellt sind, NMT einfach über ein Plug-in einzusetzen.
KF: Aber weil NMT immer besser wird, werden wir auf lange Sicht von den segmentbasierten Editors abkommen müssen. Die Bearbeitungsumgebung könnte sich zum Beispiel verändern, um für die neue Arbeitsweise optimiert zu werden. Der Schwerpunkt würde auf dem Review von NMT-Inhalten liegen, und es würde weniger Funktionen für die Neuübersetzung geben, die nicht mehr so umfassend eingesetzt wird wie jetzt. In der aktuellen Übergangsphase hören wir von unseren Kunden, dass sie NMT einfach in ihre verschiedenen Ressourcen in Studio aufnehmen und auf diese Weise die Produktivität steigern und Kosten sparen.
Wie können wir die Arbeit mit Translation Memorys in Zukunft noch benutzerfreundlicher gestalten?
KF: Wir wollen nicht nur die Bearbeitungsumgebung überdenken, sondern stellen uns auch eine Zukunft mit einem stärker dokumentorientierten TM-Ansatz vor, sodass man bei TM-Matches das Originaldokument und die Originalübersetzung aufrufen und sich alles im Kontext ansehen kann.
Außerdem ist ein eher wissensbasierter TM-Ansatz denkbar. Dabei wird nicht nur nach Matches gesucht, bei denen möglichst viele Wörter übereinstimmen, sondern nach den wichtigsten Konzepten/Termini. Wenn kein gutes Match gefunden wird, würden bei diesem Konzept Matches angezeigt werden, die zwar keine geeignete Übersetzung bereitstellen, aber Informationen über die Konzepte/Termini enthalten, die dem Anwender helfen, sie zu verstehen (und damit zu übersetzen).
Was sind die Zukunftsaussichten für upLIFT?
KF: upLIFT Translation Memory ist eine Funktion, die sich weiterentwickeln wird. Die Qualität der Vorschläge auf Teilsegmentebene – oder „Fragmente“, wie wir sie nennen, – wird sich durch genaueres Wort-Alignment verbessern, und die Match-Optimierung wird ebenfalls erweitert werden. Wir arbeiten auch an folgenden Aspekten:
- Bessere Terminologieextraktion auf Basis der upLIFT TM-Technologie, nicht nur bessere Übersetzungsvorschläge
- Automatische Platzierung von Tags (sogar bei Fuzzy-Match-Optimierung) auf der Grundlage von upLIFT-Bausteinen
- Intelligentere TM-Wartung anhand von upLIFT-Wort-Alignment-Ergebnissen, sodass Fehlübersetzungen, fehlerhafte Daten oder falsch alignierte Dokumente/Segmente gefunden werden.
Wie Sie sehen, gibt es bei der Translation Memory-Technologie viele spannende Entwicklungen, von der KI über NMT bis zur Cloud. Welcher Bereich interessiert Sie am meisten? Haben Sie Ideen oder Anmerkungen zur Zukunft des Translation Memorys? Dann teilen Sie diese unten im Kommentar-Bereich.
Sie möchten mehr über Translation Memorys erfahren? Im Translation Memory Hub, unserem Infoportal zum Thema TMs, finden Sie alles, was Sie brauchen.