Deutschland & Welt
Merken

Haben Dolmetscher bald ausgedient?

Manches hat künstliche Intelligenz der menschlichen voraus. Doch an der Komplexität der Sprache scheitert sie – noch.

 7 Min.
Teilen
Folgen
NEU!
Ein Übersetzungsprogramm kann auch helfen, die Vorlesung im Hörsaal einfacher mitzuverfolgen.
Ein Übersetzungsprogramm kann auch helfen, die Vorlesung im Hörsaal einfacher mitzuverfolgen. © KIT

Von Eckart Granitza und Johanna Heuveling

Kennen Sie das? Sie werden einer interessanten Person vorgestellt und viele Fragen und Themen liegen Ihnen buchstäblich auf der Zunge. Aber weil die gemeinsame Sprache fehlt, kommt es anstelle eines anregenden Gespräches nur zu unbeholfenen Gesten und hilflosem Schweigen. Der ungeheure Qualitätssprung digitaler Übersetzungsprogramme in den letzten fünf Jahren lässt nun aber hoffen, dass solch frustrierende Erfahrungen bald Schnee von gestern sind. Stimmt das oder ist die flüssige Konversation in aller Mütter Sprachen reine Utopie?

Übersetzungsprogramme werden jetzt schon breit angewendet. Dabei funktioniert die maschinelle Übersetzung von schriftlichen Texten bereits mit einer relativ geringen Fehlerquote. Aber wie steht es um die Übersetzung des gesprochenen Wortes mittels Smartphone-Apps oder via Skype?

„Auch nicht so gut“, meint Martin Gobbin. Er hat für die Stiftung Warentest dieses Jahr 15 der meistgenutzten Übersetzungs-Apps von Google, Microsoft, Pons und anderen in sechs Sprachen getestet. Sowohl für die Übersetzung von Sprache wie auch von Texten kamen nur zwei der getesteten Apps mit einem knappen „Gut“ über die Note „Befriedigend“ hinaus. Und das auch nur bei einfachen Sätzen.

Wenn der Sprecher nuschelt

Die erste große Klippe bei der Übersetzung des gesprochenen Wortes ist die Spracherkennung. Wenn der Sprecher nuschelt oder einen Akzent hat, bei „Ähms“, Räuspern oder Hintergrundgeräuschen setzt die App mitunter entweder willkürlich erscheinende Worte ein oder verweigert rundweg die Arbeit. Aber Gobbin berichtet auch von vielerlei Übersetzungsfehlern trotz korrekter Spracherkennung.

Redewendungen beispielsweise stellen eine große Hürde für die Apps dar. Beispiel: Das berühmte „All I understand is train station“ (Ich verstehe nur Bahnhof). Und auch Doppeldeutigkeiten können zu folgenschweren Missverständnissen führen. So kann es vorkommen, dass das Straßenschild „Fine for Parking“ als „gut zum Parken“ übersetzt wird , statt richtig: „Bußgeld fürs Parken“. „Zum einen kann die App nicht sehen – in diesem Fall, dass es sich um ein Straßenschild handelt“, erklärt Gobbin. „Sie kann aber auch nicht den inhaltlichen Kontext einer Phrase erfassen und wählt daher die falsche Vokabel. Das Hauptproblem laut Gobbin: „Sprache ist extrem komplex und nicht so einfach zu formalisieren wie eine mathematische Aufgabe.“

Kultur und Situation verstehen

Experte in Sachen Sprachkomplexität ist der Konferenzdolmetscher Martin Granacher, der auch Studierende im Simultandolmetschen an der Universität Heidelberg unterrichtet hat. In Deutschland gibt es laut dem Statistischen Bundesamt 47.000 Dolmetscher und Übersetzer. Dass diese bald arbeitslos werden, glaubt Granacher nicht. Denn für ihn ist die Essenz des Dolmetschens und damit das, womit sich der Mensch von der Maschine abgrenzt, nicht zu ersetzen: „Es ist ja nicht das Gesagte, das ich übersetze, sondern das, was der Redner meint. Wichtig ist dabei, dass die Absicht rüberkommt.“

Der Mensch kann das – im Gegensatz zur Maschine – aufgrund seines kulturellen und situativen Verständnisses. Ein einfaches Beispiel gibt Granacher: „Wenn zum Beispiel ein Engländer mehrfach hintereinander sagt ‚I am not quite sure‘, dann heißt das nicht, dass er zaudert, sondern er will dann sagen: ‚Ich möchte nicht, lass mich in Ruhe‘. Die wörtliche Übersetzung ‚ich bin mir nicht sicher‘ wäre daher hier nicht korrekt.“

Und noch etwas kann der Mensch, laut Granacher, besser als die Maschine: Er nimmt die Art zu sprechen wahr. Dazu gehören Mimik, Betonung, Tempo, Rhythmus und auch Pausen. Auch hierdurch drückt der Redner aus, was er sagen möchte. Deutlich wird das zum Beispiel bei der Ironie, bei der das Gegenteil von dem gemeint ist, was wörtlich gesagt wird. Granacher erzählt aus seiner Praxis: „Wenn der Redner einen Witz macht, will er, dass die Zuhörer lachen. Und wenn der Witz jetzt zu 100 Prozent korrekt übersetzt ist, aber keiner lacht, dann ist das keine gute Verdolmetschung.“ Das Grundproblem bei der digitalen Übersetzung ist, nach Ansicht von Granacher, dass nur Menschen andere Menschen wirklich verstehen und damit korrekt übersetzen können.

Geringere Fehlerquote als ein Mensch

Hat er damit recht? Die Forschungsgruppe um Alexander Waibel, Professor am Karlsruher Institut für Technologie (KIT), ist führend bei der Entwicklung hochleistungsfähiger Programme zur Simultanübersetzung von Vorträgen. Sebastian Stüker ist die rechte Hand von Waibel, der derzeit an der Carnegie Mellon Universität in Pittsburgh in den USA forscht und lehrt. Stüker hält Vorlesungen, denen die Studierenden simultan und in fünf Sprachen folgen können. Dabei spricht Stüker in ein Mikrofon, und die Übersetzung erscheint transkribiert nach kurzer Zeit auf den Bildschirmen der Zuhörer im Hörsaal. Corona-bedingt sind die meisten Studierenden derzeit von zu Hause zugeschaltet, und das durchaus weltweit.

Das Karlsruher Übersetzungsprogramm arbeitet – wie alle neueren Systeme – mit neuronalen Netzwerken, die ähnlich lernen wie das menschliche Gehirn. Trainiert werden sie mit Tausenden Stunden Audioaufnahmen ganz unterschiedlicher Sprecher, die im Netz zur Verfügung stehen. Sebastian Stüker beschreibt die Herausforderung: „Das Schwierige ist, die Spracherkennung und die maschinelle Übersetzung mit großer Genauigkeit und geringer Verzögerung zu erreichen. Neben Microsoft sind wir zurzeit weltweit die Einzigen, die das mit hoher Qualität und Geschwindigkeit können.“ Erst im Oktober haben die Wissenschaftler des KIT eine Studie publiziert, die zeigt, dass ihr Programm bei der Sprache-zu-Text-Umwandlung inzwischen an die menschliche Leistungsfähigkeit herankommt oder sie sogar überflügelt. Ein Mensch macht laut dieser Validierung 5,5 Fehler pro 100 Wörter, während die Maschine nur eine Fehlerquote von 5,0 hat.

Schnelle Internet-Suche

Doch Waibel betont, dass es sich hierbei noch nicht um die Übersetzungsqualität handelt: „Die Maschine kann in der Zwischenzeit die Akustik so gut erkennen wie der Mensch, allerdings natürlich nicht deren Bedeutung verstehen. Der Mensch hat das immer noch der Maschine voraus.“ Ziel sei es daher momentan auch nicht, den Dolmetscher zu ersetzen, vielmehr werden am KIT Werkzeuge entwickelt, die den menschlichen Übersetzer unterstützen sollen. Dazu gehören automatische Notizzettel für Werte, Namen oder Zahlenbeträge und Hilfstools für Terminologie und Standardphrasen. Was die künstliche Intelligenz der menschlichen nämlich voraushat: Sie kann das Internet viel schneller und umfangreicher beispielsweise nach passenden Fachausdrücken durchsuchen. Dadurch nimmt sie Granacher und seinen Kollegen viel Zeit und Mühen ab, sodass diese sich auf die Sprachfeinheiten konzentrieren können.

Darüber hinaus gibt es aber viele Bereiche, in denen menschliche Dolmetscher schlichtweg fehlen. Dazu gehören Ausländerbehörden, Polizei und die Gesundheitsversorgung von Flüchtlingen. Hier wäre der Einsatz digitaler Übersetzer aus unterschiedlichen Gründen sehr hilfreich, wie Waibel sagt: „Da, wo der Mensch nicht verfügbar ist, haben wir Maschinen, zum Beispiel mit Sprachpaaren, die selten sind, oder wo die Privatsphäre geschützt werden muss, wie bei einem Arzt-Patienten-Gespräch.“ Auch in Bereichen, wo Dolmetscher einfach zu teuer sind, also eben auch an den Unis, haben die digitalen Übersetzer ein weites Einsatzgebiet.

Der aus Syrien stammende Informatiker Juan Hussain entwickelt daher am KIT, zusammen mit der Mannheimer Uniklinik für Psychiatrie, gerade ein Dialogsystem, mit dem sich zwei Menschen auf Arabisch-Deutsch unterhalten können. Es soll beim Diagnosegespräch von Traumapatienten zum Einsatz kommen. Allerdings: Zur Übersetzung eines Therapiegespräches, bei dem zum Beispiel auch kulturelles Hintergrundwissen extrem wichtig wäre, taugt dieses System noch nicht.

Wann also wird die Maschine den Menschen auch bei der Übersetzungsqualität einholen? „Vielleicht in zehn Jahren“, sagt Sebastian Stüker. Und was er eigentlich damit zu sagen beabsichtigt (und ein Übersetzungsprogramm nicht verstehen würde): „Das kann ich nicht genau sagen.“