Servus,
dieses:
Es hat aber Potential und wird sicherlich noch mal
ein wichtige Rolle spielen.
war vor etwa zwanzig Jahren, als die Träume von der automatischen Übersetzung in erste konkrete Projekte einflossen, schon genau so zu hören. Bloß der Optimismus war größer damals, man wollte um etwa 2010 bereits automatisiert Dolmetschen können.
Man hat im Zusammenhang mit diesen Projekten viel über Segmentierung von Texten gelernt, und diese Erkenntnisse werden heute nutzbringend in Translation Memory Anwendungen (zur Nutzung durch Übersetzer, menschliche) eingesetzt.
Aber Übersetzen können die Übersetzungsautomaten nicht, und wenn nicht Linguistik und Neurologie noch gewaltige Fortschritte machen, werden sie es auf Dauer nicht können. Das liegt gar nicht unbedingt an der Software, sondern wesentlich daran, dass man zu wenig darüber weiß, wie Sprechen funktioniert.
Zum Beleg hab ich noch einmal „Stille Post“ gespielt, und auch diesmal wieder nur mit einer kurzen Kette von verschiedenen europäischen Legionärsdialekten, die einander sehr ähnlich sind: Deutsch-Englisch-Französisch-Spanisch-Deutsch. Das Ergebnis sieht so aus:
Aber man kann nicht übersetzen maschinelle Übersetzung, und wenn nicht, Linguistik und Neurologie machen große Fortschritte und ist nicht permanent. Dies ist nicht unbedingt auf Software beschränkt, sondern vor allem, weil wir verstehen sehr wenig darüber, wie Sie sprechen.
Es ist auch nicht „ungefähr richtig“, sondern ein völlig anderer Text - lediglich einzelne Begriffe aus dem ursprünglichen Text sind erhalten geblieben. Woraus sich ersehen lässt, dass sich maschinengestützt allenfalls die wahrscheinliche Bedeutung mehrdeutiger Begriffe durch den Abgleich mit dem Kontext eventuell schneller ermitteln lässt als von Hand.
Schöne Grüße
Dä Blumepeder