Facebooks neue KI übersetzt zwischen 100 Sprachen
Facebook hat ein neues Open-Source-KI-Modell vorgestellt, mit dem zwischen 100 verschiedenen Sprachen übersetzt werden kann. Das KI-Modell muss nicht einmal den vorhandenen Text in Englisch konvertieren, um eine effizientere und genauere Übersetzung zu ermöglichen.
Einführung einer neuen Methode zur Übersetzung von Text
In einem Blogbeitrag über Facebook stellte die Plattform ihr neues Modell für mehrsprachige maschinelle Übersetzung (MMT) vor, das auch als M2M-100 bekannt ist. Beeindruckenderweise kann dieses Open-Source- Modell für maschinelles Lernen "zwischen zwei 100 Sprachen übersetzen, ohne auf englische Daten angewiesen zu sein".
Dies ist zwar noch ein Forschungsprojekt, aber vielversprechend. Angela Fan, eine wissenschaftliche Mitarbeiterin bei Facebook, stellte fest, dass "typische" maschinelle Übersetzungsmodelle für jede Sprache unterschiedliche Modelle verwenden, was sie für große Plattformen wie Facebook unglaublich ineffizient macht.
Selbst fortgeschrittene Modelle schaffen es nicht, da sie Englisch als Vermittler zwischen den Sprachen verwenden. Dies bedeutet, dass das System zuerst den Quelltext ins Englische und dann in die Zielsprache übersetzen muss.
Englisch abhängige Modelle liefern nicht die besten Übersetzungen. Der Fan merkt an, dass das MMT-System von Facebook durch Herausnehmen von Englisch aus dem Bild genauere Übersetzungen erstellen kann.
Bei der Übersetzung von beispielsweise Chinesisch nach Französisch trainieren die meisten englischsprachigen mehrsprachigen Modelle Chinesisch nach Englisch und Englisch nach Französisch, da die Englisch-Trainingsdaten am weitesten verbreitet sind. Unser Modell trainiert direkt chinesische bis französische Daten, um die Bedeutung besser zu bewahren.
Anstatt Englisch als Brücke zu verwenden, kann das MMT-Modell von Facebook zwischen 100 verschiedenen Sprachen hin und her übersetzen. Laut Fan hat Facebook "den bislang vielfältigsten MMT-Datensatz" erstellt, der aus 7,5 Milliarden Satzpaaren für 100 Sprachen besteht.
Um dies zu erreichen, hat das Forschungsteam Sprachübersetzungsdaten im Internet ermittelt und sich zunächst auf Sprachen "mit den meisten Übersetzungsanfragen" konzentriert. Die Forscher klassifizierten diese Sprachen dann anhand gemeinsamer Merkmale in 14 Gruppen.
Von hier aus erstellten die Forscher Brückensprachen für jede Gruppe und ermittelten Trainingsdaten für alle möglichen Kombinationen. Dies führte zu 7,5 Milliarden parallelen Sätzen in 2.200 Richtungen.
Und für Sprachen, die nicht so weit verbreitet sind, verwendete Facebook eine sogenannte Rückübersetzung, um synthetische Übersetzungen zu erstellen.
Dieser gesamte Prozess bringt das Facebook-KI-Team seinem Ziel näher, ein "einziges Modell zu schaffen, das alle Sprachen, Dialekte und Modalitäten unterstützt".
Facebook rückt näher an die Bereitstellung besserer Übersetzungen heran
Facebook führt in seinem Newsfeed bereits täglich 20 Milliarden Übersetzungen durch, und Facebook AI wird den Prozess nur effizienter gestalten. Obwohl das neue Übersetzungsmodell noch nicht implementiert wurde, wird es auf jeden Fall für internationale Facebook-Nutzer nützlich sein, die bestimmte Übersetzungen benötigen.