AdobeStock/pressmaster

Die Universität von Kalifornien vermeldet die Entwicklung einer Technologie, die Hirnsignale des Sprachzentrums in hörbare Sprache umwandeln könne. Das zweischrittige System lese die Signale aus, mit denen das Gehirn Mund, Gaumen und Kehle steuert, und bewege damit einen virtuellen Sprechapparat. Erst daraus erzeuge dann ein zweiter Algorithmus die akustische Sprache. Um das zu erreichen, nutzten die Forscher zwei neuronale Netzwerke – lernfähige Systeme, die jeweils einen Teilschritt des komplexen Ablaufes übernahmen. Im Verständlichkeitstest hätten Hörer bei einfachen Wörtern immerhin 63 Prozent der rekonstruierten Sprache richtig verstanden und 43 Prozent der Sätze korrekt transkribiert. Nach Ansicht der Forscher könnten bessere, speziell an diese Aufgabe angepasste Elektrodensysteme und fortgeschrittenere Algorithmen die synthetisierte Sprache schon bald noch weiter verbessern. zg

Impressum | Datenschutz | Kontakt | Abonnieren | Mediadaten
© 2018 spektrum-hoeren.de