Siri und der Sprachfehler: Apples Assistent soll toleranter werden
Siri, Alexa und der Google Assistant sind aus dem modernen Alltagsleben nicht mehr wegzudenken. Die Sprachassistenten von Apple, Amazon und Google sowie Helferlein anderer Unternehmen offerieren ihre Dienste unter anderem in Smartphones, Computern und vernetzten Lautsprechern, aber auch Autos, Fernsehern oder Streamingboxen. Die Kommunikation zwischen Mensch und Maschine funktioniert dabei mittlerweile überraschend gut.
Siri & Co. verstehen Stotterer häufig nicht richtigAllerdings ist die menschliche Sprache in vielerlei Hinsicht äußerst vielfältig und nuancenreich. Das bereitet Siri & Co. häufig Probleme, etwa bei starken Dialekten oder Einschränkungen durch Krankheiten. Besonders stark von den Verständnisschwierigkeiten der digitalen Assistenten betroffen sind Menschen mit Sprach- oder Sprechstörungen. Stotterer beispielsweise sehen sich häufig damit konfrontiert, dass Siri ihre Pausen für das Befehlsende hält, was zu suboptimalen Ergebnissen führt. Die Anfrage kann in diesen Fällen nämlich in aller Regel nicht korrekt beantwortet werden.
"Hold to Talk" ist nicht immer sinnvollAuf iPhone und iPad lässt sich das Problem entschärfen, indem man den Homebutton oder die Seitentaste gedrückt hält. Dieses als "Hold to Talk" bekannte Feature ist aber auf anderen Geräten wie etwa dem HomePod kaum sinnvoll einzusetzen und widerspricht auch deren Bedienkonzept. Apple sucht daher – ebenso wie Google und Amazon - seit einiger Zeit nach Wegen, dem hauseigenen Sprachassistenten ein besseres Verständnis für Menschen mit Sprach- oder Sprechstörungen beizubringen. Das
berichtet das Wall Street Journal.
Siri soll Stottern automatisch erkennenApples Ziel: Siri soll automatisch erkennen, dass ein Sprecher stottert, und dann erheblich toleranter mit Pausen umgehen. Der iPhone-Konzern hat daher im Rahmen eines Forschungsprojekts eine Sammlung von etwa 28.000 entsprechenden Audio-Clips aus diversen Podcasts zusammengetragen. Diese beinhalten fünf verschiedene Ausprägungen des Stotterns und dienen als Grundlage für das Training des Systems. Erste Ergebnisse hat Apple jetzt in einem Papier veröffentlicht (
PDF-Datei). Demnach verbesserte sich das Sprachverständnis in den untersuchten Fällen um rund 28 Prozent. Das Unternehmen geht davon aus, dass sich dies durch die Kombination mit weiteren Maßnahmen noch deutlich verbessern lässt.
Untersuchung weiterer Sprach- und SprechstörungenIm aktuellen Forschungsprojekt befasst sich Apple ausschließlich mit der automatischen Erkennung des Stotterns. Der iPhone-Konzern weist allerdings ausdrücklich darauf hin, dass im weiteren Verlauf der Arbeit auch andere Sprach- und Sprechstörungen wie etwa Dysarthrie einbezogen werden könnten. Wann die Ergebnisse der Studie in Siri einfließen und Apples Sprachassistenten eine erhöhte Toleranz verleihen, ist nicht bekannt.