Apple forscht daran, Siri so zu verbessern, dass sie Menschen, die stottern, besser versteht. Dies geht aus einem neuen Bericht hervor.
Das Wall Street Journal hat einen neuen Bericht veröffentlicht, der Details darüber enthält, wie Unternehmen Sprachassistenten trainieren, um mit atypischer Sprache umzugehen. Dem Artikel zufolge verfügt Apple über eine Datenbank mit 28.000 Audioclips von Podcasts mit stotternden Menschen, die zum Training von Siri verwendet werden. Die Daten, die Apple gesammelt hat, sollen die Spracherkennungssysteme für atypische Sprachmuster verbessern. Das hat ein Apple Sprecher gegenüber der Nachrichtenseite bestätigt.
Apple möchte weitere Details veröffentlichen
Neben der Verbesserung der Art und Weise, wie Siri Menschen mit atypischen Sprachmustern versteht, hat Apple auch eine „Hold to Talk“-Funktion für Siri implementiert, die es dem Anwender ermöglicht, zu steuern, wie lange Siri zuhören soll. Dadurch wird verhindert, dass Siri Nutzer mit einem Stottern unterbricht, bevor diese zu Ende gesprochen haben. Die smarte Sprachassistentin kann auch ganz ohne Spracheingabe verwendet werden, durch eine „Type to Siri“-Funktion, die erstmals in iOS 11 eingeführt wurde. Apple plant, die Arbeit zur Verbesserung von Siri in einer Studie festzuhalten, die diese Woche veröffentlicht werden soll und weitere Details zu den Bemühungen des Unternehmens enthält, so das Wall Street Journal.
Auch Google Assistant & Alexa sollen besser werden
Auch Google und Amazon arbeiten ebenfalls daran, Google Assistant und Alexa so zu trainieren, dass sie alle Nutzer besser verstehen, einschließlich derer, die Probleme mit ihrer Stimme haben. Google sammelt dazu atypische Sprachdaten, wie aus dem Bericht hervorgeht. Amazon selbst hat bereits im Dezember den Alexa Fund ins Leben gerufen, damit Menschen mit Sprachbehinderungen einen Algorithmus trainieren können, der ihre einzigartigen Stimmmuster erkennt. (Photo by DedMityay / Bigstockphoto)