Der Markt der Sprachassistenten wächst immer weiter und hilft den Nutzern im Alltag. Ob mittles der Beantwortung von Fragen, der Steuerung von smarten Geräten oder durch das Ausführen von Befehlen – Cortana, Alexa & Co. stehen immer auf Wunsch bereit. Allerdings wurde dabei bisher nicht an die Personen gedacht, die selber nicht sprechen oder hören können. Das Project SIGNS knüpft hier an und hat einen digitalen Gebärdensprachassistent entwickelt.
Kommunikationsbarrieren fallen weg
Bei dem Sprachassistenten für Gebärdensprachler handelt es sich bisher noch um einen Prototypen im Frühstadium, der noch in der weiteren Entwicklung steckt. Entworfen wurde dieser von der Bundesjugend, einem Verband junger Menschen mit Hörbehinderung und dem LAB 13 der Digitalagentur MRM/McCann.
Der Prototyp SIGNS fungiert als eine Art Vermittler zwischen dem/der Gebärdensprachler/in und einem Sprachassistenten wie beispielsweise Amazon Alexa und basiert auf einem Machine-Learning-Framework. Dafür erfasst das intelligente Tool die deutsche Gebärdensprache in Echtzeit durch eine integrierte Kamera, übersetzt die dargestellten Inhalte und gibt sie im Anschluss in einem umgewandelten Datenformat an den ausgewählten Sprachassistenten weiter. Die Antworten der Sprachassistenten kann SIGNS ebenfalls zurück übersetzen. Dies funktioniert entweder in Textform oder über ein visuelles Signal wie anhand von Grafiksymbolen.
Kompatibel ist der Gebärdensprachassistent mit digitalten Assistenten wie Alexa, dem Google Assistant oder auch Cortana. Für den Gebrauch benötigt man nur ein browserbasiertes Betriebssystem mit integrierter Kamera.
Project SIGNS sorgt für Inklusion
Langfristig will man SIGNS für Smartphones verfügbar machen und als allgemein zugängliche Software bereitstellen. Auch weitere Gebärdensprachen sollen hinzu kommen. Durch dieses Projekt sorgen die Entwickler dafür, dass keine Barriere mehr zwischen hörbehinderten Menschen und digitalen Sprachassistenten entsteht.