Lesedauer: 6 Minuten

Sprachassistenten wie Siri und Alexa begleiten unseren Alltag. Sie erleichtern uns die Suche nach der nächsten Zugverbindung oder schalten Musik ein. Doch wie sieht die Zukunft aus? Zu diesem Thema lud die Deutsche Forschungsgemeinschaft zu einem Vortrag von Alexander Koller in der Bayerischen Staatsbibliothek in München ein. Wir sprachen mit Professor Koller, Experte für Computersemantik an der Universität des Saarlandes, über Zukunftsmöglichkeiten sowie Grenzen von Spracheingaben.

Was begeistert Sie am meisten an Sprachassistenten?

Koller: „Sprache ist ein Kommunikationsmedium, das so gut wie alle Menschen beherrschen. Dagegen sind Computer und Technik kompliziert für die meisten Menschen. Wenn wir es schaffen, technische Geräte mit Sprache bedienbar zu machen, die jeder beherrscht, wäre das sehr bedeutend für die Zugänglichkeit von Technik. Mich begeistern die Zukunftschancen von Sprachassistenten mehr als die heutigen Modelle digitaler Assistenten. Dennoch sind wir nicht an der natürlichen Schnittstelle für technische Systeme angekommen, wir stehen noch ganz am Anfang.“

Das klingt, als würden Sprachassistenten in Zukunft noch viel mehr ersetzten. Wird es in zehn Jahren noch Tastaturen geben?

Koller: „Ich denke schon, denn Tastaturen erfüllen viele Zwecke, wie zum Beispiel die Funktionstasten beim Programmieren. Außerdem tippen geübte Menschen schneller als sie sprechen, da es uns schwerer fällt, so klar und präzise zu sprechen, wie wir schreiben. Daher verschwinden meiner Meinung nach keine Tastauren von den Schreibtischen. Sobald Spracherkennung akkurat genug wird, glaube ich, dass Tastaturen auf mobilen Geräten verschwinden. Dafür müssen wir aber zuerst Probleme wie die gezielte Textkorrektur oder Zeitverzögerung bei der Spracherkennung lösen.“

Aktuell unterstützen uns Sprachassistenten vorwiegend im privaten Bereich. Wie sehen die Einsatzmöglichkeiten über die Steuerung von Smart Home oder Auskünften zu Zugverbindungen hinaus aus?

Koller: „Nicht für alle Aufgaben ist Sprache die richtige Modalität, also die richtige Art und Weise der Bedienung. Ich möchte mir nicht vorstellen, wie jemand die Kühlanlage eines Atomkraftwerks mit Spracheingabe bedient. Wo die Eingabe eines exakten Wertes notwendig ist, ist ein Regler die bessere Schnittstelle als die Sprache.

Sprache ist für informelle Unterhaltungen geeignet, aber weniger effizient, je präziser sie werden. Das ist auch der Grund, warum es mathematische Notationen gibt. Sprache hat sich als ein Mechanismus entwickelt, wenn Menschen mit Menschen über Themen reden, die in der Anschauungswelt von Menschen liegen. Sprache ist sinnvoll in der Technik, wenn ich Inhalte strukturieren möchte oder um negative Informationen oder Warnungen wie „Pass auf, baue die Teile nicht so zusammen, sonst geht etwas kaputt“ aussprechen will. Bei allen zukünftigen Einsatzmöglichkeiten von Sprachassistenten ist es wichtig, Sprachverarbeitung nur dort einzusetzen, wo sie sinnvoll ist.

Darum forschen wir gerade auch daran, wie Sprache automatisch an Zielgruppen und deren Nutzungssituationen angepasst ausgegeben werden kann.“

Viele Menschen haben Angst, dass der eigene Sprachassistent sie ständig abhört und fürchten um ihre Privatsphäre. Halten Sie diese Angst für berechtigt?

Koller: „Wir wissen es nicht. Ich persönlich halte es für unplausibel, da ein Sprachassistent, der permanent Daten sammelt und weiterleitet, beträchtliches Datenvolumen verursacht und somit am Router zuhause überprüfbar ist. Völlig ausschließen kann ich es aber nicht.“

Heißt das, wir vertrauen den Herstellern von Sprachassistenten blind?

Koller: „Ich finde die Vertrauensebene von Systemen unheimlich interessant. Wir geben den Technologiefirmen einen Vertrauensvorschuss, indem wir uns diese Geräte ins Zimmer stellen. Wir nehmen dabei an, dass uns der Sprachassistent nicht zuhört, bevor wir Aktivierungswörter wie „Ok Google” oder „Hey Siri” sagen und er sich nach einer Antwort wieder abschaltet.

Es laufen aber Forschungsprojekte, um Möglichkeiten zu finden, wie wir das Versprechen der Herstellerfirmen überprüfbar und zertifizierbar machen können.“

Haben Sie Tipps, wie uns Sprachassistenten besser verstehen?

Koller: „Es ist notwendig, möglichst einfache und kurze Sätze zu bilden. Zudem sind Sprachassistenten nicht darauf programmiert, frustrierte, laute oder hyperartikulierte Sätze zu verstehen. Wenn der Sprachassistent Sie nicht versteht, empfehle ich, nicht die Nerven zu verlieren und ruhig weiter zu sprechen. Geduld ist hierbei das Schlüsselwort.“

Herr Koller, vielen Dank für das Gespräch.


Mehr über den Vortrag von Alexander Koller zum Thema „Hey, Siri! Ok, Google! – Wie Maschinen lernen, Sprache zu verstehen“:

Den Audiomitschnitt der Veranstaltung können Sie sich auf dem Youtube-Kanal der Deutschen Forschungsgemeinschaft anhören oder auf der Webseite der Deutschen Forschungsgemeinschaft herunterladen. Der Mitschnitt befindet sich dort unter dem Reiter „Weitere Informationen“.

Die Folien der Präsentation finden Sie auf der Homepage von Alexander Koller.