Home / Themen / Trends / Ford zur Zukunft der Spracherkennung: Autos werden wissen, wie sich der Fahrer fühlt

Ford zur Zukunft der Spracherkennung: Autos werden wissen, wie sich der Fahrer fühlt

Foto: Ford-Werke GmbH

Im Jahr 2022 werden schätzungsweise 90 Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen. In Zukunft werden Autos anhand des Tonfalls sogar wissen, wie sich der Fahrer fühlt, so Ford zur Zukunft der Spracherkennung.

Wie wäre es, wenn das eigene Auto auf die Stimmung des Fahrers reagieren könnte – zum Beispiel, um ihn auf dem Weg nach Hause aufzumuntern? Heute noch Zukunft, in absehbarer Zeit aber vielleicht schon Realität. Es wird geschätzt, dass bis zum Jahr 2022 fast 90 Prozent aller Neufahrzeuge über Spracherkennungs-Systeme verfügen werden, rund 75 Prozent dieser Autos werden darüber hinaus eine Cloud-basierte Sprachsteuerung ermöglichen. Dies ist eine der Voraussetzungen dafür, dass künftige Assistenz-Systeme dank Mikrofonen und In-Car-Kameras auf winzige Veränderungen unseres Gesichtsausdrucks sowie auf die jeweilige Tonlage unserer Stimme reagieren können.

So könnten diese Systeme dank Spracherkennung und künstlicher Intelligenz in gar nicht ferner Zeit wissen, ob wir gestresst sind und welche Musik wir dann beim Autofahren hören möchten. Oder vielleicht wollen wir stattdessen lieber ein Hörbuch vorgelesen bekommen oder möglicherweise weder Musik noch Worte hören wollen? Auch Komfort-Details wie die Farbe und Intensität der Cockpit-Beleuchtung könnten unserer jeweiligen Stimmung angepasst werden.

„Viele Menschen lieben ihre Autos. Durch lernfähige In-Car-Systeme, die sich den Bedürfnissen des Fahrers anpassen, wird die Beziehung zwischen Mensch und Fahrzeug sicherlich noch intensiver“, sagt Dominic Watt, Senior Lecturer, Department of Language and Linguistic Science, University of York in Großbritannien. „Das Auto wird zu unserem Assistenten und Reisebegleiter, der uns unterwegs zuhören wird. Wir werden vergessen, dass wir letztlich doch nur mit einer Maschine sprechen“.

Ein Forschungsprojekt, das Ford derzeit gemeinsam mit der RWTH Aachen betreibt, widmet sich der Verwendung mehrerer Mikrofone zur Verbesserung der Sprachverarbeitung und zur Verringerung der Störung durch Fremdgeräusche.

Nuance Communications: Sprachsysteme können bald auch differenzierte Fragen stellen

Das Unternehmen Nuance Communications, ein Anbieter von Sprach- und Bild-Bearbeitungslösungen, sagt voraus, dass intelligente Sprachsysteme bereits innerhalb der nächsten zwei Jahre auch differenzierte Fragen stellen können, zum Beispiel: „Möchten Sie Blumen zum Muttertag bestellen?“ oder „Soll ich eine weniger befahrene, aber langsamere Route nach Hause wählen?“ oder „Möchten Sie Ihre Lieblingsschokolade in Ihrem Lieblingsladen kaufen?“ Mittels Gesten und Augenbewegungen könnten die Fahrer Anrufe entgegennehmen, die Lautstärke des Audio-Systems einstellen und die Navigation auf einer Karte festlegen.

Fatima Vital, Senior Director, Marketing Automotive, Nuance Communications, die unter anderem bei der Entwicklung des sprachgesteuerten Kommunikations- und Entertainmentsystem Ford SYNC mitgewirkt hat, erklärt: „Wir sind auf dem Weg zur Entwicklung von einfühlsamen Fahrzeugen. Assistenz-Systeme könnten den Fahrer bei Stress aufmuntern, auf langen Reisen Tipps geben oder einfach nur an Geburtstage erinnern“.

Und: „In naher Zukunft werden die Fahrer nicht nur in die Lage versetzt, ihre Muttersprache mit oder ohne Akzent für Sprachbefehle zu nutzen, sondern sie können dann auch eigene Formulierungen verwenden, die stets ein Bestandteil der natürlich gesprochenen Sprache sind“, betont Mareike Sauer, Voice Control Engineer, Connectivity Application Team, Ford of Europe.

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*