Ein Meilenstein in der Interaktion

Der erste große technische Meilenstein ist erreicht! Die grundlegende Verbindung zwischen virtueller Umgebung, digitalisiertem Avatar und NLU-System ist gelegt. Seit Oktober 2020 lässt sich mit einem ersten Ai.vatar in der Virtual Reality sprechen und interagieren. Noch in 2020 werden deshalb die ersten Testreihen mit Probanden gestartet.

Doch es gibt weiterhin viel zu tun! Es gilt, die Animationen weiter zu optimieren und das Aussehen zu verfeinern. Auch müssen die Aktionen, das Verhalten und die Persona des Ai.vatar mit passenden Dialogen kombiniert werden. Dies erfordert ein kluges Schnittstellen Management und klare Anwendungsfälle. Unser hoch gestecktes Ziel, den Ai.vatar so menschenähnlich wie möglich wirken zu lassen, ist zwar noch nicht erreicht, aber ein gutes Stück näher gekommen.

Projektmeeting in Köln

Kurz nach dem offiziellen Projektstart am 1. Januar 2020 trifft sich das Projektkonsortium zum Kick-Off Termin in den Räumlichkeiten von HHVISION. In konzentrierter und zielorientierter Stimmung werden die ersten inhaltlichen Meilensteine besprochen und technisches Know-How ausgetauscht. Die drei Projektpartner bringen ihre sich ergänzenden Kompetenzen ein und formulieren gemeinsam die ersten Projektziele.

Neben der konzeptionellen Arbeit kommt auch der Spaß nicht zu kurz: alle Projektmitarbeiter /-Innen lassen sich im HHVISION-internen 3D-Photogrammetrie Scanner einscannen, um in naher Zukunft als digitaler Zwilling in der virtuellen Welt von Ai.vatar zu Hause sein zu können.

AiVatar: Das Projekt geht an den Start

Als eines von elf Projekten wird „Ai.vatar – der virtuelle intelligente Assistent“ im Rahmen des Leitmarktwettbewerbs IKT.NRW gefördert. Nach der feierlichen Übergabe des Förderbescheids im Ministerium für Wirtschaft, Innovation, Digitalisierung und Energie des Landes Nordrhein-Westfalen beginnt nun die dreijährige Projektlaufzeit. Ziel ist es, einen künstlich intelligenten und visuell ansprechenden Avatar zu entwickeln und erforschen, welcher in einen Dialog mit dem realen Nutzer treten soll. Das Projektkonsortium besteht dabei aus den beiden Unternehmen HHVISION aus Köln und IOX aus Düsseldorf sowie der Universität Witten/Herdecke. Die Fördermittel stammen aus dem Europäischen Fonds für Regionale Entwicklung (EFRE) und vom Land NRW.

Der zentrale Meilenstein des Projekts besteht aus der technischen Schnittstelle aller Komponenten des virtuellen Agenten. Neben der anthropomorphen Darstellung, den natürlichen Bewegungsabläufen und den elaborierten Wahrnehmungs- und Kommunikationsfähigkeiten, sollen die intelligenten Assistenten durch ihre lebensnahen und sympathischen Interaktions- und Verhaltensweisen ein positives Erlebnis und Vertrauen beim Nutzer schaffen. Auf diese Weise ermöglicht das System plausible, intuitive und effiziente Interaktionen.

Quelle: www.wirtschaft.nrw