Wie meine Avatarin entsteht. Ein Blick hinter die Studiokulissen.
Meine Ausgangsfrage war: Gelingt es, am Ende der Produktion eine Avatarin von mir standby zu haben, die mich lebendig und ansprechend auf der Filmbühne vertritt?
Was muss man dann bei den Dreharbeiten zur Produktion eines Avatars/ einer Avatarin beachten? Was kann ich als Ergebnis erwarten und wo sind die Grenzen?
Meine Avatarin erzählt Euch im Video Part 2, wie die Produktion im Studio gelaufen ist – und beantwortet damit auch gleich die Frage, wie so ein Ergebnis derzeit aussehen kann – wenn man, wie wir das gemacht haben, mit Heygen und Elevenlabs arbeitet.
Am Ende entscheidet Ihr. Würdet Ihr solche Avatar:innen sehen wollen?
Ich bin sehr froh, dass meinen eLearning-Kunden die Qualität der Modeartor:innen „aus der Dose“ bislang nicht reichte. Wir drehen Moderationen und Erklärvideos noch mit echten Menschen.
Meine Learnings aus der Avatarproduktion im Studio
Die Avatar-Plattformen geben sehr konkrete Anweisungen, wie die Studio-Aufnahmen aussehen müssen, damit ein Avatar gelingt. Das betrifft unter anderem die Kameraqualität, Video-Auflösung, Tonqulität, Beleuchtung, Hintergrund, Bewegungsspielraum der Person vor der Kamera, Hinweise für Mimik und Gestik bis hin zu vorgegebenen Mindestzeiten für das hochzuladende Filmmaterial.
Ergebnis: Meine Avatarin ist mir wirklich ähnlich. Das ist auch nicht weiter verwunderlich: Ich werde ja nicht neu als Animation nachgebaut. Rohstoff für die KI der Avatar-Plattformen (z.B. Heygen oder Synthesia) sind ja die Filmaufnahmen aus dem Studio.
Was ich loben möchte: Es ist nicht möglich, einfach irgendwelches Material zur Avatar-Produktion hochzuladen. Die Plattformen haben hier restriktive Sicherheiten eingebaut. Die Person, die abgebildet wird, muss nachweislich zustimmen.
Einschränkungen
Meine Avatarin eignet sich nur für Moderationen, bei denen gesprochen wird. Bei Erklärvideos, in denen Dinge demonstriert werden sollen, etwa, wie man ein Stativ aufbaut, muss meine Avatarin passen. Das kann sie nicht.
Wenn man sich die aktuellen Avatarangebote anschaut, sieht man, dass allgemein mit Portrait-Ausschnitten gearbeitet wird. Handbewegungen sind bislang nur sehr eingeschränkt möglich und auch nicht ratsam. Hier zeichnet sich auch wieder ab, dass die KI ja die Inhalte nicht versteht. Sie wüßte also auch nicht, zu welchem Inhalt sie eine bestimmte Geste abrufen sollte.
Wir haben das ausprobiert und gestenreiche Filme eines eLearning-Dozenten zu Heygen hochgeladen. Mit Text to Video haben wir diesem Dozenten-Avatar neu zu sprechende Texte vorgegeben. Herausgekommen sind viele komische Szenen, bei denen der Inhalt nicht zur Gestik passt.