Skip to content

How to make a Deepfake – Dokumentation

Deepfakes – computergenerierte Bilder, Videos oder Stimmen – faszinieren, irritieren und werfen zahlreiche Fragen auf. Besonders in der Erwachsenen- und Familienbildung gewinnen sie an Bedeutung, da sie neue Herausforderungen für die Gestaltung von Lehr- und Lernprozessen mit sich bringen. Was bedeutet es, wenn Avatare täuschend echt sprechen? Wenn Stimmen von Personen klingen, als hätten sie etwas gesagt, was sie nie gesagt haben? Genau diesen Fragen stellte sich die Fortbildung im Projekt AI Impact – Wir mit KI, gefördert durch das Hessische Kultusministerium.

Rund 40 Bildungsakteur*innen aus ganz Hessen trafen sich digital, um zu lernen, wie Deepfakes entstehen, welche Chancen und Gefahren sie bergen und wie sie in der Bildungsarbeit sinnvoll eingesetzt werden können. Die Veranstaltung wurde von Tobias Albers-Heinemann (Zentrum Bildung der EKHN) und Benjamin Bertram (Illsutrator und KI-Experte) geleitet.

Was sind Deepfakes und wie entstehen sie?

Die Teilnehmenden erhielten einen praxisnahen Einstieg in die technischen Grundlagen von Deepfakes:

  • Was sind Deepfakes? Der Begriff setzt sich aus „Deep Learning“ (tiefe neuronale Netze) und „Fake“ (Fälschung) zusammen. Gemeint sind KI-generierte Bilder, Videos oder Audiodateien, die auf den ersten Blick authentisch wirken, tatsächlich aber durch KI-Systeme manipuliert oder vollständig künstlich erzeugt wurden. Dabei reichen die Möglichkeiten von harmlosen Illustrationen bis hin zu täuschend echten Simulationen von Menschen, die scheinbar sprechen, handeln oder Aussagen tätigen. Deepfakes werfen daher nicht nur technische, sondern vor allem ethische und pädagogische Fragen auf: Wie können Lernende in der heutigen Medienwelt noch zwischen echt und unecht unterscheiden? Und welche Verantwortung tragen Bildungsakteur*innen im Umgang mit dieser Technologie?

  • Wie funktionieren sie? KI-gestützte Verfahren analysieren Millionen Bild- und Audiodaten, um Muster zu erkennen und daraus realistische Simulationen von Gesichtern, Stimmen oder ganzen Szenen zu erzeugen. Kerntechniken dafür sind, wobei gerade im Bildungskontext die Gefahr besteht, dass Lernende manipulierte Inhalte nur schwer von authentischen unterscheiden können:
    • Face Mapping (Gesicht auf ein anderes übertragen): Dabei wird das Gesicht einer Person digital auf das Gesicht einer anderen übertragen. Mimik, Gestik und Kopfbewegungen werden so angepasst, dass der Eindruck entsteht, die Zielperson selbst spreche oder agiere.
    • Voice Cloning (Stimmklonen): Mit dieser Technik kann die Stimme einer realen Person durch KI künstlich nachgebildet werden. Damit lassen sich beliebige Inhalte so vertonen, als ob sie von der Originalperson gesprochen würden.
    • Lip-Sync-Technologien (Mundbewegungen passend zur Audiospur): Diese Technologie sorgt dafür, dass die Mundbewegungen einer Person synchron zur eingesprochenen oder synthetisierten Sprache angepasst werden. Dadurch wirken animierte Figuren oder Deepfakes noch authentischer und überzeugender.
    • Bild-zu-Video-Synthese (aus einem Bild ein animiertes Video erzeugen): Hierbei wird aus einem statischen Bild eine realistisch wirkende Videoanimation erstellt. Typische Anwendungen sind sprechende Porträts oder bewegte Charaktere für Lern- und Erklärvideos.

Benjamin Bertram zeigte den beeindruckenden Workflow einer professionellen Deepfake-Produktion, die für eine ARD-Dokumentation entstanden war. Dabei wurde eine künstliche Politikerfigur komplett KI-generiert und mit einem Schauspieler kombiniert. Besonders eindrucksvoll demonstrierte Tobias Albers-Heinemann anschließend anhand von Beispielen, wie realistisch heutige Stimmsynthese und KI-Avatare sein können. Ohne dass Benjamin es vorher bemerkte, erstellte Tobias mit nur zehn Sekunden Audiomaterial einen Voice-Clon von Benjamin und ließ diesen KI-generiert Sätze sprechen. Die überraschten und teilweise irritierten Reaktionen der Teilnehmenden machten deutlich, wie schwer es selbst für geschulte Personen ist, Deepfakes auf den ersten Blick zu entlarven. Auch Live-Demos von Tools wie Heygen, Stable Diffusion oder FaceSwap verdeutlichten eindrücklich die technischen Möglichkeiten.

Ergebnisse der Arbeitsgruppen: Ethische und pädagogische Herausforderungen im Fokus

Ein zentraler Schwerpunkt der Veranstaltung lag auf dem Diskurs über die ethischen und pädagogischen Herausforderungen, die mit dem Einsatz von Deepfakes in der Bildungsarbeit verbunden sind. In den Arbeitsgruppen wurden zentrale Fragen diskutiert: Welche Chancen bieten Deepfakes für die pädagogische Praxis? Wo liegen konkrete Risiken, insbesondere im Hinblick auf Manipulation, Identitätsmissbrauch und Medienvertrauen? Die Teilnehmenden sammelten ihre Einschätzungen, Erfahrungen und Bedarfe auf digitalen Pinnwänden, die hier zusammengefasst sind.

Herausforderungen

Die Teilnehmenden formulierten zentrale Herausforderungen im Umgang mit Deepfakes, die sich insbesondere auf technische, ethische und pädagogische Aspekte bezogen. Diese betreffen insbesondere technische Voraussetzungen, pädagogische Gestaltungsmöglichkeiten sowie ethische Fragen der Medienbildung:

  • Missbrauchsgefahr und Identitätsbetrug: Deepfakes können zur gezielten Manipulation von Inhalten oder zur Täuschung durch gefälschte Identitäten genutzt werden, was insbesondere im Bildungsbereich eine erhebliche Gefahr darstellt.
  • Rasante Entwicklung der Technologie: Die technische Weiterentwicklung erfolgt schneller, als Bildungsakteur*innen Schritt halten können, was Unsicherheiten in der praktischen Anwendung und Bewertung verstärkt.
  • Verlust von Authentizität: Die Unterscheidung zwischen echten und KI-generierten Inhalten wird immer schwieriger, was das Vertrauen in digitale Medien nachhaltig erschüttern kann.
  • Fehlende technische Ausstattung und Know-how: Viele Einrichtungen verfügen nicht über die notwendige Technik oder das Wissen, um Deepfakes kompetent zu erkennen oder selbst professionell zu nutzen.
  • Ethische Fragen wie Datenschutz und Ressourcenverbrauch: Deepfake-Produktionen werfen Fragen nach dem verantwortungsvollen Umgang mit personenbezogenen Daten und der ökologischen Nachhaltigkeit auf.
  • Zeitmangel für Einarbeitung: Die zeitintensive Auseinandersetzung mit dem Thema ist im oft vollen Arbeitsalltag der Bildungsakteur*innen schwer unterzubringen.

Ziele der Teilnehmenden

Im Einklang mit dem Ziel der Fortbildung, Deepfakes kritisch zu verstehen und verantwortungsvoll in der Bildungsarbeit einzusetzen, formulierten die Teilnehmenden folgende Ziele:

  • Deepfakes sicher nutzen und erkennen, um Lernende vor Manipulation zu schützen und selbst souverän mit der Technologie umgehen zu können.
  • Zwischen sinnvoller und sinnfreier Anwendung unterscheiden, um Deepfakes gezielt für die Förderung von Medienkompetenz und kritischer Reflexion einsetzen zu können.
  • Deepfakes gewinnbringend in der Bildungsarbeit einsetzen, z. B. durch die Erstellung von Lehrvideos, kreativen Szenarien oder sensibilisierenden Materialien.
  • Medienkompetenz sowohl bei sich selbst als auch bei Lernenden gezielt ausbauen, um den bewussten Umgang mit KI-generierten Inhalten zu stärken.
  • Schutz der eigenen Identität und die der Teilnehmenden sicherstellen, insbesondere im Hinblick auf die Verwendung persönlicher Daten in KI-Anwendungen.

Unterstützungsbedarfe

Auch für die Umsetzung in der Praxis formulierten die Teilnehmenden konkrete Unterstützungsbedarfe. Sie betreffen insbesondere den sicheren Umgang mit KI-Werkzeugen, die methodische Einbettung sowie ethische Orientierungen für die Bildungsarbeit:

  • Anwendungswissen zu geeigneten Tools, um Deepfakes im Bildungskontext sicher und kompetent einsetzen und analysieren zu können.
  • Übungsmöglichkeiten und praxisnahe Schulungen, um praktische Erfahrungen im Erstellen und Bewerten von Deepfakes zu sammeln.
  • Qualitätssicherung durch Zertifikate und Prüfzeichen, um für mehr Transparenz und Verlässlichkeit bei KI-generierten Inhalten zu sorgen.
  • Austausch unter Kolleg*innen, um Erfahrungen zu teilen, voneinander zu lernen und sich im Umgang mit Deepfakes gegenseitig zu unterstützen.
  • Ethische Standards und praxisnahe Leitlinien, um den Einsatz von Deepfakes verantwortungsvoll und lernförderlich zu gestalten.

Die Fortbildung ermöglichte den Teilnehmenden, sich dem komplexen Thema Deepfakes sowohl technisch als auch gesellschaftlich zu nähern. In den Diskussionen zeigte sich, dass Deepfakes bei vielen Teilnehmenden mit negativen Assoziationen wie Manipulation, Täuschung und Vertrauensverlust verbunden waren. Gleichzeitig herrschte jedoch Einigkeit darüber, dass die Förderung von Medienkompetenz künftig noch wichtiger wird als heute. Medienkompetenz wurde von den Teilnehmenden als zentrale Schlüsselqualifikation benannt, um im Bildungsalltag und darüber hinaus souverän mit KI-generierten Inhalten umgehen zu können. Empfohlen wurden weitere praxisorientierte Fortbildungen, der Aufbau von Materialsammlungen und der Erfahrungsaustausch im Kollegium, um nachhaltig auf die Herausforderungen zu reagieren.

Linkliste zur Fortbildung

Tools für KI- und Deepfake-Anwendungen
Praxisbeispiele & Demonstrationen
Vertiefende Blogartikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert