Einstieg in die Welt der KI

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr. Sie ist im Alltag angekommen – sei es beim Schreiben von Texten, bei der Bildbearbeitung oder in digitalen Assistenten. Für Bildungsakteur*innen wird es zunehmend wichtiger, die Funktionsweise und Möglichkeiten von KI zu verstehen – und sie reflektiert in ihre Arbeit zu integrieren.

Damit verbunden ist der Aufbau sogenannter KI-Kompetenz – also der Fähigkeit, KI-Systeme bewusst, kritisch und konstruktiv zu nutzen. Dazu gehören technisches Grundverständnis ebenso wie die Einschätzung rechtlicher, ethischer und gesellschaftlicher Rahmenbedingungen.

Ein zentrales Element von KI-Kompetenz ist daher die Fähigkeit, eigene Ziele und Erwartungen in der Arbeit mit KI zu formulieren und diese im Licht der gesetzlichen Rahmenbedingungen einzuordnen. Wer mit KI arbeitet, muss klar benennen können, was er oder sie erreichen möchte – etwa einen informativen Text, eine kreative Idee oder ein passendes Kommunikationsformat. Diese Kompetenz lässt sich nicht auslagern: Sie entsteht durch aktives Ausprobieren, kritisches Hinterfragen und kontinuierliches Lernen im Umgang mit den neuen Werkzeugen.

Was ist KI – und was nicht?

Der Begriff „Künstliche Intelligenz“ beschreibt rechnergestützte Systeme, die Aufgaben lösen, für die es bislang menschliche Intelligenz brauchte. Dazu zählen z. B. das Erkennen von Sprache, das Verfassen von Texten oder das Analysieren großer Datenmengen.

KI ist jedoch nicht „intelligent“ im menschlichen Sinne. Sie versteht keine Zusammenhänge, hat kein Bewusstsein und verfolgt keine eigenen Ziele. Vielmehr basiert sie auf mathematischen Verfahren, die Wahrscheinlichkeiten berechnen – mit dem Ziel, möglichst passende Antworten zu generieren.

Medienberichte über allwissende Superintelligenzen oder gefährliche Maschinen entwerfen oft ein verzerrtes Bild. Um KI kompetent einschätzen zu können, braucht es deshalb grundlegendes Wissen über ihre technischen Grundlagen.

Wie funktionieren generative KI-Modelle?

Ein zentrales Anwendungsfeld sind sogenannte generative Sprachmodelle – etwa ChatGPT, Claude oder Gemini. Diese sogenannten Large Language Models (LLMs) wurden mit Milliarden Texten aus öffentlich zugänglichen Quellen trainiert. Sie erkennen sprachliche Muster und berechnen mit jeder Eingabe, welches Wort mit hoher Wahrscheinlichkeit als Nächstes folgt.

Ein einfaches Beispiel: Auf den Satzanfang „Ich gehe zum …“ folgen mit hoher Wahrscheinlichkeit Wörter wie „Einkaufen“, „Bäcker“ oder „Kühlschrank“. Wenn jedoch ein erweiterter Kontext vorliegt – etwa: „Ich bin krank, ich gehe zum …“ – erhöht sich die Wahrscheinlichkeit deutlich, dass das Modell „Arzt“ oder „Doktor“ vorschlägt. Der Kontext beeinflusst also die Wahrscheinlichkeit der nächsten Wörter erheblich und steuert die Textgenerierung inhaltlich.

LLMs haben kein Weltwissen. Sie greifen nicht auf eine Datenbank mit Fakten zu, sondern erzeugen auf Basis statistischer Zusammenhänge plausible Texte. Das erklärt auch, warum KI-Modelle gelegentlich sachlich falsche, aber sprachlich überzeugende Antworten liefern – sogenannte Halluzinationen.

Da die Trainingsdaten aus bestehenden Textsammlungen stammen, spiegeln KI-Modelle oft die darin enthaltenen Werte und Normen wider. Dies birgt die Gefahr, dass bestehende Stereotype und Diskriminierungsmuster unkritisch übernommen und reproduziert werden – z. B. durch geschlechtsspezifische Rollenbilder, rassistische Vorannahmen oder kulturelle Einseitigkeiten. Diese systemischen Verzerrungen sind nicht technischer Fehler, sondern Ausdruck der gesellschaftlichen Inhalte, auf denen die Modelle basieren. Ein reflektierter Umgang mit KI setzt daher immer auch eine kritische Perspektive auf die Datenlage und die zugrunde liegenden Wertesysteme voraus.

Prompting: Der Schlüssel zur Qualität

Die Qualität der Ergebnisse hängt entscheidend von der Eingabe ab – dem sogenannten Prompt. Dabei gilt: Je klarer und kontextreicher ein Prompt formuliert ist, desto besser das Ergebnis. Nützlich sind Hinweise zur Rolle („Du bist Sprachwissenschaftler*in“), zur Zielgruppe („für Jugendliche ab 14“) oder zur gewünschten Form („in einfacher Sprache, als Liste mit 5 Punkten“).

Ein einfaches Beispiel:
„Erkläre den Begriff Künstliche Intelligenz für Grundschulkinder.“
führt zu anderen Ergebnissen als:
„Erkläre Künstliche Intelligenz in einem wissenschaftlichen Stil für eine Publikation in der Erwachsenenbildung.“

Noch deutlicher wird der Unterschied bei folgendem Prompt:
„Du bist Referent*in in einer Fortbildung für pädagogische Fachkräfte. Erkläre den Begriff Künstliche Intelligenz anhand eines alltagsnahen Beispiels, möglichst ohne Fachbegriffe, in einem freundlichen und klaren Ton.
Das Ergebnis ist oft ein erläuternder Text mit Beispielen aus dem Familien- oder Schulalltag, verständlich formuliert, ohne komplexe Fachtermini. Im Gegensatz dazu erzeugt ein technischer Prompt wie „Definiere KI anhand ihrer Architekturmerkmale im Stil eines wissenschaftlichen Abstracts“ einen kompakten, akademischen Text – oft mit englischen Fachbegriffen.

Gutes Prompting ist keine technische, sondern eine kommunikative Fähigkeit. Wer klare, situationsbezogene Anweisungen gibt, erhält relevantere Ergebnisse. Kontext ist dabei der Schlüssel – nicht nur für Verständlichkeit, sondern auch für die Ansprache der richtigen Zielgruppe und die Vermeidung stereotypischer Muster.

Dabei spielt auch die bewusste Auseinandersetzung mit den eigenen Zielen und Erwartungen eine zentrale Rolle. Wer promptet, muss sich darüber klar werden, was genau erreicht werden soll – etwa ein informativer Text, eine kreative Idee oder eine klare Argumentationsstruktur. Diese Reflexion lässt sich nicht vollständig auslagern: Prompts können nicht einfach von außen vorgegeben werden, sondern müssen individuell entwickelt werden. Nur so lassen sich passgenaue Ergebnisse erzielen, die zum eigenen Anliegen und zum jeweiligen Kontext passen.

Was ist beim Einsatz zu beachten?

Beim Umgang mit KI ist ein verantwortungsvoller Einsatz entscheidend. Dabei spielen rechtliche, ethische und didaktische Fragen eine Rolle:

  • Datenschutz: Personenbezogene Daten dürfen nicht ohne gesetzliche Grundlage in KI-Systeme eingegeben werden. Viele Tools (z. B. ChatGPT, Claude) bieten inzwischen Einstellungsmöglichkeiten zum Schutz der Eingaben. Wichtig ist: Ohne personenbezogene Daten bestehen in der Regel keine datenschutzrechtlichen Bedenken.
  • Quellenangaben: KI-Modelle erstellen Texte, Bilder oder Präsentationen auf Basis unbekannter Trainingsdaten. Für KI-generierte Bilder wird daher empfohlen, den Prompt sowie das verwendete Tool (z. B. DALL·E, Midjourney oder Stable Diffusion) als Quelle anzugeben. Dies erhöht die Nachvollziehbarkeit, schafft Transparenz über den Erstellungsprozess und unterstützt einen verantwortungsvollen Umgang mit visuellem Material.
  • Kennzeichnungspflicht: Laut europäischer KI-Verordnung (EU AI Act) müssen Inhalte, die durch KI generiert wurden und potenziell täuschend oder manipulierend wirken – z. B. realistische Bilder, Stimmen oder Videos –, eindeutig und sichtbar als KI-generiert gekennzeichnet werden. Ziel dieser Regelung ist es, eine Irreführung der Öffentlichkeit zu vermeiden und die Nachvollziehbarkeit digitaler Inhalte zu gewährleisten.
  • Vielfalt und Sprache: Viele KI-Modelle reproduzieren gängige Sprachmuster und können unbewusst diskriminierende Stereotype verstärken. Bewusste Formulierungen – z. B. mit Gendersternchen oder inklusiver Sprache – lassen sich jedoch trainieren, indem man entsprechende Hinweise in den Prompts verankert.

Wofür kann KI genutzt werden?

Die Einsatzmöglichkeiten sind vielfältig – auch in der Bildungsarbeit:

  • Strukturierung von Texten, Konzepten oder Argumentationen
  • Erstellung barrierefreier Materialien
  • Formulierung von E-Mails, Infotexten, Anträgen
  • Reflexion und Ideensammlung in der Konzeptentwicklung
  • Visualisierung von Inhalten (z. B. mit DALL·E, Gamma.ai, Canva)
  • Unterstützung bei Veranstaltungsplanung oder Moderation

Ein zentrales Potenzial von KI liegt in der Übertragung und Weiterentwicklung bestehender Arbeitsmethoden. Viele Prozesse, die bislang analog, handschriftlich oder in direkter Kommunikation abliefen, lassen sich mit KI-Unterstützung neu denken und gestalten. Beispielsweise können Moderationsmethoden, Strukturierungsroutinen oder Ideensammlungen mithilfe von Sprachmodellen vorbereitet, unterstützt oder dokumentiert werden. (Beispiel 1) (Beispiel 2) Der Einsatz von KI bedeutet dabei nicht, Altbewährtes zu ersetzen, sondern es weiterzuentwickeln – etwa durch die digitale Fortführung eines analogen Brainstormings oder die automatisierte Zusammenfassung einer Gruppenarbeit.

Wichtig ist, dass die eingesetzten Werkzeuge nachvollziehbar bleiben: Wer mit KI arbeitet, sollte transparent machen, wie ein Ergebnis entstanden ist – sei es ein Textentwurf, eine Visualisierung oder ein Argumentationsschema. Die bewusste Reflexion des Entstehungsprozesses fördert nicht nur das Verständnis für die Technik, sondern stärkt auch die eigene Rolle als gestaltende Person im digitalen Raum. KI ersetzt keine Fachkraft. Aber sie kann – gezielt eingesetzt – eine wertvolle Unterstützung sein, um Routinetätigkeiten zu vereinfachen und neue kreative Zugänge zu ermöglichen.

Dieser Beitrag ist aus dem AI-Impact Kurs „KI für Einsteiger*innen“ mit Tobias Albers-Heinemann entstanden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert