AI Impact - KI in Gesellschaft, Bildung & Kultur
Einstieg in die Welt der KI

KI ist mittlerweile so tief im täglichen Leben verankert, dass jede Person früher oder später mit ihr in Kontakt kommt – oft sogar ohne es bewusst zu merken. Für Bildungsakteure wird es daher zunehmend wichtiger, die Funktionsweise und Möglichkeiten von KI zu verstehen – und sie reflektiert in ihre Arbeit zu integrieren.
Damit verbunden ist der Aufbau sogenannter KI-Kompetenz – also der Fähigkeit, KI-Systeme bewusst, kritisch und konstruktiv zu nutzen. Ein zentrales Element von KI-Kompetenz ist die Fähigkeit, eigene Ziele und Erwartungen in der Arbeit mit KI zu formulieren und diese im Licht der gesetzlichen Rahmenbedingungen einzuordnen. Wer mit KI arbeitet, muss klar benennen können, was er oder sie erreichen möchte – etwa einen informativen Text, eine kreative Idee oder ein passendes Kommunikationsformat. Diese Kompetenz lässt sich nicht auslagern: Sie entsteht durch aktives Ausprobieren, kritisches Hinterfragen und kontinuierliches Lernen im Umgang mit den neuen Werkzeugen.
Darüber hinaus gehört zu KI-Kompetenz ein grundlegendes Verständnis davon, was Künstliche Intelligenz eigentlich ist – und wie sie funktioniert. Gerade generative KI-Modelle wie ChatGPT, Mistral, Gemini oder Claude werfen viele Fragen auf: Wie entstehen die Antworten? Warum sind wir mit diesen nicht immer zufrieden? Was können wir tun, um zufrieden zu werden? Und wo liegen die Grenzen dieser Systeme? Diese Fragen sind kein technisches Detail, sondern Teil der Bildungsarbeit – und damit auch Teil von KI-Kompetenz.
Was ist KI – und was nicht?
KI hat durch Medienberichte über allwissende Superintelligenzen oder gefährliche Maschinen sowie durch dystopische Darstellungen in Hollywood-Filmen und Büchern bereits ein eher negatives Image erhalten. Viele dieser Darstellungen sind fiktiv oder stark spekulativ – und weichen deutlich von den tatsächlichen technischen Möglichkeiten ab. Umso wichtiger ist es, sich nüchtern und sachlich damit auseinanderzusetzen, was KI tatsächlich ist – und was nicht.
Der Begriff „Künstliche Intelligenz“ bezeichnet in erster Linie Systeme, die Aufgaben übernehmen, die zuvor menschliche Intelligenz erforderten, z. B. Spracherkennung, Textproduktion oder Datenanalyse. In der öffentlichen Debatte wird dabei oft vor allem an ChatGPT oder Bildgeneratoren gedacht. KI umfasst jedoch weit mehr – sie ist eine technische Entwicklung innerhalb der Digitalisierung mit vielfältigen Formen und Anwendungen. KI ist allerdings keineswegs „intelligent“ im menschlichen Sinn: Sie hat kein Bewusstsein, keine Empathie und keine eigenen Absichten. Vielmehr handelt es sich um rechnergestützte Verfahren, die Wahrscheinlichkeiten berechnen und so möglichst passende Antworten oder Ergebnisse erzeugen. Ein realistisches Verständnis dieser Funktionsweise und ihrer Grenzen ist entscheidend, um KI verantwortungsvoll einschätzen und nutzen zu können.
Gleichzeitig ist das Spektrum von Künstlicher Intelligenz enorm: Es reicht von Navigationssystemen, automatisierter Übersetzung, Bilderkennung und medizinischer Diagnostik bis hin zu Robotik, Sprachassistenten, Überwachungs- und Empfehlungssystemen. Aufgrund dieser Vielfalt müssen Anwendungen je nach Bereich unterschiedlich bewertet werden – mal als Chance, mal mit Blick auf erhebliche Risiken. In diesem Buch konzentrieren wir uns jedoch bewusst auf generative KI-Modelle, insbesondere Large Language Models, weil sie für die Bildungsarbeit und den Aufbau von KI-Kompetenz derzeit die größte Relevanz haben.
Wie funktionieren generative KI-Modelle?
Generative Modelle wie ChatGPT, Claude oder Gemini erzeugen neue Inhalte – etwa Texte, Bilder oder Audiodateien – auf Grundlage gelernter Muster. Sie werden mit Milliarden von Texten und anderen Daten trainiert und berechnen bei jeder Eingabe Wort für Wort, Pixel für Pixel oder Ton für Ton die wahrscheinlichste Fortsetzung. Auf diese Weise entstehen scheinbar eigenständige Inhalte, die jedoch ausschließlich statistisch erzeugt sind.
Um diesen Mechanismus besser zu verstehen, lohnt ein Blick auf den Begriff GPT, den viele aus „ChatGPT“ kennen. GPT steht für „Generative Pretrained Transformer“ – ein vortrainiertes Sprachmodell, das auf der sogenannten Transformer-Architektur basiert. Grundlage solcher Modelle sind enorme Datenmengen, aus denen Muster und Strukturen abgeleitet werden. Weil die Datenbasis so groß ist, spricht man von „Large Language Models“ (LLMs). Diese gehören zu den generativen KI-Modellen und sind darauf ausgelegt, auf Basis dieser riesigen Datenmengen Muster zu erkennen und daraus neue Inhalte zu erzeugen. Dabei ist wichtig zu wissen: Ein Anbieter wie zum Beispiel ChatGPT kann unterschiedliche Large Language Models einsetzen (GPTo4-mini, GPT4o, GPT5…) die in verschiedener Qualität trainiert wurden – weshalb auch die Ergebnisse inhaltlich und sprachlich deutlich variieren.
Aus diesem Funktionsprinzip ergeben sich für die generativen Text-KIs typische Stärken und Schwächen:
- Sie können schnell plausible Inhalte wie zum Beispiel Texte, Bilder, Video, etc. erzeugen.
- Sie verfügen jedoch über kein eigenes Wissen, sondern erzeugen sprachliche Wahrscheinlichkeiten.
- Sie liefern mitunter überzeugende, aber falsche Informationen – sogenannte Halluzinationen.
Ein Beispiel: Auf „Ich gehe zum …“ könnte die generative Text-KI Wörter wie „Bäcker“ oder „Supermarkt“ ergänzen, weil diese im Training häufig in ähnlichen Zusammenhängen vorkamen. Wird der Kontext verändert, etwa zu „Ich bin krank, ich gehe zum …“, steigt die Wahrscheinlichkeit deutlich für Begriffe wie „Arzt“ oder „Doktor“. Dieses einfache Beispiel zeigt, wie stark der Kontext die Textgenerierung beeinflusst. Die KI berechnet dabei keine Bedeutung im menschlichen Sinn, sondern lediglich statistische Wahrscheinlichkeiten dafür, welche Wörter aufeinander folgen.
Gerade hier wird deutlich: Die Ergebnisse hängen stark davon ab, auf welchen Daten die Modelle trainiert wurden. Da diese Daten überwiegend aus dem globalen Norden stammen, reproduzieren viele Modelle westliche Werte und Stereotype. Dadurch können Diskriminierungen oder Einseitigkeiten entstehen, etwa bei Geschlechterrollen oder kulturellen Darstellungen. Deshalb ist eine kritische Perspektive auf die Datenbasis unverzichtbar. Genauer werden wir uns mit diesem Punkt aber im nächsten Kapitel beschäftigen.
Prompting: Der Schlüssel zur Qualität
Nachdem wir gesehen haben, wie stark die Ergebnisse von den Trainingsdaten geprägt sind und welche gesellschaftlichen Verzerrungen dadurch entstehen können, lohnt nun der Blick auf einen zweiten entscheidenden Faktor: die Eingabe selbst. Denn neben den Daten, auf denen Modelle basieren, bestimmt auch die Art und Weise, wie wir mit ihnen kommunizieren, maßgeblich die Qualität der Resultate.
Das Ergebnis eines KI-Systems hängt daher entscheidend vom Prompt ab – also von der Art und Weise, wie die Eingabe formuliert ist. Ein Prompt ist im Grunde eine Aufgabenstellung oder Frage, die der KI vorgibt, in welcher Rolle sie agieren, welchen Kontext sie berücksichtigen und welches Ergebnisformat sie liefern soll. Je präziser und kontextreicher ein Prompt, desto passgenauer und brauchbarer sind in der Regel die Antworten.
Zwei einfache Beispiele verdeutlichen den Unterschied:
- „Erkläre KI für Grundschulkinder.“ → ergibt eine einfache, kindgerechte Erklärung mit Beispielen.
- „Definiere KI im Stil eines wissenschaftlichen Abstracts.“ → führt zu einem stark verdichteten, akademischen Text mit Fachbegriffen.
Gutes Prompting ist keine technische, sondern eine kommunikative Fähigkeit. Es erfordert die bewusste Auswahl von Perspektive, Zielgruppe und Darstellungsform. Hilfreich können zum Beispiel Angaben sein wie:
- Rolle („Du bist Sprachwissenschaftler*in“),
- Zielgruppe („für Jugendliche ab 14“),
- gewünschte Form („in einfacher Sprache, als Liste mit 5 Punkten, als Liedtext“, etc.)
Darüber hinaus gehört zu gelungenem Prompting die Klarheit über die eigenen Ziele: Möchte ich einen informativen Überblick, ein praktisches Beispiel, einen kreativen Impuls oder eine wissenschaftliche Definition? Erst wenn diese Fragen klar sind, lässt sich ein Prompt so formulieren, dass die KI sinnvolle und nützliche Ergebnisse liefert. Prompts lassen sich nicht einfach von außen vorgeben, sondern müssen individuell entwickelt werden. So entstehen Ergebnisse, die passgenau zum eigenen Anliegen und zum jeweiligen Kontext passen.
Praktischer Einstieg
Zum Kennenlernen eignen sich niederschwellige Tools wie Duck.AI (https://duck.ai), das ohne Anmeldung direkt im Browser läuft. Ein einfacher erster Prompt könnte sein:
„Formuliere eine Einladung zu einem Elternabend in einfacher Sprache.“
Variiere danach die Formulierung oder die Sprache und beobachte, wie sich die Ergebnisse verändern. Der erste Schritt ist, einfach auszuprobieren.ermöglichen.
Dieser Beitrag ist aus dem AI-Impact Kurs „KI für Einsteiger*innen“ mit Tobias Albers-Heinemann entstanden.
[…] Dieser Text wurde von einer Künstlichen Intelligenz (KI) in einfacher Sprache geschrieben.Er basiert auf einem längeren und schwieriger geschriebenen Artikel.Den Original-Artikel findet ihr hier: https://wir-mit-ki.de/einstieg-in-die-welt-der-ki/ […]