Demokratie im Wandel

Demokratie im Wandel

KI-generierte Inhalte und ihre Folgen für den gesellschaftlichen Diskurs

Künstliche Intelligenz (KI) hat längst zu dynamischen, strukturellen Veränderungen im digitalen Raum geführt. Die Diskussion darüber ist sehr kontrovers. Dabei zeigt sich, dass KI nicht ausschließlich als Risiko zu betrachten ist, sondern vielmehr als ein Werkzeug mit ambivalentem Potenzial gesehen werden sollte.

Betrachtet man die Chancen, die KI bietet, zeigt sich vor allem, dass sie die Arbeit politischer Akteure effizienter gestalten kann, zugleich aber auch neue Möglichkeiten der Repräsentation und Partizipation von Bürger:innen im demokratischen System eröffnet. Hierbei kann KI einerseits als Innovationsmotor fungieren, der beispielsweise durch Bürgerbeteiligungsplattformen oder Echtzeit-Übersetzungstools den demokratischen Diskurs fördert und gemeinsame Werte im digitalen Raum sichtbar macht. Andererseits birgt ihr Einsatz erhebliche Risiken, etwa durch gezielte Beeinflussung der öffentlichen Meinungsbildung oder durch maßgeschneiderte Propaganda.

Unbestreitbar ist, dass KI die demokratischen Prozesse insbesondere über ihre Auswirkungen auf den digitalen Informationsraum bereits prägt. Der Zugang zu verlässlichen Informationen ist für die Funktionsfähigkeit demokratischer Systeme unverzichtbar und Soziale Medien sind längst zu einem zentralen Ort der Informationsgewinnung geworden. Der Einsatz generativer KI fügt nun eine neue Dimension hinzu, denn während Plattformalgorithmen bereits personalisieren, welche Inhalte Nutzer sehen, ermöglicht KI nun auch die massenhafte Produktion synthetischer Texte bis hin zu Deepfakes und automatisierten Desinformationskampagnen. Dies verschärft bestehende Herausforderungen für die demokratische Meinungsbildung erheblich. Von zentraler Bedeutung ist dabei, dass KI keine grundlegend neuen Kommunikationsformen hervorgebracht hat, sondern vielmehr als eine Art Brandbeschleuniger politischer Kommunikation wirkt, der deren Breite, Reichweite und Effizienz erheblich verändert[i].

KI und Demokratie: Strukturelle Risiken im Informationsraum

Die entscheidende Frage lautet daher nicht mehr, ob KI den Informationsraum beeinflusst, sondern welche strukturellen Risiken daraus entstehen und wie demokratische Systeme davor geschützt werden können. Es stellt sich vielmehr die Frage: Welche Vulnerabilitäten ergeben sich durch KI für demokratische Diskurse und zivilgesellschaftliche Handlungsspielräume?

Die AI-Democracy Initiative der Deutschen Gesellschaft für Auswärtige Politik (DGAP) untersuchte, inwiefern KI eine Rolle in Wahlen spielte. Untersucht wurden hier die USA, Südafrika, Deutschland, Mexiko, Indien und Frankreich. Die Ergebnisse zeigen, dass die Gefahr nicht allein auf den Einsatz von KI zurückzuführen ist. Problematisch ist vielmehr die strukturelle Dimension: das Zusammenspiel von KI mit mehreren langjährigen Entwicklungen, die den Informationsraum prägen und damit demokratische Prozesse beeinflussen.

Wenn KI und Plattformlogik zusammenwirken

Digitale Informationsräume können gezielt durch unterschiedliche Akteure gestaltet werden. Für das erfolgreiche Setzen von Narrativen ist ein Verständnis für Plattformdynamiken zentral. Um diese Dynamiken für eigene Zwecke nutzen zu können, bedarf es „algorithmischer Kompetenz“ – der Fähigkeit, Plattformalgorithmen strategisch für die Verbreitung und Verstärkung von Botschaften einzusetzen.

Gefährlich für den demokratischen Diskurs wird KI insbesondere dann, wenn KI-gestützter Content mit einem gezielten Verständnis von Plattformdynamiken kombiniert wird.

Daraus lassen sich drei neue zentrale Vulnerabilitäten für den demokratischen Diskurs ableiten:

Erstens: Fragmentierung durch Hyperpersonalisierung
KI-gestützte Hyperpersonalisierung kann die bereits vorangeschrittene Fragmentierung unserer Gesellschaft weiter verstärken. Ein Beispiel dafür ist die kürzlich angekündigte neue Funktion „ChatGPT Pulse“ des US-amerikanischen Unternehmens OpenAI. Während die klassische Nutzung von ChatGPT auf einem Frage-Antwort-Format basiert, unterscheidet sich die neue Funktion grundlegend, indem sie Nutzern „proaktiv personalisierte tägliche Updates“ bereitstellt[ii]. Dies ist eine neue, stärker individualisierte Form der Nutzung von KI-Modellen.

Gerade bei politischen Themen und Informationsbeschaffung, bei denen Inhalte gezielt auf den jeweiligen Nutzer zugeschnitten werden, kann diese technologisch getriebene Personalisierung zu einer verstärkten Fragmentierung führen und die Grundlage eines gemeinsamen, ausgewogenen Diskurses zunehmend untergraben.

Zweitens: Emotionale Manipulation durch KI-Propaganda
Die Analysen der AI-Democracy Initiative zeigen, dass KI-Propaganda, gezielt im Wahlkampf eingesetzt wurde. Besonders in den USA wurde sichtbar, wie KI-gestützte Inhalte genutzt wurden, um bei bestimmten Narrativen gezielt eine emotionale Resonanz beim Publikum hervorzurufen. Diese Emotionalisierung stellt eine besondere Gefahr dar und erschwert faktenbasierte politische Debatten. Zwar gilt die Kennzeichnung von KI-generierten Inhalten als erster Regulierungsschritt, doch löst sie das Problem der emotionalen Wirkung nicht.

Drittens: Vertrauensverlust durch Normalisierung
Die zunehmende Normalisierung von KI-Inhalten im digitalen Raum führt langfristig zu einem Vertrauensverlust in Medien und den Informationsraum – und damit zur Erosion des Vertrauens in das demokratische System. Hinzu kommt der sogenannte Liars’ Dividend: das Phänomen, tatsächlich geäußerte politische Aussagen nachträglich als KI-generiert darzustellen, um negative Konsequenzen abzuwehren [iii]. Dieses Muster untergräbt die Realitätsnähe öffentlicher Debatten. Zudem löst sich der Uncanny Valley-Effekt auf: KI-Inhalte werden  immer weniger unterscheidbar von menschlich produzierten. Dies wirft für Nutzer die grundlegende Frage auf, was im digitalen Raum noch als authentischer Inhalt gelten kann.

Einen großen Beitrag zur Normalisierung leistet auch die schiere Masse an KI-Content, die jetzt schon im Umlauf ist. Eine Studie von AI Forensics (2025) fand heraus das beispielsweise bei TikTok rund 25 % der Inhalte zu ausgewählten Hashtags, KI-generierte sind[iv]. Das Phänomen des AI-Slop beschreibt die massenhafte, kostengünstige und automatisierte Erstellung von KI-generierten Inhalten, die unseren Informationsraum überfluten. Durch KI-Agenten, die komplexe Aufgaben, ohne menschliche Mithilfe ausführen können, wird diese Entwicklung weiter verstärkt.[v]

Gefahr durch strukturelle Wirkung

KI-generierte Inhalte stellen demokratische Diskurse nicht durch einzelne technologische Neuerungen in Frage, sondern durch ihre strukturelle Wirkung im digitalen Informationsraum. Die drei identifizierten Vulnerabilitäten – Fragmentierung durch Hyperpersonalisierung, emotionale Manipulation durch KI-Propaganda und zunehmende Normalisierung synthetischer Inhalte – greifen ineinander und verstärken sich gegenseitig. Besonders problematisch wird KI dort, wo sie mit algorithmischer Kompetenz und einem gezielten Verständnis für Plattformdynamiken kombiniert wird.

AI-Slop verdeutlicht, dass die massenhafte Verfügbarkeit KI-generierter Inhalte bereits Realität ist. Die Frage ist daher nicht mehr, ob KI den demokratischen Diskurs beeinflusst, sondern wie demokratische Gesellschaften damit umgehen. Regulatorische Ansätze wie Kennzeichnungspflichten sind notwendige erste Schritte, greifen jedoch zu kurz: Sie adressieren nicht die emotionale Wirkung von Inhalten, die Fragmentierung der Öffentlichkeit oder den schleichenden Vertrauensverlust in den Informationsraum insgesamt. Vielmehr wird ein mehrdimensionales Handlungskonzept benötigt das sich auf die Stärkung der digitalen Resilienz von Bürger:innen fokussiert. Entscheidend wird sein, ob es gelingt, zivilgesellschaftliche Handlungsspielräume durch Medienkompetenz, transparente Plattformregulierung und die Förderung vertrauenswürdiger Informationsquellen zu erhalten und zu stärken. KI bleibt ein ambivalentes Werkzeug: Ihre demokratiegefährdende Wirkung ist nicht technologisch determiniert, sondern hängt davon ab, wie Gesellschaften ihren Einsatz gestalten und kontrollieren.

Dr. Katja Muñoz ist Senior Research Fellow in der DGAP und forscht zu Influencern, Künstlicher Intelligenz und Demokratie.

Emma Laumann ist Datenanalystin bei der AI/Democracy Initiative und Projektassistentin am Zentrum für Geopolitik, Geoökonomie und Technologie der DGAP.

[i] Bawidamann, Katharina & Gilbert, Max (2025): Wahlkampf-Helfer: Wie die Parteien KI für sich nutzen. In: Br24 Medien. Wahlkampf-Helfer: Wie die Parteien KI für sich nutzen | BR24

[ii] Investing.com (2025): OpenAI startet ChatGPT Pulse: KI-Assistent liefert proaktive, personalisierte Updates. OpenAI startet ChatGPT Pulse: KI-Assistent liefert proaktive, personalisierte Updates Von Investing.com

[iii] Goldstein, Josh A. & Lohn, Andrew (2024): Deepfakes, Elections, and Shrinking the Liar’s Dividend. Brennan Center for Justice. Deepfakes, Elections, and Shrinking the Liar’s Dividend | Brennan Center for Justice

[iv] Stanusch et al. (2025): AI Generated Algorithmic Virality. In: AI Forensics. AI Generated Algorithmic Virality | AI Forensics

[v] Shamir, Afek (2024): AI Agents: Why We Should Strategize on Governance. In: Tech Policy Press. AI Agents: Why We Should Strategize on Governance | TechPolicy.Press

Erhalten Sie die neuesten Analysen, Positionen und Veranstaltungshinweise des Forum Umwelt und Entwicklung. Abonnieren Sie unseren Newsletter!