In modernen Demokratien ist die freie politische Meinungsbildung eine zentrale Voraussetzung für die Funktionsfähigkeit des politischen Systems. Bürgerinnen und Bürger müssen sich über gesellschaftliche Entwicklungen informieren, unterschiedliche Positionen abwägen und auf dieser Grundlage eigene politische Urteile bilden. Demokratie setzt die freie Meinungs- und Willensbildung aller Bürgerinnen und Bürger voraus. Die Meinungsbildung wird im digitalen Zeitalter aber zunehmend durch die Medien und insbesondere bei den jüngeren Generationen durch die neuen Medien vermittelt (vgl. Kalb 2017, S. 3).
Traditionell erfolgte dieser Prozess vor allem über klassische Massenmedien wie Zeitungen, Radio und Fernsehen, die eine gemeinsame Informationsbasis bereitstellten und öffentliche Debatten strukturierten. Mit der zunehmenden Digitalisierung ist jedoch ein grundlegender Wandel eingetreten, der nicht nur die Medienlandschaft an sich, sondern auch die Bedingungen der politischen Meinungsbildung beeinflusst (vgl. Katzenbach 2018, S. 2).
Die globale digitale Transformation hat in den letzten Jahren zunehmend an Dynamik gewonnen und deutliche Auswirkungen sowie globale Zusammenhänge sichtbar gemacht. Heute stehen vor allem allgegenwärtige KI-Systeme im Mittelpunkt wissenschaftlicher, politischer, wirtschaftlicher, normativer und regulatorischer Diskussionen. Von besonderer Bedeutung sind hier algorithmische Datenauswertungen zur Steuerung wirtschaftlichen und gesellschaftlichen Verhaltens, die für die politische Entscheidungsfindung und die Strukturierung öffentlicher Kommunikation von Bedeutung sind und so die Lebenswirklichkeit der Bürgerinnen und Bürger mitgestalten (vgl. Friedewald/Roßnagel 2022, S. 17).
Vor diesem Hintergrund stellt sich die Frage, welche Auswirkungen Algorithmen auf die politische Meinungsbildung in demokratischen Gesellschaften haben. Einerseits eröffnen digitale Medien neue Möglichkeiten der Information und Partizipation, indem sie den Zugang zu politischen Inhalten erleichtern und unterschiedliche Perspektiven sichtbar machen. Andererseits besteht die Gefahr, dass algorithmische Auswahlmechanismen die Wahrnehmung politischer Realität verzerren, indem sie vor allem Inhalte hervorheben, die bestehenden Interessen und Überzeugungen entsprechen. Genau an diesem Punkt treten Phänomene wie Filterblasen und Echokammern auf, die wiederum zur Fragmentierung der Öffentlichkeit und Verstärkung politischer Polarisierung beitragen können (vgl. Deutscher Bundestag 2022, S. 9–11).
Die vorliegende Arbeit geht der Frage nach, wie Algorithmen die politische Meinungsbildung beeinflussen und welche Folgen sich daraus für demokratische Prozesse ergeben. Zunächst werden grundlegende Begriffe wie politische Meinungsbildung und öffentliche Kommunikation erläutert. Anschließend wird die Rolle von Medien in demokratischen Systemen dargestellt und die Funktionsweise künstlicher Intelligenz sowie algorithmischer Empfehlungssysteme erklärt. Darauf aufbauend werden zentrale Mechanismen wie Personalisierung, Selektion, Filterblasen und Echokammern analysiert. Abschließend wird untersucht, welche Auswirkungen diese Entwicklungen auf die demokratische Meinungsbildung haben und inwiefern sie Chancen und Risiken für den öffentlichen Diskurs mit sich bringen.
Grundlagen politischer Meinungsbildung und öffentlicher Kommunikation
Politische Meinungsbildung
Demokratische Gesellschaften sind darauf angewiesen, dass Bürgerinnen und Bürger politische Informationen aufnehmen, bewerten und daraus eigene Positionen entwickeln. „Demokratie setzt die freie Meinungs- und Willensbildung aller Bürgerinnen und Bürger voraus“ (Kalb 2017, S. 3).
In den Sozialwissenschaften werden Meinungen allgemein als positive oder negative Bewertungen von Objekten wie Personen, Parteien oder politischen Themen beschrieben (vgl. Kümpel 2024). Meinungsbildung bezeichnet dementsprechend den Prozess, in dem solche politischen Bewertungen entstehen und sich politische Einstellungen herausbilden. Im politischen Kontext beschreibt sie insbesondere die Entwicklung politischer Einstellungen bei einzelnen Bürgerinnen und Bürgern. Diese Einstellungen werden durch verschiedene Faktoren beeinflusst, darunter mediale Informationsangebote, Meinungen im sozialen Umfeld sowie die wahrgenommene öffentliche Meinung (vgl. ebd.).
Politische Meinungsbildung findet dabei nicht ausschließlich auf individueller Ebene statt, sondern ist eng mit Prozessen öffentlicher Kommunikation verbunden. Öffentliche Meinung entsteht erst dort, wo politische Themen, Informationen und Bewertungen in der Öffentlichkeit kommuniziert werden und verschiedene Perspektiven zusammentreffen. In einer Demokratie kann diese Öffentlichkeit Orientierung für die eigenen politischen Einstellungen bieten (vgl. Sarcinelli o.J.).
Der Meinungsbildungsprozess lässt sich in drei zentrale Stufen unterteilen, die eng mit den Grundfunktionen von Medien verknüpft sind, nämlich Themenvermittlung, Wissensvermittlung und Meinungsvermittlung. Zunächst setzen Medien bestimmte Themen auf die öffentliche Agenda und beeinflussen dadurch, welche politischen Fragen in der Öffentlichkeit wahrgenommen und diskutiert werden. Dieser Prozess wird in der Kommunikationswissenschaft als Agenda-Setting bezeichnet (vgl. Kümpel 2024). Im zweiten Schritt vermitteln Medien Informationen oder Fakten, die von den Nutzer*innen als relevant wahrgenommen werden und ihnen ermöglichen, Wissen über politische Sachverhalte zu erwerben. Schließlich informieren Medien auch über bestehende Meinungen zu gesellschaftlich relevanten Themen und erleichtern so die Orientierung in öffentlichen Debatten (vgl. ebd.). Auch soziale Medien können auf allen drei Stufen eine wichtige Rolle spielen, da sie Themen, Wissen und Meinungen verbreiten und damit den Prozess der politischen Meinungsbildung mitgestalten (vgl. ebd.).
Mit der wachsenden Bedeutung sozialer Medien als Informationsquelle stellt sich zunehmend die Frage, inwiefern die algorithmische Struktur dieser Plattformen politische Meinungsbildungsprozesse beeinflusst. Inhalte werden häufig von Algorithmen ausgewählt und in einer bestimmten Reihenfolge angezeigt. Auf diese Weise bestimmen die Systeme, welche politischen Informationen Nutzerinnen und Nutzer sehen und welche nur selten angezeigt werden (vgl. Boulianne/Hoffmann 2024, S. 2).
Öffentliche Kommunikation in der Demokratie
Öffentliche Kommunikation bildet eine zentrale Grundlage demokratischer Systeme, da sie den Austausch politisch relevanter Informationen ermöglicht und die Bildung einer gemeinsamen öffentlichen Meinung unterstützt. Traditionelle Massenmedien wie Zeitungen, Zeitschriften, Radio und Fernsehen vermitteln politische Inhalte an breite Bevölkerungsgruppen, schaffen eine gemeinsame Themenagenda und tragen zur Orientierung der Bürger*innen bei. Mit der Digitalisierung wurden diese klassischen Angebote zunehmend digital verbreitet und teilweise in soziale Netzwerke integriert (Jarren/Fischer 2021, S. 1–2).
Im Zuge dieser Entwicklung beschreibt der Begriff der Mediatisierung die zunehmende Durchdringung der Lebenswelt mit medial vermittelten Inhalten. Diese prägen nicht nur individuelle Wahrnehmungen, sondern beeinflussen auch den öffentlichen Diskurs. Vor diesem Hintergrund eröffnen Social-Media-Plattformen ergänzend zu klassischen Medien personalisierte Informationszugänge und Interaktionsmöglichkeiten. Dadurch wird politische Kommunikation differenzierter, und Bürger*innen werden stärker in die Auseinandersetzung über gesellschaftlich relevante Themen einbezogen (vgl. Neuberger 2022, S. 161–163).
Aus diesen Veränderungen ergeben sich auch die zentralen Funktionen der Öffentlichkeit in der Demokratie. Sie sorgt für Transparenz, ermöglicht die Kontrolle politischer Entscheidungen und schafft Räume, in denen Bürgerinnen und Bürger sich informieren, austauschen und an gesellschaftlichen Debatten beteiligen können (Jarren/Fischer 2021, S. 3). Öffentlichkeit entsteht dabei in Wechselwirkung mit Medien und gesellschaftlichen Strukturen und ist zugleich von bestehenden Machtverhältnissen geprägt. Sowohl etablierte als auch alternative Medien tragen dazu bei, unterschiedliche Perspektiven sichtbar zu machen. Damit wird deutlich, dass öffentliches Handeln in einer Demokratie nicht allein von der Vermittlung von Informationen abhängt, sondern wesentlich davon, dass Bürgerinnen und Bürger aktiv teilnehmen, diskutieren und ihre Meinungen in politische Entscheidungsprozesse einbringen (vgl. ebd., S. 5–6).
Medienwandel und algorithmische Systeme
Nach aktuellen Befunden nutzen die meisten Erwachsenen in Deutschland das Internet, um sich mindestens einmal pro Woche über lokale, nationale oder internationale Ereignisse zu informieren. Dabei dominieren weiterhin klassische Nachrichtenanbieter aus TV, Radio und Print, während soziale Medien zunehmend an Bedeutung gewinnen. 2023 gaben 14 % der erwachsenen Internetnutzer an, Social Media als wichtigste Nachrichtenquelle zu nutzen, bei den 18‑ bis 24‑Jährigen liegt der Anteil bei 35 %, für 15 % dieser Altersgruppe sind soziale Medien sogar die einzige Nachrichtenquelle. Unter den Plattformen bleiben WhatsApp, YouTube und Facebook die meistgenutzten Kanäle für Nachrichten, während TikTok leicht an Reichweite gewonnen hat und Instagram insbesondere junge Erwachsene erreicht (vgl. Behre 2023).
Soziale Medien sind für viele Menschen ein fester Bestandteil des Alltags und nehmen einen bedeutenden Stellenwert in der Informations- und Kommunikationspraxis ein. In diesen digitalen Räumen kommen Nutzerinnen und Nutzer regelmäßig mit politischen Inhalten und Debatten in Kontakt – etwa durch journalistische Nachrichtenbeiträge, Beiträge von Parteien oder politischen Akteurinnen und Akteuren sowie durch politische Kommunikation und Meinungsäußerungen anderer Nutzerinnen und Nutzer. Dadurch eröffnen soziale Medien neue Möglichkeiten politischer Teilhabe, da sie den Zugang zu politischen Themen erleichtern, unterschiedliche Perspektiven sichtbar machen und eine Beteiligung an politischen Diskursen ermöglichen, die in traditionellen Medien nicht in gleicher Weise vorhanden ist (vgl. Maier 2024).
Damit verändern sich auch die Bedingungen politischer Meinungsbildung grundlegend. Politische Informationen werden heute nicht nur von journalistischen Medien verbreitet, sondern bewegen sich in komplexen digitalen Netzwerken und Kommunikationsräumen. In diesen produzieren und verbreiten unterschiedliche Akteurinnen und Akteure Inhalte, wodurch sich die Struktur öffentlicher Kommunikation nachhaltig verändert (vgl. Neuberger 2022, S. 161).
Künstliche Intelligenz und algorithmische Empfehlungssysteme
KI-gestützte Algorithmen
Künstliche Intelligenz (KI) ist ein Teilbereich der Informatik, der sich mit der Entwicklung von Algorithmen befasst, die menschliche kognitive Fähigkeiten wie logisches Denken, Lernen, Planen oder Kreativität nachahmen. Solche Systeme sind in der Lage, große Datenmengen, etwa Texte, Bilder oder Audiodaten, zu analysieren, Muster zu erkennen und daraus Erkenntnisse abzuleiten. Der Begriff Künstliche Intelligenz wurde erstmals von amerikanischen Wissenschaftlern geprägt, im Englischen wird er als Artificial Intelligence (AI) bezeichnet. Die theoretischen Grundlagen dieser Technologie entstanden bereits in den 1950er Jahren, als erste Überlegungen dazu entwickelt wurden, wie Algorithmen eigenständig Problemlösungen erlernen können (vgl. Ladwig 2024).
Im öffentlichen Diskurs wird der Begriff „künstliche Intelligenz“ häufig verwendet, wenn digitale Systeme Entscheidungen vorbereiten oder treffen. Tatsächlich beschreibt KI jedoch zunächst ein Forschungsfeld und nicht notwendigerweise ein autonom handelndes System. Der Begriff kann daher missverständlich sein, da er eine Nähe zur menschlichen Intelligenz suggeriert und damit auch eine Form von Verantwortung impliziert, die technischen Systemen nicht zukommt. In diesem Zusammenhang wird häufig auch von automatisierten Entscheidungssystemen (Automated Decision-Making, ADM) gesprochen, da dieser Begriff stärker den algorithmischen Entscheidungsprozess betont (vgl. Wulf 2024, S. 22).
Ein zentraler Bestandteil moderner KI-Systeme ist das sogenannte Machine Learning., also maschinelles Lernen. Hierbei werden Algorithmen nicht vollständig vorprogrammiert, sondern anhand großer Datenmengen trainiert, um Muster zu erkennen und eigenständig Vorhersagen zu treffen (vgl. Lenzen 2020, S. 33-37). Eine spezielle Form davon ist das Deep Learning, das auf künstlichen neuronalen Netzen basiert (vgl. ebd., S. 37). Diese bestehen aus mehreren Verarbeitungsschichten und ermöglichen es, komplexe Daten schrittweise zu analysieren. Solche Lernverfahren bilden die technische Grundlage vieler personalisierter Empfehlungssysteme und Social-Media-Feeds.
Grundsätzlich kann man zwischen regelbasierten und lernenden Algorithmen unterscheiden. Regelbasierte Systeme arbeiten nach festen Entscheidungsregeln, während lernende Algorithmen ihre Entscheidungen während einer Trainingsphase auf Basis von Daten selbst entwickeln. Die Auswahl und Qualität dieser Trainingsdaten beeinflussen die Ergebnisse maßgeblich, da sie bestimmen, welche Muster erkannt und weitergeführt werden (vgl. Wulf 2024, S. 22–23).
Algorithmische Empfehlungssysteme
Algorithmische Empfehlungssysteme nutzen die Möglichkeiten künstlicher Intelligenz, um große Datenmengen auszuwerten und personalisierte Vorschläge für Nutzerinnen und Nutzer zu erstellen. Dabei werden Informationen über das Verhalten der Nutzerinnen und Nutzer berücksichtigt, sodass Empfehlungen zunehmend an individuelle Interessen angepasst werden können. Solche Systeme finden Anwendung in vielen digitalen Bereichen, etwa bei Musik- oder Filmempfehlungen, Produktempfehlungen in Online-Shops oder bei der Erweiterung sozialer Netzwerke (vgl. Kieslich et al. 2022, S. 1–2).
Untersuchungen zeigen, dass Menschen Empfehlungen von Algorithmen häufig ein hohes Vertrauen entgegenbringen, teilweise sogar mehr als Ratschlägen von anderen Menschen. Gleichzeitig können Nutzerinnen und Nutzer skeptisch reagieren, wenn die Empfehlungen unsicher erscheinen oder ihre Funktionsweise nicht nachvollziehbar ist. Zudem kann ein sogenannter Automation Bias dazu führen, dass computergestützte Empfehlungen unkritisch übernommen werden, auch wenn sie nicht optimal sind (vgl. ebd. S. 1-2).
Außerdem ist zu erkennen, dass algorithmische Empfehlungssysteme nicht unabhängig von den Nutzerinnen und Nutzern arbeiten, sondern eng mit deren Verhalten verbunden sind. Die Inhalte personalisierter Feeds, etwa auf Plattformen wie TikTok, werden wesentlich durch die Aktivitäten der Nutzerinnen und Nutzer beeinflusst. Gleichzeitig knüpfen diese Systeme an bestehende kulturelle Praktiken an, indem sie Formen der Selbstdarstellung und digitale Kommunikationsweisen aufgreifen und weiterentwickeln. Darüber hinaus haben Nutzerinnen und Nutzer eigene Vorstellungen davon, wie algorithmische Systeme funktionieren, und passen ihr Verhalten teilweise gezielt daran an. Insgesamt zeigt sich, dass algorithmische Systeme und soziale Praktiken in einem wechselseitigen Austausch stehen und sich gegenseitig beeinflussen. (vgl. Schulz/Matzner 2020, S. 153-155).
Mechanismen algorithmischer Selektion
Personalisierung und Selektion
Die Personalisierung von Social-Media-Feeds basiert auf dem Verhalten der Nutzerinnen und Nutzer. Interaktionen wie Likes, Kommentare oder geteilte Inhalte liefern Daten, aus denen Plattformen persönliche Interessenprofile ableiten. Diese bestimmen, welche Inhalte anschließend angezeigt werden.
Dabei kommen zwei zentrale Verfahren zum Einsatz. Zum einen bewerten Algorithmen Inhalte anhand ihrer Eigenschaften. Zum anderen vergleichen sie Nutzerinnen und Nutzer mit ähnlichen Interaktionsmustern, um passende Inhalte vorzuschlagen. Auf diese Weise entstehen personalisierte Informationsräume, in denen bestimmte Inhalte bevorzugt sichtbar sind (vgl. Schulz/Matzner 2020, S. 151–157).
Algorithmische Empfehlungssysteme auf Social-Media-Plattformen entscheiden außerdem, welche Inhalte Nutzerinnen und Nutzer sehen. Sie analysieren große Datenmengen nach Relevanz und ordnen diese individuell, um personalisierte Feeds zu erstellen. (vgl. Saurwein et al. 2022, S. 244–245). Grundlage dieser Personalisierung sind demografische Daten, Interessen, bestehende Vernetzungen, Nutzungsverhalten und die Interaktionen der Nutzer*innen (vgl. ebd. S. 245).
Durch diese gezielte Auswahl und Zusammenstellung von Inhalten werden Beiträge auf die vermuteten Interessen der Nutzerinnen und Nutzer abgestimmt. Ähnliche Mechanismen kommen auch bei Suchfunktionen, automatischen Suchvorschlägen und aktuellen Themen zum Einsatz, um die Navigation innerhalb der Plattformen zu erleichtern (vgl. Neuberger 2022, S. 161).
Ziel dieser Prozesse ist es, Nutzerinnen und Nutzer möglichst lange auf der Plattform zu halten, indem Inhalte als relevant und ansprechend wahrgenommen werden. Dadurch wird die Aufmerksamkeit gezielt gelenkt, und die Plattformen erhalten Einfluss auf die Wahrnehmung gesellschaftlicher Informationen. Gleichzeitig entsteht ein wechselseitiger Effekt, da Nutzer*innen ihr Verhalten teilweise an den vermuteten Funktionsweisen der Algorithmen ausrichten, wodurch sich Personalisierung und Selektion kontinuierlich gegenseitig verstärken (vgl. Saurwein et al. 2022, S. 244-245).
Filterblasen und Echokammern
Filterblasen entstehen durch die algorithmische Personalisierung von Inhalten auf digitalen Plattformen. Algorithmen analysieren das Verhalten der Nutzerinnen und Nutzer, einschließlich ihrer bisherigen Interaktionen, Vorlieben und anderer Daten, und wählen basierend darauf Inhalte aus, die wahrscheinlich den persönlichen Interessen entsprechen, während andere Perspektiven weniger sichtbar sind (vgl. Ahmmad et al., 2025, S. 2).
Gleichzeitig werden KI-Algorithmen zunehmend eingesetzt, um Online-Inhalte gezielt zu bündeln. Empfehlungsalgorithmen wiederholen Inhalte, die Nutzer*innen bereits zuvor gesehen haben, wodurch unbeabsichtigt Filterblasen entstehen. Diese Systeme verstärken bestehende Präferenzen, indem sie die Sichtbarkeit von Inhalten, die den eigenen Überzeugungen widersprechen, reduzieren. Das Ergebnis ist ein algorithmisch gesteuerter Informationsfluss, der ein voreingenommenes Denken begünstigt und die Vielfalt der wahrgenommenen Informationen einschränkt (vgl. Lamb 2024, S. 148 & Janetzko 2017, S. 30).
Das Ergebnis ist ein einseitiges Informationsumfeld, in dem Nutzer*innen vor allem Inhalte konsumieren, die ihre bestehenden Meinungen bestätigen. Filterblasen können sowohl durch aktive Eingaben der Nutzer*innen, wie das Folgen bestimmter Accounts, als auch durch automatisch generierte Empfehlungen entstehen (vgl. Deutscher Bundestag 2022, S. 9–11). Insgesamt bewirken Filterblasen eine selektive Wahrnehmung von Informationen, die dazu führt, dass Nutzer*innen zunehmend innerhalb personalisierter Informationsräume agieren. Dadurch wird die Vielfalt der wahrgenommenen Inhalte eingeschränkt, und kritische Reflexionen auf alternative Perspektiven erschwert (vgl. ebd. S. 9-11).
Echokammern bezeichnen digitale Räume, in denen Inhalte und Meinungen verstärkt und wiederholt werden, während abweichende Perspektiven zunehmend ausgeblendet werden (vgl. ebd., S. 12–14). Echokammern entstehen, wenn öffentliche Kommunikation auf isolierte Räume beschränkt wird, die nur noch ähnliche Meinungen und Einstellungen enthalten. Während die Konzentration auf gleichgesinnte Informationen zunächst nicht unbedingt problematisch ist, wird sie problematisch, wenn dadurch der öffentliche Austausch eingeschränkt wird. Das kann die Chancen auf Konsensbildung und soziale Integration mindern (vgl. ebd., S. 12–14).
Psychologische Mechanismen fördern die Bildung von Echokammern. Menschen suchen nach Informationen, die ihren bisherigen Überzeugungen entsprechen, und meiden solche, die diesen widersprechen. Neue oder gegensätzliche Informationen werden oft weniger beachtet, während übereinstimmende Inhalte stärker wahrgenommen werden. Erst wenn der Widerspruch zu groß wird, passen Personen ihre Meinung an, um wieder Konsistenz zu erreichen (vgl. ebd., S. 12–14).
Ein weiterer Faktor ist die selektive Mediennutzung, die durch die Vielzahl verfügbarer Informationsquellen im Internet verstärkt wird. Nutzer*innen suchen gezielt Inhalte, die ihren eigenen Perspektiven entsprechen, wodurch einseitige Informationsräume entstehen und die gesellschaftliche Polarisierung verstärkt wird. Dieser Prozess kann als Spiralprozess beschrieben werden: Einseitige Mediennutzung fördert Polarisierung, welche wiederum die Auswahl und Wahrnehmung weiterer Informationen beeinflusst (vgl. ebd., S. 12–14).
Auswirkungen auf die demokratische Meinungsbildung
Was sind die Auswirkungen algorithmische Systeme auf die demokratische Meinungsbildung? Eine besorgniserregende Entwicklung ist, dass immer mehr alternative Sichtweisen ausgeblendet werden, während die bestehenden Überzeugungen noch stärker betont werden. Nutzerinnen und Nutzer konsumieren dadurch überwiegend Inhalte, die ihre bisherigen Meinungen bestätigen. Dies kann zu einer Verhärtung politischer Einstellungen führen und die Offenheit gegenüber neuen oder widersprüchlichen Informationen verringern (vgl. Krafft et al. 2020, S. 6-7).
Durch die zunehmende Digitalisierung und die Verbreitung sozialer Medien hat sich die traditionelle Medienlandschaft grundlegend verändert. Während früher vor allem etablierte Massenmedien den öffentlichen Kommunikationsraum prägten, eröffnet die heutige multilaterale und digitale Kommunikation neue Möglichkeiten und Herausforderungen für demokratische Gesellschaften. Das breite und oftmals kostenfreie Informationsangebot kann die politische Debatte bereichern, die Beteiligung der Bürgerinnen und Bürger stärken sowie zur Aufdeckung von Korruption und zur Kontrolle staatlicher Institutionen beitragen. Gleichzeitig werden Inhalte auf diesen Plattformen häufig nicht ausreichend überprüft, und algorithmische Systeme verstärken zunehmend Informationen, die den bestehenden Meinungen der Nutzerinnen und Nutzer entsprechen. Infolgedessen können Fehlinformationen, gezielte Propaganda und manipulierte Inhalte leichter verbreitet werden, wodurch digitale Filterblasen und Echokammern entstehen, die die gesellschaftliche Polarisierung verstärken und den öffentlichen Diskurs erschweren (vgl. Körner 2019, S. 4).
Die algorithmusgesteuerte Auswahl von Inhalten führt dazu, dass Nutzer zunehmend in personalisierten Informationsumgebungen agieren, die ihre bestehenden Überzeugungen bestätigen und alternative Sichtweisen weitgehend ausblenden. Dies macht den politischen Diskurs konfliktärmer und erhöht die Häufigkeit problematischer Phänomene wie Hassrede. Auf gesamtgesellschaftlicher Ebene bedeutet dies, dass wichtige Themen nur noch eingeschränkt gemeinsam debattiert werden können, da die Informationsräumen verschiedener Gruppen kaum noch Überschneidungen aufweisen. (vgl. Deutscher Bundestag 2022, S. 14).
In sozialen Medien werden bevorzugt Inhalte geteilt, die viel Aufmerksamkeit bei den Nutzerinnen und Nutzern erregen. Besonders profitieren dabei emotionalisierende Beiträge, wie Fake News, Clickbait-Journalismus oder polarisierende Inhalte. Ziel der Plattformen ist es, die Verweildauer der Nutzerinnen und Nutzer zu erhöhen und die Interaktionen mit den Inhalten zu steigern, was letztlich wirtschaftliche Einnahmen generiert. Für politische Bildnerinnen und Bildner stellt dies eine Herausforderung dar, da ihre Inhalte zugleich Qualitäts- und Neutralitätsanforderungen erfüllen müssen (vgl. Schmitt 2024).
Es wird außerdem angenommen, dass Nutzerinnen und Nutzer, sobald sie in bestimmte Informationsräume eintauchen, vorwiegend mit Gleichgesinnten interagieren und abweichende Meinungen nur selten wahrnehmen. Dies liegt daran, dass Algorithmen ihre Empfehlungen und Suchergebnisse an vorherige Interaktionen und Interessen anpassen und dabei widersprüchliche oder vielfältige Perspektiven ausblenden. Dieser Mechanismus kann gesellschaftliche Polarisierung verstärken und den offenen Austausch von Ideen behindern, wodurch die demokratische Diskussion eingeschränkt wird. Schließlich verlinken Algorithmen nicht nur problemlose ähnliche Inhalte, sondern auch problematische Inhalte wie Verschwörungsmythen, wodurch sich problematische Informationsräume zusätzlich stabilisieren (vgl. ebd.).
Generative KI wird immer häufiger im politischen Bereich genutzt, um Inhalte zu erstellen, die gezielt Aufmerksamkeit und Wirkung erzielen. Dabei entstehen oft glaubwürdig wirkende, aber falsche oder verzerrte Informationen, beispielsweise in Form von erfundenen Zitaten oder manipulierten Darstellungen, die Nutzerinnen und Nutzer häufig als glaubwürdig einschätzen werden. Solche Inhalte können im Rahmen koordinierter Kampagnen massenhaft verbreitet werden und den Eindruck breiter Zustimmung erzeugen. Auf diese Weise tragen KI-generierte Inhalte dazu bei, politische Narrative zu verstärken, Emotionen anzusprechen und gezielt bestimmte Gruppen zu mobilisieren, während gleichzeitig das Vertrauen in demokratische Prozesse beeinträchtigt werden kann (vgl. Mosene 2025).
Die Entwicklungen bewirken, dass bestehende Meinungen sich verstärken, während die Vielfalt an zugänglichen Informationen abnimmt. Die durch Algorithmen gesteuerte Sichtbarkeit polarisierender Inhalte fördert die zunehmende politische Spaltung. Zudem erschwert die Zersplitterung der Informationsräume gemeinsame öffentliche Diskussionen, was die Bildung eines gemeinsamen gesellschaftlichen Realitätsverständnisses behindert und demokratische Konsensfindung erschwert. Traditionelle demokratische Institutionen verlieren an Vertrauen, während alternative Informationsquellen wie Influencerinnen und Influencer an Einfluss gewinnen. Insgesamt entsteht so ein komplexes Zusammenspiel von Technologie, psychologischen Mechanismen und strategischem Handeln, das neue Herausforderungen für die Integrität der politischen Kommunikation in Demokratien schafft (vgl. Deutscher Bundestag 2022, S. 9–14).
Fazit
Die Analyse der politischen Meinungsbildung im digitalen Zeitalter zeigt, dass sich die Bedingungen demokratischer Informations- und Diskussionsprozesse grundlegend verändert haben. Während traditionelle Massenmedien wie Zeitungen, Radio und Fernsehen lange Zeit eine gemeinsame Informationsbasis bereitstellten und öffentliche Debatten strukturierten, übernehmen heute digitale Plattformen eine zunehmend zentrale Rolle. Insbesondere soziale Medien bieten neue Zugänge zu politischen Informationen, eröffnen vielfältige Partizipationsmöglichkeiten und machen unterschiedliche Perspektiven sichtbar. Auf diese Weise können Bürgerinnen und Bürger aktiver in politische Diskurse eingebunden werden, was theoretisch zu einer Stärkung demokratischer Teilhabe beitragen kann.
Die wachsende Bedeutung algorithmischer Empfehlungssysteme beeinflusst zunehmend, wie die politische Realität wahrgenommen wird. Diese Algorithmen analysieren große Datenmengen, bewerten das Nutzerverhalten und entscheiden auf dieser Basis, welche Inhalte sichtbar gemacht werden. Durch Personalisierung und Selektion werden vor allem Inhalte angezeigt, die den bisherigen Überzeugungen der Nutzer entsprechen. Dies fördert die Entstehung von Filterblasen und Echokammern, in denen andere Perspektiven ausgeblendet werden und die politische Polarisierung verstärkt wird.
Die algorithmisch gesteuerte Verbreitung von Informationen beeinflusst direkt die demokratische Meinungsbildung. Sie ermöglicht einerseits eine gezielte, personalisierte Informationsbereitstellung, die die politische Teilhabe fördern kann. Andererseits schränkt sie die Vielfalt der wahrgenommenen Inhalte ein, fördert die Verbreitung von Fehlinformationen und manipulativen Inhalten und schwächt die gemeinsame Grundlage öffentlicher Debatten. Die Zersplitterung der Informationslandschaft kann dazu führen, dass geteilte gesellschaftliche Wahrnehmungen schwächer werden und das Vertrauen in traditionelle demokratische Institutionen sinkt.
Außerdem entstehen durch die Verwendung generativer KI neue Herausforderungen, da Inhalte absichtlich produziert werden können, um Aufmerksamkeit zu erregen, politische Narrative zu fördern oder gezielt Emotionen zu steuern. Diese Entwicklungen verdeutlichen, dass digitale Technologien und algorithmische Systeme nicht neutral sind, sondern in enger Wechselwirkung mit psychologischen, sozialen und politischen Dynamiken stehen. Die Qualität demokratischer Meinungsbildung hängt immer stärker davon ab, wie diese Technologien genutzt, geregelt und von den Nutzerinnen und Nutzern kritisch hinterfragt werden.
Insgesamt zeigt sich, dass die digitale Transformation sowohl Chancen als auch Risiken für die Demokratie birgt. Soziale Medien und KI-basierte Algorithmen ermöglichen neue Formen politischer Partizipation und Informationsverfügbarkeit, gleichzeitig können sie bestehende Meinungen verstärken, die Vielfalt der Perspektiven einschränken und die öffentliche Diskussion fragmentieren. Vor diesem Hintergrund wird deutlich, dass die Förderung von Medienkompetenz, die kritische Auseinandersetzung mit algorithmisch gesteuerten Informationsräumen und die Stärkung transparenter, überprüfbarer Informationsangebote zentrale Voraussetzungen dafür sind, dass politische Meinungsbildung auch im digitalen Zeitalter frei, informiert und demokratisch fundiert erfolgen kann.
Literaturverzeichnis
Ahmmad, Mukhtar/ Shahzad, Khurram/ Iqbal, Abid/ Latif, Mujahid (2025): Trap of Social Media Algorithms: A Systematic Review of Research on Filter Bubbles, Echo Chambers, and Their Impact on Youth (Societies am 30.10.2025) <Trap of Social Media Algorithms: A Systematic Review of Research on Filter Bubbles, Echo Chambers, and Their Impact on Youth | Semantic Scholar> (16.03.2026)
Behre, Julia (2023): News Fatigue in Germany on the Rise: German Findings of the "Reuters Institute Digital News Report 2023" Published (Leibniz Institute für Medienforschung vom 14.06.2023) <https://leibniz-hbi.de/en/hbi-news/pressinfo/news-fatigue-in-germany-on-the-rise/> (25.02.2026)
Boulianne, Shelley/ Hoffmann, Christian P (2024): Digital Inclusion Through Algorithmic Knowledge: Curated Flows of Civic and Political Information on Instagram. In: Practices of Digital In- and Exclusion in Everyday Life, Band 12, S. 1-19.
Deutscher Bundestag (2022): Titel: „Echokammern“ und „Filterblasen“ in digitalen Medien (Deutscher Bundestag vom 21.03.2022) < https://www.bundestag.de/resource/blob/898208/WD-10-007-22-pdf.pdf> (05.03.2026)
Friedewald, Michael/ Roßnagel, Alexander (2022): Einleitung: Künstliche Intelligenz, Demokratie und Privatheit. In: Friedewald, Michael/ Roßnagel, Alexander/ Heesen, Jessica (Hrsg.): Künstliche Intelligenz, Demokratie und Privatheit, Nomos: Baden-Baden, S. 17-20.
Hochreiter, Sepp (2025): Was kann künstliche Intelligenz? Wird sie Wohlstand für alle schaffen, Krebs heilen und das Klimaproblem lösen?, ecoWing Verlag: Wien
Jarren, Otfried/ Fischer, Renate (2021): Die Plattformisierung von Öffentlichkeit und der Relevanzverlust des Journalismus als demokratische Herausforderung. In: Seeliger, Martin/ Sevignani, Sebastian (Hrsg.): Ein neuer Strukturwandel der Öffentlichkeit?, Nomos: Baden-Baden, S. 365-382
Kalb, Jürgen (2017): Die neuen Medien und die politische Meinungsbildung. »Fake News« – ein Produkt der neuen Medien? In: Zeitschrift für Gemeinschaftskunde, Geschichte und Wirtschaft 34(74), S. 3-5.
Kieslich, Kimon/ Došenović, Pero/ Marcinkowski, Frank (2022): Algorithmische Empfehlungssysteme. Was denkt die deutsche Bevölkerung über den Einsatz und die Gestaltung algorithmischer Empfehlungssysteme. Meinungsmonitor Künstliche Intelligenz (ResearchGate von Juli 2022) <https://www.researchgate.net/publication/381741031_Algorithmische_Empfehlungssysteme_Was_denkt_die_deutsche_Bevolkerung_uber_den_Einsatz_und_die_Gestaltung_algorithmischer_Empfehlungssysteme> (13.03.2026)
Körner, Kevin (2019): Digital politics. AI, big data and the future of democracy (Deutsche Bank Research vom 22. August. 2019) <https://www.dbresearch.com/PROD/RPS_EN-PROD/PROD0000000000497768/Digital_politics%3A_AI%2C_big_data_and_the_future_of_d.PDF?&realload=dRMUduwsw7lCSDU1/Q/DqY3oWVFcfWY8fle8L/ZXdSQfL2UlfyuMNO8iRTid5sbW> (16.03.2025)
Krafft, Tobias D./ Gamer, Michael/ Zweig, Katharina A. (2018): Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschin (algorithmwatch von Juni, 2018) <https://algorithmwatch.org/de/wp-content/uploads/2020/03/Bericht-Datenspende-Wer-sieht-was-auf-Google.pdf> (13.03.2026)
Kümpel, Anna Sophie (2024): Individuelle Meinungsbildung und -äußerung auf sozialen Medien (Bundeszentrale für politische Bildung vom 01.03.2024) <https://www.bpb.de/themen/medien-journalismus/medienpolitik/572084/meinungsbildung-meinungsmacht-und-konzentrationskontrolle-der-medien/> (10.03.2026)
Ladwig, Phillip (2024): Was ist KI und welche Formen von KI gibt es? (Bundeszentrale für politische Bildung vom 05.12.2024) <https://www.bpb.de/lernen/bewegtbild-und-politische-bildung/555997/was-ist-ki-und-welche-formen-von-ki-gibt-es/> (10.03.2026)
Lamb, Hilary/ Joel Levy/ Quigley, Claire (2024): Künstliche Intelligenz: Wissen auf den Punkt gebracht, Dorling Kindersley Verlag: München.
Lenzen, Manuela (2024): Künstliche Intelligenz. Fakten, Chance, Risiken, C.H.Beck: München, 3. Auflage.
Maier, Tanja (2024): Politische Bildung mit sozialen Medien (Bundeszentrale für politische Bildung vom 13.03.2024) < https://www.bpb.de/themen/medien-journalismus/soziale-medien/546438/politische-bildung-mit-sozialen-medien/> (12.03.2026)
Mosene, Katharina (2025): Wie negative KI Diskriminierung verstärkt (Friedrich Ebert Stiftung e.V. Vom 11.11.2025) < https://www.fes.de/news/wie-generative-ki-diskriminierung-verstaerkt> (04.03.2026)
Neuberger, Christoph (2022): Journalismus und Plattformen als vermittelnde Dritte in der digitalen Öffentlichkeit. In: KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie 74 (Suppl 1), S. 159–181
Sarcinelli, Ulrich (o.J.): Öffentliche Meinung (Bundeszentrale für politische Bildung) <https://www.bpb.de/kurz-knapp/lexika/handwoerterbuch-politisches-system/202080/oeffentliche-meinung/> (10.03.2026)
Saurwein, Florian/ Spencer-Smith, Charlotte/ Krieger-Lamina, Jaro (2022): Social-Media-Algorithmen als Gefahr für Öffentlichkeit und Demokratie: Anwendungen, Risikoassemblagen und Verantwortungszuschreibungen. In: Bogner, Alexander/ Decker, Michael/ Nentwich, Michael/ Scherz, Constanze (Hrsg.): Digitalisierung und die Zukunft der Demokratie. Beiträge aus der Technikfolgenabschätzung, Nomos: Baden-Baden, 243-256.
Schmitt, Josephine B. (2024): Basiswissen zur politischen Bildung, sozialen Medien und Extremismus (Bundeszentrale für politische Bildung vom 01.03.2024) < https://www.bpb.de/themen/medien-journalismus/soziale-medien/545795/basiswissen-zur-politischen-bildung-sozialen-medien-und-extremismus/> (12.03.2026)
Schulz, Christian/ Matzner, Tobias (2020): Feed the interface. Social-Media-Feeds als Schwellen. In: Filter(n) – Geschichte Ästhetik Praktiken 20 (2), S. 147-164.
Wulf, Jessica (2024): Wie gerecht entscheidet die KI? Über automatisierte Entscheidungssysteme. Grundlagen und Handlungsempfehlungen für die Antidiskriminierungsarbeit. In: Adeoso, Marie-Sophie/ Berendsen, Eva/ Fischer, Leo/ Schnabel, Deborah (Hrsg.): Code & Vorurteile. Künstliche Intelligenz, Rassismus und Antidiskriminierung., Bundeszentrale für politische Bildung: Bonn, S. 21-35.
Keine Kommentare:
Kommentar veröffentlichen