Bezug: https://www.handelsblatt.com/politik/deutschland/social-media-junge-nutzer-vertrauen-bei-politischer-bildung-algorithmen/100157413.html
Der Handelsblatt-Text rahmt das Thema, als würden „junge Nutzer“ den Plattform-Algorithmen bewusst vertrauen. Treffender ist: Sie werden durch Voreinstellungen und Feeds in algorithmische Auswahlmechanismen hineingezogen – und arrangieren sich damit. Das ist ein wichtiger Unterschied für jede Debatte über politische Bildung.
Was die Daten wirklich sagen
Die zugrunde liegende Studie (Bertelsmann Stiftung/Progressives Zentrum) zeigt: Instagram und TikTok sind für U30 der wichtigste Kontaktpunkt zu Politik; rund die Hälfte gibt an, politische Inhalte häufig über den algorithmisch sortierten Feed zu sehen. Zugleich folgen mehr junge Nutzer politischen Influencern als Parteien/Politiker:innen. Das ist Nutzung, nicht per se „Vertrauen“.
Reichweite ≠ Zustimmung
„Angriffe bringen Reichweite“ – Clips mit Attacken werden im Schnitt etwa 40 % häufiger angesehen; positive Selbstdarstellung senkt Reichweite. Aber: In Befragungen lehnen junge Menschen verbale Angriffe mehrheitlich ab. Das belohnt also Empörungsformate, nicht Qualität – ein klassischer Anreizfehler der Plattformlogiken.
Was junge Leute tatsächlich wollen
Gefragt sind authentischer Ton, einfache Sprache, technisch saubere Videos. Das unterstreicht die Studie ausdrücklich. Der Handelsblatt-Duktus suggeriert „Vertrauen in Algorithmen“, die Daten zeigen eher Formatpräferenzen und Komfortnutzung („kommt im Feed, wird gesehen“).
Politische Bildung ist nicht gleich „Politik-Snack“
„Politische Bildung“ hat in Deutschland eine professionelle Infrastruktur (bpb, Landeszentralen). Der Feed liefert politische Inhalte, aber keine didaktisch kuratierten Lernpfade. Wer Feeds mit Bildung gleichsetzt, verwechselt Angebot (kurze Clips, Selbstdarstellung, Angriffe) mit Auftrag (Einordnung, Kontroversität, Quellenarbeit). Genau darauf weisen Bildungsakteure seit Jahren hin.
5) Regulierung: Nutzerkontrolle statt Algorithmenvertrauen
Die EU-DSA verpflichtet Plattformen u. a. zu Transparenz und Wahlmöglichkeiten bei Recommender-Systemen (Art. 27/38). Die Kommission ermittelt gegen TikTok/Meta u. a. wegen Jugendschutz und Empfehlungsalgorithmen. Politische Bildung darf also nicht auf „Vertrauen in Algorithmen“ bauen, sondern auf kontrollierbare Algorithmen – mit klaren Default-Optionen und Jugendschutz.
Konsequenzen für demokratische Akteur:innen (und für uns Sozialdemokrat:innen)
-
Plattform-nativ, aber ohne Rage-Bait: Selfie-Formate funktionieren, Infografik-Überladung und Tanz-Clips schaden; Attacken steigern Views, aber nicht Zustimmung. Authentizität vor Empörung.
-
Themen priorisieren, die ziehen – ohne Schablonen: Migration bringt Reichweite; Soziales/Umwelt haben es schwerer. Umso wichtiger: Alltagsnähe und jugendbezogene Zugänge zu „schwierigen“ Themen, statt sie dem Feed zu opfern.
-
Call-to-Action klug setzen: Offline-CTAs (z. B. Demo-/Wahlaufrufe) wirken besser als reine Online-Interaktion („liken/teilen“). Verknüpfen statt nur performen.
-
Feed nicht als Endpunkt behandeln: In jedem Clip Weiterleitung auf seriöse, vertiefende Angebote (bpb-Dossiers, Parteiprogramm-Erklärer, lokale Projekte). Damit entsteht aus Sicht-Kontakten Lernen.
Einordnung für Schulen und Eltern
Die JIM-Studie zeigt die wachsende Alltagsnähe von KI/Plattformnutzung bei Jugendlichen – inklusive Informationssuche. Medienbildung muss daher früher ansetzen: Algorithmus-Erklärkompetenz, Quellenprüfung, Feed-Kontrolle. Das ist nachhaltiger als App-Verbote.
Der Artikel trifft einen Nerv, verfehlt aber die Diagnose. Nicht „Vertrauen in Algorithmen“ ist das Problem, sondern Strukturabhängigkeit von Feeds, die Reichweite mit Qualität verwechselt. Politische Bildung braucht nicht mehr „Algorithmusgläubigkeit“, sondern Gestaltungswillen: plattformtaugliche Inhalte, klare Werte, überprüfbare Quellen – und echte Wahlmöglichkeiten über dem Feed.
Meine Quellen:
-
Bertelsmann Stiftung / Das Progressive Zentrum (2025): How to Sell Democracy Online (Fast). Befunde zu Feed-Nutzung, Reichweitenlogik, Formatpräferenzen.
-
FAZ (23.09.2025): Zusammenfassung der Studienkernergebnisse (U30, Feed-Nutzung, Angriffslogik).
-
EU-Kommission (2024/2025): DSA-Verfahren gg. TikTok/Meta; Leitplanken zu Recommender-Systemen (Art. 27/38).
-
DSA Observatory (2024/2025): Einordnung zu Recommender-Transparenz und Nutzerkontrollen.
-
MPFS (2024): JIM-Studie 2024 – Nutzung von KI/Plattformen durch Jugendliche inkl. Informationssuche.
💬 Hinweis für Redaktionen und Blogbetreiber
Wenn Sie diesen Beitrag informativ finden, dürfen Sie ihn gerne zitieren oder verlinken.
Ich freue mich über jede Weiterverbreitung und sachliche Diskussion.
❦ Bitte geben Sie bei Übernahme die Quelle an:
meinekommentare.blogspot.com
*Hinweis gemäß Art. 52 DSA (digital service act der EU) – seit 01.08.2025 verpflichtend: Das verwendete Bild- und Grafikmaterial ist KI-generiert. Ausnahmen sind unter dem jeweiligen Objekt gekennzeichnet.

Kommentare
Kommentar veröffentlichen