Wie das Internet die Wissensvermittlung erschwert und verzerrt

Begrenzte Verfügbarkeit hochwertiger Quellen

Ein zentrales Hindernis ist der eingeschränkte Zugang zu qualitativ hochwertigen Informationen. Bezahlschranken (Paywalls) bei Online-Medien und wissenschaftlichen Journalen sorgen dafür, dass fundierte Inhalte oft nur gegen Bezahlung verfügbar sind. Viele renommierte Nachrichtenportale und Fachzeitschriften verstecken ihre Artikel hinter Paywalls. Wer nicht zahlt, hat keinen Zugang zu den vollständigen Inhalten und damit weniger verlässliche Informationen. Kritiker warnen, dass solche Modelle den Zugang zu Wissen sozial selektiv machen und Ungleichheiten verstärken – zahlende Nutzer erhalten privilegierten Zugang zu exklusivem Wissen, während andere ausgeschlossen werden (Paywalls & Meinungsmacht: Einfluss auf Wissen und Öffentlichkeit). Dies kann zu einer Zweiklassengesellschaft der Information führen, in der gut informierte Gruppen und weniger informierte Gruppen auseinanderdriften. Ein Beispiel findet sich in der wissenschaftlichen Kommunikation: Universitäten und Forschungseinrichtungen veröffentlichen ihre Studien in teuren Fachjournalen, die sich nicht jeder leisten kann. Wissenschaftliche Ergebnisse werden oft hinter Paywalls versteckt, sodass man bezahlen muss, um eine Studie komplett zu lesen (Journals: Wissenschaft für alle? ). Dies schafft ein Informationsungleichgewicht unter Forschenden, da nicht alle die finanziellen Mittel haben, benötigte Artikel zu erwerben. Selbst öffentlich finanzierte Forschung ist häufig nicht frei zugänglich, was die Verbreitung des aktuellen Wissensstandes verlangsamt, weil sich viele Menschen den Zugang zu zahlreichen Artikeln schlicht nicht leisten können. Neben Paywalls gibt es zudem das Problem fehlender Digitalisierung: Nicht alle hochwertigen Quellen sind online verfügbar. Viele Bücher, Archive oder ältere Fachartikel sind gar nicht digital abrufbar oder nur schwer zu finden. Wissen, das nicht im Internet steht oder hinter Bezahlschranken liegt, bleibt großen Teilen der Bevölkerung verborgen. Dadurch bildet das online verfügbare Wissen oft nur einen Ausschnitt der Realität ab, was die umfassende Wissensvermittlung erschwert.

Fragmentierung von Informationen

Online verfügbare Informationen sind häufig fragmentiert, also in viele kleine, zusammenhangslose Stücke zerteilt. Anstatt umfassende Darstellungen zu lesen, konsumieren Nutzer oft einzelne Häppchen: kurze News-Meldungen, Social-Media-Posts, Tweets oder Videoschnipsel. Der Kontext geht dabei leicht verloren. Fragmentiertes Wissen bezeichnet Informationen, die isoliert und ohne klaren Zusammenhang präsentiert werden, sodass kein kohärentes Gesamtbild entsteht (Fragmentiertes Wissen. Eine nötige Definition.). Dies kann zu Missverständnissen oder falschen Schlüssen führen, denn Informationen ohne Kontext sind oft unvollständig oder irreführend. In der Praxis bedeutet das: Man liest hier ein Zitat, dort eine Überschrift, anderswo einen Fakt – doch das Puzzle fügt sich nicht automatisch zusammen. So glauben viele Menschen, durch das gelegentliche Lesen von Schlagzeilen oder Wikipedia-Stichworten bereits Bescheid zu wissen, obwohl ihnen die Tiefe und der Gesamtzusammenhang fehlen. Eine Studie zur Wirkung fragmentierter Lektüre zeigt denn auch, dass oberflächliches, zerstückeltes Lesen die Fähigkeit beeinträchtigen kann, Gelesenes wirklich zu verstehen. Beispielsweise stellten Forscher fest, dass fragmentiertes Lesen die kognitive Tiefe des Verständnisses signifikant negativ beeinflusst – die Leser erfassen den Inhalt also weniger gründlich (Determinants of College Students’ Online Fragmented Learning Effect: An Analysis of Teaching Courses on Scientific Research Software on the Bilibili Platform). Die ständig wachsende Informationsflut im Netz verschärft dieses Problem noch: Um nicht von Wissensfragmente überrollt zu werden, ist eigentlich ein hoher Ordnungs- und Integrationsaufwand nötig . Doch gerade dieser Gesamtüberblick lässt sich online nur schwer gewinnen. So entsteht leicht ein falsches Gefühl, gut informiert zu sein, obwohl das Wissen lückenhaft und verzerrt ist. Darüber hinaus kann Fragmentierung gezielt missbraucht werden – etwa indem Fakten aus dem Zusammenhang gerissen und nur bruchstückhaft präsentiert werden, um die Wahrnehmung der Leser zu manipulieren. Alles in allem stellt die Fragmentierung von Informationen eine große Herausforderung für die Wissensvermittlung im Internetzeitalter dar.

Echokammern und Filterblasen

Die Echokammer- und Filterblasen-Effekte zählen zu den bekanntesten Phänomenen, durch die das Internet die Perspektive der Nutzer verengt. In Echokammern umgeben sich Menschen überwiegend mit Gleichgesinnten – sei es in Foren, Gruppen oder sozialen Netzwerken – und verstärken dadurch gegenseitig ihre bestehenden Ansichten. Widersprechende Meinungen werden kaum noch gehört, stattdessen hallen die eigenen Überzeugungen ständig als Echo wider (Echokammern und Filterblasen in digitalen Medien). Die Beteiligten gewinnen so den Eindruck, die Mehrheit teile ihre Ansicht, was sie in dieser Überzeugung noch bestärkt. Filterblasen entstehen hingegen vor allem durch algorithmische Personalisierung: Plattformen wie Facebook, YouTube oder Google zeigen bevorzugt Inhalte an, die zum vergangenen Nutzungsverhalten passen – also zu dem, was der Nutzer bereits mag oder womit er interagiert hat. Auf den ersten Blick erhöht dies die Relevanz der angezeigten Beiträge; zugleich kann es aber dazu führen, dass abweichende Standpunkte herausgefiltert werden. Beide Phänomene beschreiben im Kern die Gefahr einer Abschottung: Menschen ziehen sich in abgeschirmte Informationsräume oder “Enklaven” zurück, in denen nur noch Themen und Meinungen vorkommen, die sie selbst bereits vertreten . Anderslautende Informationen dringen kaum vor. Die Verstärkung eigener Sichtweisen durch Algorithmen ist dabei besonders tückisch: Wenn jemand z. B. häufig Inhalte einer bestimmten politischen Richtung liest, wird ihm der Newsfeed noch mehr davon anbieten – ein selbstverstärkender Effekt. Konservative und progressive Nutzer können so völlig unterschiedliche Online-Welten erleben, jeder in seiner eigenen Blase. Die Auswirkungen auf die Wissensvermittlung sind gravierend. Einerseits fühlen sich Nutzer in ihrer Meinung bestätigt und hinterfragen sie immer weniger. Andererseits geht die Vielfalt an Perspektiven verloren. Die öffentliche Kommunikation fragmentiert sich in isolierte Räume, was einen gemeinsamen gesellschaftlichen Diskurs erschwert. Extrem kann dies zu Polarisierung führen: Ein Konsens wird schwieriger, wenn jeder nur noch “seine eigene Wahrheit” konsumiert. Studien diskutieren, inwieweit Filterblasen und Echokammern tatsächlich auftreten und die Meinungsvielfalt reduzieren. Zwar relativieren einige neuere Untersuchungen die schlimmsten Befürchtungen, doch grundsätzlich bleibt das Problem bestehen: Personalisierte Algorithmen und Gruppendynamiken können die Wissensgrundlage verzerren, indem sie manche Informationen überbetonen und andere ausblenden.

Verbreitung von Desinformation und Fake News

Falschinformationen gab es schon immer – doch das Internet multipliziert Reichweite und Tempo ihrer Verbreitung. Heute kann praktisch jeder Inhalte online stellen, ohne Überprüfung durch Redaktionen oder Experten. Fake News – gezielt verbreitete falsche oder irreführende Nachrichten – finden in sozialen Medien ein enormes Publikum, bevor Korrekturen sie überhaupt erreichen. Eine vielbeachtete Studie des Massachusetts Institute of Technology (MIT) hat gezeigt, dass sich falsche Nachrichten auf Twitter deutlich schneller und weiter verbreiten als wahre (Fake-News verbreiten sich 6 Mal schneller als wahre Nachrichten). Demnach benötigt eine wahre Meldung im Durchschnitt sechs Mal so lange wie eine falsche, um 1.500 Personen zu erreichen. Besonders im politischen Bereich war dieser Unterschied laut der Untersuchung extrem ausgeprägt. Der Hauptgrund dafür liegt in der Psychologie der Nutzer: Fake News sind oft sensationeller aufgemacht und spielen mit starken Emotionen wie Angst, Wut oder Überraschung (Fake News vebreiten sich auf Twitter schneller als Fakten). Solche emotionalen Reize erhöhen die Bereitschaft der Leser, die Inhalte zu teilen. „Falschnachrichten zielen oft auf Ärger, Angst und Aufregung ab“, erläutert etwa der Psychologe Christian Montag – das „alte Säugetierhirn“ in uns springe auf Neues und Ungewöhnliches besonders an (Fake News – Universität Ulm). Dadurch verbreiten sich erlogene Geschichten viraler als nüchterne, wahre Informationen. Konkrete Beispiele gibt es viele: Etwa kursierte zu Beginn der COVID-19-Pandemie die Behauptung, das neuartige Coronavirus sei eine Biowaffe – unbelegt, aber millionenfach geteilt. In sozialen Netzwerken führten Gerüchte über angebliche Wundermittel oder Verschwörungen zu realen Schäden – man denke an die hunderten Iraner, die Methanol als falsches „Heilmittel“ tranken, was tödliche Folgen hatte. Die Desinformation im Netz untergräbt die Wissensvermittlung, weil sie falsches Wissen oft erfolgreicher verbreitet als richtiges Wissen. Zudem säen Fake News Zweifel an seriösen Quellen – wenn ständig Unwahrheiten auftauchen, fällt es den Menschen zunehmend schwer, überhaupt noch zu glauben, was sie online lesen.

Auswirkungen von Algorithmen auf Sichtbarkeit und Priorisierung von Inhalten

Hinter den Kulissen entscheiden auf vielen Plattformen Algorithmen, welche Inhalte wir überhaupt zu Gesicht bekommen. Suchmaschinen, soziale Netzwerke und News-Websites priorisieren Beiträge nach komplexen Kriterien wie Relevanz, Popularität oder persönlichem Nutzermuster. Diese algorithmische Kuratierung beeinflusst maßgeblich, welche Informationen breite Aufmerksamkeit erhalten – und welche in der Masse untergehen. Ein Problem dabei ist, dass Algorithmen oft Engagement (Klicks, Likes, Verweildauer) belohnen. Inhalte, die für viele Interaktionen sorgen – zum Beispiel reißerische Schlagzeilen, polarisierende Meinungen oder unterhaltsame Clips – werden prominenter platziert als vielleicht wichtigere, aber unspektakulärere Informationen. Das kann die Wissensvermittlung verzerren, indem ein verzerrtes Bild der Welt gezeichnet wird: Lautes und Auffälliges dominiert, Leises und Komplexes wird an den Rand gedrängt. Eine Studie von AlgorithmWatch zeigte beispielsweise, dass der Instagram-Algorithmus bestimmte Arten von Bildern bevorzugt: Fotos, auf denen viel nackte Haut zu sehen ist, erhalten eine höhere Priorität und erscheinen häufiger oben im Newsfeed (Studie zu Instagram-Algorithmen: Je mehr Haut du zeigst, desto sichtbarer wirst du). Derartige algorithmische Entscheidungen haben Folgen für die Wissensvermittlung. Sie beeinflussen erstens, welche Realität den Nutzern präsentiert wird – im Beispiel sehen Nutzer vermehrt oberflächliche Lifestyle-Inhalte, während andere Beiträge verdrängt werden. Zweitens passen sich die Informationsanbieter an: Um sichtbarer zu sein, orientieren sich viele Creator und Medienmacher an den Algorithmen. So entsteht ein Anreiz, Inhalte so zu gestalten, dass sie vom Algorithmus begünstigt werden – im Instagram-Fall also etwa mehr freizügige Bilder zu posten. Das Ergebnis ist ein Teufelskreis: Die Algorithmus-Vorlieben formen das Informationsangebot, und dieses Angebot bestätigt wiederum die Vorlieben des Algorithmus. Auch bei Nachrichtenthemen können Algorithmen verzerren: Wenn z. B. Facebooks Newsfeed-Algorithmus Beiträge von engen Freunden bevorzugt, sieht man vielleicht mehr Urlaubsfotos, aber weniger internationale Nachrichten. Googles Suchalgorithmus wiederum präsentiert zuerst die populärsten oder SEO-optimiertesten Ergebnisse, die nicht zwingend die fundiertesten sind. In Summe bedeutet dies, dass Algorithmen als unsichtbare Gatekeeper auftreten. Sie entscheiden mit darüber, welches Wissen leicht zugänglich ist und was im Verborgenen bleibt. Damit tragen sie eine große Verantwortung für die Form, in der Wissen vermittelt wird – und können durch ungeeichte Kriterien (etwa Überbewertung von Emotionalität oder Popularität) die Wissensvermittlung verzerren.

Vertrauensprobleme und Qualität der Online-Informationen

Angesichts von Filterblasen, Fake News und algorithmischen Effekten stellt sich vielen Nutzern die Frage: Welche Informationen kann ich überhaupt noch vertrauen? Im Internet mischen sich hochwertige, geprüfte Inhalte mit Gerüchten, Meinungsmache und Irrtümern. Für Laien ist oft schwer erkennbar, was verlässlich ist. Dieses Durcheinander hat zu einer Erosion des Vertrauens geführt. Mehr als die Hälfte der EU-Bürgerinnen und -Bürger zweifelt am Wahrheitsgehalt von Informationen aus dem Netz (Europäer:innen verlangen entschlossenes Vorgehen gegen Desinformationen im Internet), wie eine europaweite Umfrage ergab. Anders ausgedrückt: Die Mehrheit ist unsicher, ob sie den online gefundenen „Fakten” glauben kann. In Deutschland gaben 2022 ebenfalls über 50 % der Befragten an, dem Internet eher nicht zu vertrauen (laut Statista-Daten). Die Gründe dafür liegen auf der Hand. Online-Informationen unterliegen kaum Qualitätskontrollen. Während klassische Medien zumindest redaktionelle Standards und Faktenchecks haben, kann im Netz jeder ohne Prüfung publizieren. Es existieren zahllose qualitativ zweifelhafte Quellen – von Blogs mit Halbwissen über Foren voller Spekulationen bis zu bewusst irreführenden Propaganda-Seiten. Dieser Überfluss erschwert es seriösen Stimmen, durchzudringen. Selbst eigentlich zuverlässige Plattformen wie Wikipedia sind nicht unfehlbar, da Inhalte dort jederzeit von Nutzern geändert werden können. Die Qualität der Online-Informationen ist also sehr heterogen: Hochwertiges Wissen ist zwar verfügbar, aber es steht gleichberechtigt neben minderwertigem oder falschem Inhalt. Für Nutzer bedeutet das, sie brauchen ein hohes Maß an Medienkompetenz, um Informationen einordnen zu können – doch nicht jeder verfügt darüber. Viele Menschen fühlen sich verständlicherweise überfordert und begegnen Online-Informationen mit Skepsis. Vertrauensprobleme zeigen sich auch darin, dass die Glaubwürdigkeit etablierter Medien leidet, wenn im Netz permanent deren Meldungen als „Lügenpresse” diffamiert werden oder Verschwörungstheorien populär sind. Umgekehrt neigen manche Nutzer dazu, nur noch wenigen ausgewählten Quellen (z. B. bestimmten YouTube-Influencern oder Telegram-Kanälen) zu vertrauen und alles andere zu ignorieren, was ebenfalls problematisch ist. Insgesamt ist das Verhältnis der Menschen zu Online-Informationen ambivalent: Das Internet wird als unverzichtbare Wissensressource genutzt, aber auch mit Vorsicht und Zweifel betrachtet. 84 % der Deutschen sehen gezielt verbreitete Falschinformationen im Netz als große Gefahr (Große Mehrheit erkennt in Desinformation eine Gefahr für …), was zeigt, wie sehr Desinformation das Grundvertrauen erschüttert hat. Solche Vertrauensprobleme wirken direkt auf die Wissensvermittlung: Selbst korrekte Informationen erreichen ihr Publikum nicht, wenn dieses ihnen misstraut oder sie für „Fake” hält. Zudem braucht es mehr Aufwand, Nutzer von Fakten zu überzeugen, da die Glaubwürdigkeit erst hergestellt werden muss. Die Herausforderung besteht darin, Qualität und Verlässlichkeit von Online-Wissen zu sichern – sei es durch bessere Regulierung, Fact-Checking-Initiativen oder Bildungsprogramme zur Steigerung der Medienkompetenz. Ohne Vertrauen nützt das beste Wissen wenig, denn Wissensvermittlung kann nur gelingen, wenn Sender und Empfänger an die Authentizität der Information glauben.

Fazit: Das Internet hat den Zugang zu Wissen demokratisiert, bringt aber auch erhebliche Schwierigkeiten mit sich. Hochwertiges Wissen ist teils schwer zugänglich, Informationen treten zerstückelt auf, personalisierte Umgebungen engen den Blickwinkel ein, Desinformation flutet die Kanäle, Algorithmen verzerren die Prioritäten und die Vertrauensbasis erodiert. Diese Aspekte greifen oft ineinander und verstärken sich gegenseitig. Für Lernende und die Gesellschaft insgesamt bedeutet dies, dass die kritische Auseinandersetzung mit Online-Informationen wichtiger denn je ist. Nur mit Bewusstsein für die genannten Probleme – und durch Gegenmaßnahmen wie Offenlegung von Algorithmen, Förderung von Informationskompetenz, Qualitätsjournalismus und Faktenchecks – kann das enorme Wissenspotential des Internets wirklich zum Tragen kommen, ohne die Wissensvermittlung in die Irre zu führen.

Quellen: