Im Zuge meiner Abschlussprüfungen an der LMU München habe ich mich intensiver mit der Entwicklung der Massenmedien seit dem Ende des 19. Jahrhunderts befasst. Als Historiker und Philosoph haben mich die Medien und Mediengeschichte schon immer besonders intessiert, wobei diese Themen nur schwer genauer abzugrenzen sind und einheitliche Theorien weder innerhalb der verschiedenen wissenschaftlichen Disziplinen noch auf einer Meta-Ebene existieren.
Fakt ist, dass wir in einer noch nie dagewesenen Mediengesellschaft leben, d.h. von, in und durch (Massen-)Medien leben. Die sogenannte postindustrielle Gesellschaft ist eine Informationsgesellschaft, in der es immer schwieriger wird, relevante Informationen von eher unwichtigen zu unterscheiden. Das sorgt mit Sicherheit auch für eine steigende Orientierungslosigkeit, da es generell ein Überangebot an Information gibt und zuverlässige Instanzen wie etwa eine „Stiftung Medientest“ fehlen.
Eine solche Stiftung ist zwar schon seit einigen Jahren angedacht worden (siehe u.a. auf bpb.de), doch es dürfte sehr schwierig sein, eine solche Institution ähnlich einem Presserat im Journalismus zu etablieren – besonders, wenn eine „Stiftung Medientest“ nicht nur das Fernsehprogramm beleuchten, sondern vor allem auch eine Bewertung von Inhalten im Internet vornehmen soll.
Wie relevant sind Ergebnisse in Suchmaschinen?
Als Online Marketer befasse ich mich schon seit bald fünf Jahren mit einschlägigen Themen, vor allem der Suchmaschinenoptimierung (SEO). Hier geht es darum, Inhalte durch verschiedene Maßnahmen in Suchmaschinen besser auffindbar zu machen. Eine Ethik bzw. sogar eine „Philosophie der Suchmaschinenoptimierung“ ist faktisch ebenfalls nicht vorhanden – überhaupt ist das Internet in diesem Zusammenhang auch heute noch nicht vor der „Flut von inhaltlosem Wortlärm“ (siehe Claus Eurich: „Mythos Multimedia. Über die Macht der neuen Technik, München 1998, S. 171) gefeit.
Kritisch ist, dass Internetuser den topplatzierten Suchergebnissen intuitiv eine höhere Relevanz oder gar Wahrhaftigkeit zuordnen, was jedoch hinterfragt werden muss – vor allem dann, wenn man über die technischen Hintergründe zu diesen „Rankings“ Bescheid weiß. Nehmen wir das Beispiel Google: vordergründig gibt dieses milliardenschwere Unternehmen an, möglichst relevante Webseiten als Antwort auf bestimmte Suchanfragen aufzulisten, um dem Suchmaschinennutzer die „besten Suchergebnisse“ zu liefern.
Doch was genau bedeutet dies? Google ist ein US-Unternehmen, das vor allem auch an steigenden Umsätzen interessiert ist, weshalb eine „neutrale“ Bewertung von Webinhalten wie sie etwa eine „Stiftung Medientest“ (in Bezug auf das Internet) vornehmen könnte durch Google schlichtweg unmöglich ist. Durch geschickte Lobbyarbeit versucht der Suchmaschinengigant auch netzpolitisch auf die öffentliche Meinung Einfluss zu nehmen und sich als eine Art „Freitheitskämpfer im Netz“ darzustellen, was durchaus Wirkung zeigt.
Ein Ansatz zur „Qualitätssicherung“ von Wissen im Internet war in THESEUS zu sehen: hierbei handelte es sich um ein Forschungsprogramm des Bundesministeriums für Wirtschaft und Technologie „zur Entwicklung und Erprobung neuer internetbasierter Wissensinfrastrukturen, um das Wissen im Internet besser zu nutzen und zu verwerten“. Doch einen nachhaltigen Einfluss auf die Medien- bzw. Internetnutzung durch den Durchschnittsbürger hatte das meiner Meinung nach nicht, und genau darum geht es eigentlich.
Was könnte eine Stiftung Medientest leisten?
– Denkbar wäre z.B., dass Webseiten nach bestimmten Kriterien beurteilt würden, um ihre Qualität vor allem in Bezug auf die Zuverlässigkeit von angebotenen Informationen einzustufen. Dies ist sicherlich mit viel Arbeit verbunden und kann nicht kostenfrei erfolgen – es sei denn, es würde von staatlicher Seite her ein millionenschweres Budget zur Verfügung gestellt. Es geht hier um keine Form von Zensur, sondern vielleicht eine Art „Gütesiegel“, das zusätzlich erworben werden kann – ähnlich einem Bio-Siegel.
– Diese Kriterien müssten auf textlicher Ebene „Relevanz“ bewerten, indem zum Beispiel zitierte Quellen überprüft würden, der logische Gehalt, aber auch grammatikalische und orthograpische Richtigkeit.
– Auch auf meta-textueller Ebene müsste überprüft werden, welche anderen Websites und Webseiten verlinkt werden: in Zeiten, da immer noch die Verlinkung eine maßgebliche Rolle für das Ranking in Suchmaschinen spielt (und der Linkhandel eine immer wichtigere Rolle im Online Marketing einnimmt), liegt hierin ein durchaus wichtiger Aspekt, um die Güte und auch Zuverlässigkeit einzuschätzen.
– Ein Blick auf die Links, welche auf die zu bewertende Website führen (die sogenannten Backlinks) würde darüberhinaus ebenfalls Aufschluss darüber geben, wie das jeweilige Webangebot von anderen Internetnutzern und wichtigen Instanzen wahrgenommen bzw. bewertet wird.
Die Qualifikationen einer solchen Stiftung Medientest für das Internet müssten sehr vielseitig sein: neben dem nötigen Fachwissen in verschiedensten Bereichen wären vor allem auch Kenntnisse in Bezug auf die Funktionsweise von Suchmaschinen, Internet Marketing und Social Media notwendig genauso wie Kompetenzen hinsichtlich Textanalyse und wissenschaftlichem Arbeiten und Medien im Allgemeinen.
Selbstregulierung durch das Internet bzw. der User?
Die Meinung, dass sich das Internet selbst reguliert und Internetnutzer gute bzw. gehaltvolle Inhalte etwa durch ihr Nutzerverhalten „von alleine“ finden oder das Informationsangebot dahingehend filtern, dass sich letztlich wirklich Relevantes durchsetzt, kann nur bedingt gelten. Denn auch Nutzerbewertungen und -kommentare können manipuliert werden, und eine „Massenmeinung“ muss noch lange nicht mit Qualität korrelieren.
Das Phänomen der Selbstreflexivität der Medien ist seit dem Siegeszug des Internet noch weiter verstärkt worden: (Falsch-)Meldungen finden Verbreitung, indem sie von teilweise sehr renommierten Medienvertretern aufgegriffen und ungefiltert weiter verbreitet werden, da eine Überprüfung von Fakten aus Zeitgründen schwierig ist und man zudem nicht ins „mediale Hintertreffen“ geraten will, da Blogger, Tweeter und die sonstige Konkurrenz den wertvollen Web-Traffic vor einem abgreift.
Und doch gibt es wichtige Projekte, die auf dem „Wissen der Masse“ basieren und eine sogenannte „Wissenssicherung“ betreiben – das prominenteste Beispiel ist die Wikipedia. Dieses Online-Lexikon könnte für eine Stiftung Medientest (Internet) eine solide Basis darstellen, insbesondere auch die externen Verweise. Denkbar wäre gar, eine solche Stiftung nicht staatlich zu organisieren, sondern als Sondergremium von Wikipedia selbst; denn etablierte Autoren auf Wikipedia dürften weitgehend über oben genannte Qualifikationen verfügen und wären geeignet, Websites zuverlässig auf Qualität und Wahrheitsgehalt hin zu überprüfen.
Sicherlich sind viele Ansätze, die in diesem Beitrag vorgestellt wurden, auch mit einem gewissen Idealismus verbunden; doch es kann nicht schaden bei diesem immensen Medien-Grundrauschen auch einmal Filter anzulegen, um mehr Wesentliches zu fördern – vor allem in Bezug auf das World Wide Web.
Denn dieses hat unser Leben jetzt schon stark verändert und revolutioniert, und künftige Generationen werden in noch viel stärkerem Maße von diesem Medium und gehaltvollen Informationsangeboten abhängig sein. Wir stehen erst am Anfang dieser Internetrevolution, und es ist noch sehr viel Lernbedarf im Umgang mit dem neuen Medium vorhanden. Eine Stiftung Medientest könnte in Bezug auf das Internet auf jeden Fall eine Hilfestellung sein, um sich fernab mächtiger Medienkonzerne und kommerzieller Meinungsmacher in der Online-Welt besser zurecht zu finden.
[ratings]
Wir basteln da gerade an einem Projekt, dass hierzu gut passen koennte. Wir sind da an konstruktiver Kritik interessiert: http://medienranking.jimdo.com/