Auf der TED Longbeach im Februar 2011 hat Eli Pariser für Furore gesorgt: Vor versammelter Webprominenz forderte er Sergey Bring und Larry Page von Google auf, die Algorithmen der Ergebnispräsentation ihrer Websuche kontrollierbar zu gestalten. Denn er hatte festgestellt, dass die Personalisierung der Suchergebnisse anhand früherer Klicks zu einer einengenden Weberfahrung führen soll. Denn Webfirmen wie Google und Facebook beobachten sehr genau welche Links man klickt und welche man links liegen liegen lässt. Anhand des eigenen Verhaltens auf diesen Websites ordnen Google und Facebook die Inhalte zukünftig genauso wie es aus Sicht der erkannten Präferenzen für uns am wahrscheinlichsten ist, dass uns Inhalte interessieren könnten.
Ein ähnliches Verfahren kennen wir von den Einschaltquoten. Auch dort wird das tatsächliche Sehverhalten der TV-Zuschauer gemessen und dann werden sogenannte Programmschienen etabliert, die die Bedürfnisse der Zuschauer besonders gut erfüllen sollen. Das Ziel ist natürlich ein hohes Ranking bei den Einschaltquoten, zum einen um mehr Werbung zu verkaufen und zum anderen, um den Verantwortlichen Argumente an die Hand zu geben, von Erfolg oder gutem Journalismus zu sprechen. Die Printwelt der Zeitungen und Zeitschriften kennt Ähnliches aus dem Umfeld er Copytests. Im allerdings geschieht all dies ständig und in Echtzeit, sodass eine Änderung des eigenen Klickverhalten auch Auswirkungen auf die zukünftige Präsentation der Inhalte bei Google und Konsorten hat…
Eli Pariser nun bastelt aus diesem Umstand eine Diskussion um Relevanz. Anders als das unterkomplexe Gefasel um Algorithmen wie wir es von Fritze Schirrmacher oder Mercedes Bunz erlebt haben, steigt Pariser sofort in den Ring: Er beschreibt die „Filter Buble“ als ein Informationsuniversum, dass uns das personalisierte Web präsentiert. Anders als Clay Shirkys hohes Lied auf das Filtern der Informationsflut im Web, hebt Pariser damit direkt auf die Idee ab, dass die Entwickler der Personalisierung anhand von mehr als 50 Parametern wie Monitorgröße, Browsertyp, Ort, bisher besuchten Websites und vielem mehr eine Vorstellung von Relevanz in Software gießen, die uns nicht gut tut, weil sie ständig unsere Erwartungen erfüllt und uns nicht mit herausfordernden und neuartigen Ideen in Kontakt bringt. Das Web wird mithilfe der Personalisierung daher aus seiner Sicht zu einem Haufen von Informationen, die sich dauernd selbst bestätigen. Content-Aggregatoren, Suchmaschinen und Soziale Netzwerke verhelfen uns also zu einem autistischen Surferlebnis im weltweiten Netz mit unsichtbaren Grenzen, den eigenen Vorurteilen und Vorlieben. Zum Glück hat auch Eli Pariser erkannt, dass es Ausnahmen gibt, zum Beispiel Wikipedia.
Auch der zweite Teil seiner Idee ist interessant, denn er vergleicht Journalisten, die früher für uns die Inhalte sortiert und angepasst hatten, mit den Algorithmen der Personalisierung. Er bewertet die Journalisten als die bessere Lösung der Filterung, da nur sie eine ethische Bewertung vornähmen. Dass diese ihrerseits durch weltanschauliche Vorgaben der Herausgeber gebunden sind bzw. durch vorauseilenden oder nachgeschaltetem Gehorsam gegenüber Anzeigenkunden, ist bei ihm noch nicht angekommen. Aber eines müssen wir dieser Diskussion entnehmen: In Zukunft kann nur ein Mix aus beiden Welten eine sinnvolle Strategie sein, um Menschen und Inhalte sinnvoll zusammen zu bringen.
Insofern verwundert es auch nicht, wenn in diesem Kontext der Begriff „curation“ auftaucht. Denn genauso wie ein Kurator die Kunstwerke einer Ausstellung unter einem Thema zusammenfasst und den einleitenden Katalogtext schreibt, um seine Wahl zu erklären, könnten auch Magazine und Zeitungen Dossiers erstellen mit Fremdtexten und in der Einführung transparent die Auswahl erklären. Leider erfüllt in Deutschland aktuell keines der großen Qualitätsmedien den humanistischen Auftrag der Objektivität durch Transparenz. Denn weder die FAZ-Stiftung noch die Eigentümer der BILD-Zeitung oder der ZEIT erklären, die Grundlagen auf denen sie offensichtlichen Tendenzen ihre weltanschaulich-volksdidaktischen Tätigkeit als Inhalteverbreiter darlegen. Jeder weiß, dass sie die Produkte ihrer subalternen Schreiberlinge nur dann veröffentlichen, wenn sie Bestimmtes subtil bejubeln und dafür Anderes grandios abstürzen lassen. Die Einflussnahme auf politischer Ebene ist immens. Wenn man bedenkt, dass größte Teil der im Web veröffentlichten Inhalte mit weit über 80% aus Agenturmeldungen besteht, und die Verleger es geschafft haben auf dem Boden dieser Tatsache eine Leistungsschutzrechtdebatte zu etablieren, die die Rechte der Autoren und Verlage im Web sichern soll, dann wird offenbar, warum die Relevanzdebatte nicht nur eine technische Komponente hat, sondern warum Relevanz immer dann in das Reich des Web verschoben wird, wenn die Relevanz für die Lebenswelt echte geldwerte Vorteil bereit hält. Pariser scheint so intensiv auf Google abzuheben, dass man den Eindruck gewinnen kann, auch er schreibt im Rahmen einer Agenda, die Verleger vorgegeben haben. Denn bei allem wissenschaftlichen Anstrich, den er sich gibt (wir hatten diese pseudowissenschaftliche Aneinanderreihung von „harten Fakten“ schon bei Schirrmacher erlebt) versagt beim völlig die Klärung des eigentlichen Untersuchungsgegenstandes. Ein kardinaler Fehler für jemanden, der sich wissenschaftlicher Methoden zu bedienen scheint (auch hier wieder eine Parallele zu Schirrmacher).
Alfred Schütz hat ein sinnvolle Aufteilung der drei Aspekte der Relevanz geliefert:
Die thematische Relevanz ist der Ausschnitt der Welt, dem ich mich zuwende. Auf diese Weise macht der Mensch sich etwas aus der Wirklichkeit zu eigen. Er entwertet auf diese Weise den Rest zum Hintergrund. Dies ist eine Leistung der aktiven Differenzierung, des Hervorhebens. Esoterische Lehren bezeichnen dies als Achtsamkeit und Hinwendung.
Die Interpretationsrelevanz ist das aktive Heraussuchen einer Schablone (einer Typisierung) aus meinen Erfahrungen und dem Wissenshintergrund, der sich in meinem Leben gebildet hat. Auf diese Weise kann ich herausfiltern, was vertraut und was fremd ist.
Der dritte Aspekt ist der Bereich einer motivationalen Relevanzstruktur. Hier geht es um die Zukunft. Der Mensch entwirft eine Um-Zu-Struktur, die er einen Plan nennt. Damit kann der Mensch seine Selbstbeobachtung mit einer Art Handlungsrahmen zu seiner Perspektive machen. Er tritt aus sich heraus und legt vor sich selbst Rechenschaft ab, dies ist der Teil der Relevanzstruktur, der – aus meiner Sicht – am weitesten vom Selbst entfernt ist. Er findet in einer objektivierenden Sprache statt. Dieser Teil ist es auch, der in vielen psychopathologischen Theorien und Methoden als innere Stimmen oder ähnliches bezeichnet wird und bei den unzähligen Motivationstrainern für sprudelnde Einnahmen sorgt. Denn die Legende geht, dass man dann vorwärts kommt, wenn man seine Motivation aktiv beeinflussen kann. Quelle
Wer das Werk von Alfred Schütz liest, dem wird offenbar, dass wir Menschen ständig in unserem Umfeld dazu neigen andere als Repräsentation bestimmter Typen wahrzunehmen, die wir durch unsere Erfahrungen bilden. Wittgenstein oder Polanyi sprechen in diesem Umfeld vom Hintergrund des Wissens oder dem impliziten Wissen, das uns nicht bewußt zugänglich ist, da es eben durch seine Filterfunktion die aktuellen Gegebenheiten in Hintergrund und Vordergrund trennt. Das was wir schon irgendwie kennen, suchen wir nach Differenzen ab. Das, was wir überhaupt nicht einordnen können, fällt durchs Raster.
Was Eli Pariser also am Personalisierten Web kritisiert passiert exakt genauso in uns. Wir sind uns unserer Filter gar nicht bewußt, denn sie sind Ergebnis der jeweils individuellen Geschichte. Genau diesen Vorgang bilden die Algorithmen ab. Es wäre schlau, wenn wir endlich anfangen würden, und Wissen, Erfahrungen und Fakten als das einzuordnen, was sie tatsächlich sind: Es sind Gestelle und Geländer auf freiem Feld. Sie verstellen uns den Zugang zur Welt. Das ist im Web so und im realen Leben. Wenn Pariser fordert, dass wir die Algorithmen bei Google selbst beeinflussen sollen, in dem wir Parameter zum Anklicken bekommen, die unsere Suchergebnisse verändern, dann sollte er eines klar vorraussetzen: Dies klappt nur, wenn Demokraten einen aufmerksamen Umgang mit den Argumenten von Monarchisten und Anarchisten pflegen, wenn Konservative die Argumente von Liberalen oder Sozialisten achten, wenn Reiche die Probleme der Armen ernst nehmen und umgekehrt. Pariser fordert damit einen Respekt vor dem Fremden ein, den wir bewundern können.
In Wirklichkeit bedient er sich aber eines Tricks: Er verwendet eine sogenannte Intuitionspumpe: Mit der Beschreibung der Bevormundung des mündigen Webnutzers bedient er sich einer weit verbreitete Ansicht der Leute über Google und Facebook, um eine Nachricht einzupflanzen, die so nicht real ist: Wir haben prinzipiell einen neutralen Zugang zu Informationen. Diese Prämisse ist falsch. Denn wir können auch ohne böses Google und auch ohne tendenziöse Verleger keine Information neutral oder objektiv erfassen, da wir alles immer vor dem Hintergrund eigener Erfahrungen filtern.
Und so verwundert seine Quintessenz auch nicht: Gute Redakteure und Journalisten können uns mit Inhalten füttern, die wir so nicht erwartet haben. Und aktive gewendet rät er uns, ständig unsere Gewohnheitn zu ändern, damit wir im Netz alles vorgesetzt bekommen, was angeboten wird – auch und gerade Unerwünschtes, Herausforderndes und Revoltionäres aus Sicht unseres Selbstverständnisses.
Aber ist dieses Fazit nicht im eigentlichen Sinn extrem banal? Wir sind Sklaven unserer Gewohnheiten – und das ist im Netz nicht anders.
Artikel per E-Mail verschicken
Schlagwörter: Algorithmen, blase, bubble, Eli, filter, Netztheorie, Pariser
2 comments
Ich hatte mir den Vortrag auf ted.com auch angesehen, mit großem Interesse, und mich entsprechend über diesen Artikel gefreut. Gestolpert bin ich über eine Formulierung, die ich so nicht unterschreiben würde:
„Was Eli Pariser also am Personalisierten Web kritisiert passiert exakt genauso in uns. Wir sind uns unserer Filter gar nicht bewußt, denn sie sind Ergebnis der jeweils individuellen Geschichte.“
Hmmm… Soweit ich mich erinnere waren die inneren Filter – die wir zweifelsohne haben und permanent anwenden – überhaupt nicht Thema im Vortrag. Könnte man auch so formulieren: er hat sie gar nicht in Abrede gestellt.
Der Aufhänger war allerdings doch seine Beobachtung, dass im Facebook systematisch immer häufiger die Meldungen seiner konservativen Freunde nicht einblendete, sondern nur noch die der liberalen. Heißt für mich: Trotz seiner Entscheidung, auch kontrovers zu seinen Überzeugungen stehende Meinungen in seinen Informationsfluss zu integrieren, filterte FB diese raus.
Zentrale These des Vortrags demnach für mich: FB, Google und andere filtern unsere Informationen nicht nur mehr als es uns gut tut. Sie filtern sie auch a) mehr als wir es wollen und b) ohne dass es uns bewusst ist.
Hi Ludwig,
jaja, das hast Du schon richtig gesehen. Das hat er explizit nicht gesagt und vllt. auch nicht mal gemeint. Ich wollte das nur angesichts der Bewußtmachung der Filterfunktion von Google und Facebook in den Ring werfen, dass auch wir nicht selten Sklaven „unbekannter“ Mächte sind. In diesem Fall unserer Erfahrung. Bei repetitiven Tätigkeiten wie dem Handwerk ist Erfahrung toll, bei vielen anderen Aufgaben und Problemen kann Erfahrung als Wahrnehmungsfilter sehr hinderlich sein.
Pariser hat nur unausgesprochen vorausgesetzt, dass wir einen neutralen Zugang hätten, würden die Anbieter nicht personalisieren, also implizit darauf hingewiesen, dass Personalisierung uns bevormundet. Diese Bevormundung findet aber vor allem noch unbewußter in uns statt, wer Metasuchmaschinen wie metager.de nutzt kann das Problem der Personalisierung leicht umgehen…