Ökonomen betrachten bekanntlich die gehandelte Menge an Gütern und Dienstleistungen als Ergebnis eines Zusammenspiels von Angebot und Nachfrage. Studierende der Wirtschaftswissenschaft werden damit in Kurvendiagramm-Vorlesungen gelangweilt. Problem: In den Modellen arbeitet man mit Interpretationen, die erst im Nachhinein der Öffentlichkeit präsentiert werden. Für Voraussagen sind die Kurvenspielchen völlig ungeeignet. Noch problematischer wird es, wenn man Preiserwartungen in die Rechnungen einbezieht.
Dann gehen die Wirkungen sogar ihren Ursachen voraus. Was in der Realität passiert: „Die Modelle können in nahezu jeder vorhandenen Datenreihe mehr oder weniger passend gemacht werden“, schreibt Tobias Schmidt in einem Beitrag für die Zeitschrift Merkur. Wie belastbar das wissenschaftstheoretisch wirklich ist, überlasse ich jetzt mal der Interpretation. Inwieweit die Preistheorie für das wirtschaftliche Geschehen in aggregierten Ex post-Rechnungen zum Erkenntnisgewinn beiträgt, ist zumindest ein paar kritische Fragen wert. Im digitalen Kontext ist das Zirkelschluss-Gesabbel noch idiotischer.
Wenn der Preis nur eine Nebenrolle spielt
Viktor Mayer-Schönberger und Thomas Ramge erläutern das in ihrem Buch „Das Digital – Markt, Wertschöpfung und Gerechtigkeit im Datenkapitalismus“ am Beispiel des Erfolgs der Firma BlaBlaCar. Bei dieser Plattform spielt nicht der Preis die Hauptrolle, sondern vielfältige Daten. Mitfahrer können die Angebote danach durchsuchen, wie gesprächig der Fahrer ist – daher der Name BlaBlaCar -, welche Musik sie mögen oder ob Haustiere mitfahren dürfen – und somit das für sich perfekt geeignete Angebot auswählen. „Der Preis spiel in dem Modell nur eine untergeordnete Rolle, denn die Fahrer können diesen nur innerhalb einer vorgegebenen Spanne festlegen“, so Mayer-Schönberger und Ramge.
Was sich immer mehr herauskristallisiert ist eine „Matching-Ökonomie“, in der man viel stärker auf die Details und Nuancen von wirtschaftlichen Entscheidungen schauen muss. Damit dieses Matching in der Flut von Informationen überhaupt möglich ist, braucht man Ontologien. Laut Wikipedia dienen sie als Mittel der Strukturierung und zum Datenaustausch, um bereits bestehende Wissensbestände zusammenzufügen, in bestehenden Wissensbeständen zu suchen und diese zu editieren sowie aus Typen von Wissensbeständen neue Instanzen zu generieren.
Soweit die eher technokratische Definition. Meßbar ist jedenfalls, dass die schlechte Ontologie eines Anbieters oder eines Marktplatzes im Zeitverlauf zu einer Verringerung von Transaktionen führt. Der ökonomische Druck zur Entwicklung von Schlagwort-Strategien steigt, betonen die beiden Buchautoren und verweisen auf die Metadaten-Expertin Madi Solomon. Sie komme aus den Salzminen der Datenarbeit und war für die weitgehend manuelle Verschlagwortung beim Walt-Disney-Konzern verantwortlich. „Später wurde sie Direktorin für Datenarchitektur und semantische Plattformen beim Bildungsverlag Pearson.“
Ohne Meta-Daten kein Matching
Für die Zukunft erhofft sie sich ein besseres Zusammenspiel von Algorithmen und Daten-Ontologien. „Startups und große Datenspieler haben das Thema schon für sich entdeckt – und gehen es immer öfter gemeinsam an. Das ehrgeizige Datenprojekt bei eBay etwa hat genau das Ziel, durch bessere Katalogisierung die Auffindbarkeit der Produkte von 42 auf rund 90 Prozent zu steigern.“
Eine wichtige Rolle spielen dabei mehrere auf Metadaten-Management spezialisierte Startups wie Expertmaker, Corrigon und Alation, die eBay erworben hat oder mit denen die Handelsplattform eng zusammenarbeitet. Sie sollen zur automatischen Kategorisierung beitragen. Prognose von Mayer-Schönberger und Ramge: „Je stärker die Märkte sich vom Preisvergleich ab- und dem datenreichen Matching zuwenden, desto intensiver wird das Wettrennen um leistungsfähigere Algorithmen.“
Kreatives Matching mit Zufallsgenerator
Aktiv abwenden können sich Märkte von „Preisen“ natürlich nicht, denn sie existieren nur in der Fantasie der Zirkelschluss-Ökonomen, die eine Volkswirtschaft in aggregierten Zuständen betrachtet – jedenfalls tun das die Makroökonomen. Aber das Matching-Logiken der Katalysator des Netzes sind, dürfte wohl kaum einer bestreiten. Und wie sorgt das Ganze für Überraschungen jenseits von mechanistisch aufgebauten Algorithmen?
Wie das funktionieren kann, belegt der rein manuell gepflegte Zettelkasten des legendären Soziologen Niklas Luhmann. Der Zettelkasten ist eine Kombination von Unordnung und Ordnung, von Klumpenbildung und unvorhersehbarer, im ad hoc Zugriff realisierter Kombination. Das notierte Luhmann auf dem Zettel 9/8. An dieser Stelle verweist das Notiz-Amt auf die Forschungsarbeit von Johannes F.K. Schmidt, der den Nachlass des Bielefelder Soziologen bearbeitet und die Prinzipien des Luhmannschen Überraschungsgenerators der Öffentlichkeit zugänglich macht.
Ein Punkt ist hier aber wichtig. Die Funktion des Schlagwortverzeichnis im Zettelkasten von Luhmann: „Jede Notiz ist nur ein Element, das seine Qualität erst aus dem Netz der Verweisungen und Rückverweisungen im System erhält. Eine Notiz, die an dieses Netz nicht angeschlossen ist, geht im Zettelkasten verloren, wird vom Zettelkasten vergessen“, schreibt Luhmann.
Damit dieses Matching-Gedankenspiel in Gang kommt, braucht man Meta-Daten – also ein Schlagwortverzeichnis. „Will man sich nicht nur auf den Zufall verlassen, so muss man zumindest einen Punkt identifizieren und ansteuern können, an dem man in das entsprechende Verweisungsnetz einsteigen kann“, so Schmidt. Das Strukturprinzip führe dazu, dass der über das Schlagwortverzeichnis gesteuerte Zugriff auf eine begrifflich einschlägige Stelle die Suche gerade nicht auf diesen Begriff limitiert, sondern im Gegenteil aufgrund der spezifischen Einstellpraxis der Zettel und der Verweisungsstruktur der Sammlung ein schon bald nicht mehr überschaubares Netz von Notizen eröffnet. Was Luhmann analog vollbrachte, ist ein Multiple Storage-Prinzip – also eine Mehrfachablage mit völlig überraschenden Matching-Verläufen. Sein Datenbank-System ist überaus kreativ und bewährt sich als Denkwerkzeug.
Das kann man bislang von den Ontologien, die im Netz herumschwirren, nicht sagen. Wer den Luhmann-Algorithmus ins Netz überträgt, wird das Rennen auch gegen Google und Co. gewinnen. Hier wagt das Notiz-Amt mal eine Prognose, die allerdings völlig willkürlich ist.
Image (adapted) „Organisieren“ by myrfa (CC0 Public Domain)
Artikel per E-Mail verschicken
Schlagwörter: Algorithmen, Architektur, Blablcar, Daten, digital, kategorisierung, Meta, Metadaten, Ökonomie, startups