„Big Data“ waren nicht nur auf der diesjährigen Cebit Dreh- und Angelpunkt der Computerbranche. Auch bei Verlagen und Buchhandlungen steht das Einsammeln von Kundendaten derzeit ganz oben auf der Agenda, sei es in Form von Kundenkarten (Thalia) oder Communities (Random House, Mondadori). Doch die große Daten-Kollekte ist nur der erste Schritt.
Es hat sich inzwischen in der Wirtschaft eine große Industrie mit markigen Marketing-Versprechungen rund um das Thema „Big Data“ angesiedelt – und die Perspektiven, durch die systematische Auswertung von Kundendaten bessere Programme, Vertriebsstrategien, Marketing-Kampagnen oder auch Ladenkonzepte zu machen, sind tatsächlich attraktiv. Vom Einsammeln bis zum strategischen Neukonfektionieren ist allerdings ein weiter Weg, auf dem es darauf ankommt, aus der Masse an Daten die relevanten herauszufiltern, aus Big Data so genannte Smart Data zu generieren, mit denen Verlage und Buchhandlungen auch produktiv weiterarbeiten können.
Entscheidend dafür sind zumindest zwei Aspekte: Die Unternehmen müssen sich entsprechende Expertise aufbauen, bei den größten Firmen mag diese in der Person eines Chief Data Officers gebündelt werden, in kleineren am besten dezentral in den einzelnen Abteilungen (besonders Vertrieb, Marketing). Hinzu kommt die Entwicklung entsprechender Analyse-Werkzeuge, die auch für kleinere Verlage und Buchhandlungen erschwinglich sind. Eine Aufgabe für Spezialisten, vielleicht aber auch für die Universalisten des Zwischenbuchhandels.
Wenn ich es richtig einschätze, geht es für die meisten Verlage im Moment eher darum, aus „No Data“ „ein paar Data“ zu machen, wenn es um Kundenadressen geht.
Für Big Data wird es in den meisten Fällen wohl nicht reichen.
Anders sieht es aus, wenn man Big Data unter Content-Gesichtspunkten angeht. Hier kommt ja im einen oder anderen Falle schon einiges zusammen, und es ist erstaunlich, dass die Verlage hier noch nicht avancierter sind – Stichwort Semantic Web.
Um über das Einsammeln von Kundenadressen an relevante Marketinginformationen zu kommen, die man dann auch verwerten kann, muss man als Verlag sehr schnell sehr viele Daten einsammeln. Ansonsten läuft man Gefahr, zwar irgendwann eine umfangreiche Kundendatei eingesammelt zu haben, aus der man bei den üblichen Schwenks der Programm-Planung aber vielleicht nicht genug machen kann. Was wird aus der Shades-of-Grey-Community, wenn man keine S/M-Literatur mehr pflegt?
Ehe also die Verlage die Kunden suchen gehen, sollten sie sich von diesen finden lassen. Dafür bietet der vorhandene Content im Prinzip hervorragende Ausgangsbedingungen – man muß nur wissen, was man daraus machen kann.
Das wäre auch ein gutes Thema für ein Webinar!
Was gibt es bereits für Werkzeuge? Welche Dienstleister für Verlage bieten was an? Wie kann man einen Workflow einbinden. Wie sollte der aussehen. Ich glaube hier befinden wir uns alle noch ganz am Anfang.
In vielen Fällen wird es erst einmal darum gehen, im großen Daten-Wald jene einzelnen Bäume zu identifizieren, um die es zB im Verlag konkret geht, und dazu sehr konkrete Fragen als erste Ausgangspunkte zu identifizieren: Wessen Daten will ich tatsächlich sammeln, und mir dann auch ansehen (!), um damit was genau zu erreichen?
Das ist die Voraussetzung, um einen integrierten Workflow entstehen zu lassen: Die richtigen Daten (also an den richtigen Schnittstellen zu sammeln, diese mit den richtigen Zielen zu verknüpfen, und dafür die geeigneten Werkzeuge auszuwählen.
Was mich am Oberbegriff „Big Data“ immer irritiert ist, dass damit der Beginn der Fragen und Handlungen (und Investitionen) am falschen Ende einsetzt: Nicht bei den Zielen, und bei den Kunden (die ich über die Daten genauer kennen lernen will), sondern bei der Datenmaschine, die letztlich nur Mittel zum Zweck sein kann.
Ich meine, das Thema Daten ist gewiss von zentraler Bedeutung für wichtige Prozesse. Allerdings ist es wenig geeignet als Stichwort, wenn es den eigentlich wichtigen Prozess verstellt – die Kommunikation mit den Kunden, und die Ziele, die ich damit besser und genauer erreichen will.