„Big Data“ ist in aller Munde. Auch in der Buchbranche spricht fast jeder Entscheider über „Big Data“ – und selbst wenn kaum jemand genau weiß, was „Big Data“ eigentlich genau ist und wie er die Datenmengen handhaben soll, so tut doch jeder so, als wäre „Big Data“ bereits Teil der eigenen Strategie. Ein fataler Fehler, findet Marcello Vena, ehemaliger Digitalchef des italienischen Verlagskonzerns RCS Libri. Seine Empfehlung: Statt sich mit dem „Buzzword Big Data“ zu brüsten, sollte die Branche sich lieber auf „Smart Data“ verständigen. In einem Beitrag für „Digital Bookworld“ erläutert er seinen Ansatz. Hier die Zusammenfassung.
Marcello Vena gehört zu den Referenten des „2. Trendtag Publishing: Start Up! Business Development, agile Strukturen und Innovationsdynamik“ der Akademie der Deutschen Medien. Sein Vortrag: „Dynamisches Business Development – Wie geht das im Verlag?“ Hier weitere Infos.
Doch es muss nicht immer der große Wurf sein, meint Vena. Dies zeige das Beispiel Messagerie Italiane: Das Unternehmen besitzt Italiens größten Buchgroßhändler, den größten Online-Buchhändler und die drittgrößte Buchverlagsgruppe des Landes mit einem Jahresumsatz von 620 Mio US-Dollar. Um seine Daten zu analysieren, hat der Digitalchef des Unternehmens auf „Big Data“-Technologien zurückgegriffen – obwohl die Datenmengen eigentlich zu klein und strukturiert waren, um als „Big Data“ bezeichnet zu werden. Der Grund: Hätte er die üblichen Technologien eingesetzt, wären Kosten und Zeit um das zehnfache höher gewesen.
Die Branche hat falsche Vorstellungen von „Big Data“
- ein sehr große Menge an unstrukturierten Daten, die von Standard-Datenbanken nicht mehr verarbeitet werden kann,
- eine Datengröße von ca. 1 Exabyte – verbunden mit großen Herausforderungen an den Workflow und an Lagerung, Wartung, Austausch, Transfer, Sicherheit und Verfügbarkeit,
- die fehlende Möglichkeit, die Daten in kleinere Datensätze zu zerlegen.
Diese strenge Definition werde in der Buchbranche selten angewandt, oft würden große, komplexe Datenmengen einfach unter dem Begriff „Big Data“ zusammengefasst, obwohl sie im strengeren Sinne nicht als „Big Data“ definiert werden dürften, so Vena. Die Analyse von komplexen Daten sei zwar wichtig und richtig für die Branche – nur sollte sie nicht unter dem „Hype-Begriff“ „Big Data“ zusammengefasst werden. Vena schlägt vor, stattdessen den Begriff „Smart Data“ zu verwenden.
Dieses neue Verständnis ermögliche es auch kleineren Unternehmen, größeren Nutzen aus Daten zu ziehen und über Verkaufszahlen, Wachstumsraten und Durchschnittspreise hinauszudenken. Denn die Analyse von „Smart Data“ sei innerhalb der Verlagswelt viel breiter anwendbar als (streng definierte) „Big Data“-Analysen es je sein könnten. Und auch wenn „Big Data“ nur für wirklich große Player relevant sein werde, so könnten die „Big Data“-Technologien auch kleineren Unternehmen von Nutzen sein. Dies habe Messagerie Italiane bewiesen.
Zur Person:
Big Data gibt es schon immer. Bis heute rühmt sich die Deutsche Post damit, eine der größten und verlässlichsten Adressdatenbanken Deutschlands zu haben. Immerhin mit mehr als 31 Mio. Haushaltsdaten. Ist das nun Big Data oder Big Brother? Oder einfach nur Direktmarketing? Ich sage nur: Vertraue nie Deinem Briefträger. Vielleicht bringt er heute keine Post, sondern sammelt gerade Informationen.
Ich habe mehrere Jahre für einen amerikanischen Multi im Support Bereich für Big Data (Börsennotierte Multis) gearbeitet. Die Kaffeesatzleserei von Big Data dient in erster Linie dazu, Entscheidungen im Consumer-Bereich, die man mit dem Bauch längst nicht mehr begründen kann (soll die Packungsgröße jetzt 10,5x20x20 oder 10,0x20x20 sein? Ja auch dafür gibt es Zahlen) statistisch abzusichern und Horden von Beratern und Produktmanagern eine Daseinsberechtigung zu geben.
Und hier gilt erst recht: Wer die Frage an sein DBMS schon falsch stellt, bekommt nichts brauchbares heraus.
Bid Data – es ist doch immer wieder erstaunlich, wie viele Unternehmen diverser Branchen sich sofort auf diese Sau stürzen, die gerade frisch durchs Dorf getrieben wird! Und dann hoffen, dass dies nun endlich ihre Probleme sinkender Umsätze löst. Dass da ein riesiger teurer und aufwendiger IT-Apparat dranhängt, um die Daten überhaupt verwenden zu können, scheint manche Firmen zu erstaunen. „Wer Daten lange genug foltert, bekommt das gewünschte Geständnis“, diese Aussage von Andreas Tögel bringt es schön auf den Punkt: Je nachdem, wie man die Datenselektion anlegt, kann man alles und nichts aus den Daten herauslesen. Alle Daten sind rein vergangenheitsorientiert: Sie sagen nichts über die Gegenwart oder die zukünftigen Bedürfnisse von Kunden aus und lassen daher auch keine sinnvollen Rückschlüsse auf sinnvolles zukünftiges Unternehmensverhalten, Produkte usw. zu.
Es gibt andere, einfachere und preiswertere Wege, um die Bedürfnisse seiner Kunden kennenzulernen und die Buchproduktion darauf abzustimmen. Doch die Unsicheren lassen sich gerne von teuren Agenturen, die jetzt auf den Big-Data-Zug aufgesprungen sind, „beraten“.
Sie haben Recht, Daten sind in dem Moment, in dem sie entstehen, schon wieder alt. Aber die Kunst ist, in den vielen unzähligen Momentaufnahmen die richtigen Muster zu erkennen und daraus Prognosen abzuleiten. Meiner Meinung nach ist es der Mix aus Kundengesprächen und der Analyse historischer Daten, der zum Erfolg führt. Man muss – egal in welcher Branche – immer im Gespräch bleiben. Ihren Verweis auf den teuren IT-Apparat halte ich für sehr wichtig. Hier muss angesetzt werden, um Prozesse und Systeme schlanker und flexibler zu machen.