Brauchen wir es? Big Data in der Druck- und Medienbranche, Teil 1

22. September 2014, 11:30 Uhr | Hintergrund, Technik

Big Data hat nicht den besten Ruf. Datenschützer sind regelmäßig alarmiert, Bürger fühlen sich ausgespäht. Big Brother scheint nahe. Doch ein Fakt verdeutlicht, dass Big Data ganz einfach notwendig ist: Die verfügbaren Daten über Personen, Dinge und Prozesse steigen immer weiter an. Und das in einem unglaublichen Tempo. 90 Prozent der digital verfügbaren Daten sind nicht älter als zwei Jahre. Unternehmen, die aus diesen Daten wie aus einer Erzmine das Wesentliche schöpfen und extrahieren können, erzielen einen wirtschaftlichen Vorteil. Da ist die Druck- und Medienindustrie nicht ausgenommen.

Datenvisualisierung des Oak Ridge National Laboratory (cc)

Datenvisualisierung des Oak Ridge National Laboratory (cc)

Es gibt Schätzungen, dass die erfassten Daten über eine Person bald täglich mehrere Dutzend Bücher füllen würden. Sensordaten, Interaktionsdaten und Transaktionsdaten betreffen auch das Nicht-Personelle, den Kern dessen, wofür der Begriff „Industrie 4.0“ steht. Für Unternehmen gilt es, aus der Masse von in der Regel nicht verknüpften Daten (plus der bereits strukturierten Daten) das für sie Hilfreiche herauszufischen und in Beziehung zu setzen. Selbst wenn es dabei nur um bestehende Kundenbeziehungen oder die eigenen Fertigungsprozesse geht, wird Big Data angesichts der steigenden Datenmassen relevant. Früher oder später – und teilweise schon heute – ist dies auch für kleine und mittelgroße Unternehmen der Druckbranche von Bedeutung.

Allgemein sind die Ziele von Big Data und den daraus erzielten Analysen und Umsetzungen eine Kostenreduzierung und eine Umsatzsteigerung. Die Unternehmen stehen dabei vor Herausforderungen, die ursprünglich von einem amerikanischen Manager der Energiesparte mit mehreren V-Begriffen beschrieben wurden:

  • Volume: Immer mehr Daten fallen an. Konkret geht es darum, wieviel Daten (Terabytes, Petabytes,…) ein Unternehmen sammeln muss/kann/soll.
  • Velocity: In welcher Geschwindigkeit können die geschöpften Daten verarbeitet werden? Echtzeitverarbeitung von Informationen zur personalisierten Ansprache von Lesern ist bereits Realität bei Zeitungshäusern.
  • Variety: Die Daten sind deshalb so „unorganisiert“, weil sie aus verschiedenen Quellen stammen. Um nur einige zu nennen, dies können beispielsweise Daten aus Social Media, Sensoren, Monitoring, digitale Kommunikation, Videos, Customer Relationship, Enterprise Resource Planning, etc. sein.
  • Visualization: Wie werden die Daten analysiert, dargestellt und dem Unternehmen so zur Verfügung gestellt, dass Abteilungs-Silos durchbrochen werden?
  • Value: Wie lassen sich Mehrwerte und Chancen durch intelligente Analyse der Daten erzielen?

Für die meisten Betriebe im Druck-Business lässt sich festhalten, dass sie mit eigenen Mitteln bei den Punkten Volume und Velocity nicht mitspielen können. Internet-basierende Infrastrukturen und externe Dienstleister – Stichwort Cloud Computing – werden hier eine große Rolle spielen.

Alle großen Verlagshäuser setzen Big Data Lösungen ein, dies aber vornehmlich im Online-Bereich. So ist im Bereich Paid Content, Single-Sign-On und Targeting der Big-Data-Lösungsanbieter Celera One eine feste Größe im deutschsprachigen Verlagsgeschäft für Zeitungen und Zeitschriften geworden. Unter anderem setzen die Schweizer Mediengruppe Tamedia und der Axel Springer Verlag Celera One ein. Auch personalisierte Online-Angebote werden hier in Echtzeit ausgespielt.

Zipperkopf_Skeptisch
Big Data könnte das Print-Geschäft der Zeitungsverleger stabilisieren, Vorreiter sind aber das Online- und das E-Book-Business.
– Bernd Zipper

Während viele im Verlagsbereich nur auf Online sehen, könnte Big Data helfen, das Print-Geschäft der Zeitungsverleger zu stabilisieren. Dieses Jahr schuf beispielsweise die New York Times den Posten eines Chief Data Scientist. Der arbeitet nun mit seinem Team an prädiktiven (voraussehenden) Analysen der Leserdaten für das Abonnementgeschäft. Längst wird auch durch Datenintegration versucht vorherzusagen, welche Inhalte bei den Lesern besser ankommen.

Bei den Buchverlagen spielt das Ebook-Geschäft den Vorreiter bei der Implementation von Big-Data-Anwendungen. Die Sozialen Netzwerke sind dafür prototypische Datenminen. Aus der Masse der Interaktionsdaten lassen sich handfeste Trends und Handlungsoptionen für die Buchverlage schöpfen. So können Verlage Korrelationen aus dem tatsächlichen Interesse der potentiellen Leserschaft und den Inhalten ihrer Publikationen bilden. Damit lässt sich eine methodische Herangehensweise und Datenanalyse dem bei den Verlegern vorhandenen intuitiven Handeln vorziehen, wie es Sebastian Posth ausdrückte. Dieser ehemalige Arvato-Manager zieht mit seiner Publishing Data Networks GmbH gerade eine Lösung namens Monitor auf, die Verlagen das analytische Erfassen von Lesertrends bei Ebooks ermöglicht.

Ein Bereich des Publishing setzt dabei direkt an der nativ-digitalen Kundschaft an: Die sich in der Ausbildung befindlichen Menschen, vom Kindergarten bis zum Hochschulabschluss, und darüber hinaus. Der Megatrend hierbei heißt „adaptives Lernen“. Big Data wird hierbei genutzt, um eine Infrastruktur für das Lernen aufzubauen, die auf den jeweiligen Lernenden zugeschnitten ist. Wichtige Verlagsgrößen wie Elsevier, Pearson oder Wiley sind hier bei der von der Firma Knewton aufgesetzten Big-Data-Infrastruktur mit an Bord. Die Auswirkung für Print-Dienstleister: Personalisierte gedruckte Lernunterlagen werden mehr Umsatzanteile erzielen.

Link zu Teil 2

(Der Text ist auch Teil der Titelgeschichte des Magazins Graphische Revue, Ausgabe 4/2014)

Über den Autor

0 Kommentare


Was meinen Sie zu diesem Thema?

Wir freuen uns über Ihren Kommentar.

Schreibe einen Kommentar

* Pflichtangaben; Ihre E-Mail-Adresse wird nicht veröffentlicht.
 

Copyright

Copyright 2015 Bernd Zipper, zipcon consulting GmbH

Archiv