Mittwoch, 17. April 2013

Human Intelligence: Warum man sich beim Monitoring nicht auf Computer velassen sollte

Das Internet wurde von Menschen für Menschen geschaffen. Menschen schreiben Texte, entwerfen Bilder und drehen Videos für andere Menschen, die diese Texte lesen und kommentieren, Bilder und Videos ansehen und wiederum mit anderen Menschen teilen.

Die Computer, auf denen all das  entsteht, können viele praktische Dinge tun, die dem Menschen helfen, weitere Inhalte zu finden, Wörter zu zählen, Links nachzuverfolgen, Dateiformate zu unterscheiden und sind in der Lage, jede Menge anderer Befehle ausführen, und ihm den Weg durch den Informationsjungle des Internet erleichtern.  Eins allerdings können sie bis heute und trotz allergrößter Anstrengungen nicht: Computer sind dumm. Sie sind nicht in der Lage die Inhalte zu verstehen. Sie können Sätze nicht analysieren, Meinungen nicht bewerten und Stimmungen nicht erkennen.



Computern fehlt die Intelligenz

Das ist ein großes Problem für das Social Media Monitoring, bei dem es ja genau um diese Aufgaben geht: Meinungen anlysieren, Stimmungen aufzunehmen und neue Trends zu entdecken stößt genau da anseine Grenzen, wo die Schnittstelle zur Intelligenz des Menschen,  der "Human Intelligence" fehlt. Sind die Monitoring-Programme auf sich allein gestellt, fehlt ihnen die Interpretationsfähigkeit. Sie sind gegenüber den Inhalten des geschriebenen Textes weitgehend blind, das sie lediglich Einzelwörter erfassen können, nicht aber deren Bedeutung im Kontext.

Ein einfaches Beispiel: "Produkt A ist nicht schlecht, Produkt B ist nicht viel besser..." würde eine semantische Analyse schon ins Schleudern bringen, da zwar positive und negative Worte in Verbindung mit den Produkten genannt werden, die Bedeutung aber nicht im Zusammenhang erkannt wird. Komplizierte Verneinungen und verstärkende Worte, wie "viel" und "besser" fürhren dazu, dass die semantische Analyse mit hoher Wahrscheinlichkeit falsche Schlüsse ziehen wird. Ein Mensch dagegen, erkennt sofort: beide Produkte werden nicht besonders positiv bewertet.

Menschen können keine Massenvearbeitung

Menschen dagegen fehlt die Fähigkeit, große Informationsmengen schnell zu durchforsten. Big Data ist die Domäne der Bites und Bytes. Computer schaffen es, in Bruchteilen von Sekunden ungeheure Datenmengen zu durchforsten. Sie erkennen Schlagworte in Millionen von Tweets, Blogs und Facebook-Posts, und sind in der Lage, diese bestimmten Themenfeldern zuzuordnen.

Die Lösung: Das Beste aus beiden Welten

Um also die Geschwindigkeit bei der Auswertung großer Datenmengen und die inhaltliche Analyse von Texten, Meinungen und Dialogen zu einem stimmigen Resultat zu verschmelzen, haben wir bei bc.lab die Zusammenarbeit von Mensch und Maschine im Verlauf unserer langjährigen Monitoring-Erfahrung perfektioniert: Computer verarbeiten große Datenmengen und bereiten sie optimal für die Inhaltsanalyse der Social Media Analysten vor. Die Analysten wiederum sind in der Lage mit Hilfe spezieller Steuerungs- und Recherchetools die Informationsmengen inhaltlich zu bewerten und das Monitoring so mit dem "human touch" zu veredeln.

Diese Arbeitsteilung ist so optimiert, dass am Ende eine Lösung steht, deren Qualität höchsten Ansprüchen gerecht wird. Informationen, die die Basis konkreter Entscheidungen bilden, relevante Treffer mit richtiger thematischer Zuordnung und korrekter Sentiment-Analyse, kein Spam, kein Informationsmüll, keine Fehlbewertungen. Denn am Ende des Monitoring-Prozesses stehen keine Maschinen, sondern Menschen, die wissen müssen, welche Inhalte das Social Web bewegen, welche Themen die Communities diskutieren und welche Argumente kursieren.




Keine Kommentare:

Kommentar veröffentlichen