PortalDerWirtschaft.de



Suchmaschinenoptimierung mit PdW
mit Content-Marketing - Ihre News
English

Wie geht eigentlich Social Media Monitoring?


Von MarketingIT

Social Media Monitoring-Serie Folge 1

Social Media Monitoring-Serie Folge 1 Mit der Anzahl der Anbieter von Social Media Monitoring-Leistungen steigen auch die Unterschiede hinsichtlich der Ansätze, Verfahren und Technologien kontinuierlich an. ...
Thumb Mit der Anzahl der Anbieter von Social Media Monitoring-Leistungen steigen auch die Unterschiede hinsichtlich der Ansätze, Verfahren und Technologien kontinuierlich an. Allerdings haben sich Kernprozesse bei vielen Web-Monitoring-Projekten etabliert, die von einer Vielzahl der Anbieter standardmäßig angewendet werden. Im Folgenden soll daher der typische Ablauf eines Social Media Monitoring-Projektes beschrieben werden. Quelle ist die soeben erschienene Social Media Monitoring-Studie, downloadbar unter www.marketingit.de. Zunächst müssen die branchen- und zielgruppenspezifischen Quellen identifiziert und nach Reichweite und Relevanz (zum Beispiel anhand Userintensität, Diskussionsvolumen, Antwortzeiten) bewertet werden. Einige Anbieter haben Algorithmen entwickelt, die die potenzielle Reichweite beziehungsweise Streuwirkung der Quellen berücksichtigen. So werden zum Beispiel bei User Generated Content aus der Anzahl von Nutzern und Kommentaren eigene Metriken entwickelt. Andere versuchen, über Google Pagerank die Anzahl und Relevanzen der Kommentare, Tweets, Followers, 2nd-Order-Followers oder Views zu bestimmen. Auch Artikelvolumen, Reichweite, Suchmaschinen-Auffindbarkeit und Verlinkung werden von einigen Anbietern herangezogen. Es herrschen jedoch unterschiedliche Ansichten über die Dimension der Untersuchung, das heißt, wie viele Quellen einbezogen werden sollten: 1. Beschränkung auf in der Regel zehn bis 20 Quellen, die als relevant gelten 2. 100 bis 300 Quellen nach vorhergehendem Screening 3. Das "Deep Web" durchforsten, um hypothesenfrei zu screenen Die Ansichten darüber, welche Anzahl (Dimension) von Quellen einbezogen werden sollten, sind unterschiedlich. Da es oftmals auch eine Kostenfrage ist, sollten Unternehmen projektspezifisch entscheiden, ob das Web mithilfe von a priori definierten Quellen oder quellenunabhängig durchsucht wird. Um die Qualität der Datenerhebung zu erhöhen und wichtige Botschaften nicht zu übersehen, ist es wichtig, auch Audio-und Video-Dateien aufzuspüren. Des Weiteren sollten Stellen im Internet, die nicht mit den bekannten Suchmaschinen wie zum Beispiel Google ersichtlich sind, in Betracht gezogen werden. Wichtig für die Erzielung valider Ergebnisse ist in jedem Fall die permanente Aktualisierung der Quellen. Einige der befragten Anbieter durchforsten zunächst das durch Screening verminderte Universum der Beiträge, um dann zu schauen, welche Quellen diese Inhalte liefern. Im zweiten Schritt werden alle Suchmaschinen und Webseiten automatisiert nach Keywords und Keyword-Kombinationen überprüft. Statische und dynamische Inhalte wie Bildunterschriften, Blog-Artikel oder Foren-Beiträge werden auf diese Weise extrahiert. Um der Gefahr zu entgehen, eine unvollständige Keyword-Liste zu haben, führen manche Anbieter eine Verlinkung von Postings durch. So können auch solche Beiträge in den "Analyse-Scope" gelangen, die nicht die festgelegten Keywords enthalten. Die Extraktion ist der neuralgische Punkt einer jeden Analyse. Daher sollte größtmögliche Sorgfalt bei der Zusammenstellung der Keywords und der Definition der Themen-Clouds gelten. Die Kunst besteht darin, Bedeutungszusammenhänge zu erkennen und so den Kreis der relevanten Äußerungen besser zu fassen. Das gelingt jedoch meist nur mit ausgebildeten Computerlinguisten und Sprachwissenschaftlern. Nach dem Extrahieren werden alle Ergebnisse zusammengefasst, wobei doppelte Nennungen entfernt werden müssen. Auch irrelevante Inhalte wie zum Beispiel Spam oder Werbung werden bereinigt. Im Anschluss daran werden die Resultate sortiert und sinnvoll gruppiert. Die Datenaufbereitung kann mithilfe von Softwareprogrammen automatisiert erfolgen (nahezu alle Anbieter verfügen dabei über automatisierte Verfahren zur Extraktion von Inhalten) oder manuell, indem Fachleute wie Redakteure oder Marktforscher einbezogen werden. Im letzten Fall ist die Qualifikation beziehungsweise Ausbildung der eingesetzten Personen für die Qualität der Ergebnisse von enormer Bedeutung. Im letzten Schritt werden die Ergebnisse automatisiert (semantische Textanalysen) und/oder individuell (Sentimentanalysen) bewertet sowie thematisch kategorisiert. Daraus werden Berichte, Zusammenfassungen und Analysen erstellt. Zu bedenken ist, dass Softwareprogramme zum Beispiel die Ironie einer Kundenbewertung am Kontext nicht erkennen können. Daher ist bei automatisierten Verfahren Vorsicht geboten: Bei einer Studie des britischen Marktforschungsunternehmens Freshminds aus dem Frühjahr 2010, kam heraus, dass nur 30 Prozent der automatisierten Bewertungen richtig waren. Untersucht wurden in diesem Falle sieben führende Social Media Tools. Für Sentiment-Analysen sollte daher ein Anbieter gewählt werden, der die Datenaufbereitung zumindest halb automatisiert durchführt und über qualifiziertes Personal verfügt und die Ergebnisse nachzuarbeiten. Eine entscheidungsrelevante Ergebnispräsentation spielt im Unternehmensalltag eine große Rolle. Nur wenn Manager schnell und unkompliziert über die öffentlich geäußerten Erwartungen an das eigene Unternehmen in Kenntnis gesetzt werden, kann das Social Media Monitoring eine sinnvolle und effiziente Entscheidungshilfe darstellen. Eine Vielzahl von Anbietern arbeitet mit Reporting-Programmen wie Dashboards oder Cockpits, die Informationen in verdichteter Form visuell darstellen. Dafür spricht unter anderem die zeitnahe, umfassende und übersichtliche Darstellung sowie die Möglichkeit, die Software individuell anpassen und in die eigene IT-Infrastruktur integrieren zu können. Die Befragungsergebnisse bestätigen, dass für die Erstellung von Berichten und Analysen in 90 Prozent der Projekte geschulte Analysten benötigt werden. Nur so lassen sich sinnvolle Zusammenhänge darstellen, Interpretationen vornehmen und Handlungsempfehlungen ableiten. Für diese Aufgaben kommen in der Mehrheit Akademiker zum Einsatz, hin und wieder wird auch auf Partner von Marktforschungsinstituten zurückgegriffen. Quelle: Praxisleitfaden Social Media Monitoring Die Studie von von absatzwirtschaft, marketingIT und Mind Business Consultants, im Rahmen derer allein in Deutschland rund 60 Social Media Monitoring-Anbieter identifiziert worden sind. Insgesamt 44 Institute, Agenturen und Tools-Anbieter im deutschsprachigen Raum hatten im Sommer dieses Jahres online an der Umfrage teilgenommen. Auf dieser Basis konnten die Monitoring-Angebote hinsichtlich Leistungsumfang, Technologie, Methoden-Know-how sowie Kosten erfasst und ausgewertet werden. MarketingIT Christian Thunig Kasernenstr. 67 40213 Düsseldorf 0211-887-1428 www.marketingit.de Pressekontakt: Fachverlag der Verlagsgruppe Handelsblatt GmbH Christian Thunig Kasernenstr. 67 40213 Düsseldorf c.thunig@fachverlag.de 0211-8871428 http://www.marketingit.de


Kommentare

Bewerten Sie diesen Artikel
Bewertung dieser Pressemitteilung 5 Bewertung dieser Pressemitteilung 2 Bewertungen bisher (Durchschnitt: 3.5)
Hinweis Für den Inhalt der Pressemitteilung ist der Einsteller, Christian Thunig, verantwortlich.

Pressemitteilungstext: 817 Wörter, 6890 Zeichen. Artikel reklamieren
Keywords
Diese Pressemitteilung wurde erstellt, um bei Google besser gefunden zu werden.

Tragen Sie jetzt Ihre kostenlose Pressemitteilung ein!