Web Intelligence Reputation

Unzweifelhaft sind die Vorteile, die das Web den Benutzern und insbesondere den Unternehmen bietet: Es besteht die Möglichkeit, kommerzielle Informationen zu verbreiten und somit Produkte und Dienstleistungen anzubieten oder zu verkaufen. Da es sich beim Internet um eine originalgetreue Wahrnehmung der Wirklichkeit handelt, ist ein jedes Unternehmen in der Lage, eine vom Markt aus gesehene Bewertung durch eine Analyse der veröffentlichten Informationen zu erstellen, was sich schließlich in einen besonderen Vorteil hinsichtlich der Konkurrenzfähigkeit umsetzt: Mittels einer Nachforschung im Netzwerk kann das Unternehmen, in Bezug auf das Marketing, auf sein eigenes Image eingreifen oder einfach die Qualität und die Eigenschaften seiner Produkte verbessern.

Eine Neue Methode der Datenanalyse

Der Computer ist eine Maschine, die über eine künstliche Intelligenz verfügt und demnach in der Lage ist, Funktionen und für den menschlichen Geist typische Gedankengänge auszuführen. Um die Analyse von Texten zu erleichtern, ist es erforderlich, die Lern- und Interpretationsfähigkeit, die eine jede Person im Laufe ihres Schullebens entwickelt, auf den PC zu übertragen.

Der Prozess für das Datenverständnis erfolgt mittels vier unterschiedlichen Stufen der Textanalyse:

  1. Grammatische Analyse: Sie ermöglicht, jedem Textteil seine grammatische Konnotation zuzuordnen (Verb, Adjektiv, Substantiv, Artikel ...) und die lexikalischen Ambiguitäten zu beseitigen;
  2. Logische Analyse: Sie erkennt die Rolle, die die Wortgruppen innerhalb des Textes haben und beantwortet die Fragen mit wo, wie, wann, wer ..;
  3. Semantische Analyse: Sie ermöglicht, der syntaktisch korrekten Struktur, und demnach dem sprachlichen Ausdruck, eine Bedeutung zuzuordnen und die semantischen Mehrdeutigkeiten zu beseitigen;
  4. Sentimentanalyse: Sie ermöglicht, die Beliebtheit eines Inhaltes, der sich auf eine Person, ein Produkt, eine Marke bezieht, zu bestimmen (positiv, neutral, negativ).

Anschließend ist es mittels der Clustering-Technik möglich, die unterschiedlichen Kommentare in Gruppen (zum Beispiel Beschwerden oder Vorschläge) einzuteilen und somit neue Schlüssel zur Dateninterpretation zu schaffen

Knowledge Mining: Ein Neuer Methodologischer Ansatz

Dieser neue Ansatz für die Dateninterpretation besteht aus zwei Phasen:

  1. Mining-Phase: Die Texte von Interesse als eine zu erforschende, unerschöpfliche Quelle betrachten;
  2. Knowledge-Phase: Unter den zahlreichen Informationen die wirklich wichtigen heraussuchen und die anfänglich verborgenen Bezüge bestimmen.

Der Ansatz sieht die Verwendung eines Webcrawler, des Computerprogramms vor, das die Inhalte des Web auf methodische und automatische Weise analysiert und in einem Index speichert: Es analysiert dann alle gesammelten Daten und, um deren Sinn zu verstehen, unterteilt es diese nach Zugehörigkeit und Bedeutung. Die Relevanz einer Information im Vergleich zu einer anderen wird nicht auf der Grundlage der Anwesenheit oder Abwesenheit eines bestimmten Schlüsselworts bemessen: alles hängt vom Kontext und dem automatischen Verständnis einer Information ab.

Der Prozess des Knowledge Mining ermöglicht, die im Netzwerk enthaltenen Daten zu sammeln und vom qualitativen, quantitativen und reputationellen Standpunkt aus zu interpretieren, und ist folgendermaßen zusammenfassbar:

  • Kontextstudie, um die im Web enthaltenen Daten in Übereinstimmung mit dem Suchobjekt auszuwählen;
  • Erforschung des Web mittels eines Webcrawler: Studie der Inhalte, Trennung und Katalogisierung der zweckdienlichen Inhalte;
  • Interpretation der Inhalte in Bezug auf Quantität und Qualität;
  • Dekodierung der Polarisation: Bewertung der Qualität der erhobenen Daten durch Identifizierung der erwarteten und unerwarteten Ergebnisse.

Hinweise auf die Vertraulichkeit der Informationen

Alle in dem Bericht gesammelten Informationen, die das Ergebnis der Ausarbeitung von Postings in Blogs, in Foren, in sozialen Netzwerken oder Zeitungsartikeln darstellen, stammen aus öffentlichen Quellen und sind als solche für jedermann zugänglich.

Report SMALL

Konsultierte Quellen:
Offene Quellen (Internet, die bedeutendsten Suchmaschinen, soziale Netzwerke)

Output:
  • Negativ: "Es werden keine Informationen von besonderem Interesse für dieses Thema erhoben"
  • Positiv: Kurze Erhebung der Evidenz in grafischer Form mit Links zur Quelle gefunden.
Ausführungszeiten: 3/5 Tage.

Report MEDIUM

Konsultierte Quellen:
  • Offene Quellen (Internet, die bedeutendsten Suchmaschinen, soziale Netzwerke)
  • Presseschau in über 4.000 nationalen und lokalen Zeitschriften, die in einem Zeitraum bis zu zehn Jahren (z.B. 2004-2014) veröffentlicht wurden
Output:
  • Negativ: "Es werden keine Informationen von besonderem Interesse für dieses Thema erhoben"
  • Positiv:
    • Erhebung der Evidenz in grafischer Form mit Links zur Quelle gefunden.
    • Artikel kopieren und Einzelheiten der Referenz-Zeitschrift.
Ausführungszeiten: 5/7 Tage.

Report LARGE

Konsultierte Quellen:
  • Offene Quellen (Internet, die bedeutendsten Suchmaschinen, soziale Netzwerke)
  • Presseschau in über 4.000 nationalen und lokalen Zeitschriften, die in einem Zeitraum bis zu zehn Jahren (z.B. 2004-2014) veröffentlicht wurden
  • Nachteilige Elemente vertraulicher Art aus Nachrichtendiensten (begleitet von eventuellen Interviews durch Journalisten)
Output:
  • Negativ: "Es werden keine Informationen von besonderem Interesse für dieses Thema erhoben"
  • Positiv:
    • Erhebung der Evidenz in grafischer Form mit Links zur Quelle gefunden.
    • Artikel kopieren und Einzelheiten der Referenz-Zeitschrift.
    • Genaue Hinweise auf die Art der nachteiligen Elemente erhoben.
Ausführungszeiten: 8/12 Tage.