Schwierigkeiten bei der Anwendung und Implementierung.

Diverse Marktforschungen, unter anderem von Sopra Steria Consulting und dem Business Application Research Center (BARC), haben in der letzten Zeit herausgefunden, dass durch die vielen Datenquellen, die sich in der Big-Data häufen, die Unternehmen nicht nur vor Herausforderungen, sondern tatsächlich vor Probleme gestellt werden.

Ursache 1: Herausforderung Big-Data-Analytics

Die systematischen Einbindungen von Informationen, um weiterführende Analysen durchzuführen, hängen an der momentanen Unmöglichkeit, die Zuverlässigkeit von Daten aus den Datenbanken zu garantieren. Somit bleibt der RoI aus den Analytics-Investitionen aus. Das kann zu falschen Schlüssen führen, die wiederum viel Geld kosten können. Auch sind die analytischen Algorithmen nicht immun gegen datenbezogene Probleme.

Ursache 2: Weniger ist manchmal mehr

Eine riesige Datenmenge scheint im ersten Moment fundierte Erkenntnisse zu garantieren. Doch dem ist nicht so. Hier findet ein Umdenken statt hin zu Smart-Data-Strategien. Denn es geht um Qualität nicht Quantität der Programmierung. Die Daten müssen repräsentativ sein und es wird immer schwerer, aus einer riesigen Menge erhaltener Daten die relevanten zu filtern und wertschöpfende Analysen zu erhalten.

Wenn Sie ein datenbasiertes Geschäftsmodell haben, benötigen Sie fachliches und analytisches Know-how sowie ein qualifiziertes Datenspezialisten-Team, das die richtigen Daten identifiziert und auswertet.  

Ursache 3: Den vorgegebenen Zusammenhängen vertrauen 

Big-Data findet sämtliche Korrelationen, allerdings sind diese nicht immer sinnvoll. Hier die relevanten von den unsinnigen Zusammenhängen zu trennen kann eine aufwendige Arbeit sein.

Ursache 4: Vermischen der Algorithmen

Wenn ein Tool von Big-Data anfängt, verschiedene Algorithmen zugleich und vermischt zu nutzen, kann das zu unbrauchbaren Daten führen. Beispielweise eine maschinelle Übersetzung wird von einem Big-Data-Algorithmus als Grundlage für Erkenntnisse genutzt. Und schlimmstenfalls zieht diese Analyse noch weitere Kreisläufe. Hier kann dann kein repräsentatives Ergebnis zustande kommen. Allerdings ist es auch immens schwer, diesem Fehler auf die Schliche zu kommen.   

Ursache 5: Beeinflussung von Markern

Die Algorithmen hängen einem Analyse-Gegenstand oft einen Marker an. Man kann nun durchaus herausfinden, welcher Marker welches Ergebnis beeinflusst – nun ist eine Manipulation der Daten möglich, indem man einfach die zu analysierenden Gegenstände dem Marker anpasst.  

Ursache 6: Technischer Fortschritt schafft Unsicherheit  

Big-Data wächst wie die ganzen Digitalisierungs-Tools in unaufhörlicher Geschwindigkeit. So kann es durchaus sein, dass die Hard- oder Software, die Sie benutzen, in Windeseile nicht mehr den Anforderungen entspricht.

Ursache 7: Wie lange noch DSGVO-konform?

Unkontrollierbare Informationen werden vielleicht noch ein großes Problem der Algorithmen sein. Die USA und auch Europa haben schon angefangen, dagegen anzukämpfen, dass man in Ihren persönlichen Webspace eindringen kann.

Big-Data schafft tatsächlich Trends, die die Gesellschaft betreffen.  Allerdings ist hier zu beachten, dass auch Personen diverse Marker angehängt werden können. Das kann zu negativen Auswirkungen führen, bis hin zu spezifischer Diskriminierung. Wenn eine Bank-Scoring-App Sie zum Beispiel  analysiert und feststellt, dass Sie die Musik von den Böhsen Onkelz hören und Sie deshalb keinen Kredit bekommen, stellt das eine Diskriminierung dar.

Trotzdem möchten wir hier empfehlen, Big-Data zu nutzen, hierfür aber zur Sicherheit Spezialisten hinzuzuziehen, die Ihnen helfen, präzise Analysen in Ihr Unternehmen mit einzubeziehen.  Dann ist es tatsächlich möglich, unternehmerisches Wachstum anhand der Daten zu generieren.

0 Kommentare

Dein Kommentar

Möchtest du mitdiskutieren?
Fühl dich frei, beizutragen!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diesen Beitrag bewerten