Unternehmen stürzen sich gerne auf das nächste große KI-Tool – als würden genau diese Innovationen garantiert für Durchbrüche sorgen. Dennis Scheufler sieht das mit Skepsis. Er beobachtet, dass die Technik inzwischen recht ausgereift, erschwinglich und allgegenwärtig ist. Aber die eigentliche Hürde? Die Qualität der zugrunde liegenden Daten. Immer wieder sieht man in der Praxis das gleiche Bild: Excel-Listen, viele parallele Versionen, Definitionen fehlen oder werden unterschiedlich interpretiert – und die Datenströme laufen irgendwohin, aber nicht durchs gleiche Nadelöhr. Noch schwerwiegender: Genau darauf verlassen sich dann die KI-Anwendungen. "KI-Analysen können nur so vertrauenswürdig sein wie die Daten, die sie überhaupt verarbeiten", gibt er zu bedenken.
Früher war Datenqualität eher das Steckenpferd von IT-Teams. Mittlerweile wird sie zur Chefsache, weil schlechte Daten nicht nur stören, sondern handfeste Risiken bringen. Gerade in sensiblen Bereichen wie Finanzen oder IT-Security kann ein kleiner Fehler Kettenreaktionen auslösen – und zwar nicht nur Peinlichkeiten, sondern echte wirtschaftliche Schäden.
Bemerkenswert: Trotz aller Automatisierung bleibt der Mensch im Zentrum dieser Entwicklung. Scheufler warnt davor, sich aus der Verantwortung zu stehlen, nur weil eine KI "übernimmt". Klar, KI kann Vorarbeit leisten, Zusammenhänge erkennen, sogar Empfehlungen geben – aber am Ende muss ein Mensch prüfen, entscheiden und zu seinen Entscheidungen stehen. Deshalb sind Transparenz, gute Dokumentation und klare Rollen weit mehr als Bürokratie: Sie sind das Fundament, auf dem Produktivität wachsen kann.
Und noch ein Gedanke: Wer meint, ein weiteres Tool zu kaufen, rette das Unternehmen vor dem Kontrollverlust, liegt falsch. Viel wichtiger ist, die Daten im Haus zu ordnen. Was nützt die schnellste KI, wenn sie nur im Trüben fischt? Prozesse, Datenmodelle, Qualitätskontrollen – all das ist anstrengend, aber lohnt sich langfristig viel mehr. Oder wie Scheufler es pointiert: Bessere Daten sind der wahre Booster, nicht das hippste Tool.
Das Fazit? Der nächste Technologiesprung steht vielleicht nicht auf der Einkaufsliste – sondern im Datenkeller. Wer dort aufräumt, schafft langfristig echten Wettbewerbsvorsprung. Mehr dazu unter www.scheufler.it.
Künstliche Intelligenz gewinnt in Unternehmen an Stellenwert, doch ihr eigentliches Potenzial bleibt oft unerreicht, weil die Datenbasis häufig zu wünschen übrig lässt. Experten wie Dennis Scheufler weisen auf die entscheidende Rolle konsistenter, gut gepflegter Daten hin – erst auf dieser Grundlage entstehen verlässliche Analysen und Entscheidungen; schlechte Daten hingegen führen zu Fehlern, Unsicherheiten und Risiken. In neueren Analysen und Medienberichten zeigt sich außerdem, dass Unternehmen zunehmend gezwungen sind, die IT und das Datenmanagement enger mit der Unternehmensführung zu verzahnen, Standards für Data Governance zu schaffen und neben Innovationsbereitschaft deutlich mehr in Grundsatzarbeit – sprich in Schulung, Pflege und Kontrolle von Daten – zu investieren. Aktuelle Entwicklungen belegen, dass die Nachfrage nach KI-Services zwar steigt, Unternehmen aber gleichzeitig mit Datenschutz, Datenintegration und Fachkräftemangel kämpfen, wie unter anderem die FAZ und die Zeit in ihren Tech-Sektionen schreiben. Zugleich experimentieren Konzerne mit KI-gesteuerten Managementsystemen, doch fehlende Transparenz und erklärbare Algorithmen bergen neue Haftungsfragen, wie die Süddeutsche berichtet. Gerade der deutsche Mittelstand hat erkannt, dass optimale Datenprozesse – trotz aller Begeisterung für Automatisierung – nicht delegierbar sind, sondern eine Mischform aus technischer Neuerung und menschlicher Kontrolle erfordern.