Künstliche Intelligenz Keine KI ohne zielführende Datenarchitektur

Anbieter zum Thema

Datenmissmanagement ist der entscheidende kritische Faktor, der den zukünftigen KI-Erfolg eines Unternehmens ernsthaft gefährden kann. Das ist ein Ergebnis des globalen Forschungsberichts von MIT Technology Review Insights. Welche Schritte müssen CIOs für KI-Implementierungen jetzt ergreifen?

Robin Sutara, Field CTO bei Databricks: „Meiner Meinung nach ist einer der wichtigsten Faktoren für die erfolgreiche Skalierung von KI der Aufbau einer soliden Datenkultur.“
Robin Sutara, Field CTO bei Databricks: „Meiner Meinung nach ist einer der wichtigsten Faktoren für die erfolgreiche Skalierung von KI der Aufbau einer soliden Datenkultur.“
(Bild: Databricks)

In vielen Unternehmen verharren die Technologien der Künstlichen Intelligenz (KI) noch in der Einführungsphase. Um KI-Ziele zu unterstützen, gaben die Befragten der MIT-Studie an, dass für sie die Geschwindigkeit der Datenverarbeitung ganz oben auf ihrer Liste steht. Daher sind sogenannte „KI-Leader“ aus KI-gesteuerten Unternehmen der Ansicht, dass sie das Tempo der Datenverarbeitung erhöhen müssen (55 Prozent).

Zu den größten Herausforderungen wird von den Befragten jedoch das Thema Datenmanagement gezählt. 72 Prozent gaben an, dass Datenprobleme das Erreichen ihrer KI-Ziele bis 2025 eher gefährden als andere Faktoren. „Das wichtigste und von den Befragten am häufigsten genannte Problem für den Erfolg von KI ist die Tatsache, dass viele Unternehmen nicht wissen, wie sie mit ihrem gesamten Datenbestand umgehen oder wie sie deren Qualität messen sollen“, stellt Robin Sutara, Field CTO bei Databricks, heraus.

Fokussierte KI-Ziele erreichen

Unternehmen müssen hierzu vier verschiedene Stacks aufbauen, um alle ihre Daten-Workloads zu bewältigen: Business Analytics, Data Engineering, Streaming und Machine Learning (ML). „Alle vier dieser Stacks erfordern sehr unterschiedliche Technologien und leider sind sie nicht immer gut in Einklang zu bringen“, erklärt Sutara. „Das Ergebnis sind meist viele Datenkopien, kein einheitliches Sicherheits- und Governance-Modell, geschlossene Systeme und wenig produktive Datenteams.“ Danach folgen in der Reihenfolge ihrer Wichtigkeit vier dringende Erfordernisse:

  • 1. Die Sicherstellung ausreichender Daten für die KI-Modelle.
  • 2. Die Verbesserung der Überwachung der Datenabfolge in diesen Modellen.
  • 3. Die Verbesserung des Zugangs des Unternehmens zu externen Daten und deren Integration.
  • 4. Die Ermöglichung einer stärkeren Zusammenarbeit bei Entwicklungsdaten und KI-Modellen.

Hindernisse für die Einführung von KI

„Um die Skalierbarkeit von KI zu gewährleisten, muss vor allem eine Datenkultur geschaffen werden, in der Menschen, Fähigkeiten und Technologie zusammenkommen“, betont Sutara. So werden bis 2025 von den europäischen Befragten Investitionen in die Entwicklung von „Talenten“ und deren Fähigkeiten (38 Prozent) und in die Datenqualität (32 Prozent) als die beiden wichtigsten Prioritäten für die Skalierung von KI und ML gefordert.

Andere Hindernisse wie die Grenzen bestehender Daten und KI-Technologien und der Mangel an KI-qualifizierten Fachkräften spielen ebenfalls eine große Rolle. Zu den größten Hindernissen für die Einführung von KI und ML (Machine Learning), die von den europäischen Befragten in der Umfrage genannt wurden, zählen ebenfalls starre Organisationsstrukturen (34 Prozent), starre Prozesse (33 Prozent) und Einschränkungen der vorhandenen Daten und KI-Technologien (33 Prozent).

„Meiner Meinung nach ist einer der wichtigsten Faktoren für die erfolgreiche Skalierung von KI der Aufbau einer soliden Datenkultur“, sagt Sutara. „Lassen Sie mich daher näher erläutern, was wir damit meinen. Eine gute Datenkultur lässt sich durch folgende drei Maßnahmen erreichen: Menschen, Prozesse und Technologie. Um eine Datenkultur voranzutreiben, muss jede Person im Unternehmen zur richtigen Zeit den richtigen Zugang zu den richtigen Daten haben.“

Aus der Prozessperspektive erfordert dies eine Überprüfung der internen Prozesse und Governance-Modelle sowie die Schaffung von Rahmenbedingungen, die eine konsequente Anwendung von Grundsätzen ermöglichen, bei denen Daten eine zentrale Rolle bei der Umsetzung der Prozesse spielen. Dabei müssen auch Möglichkeiten zur Iteration und Verbesserung auf der Grundlage von Mitarbeiter-Feedback und neuen Daten, die im Rahmen dieser Prozesse erstellt und gesammelt werden, gegeben sein. „Bei der technologischen Säule des Aufbaus einer Datenkultur geht es vor allem darum, eine einfache, offene und zukunftssichere Plattform zu schaffen, die es jedem im Unternehmen ermöglicht, Daten zu nutzen“, so Sutara. „Hier hilft die ‚Macht‘ des Lakehouse.“

Aufbau einer zielführenden Datenkultur

Eine praktische Lösung ist die Einführung einer Lakehouse-Architektur. „Das heißt, die Unternehmen sind nicht mehr an die Beschränkungen und die Komplexität von Legacy-Architekturen gebunden“, so Sutara. „Eine solche Architektur bietet flexible, leistungsstarke Analysen, Data Science und ML, indem sie die Leistung, Zuverlässigkeit und Governance von Data Warehouses mit der Skalierbarkeit, den niedrigeren Kosten und der Workload-Flexibilität des Data Lakes kombiniert.“ Beispielsweise vereinheitlicht und skaliert die Lakehouse-Plattform von Databricks Daten, Analysen und KI-Funktionen auf folgende Weise:

  • Multi-Cloud: Databricks ist eine einheitliche Datenplattform für alle drei großen öffentlichen Clouds (AWS, Azure, Google Cloud). Das heißt, ein einziges Tool für Data Engineering, Data Science, ML und Analytik.
  • Offen: Die Architektur ist offen, um durch die Verwendung offener Standards und Datenzugriffe sowie die Nutzung von Innovationen aus der Open-Source-Community Lock-Ins zu vermeiden.
  • Hohe Leistung zu niedrigen Kosten: Databricks Delta Lake ändert die Größe der Datenpartitionen dynamisch, um die beste Kombination aus Kosten und Leistung zu erzielen. Mit Databricks SQL können Kunden eine Multi-Cloud-Lakehouse-Architektur betreiben, die bis zu 12-mal preiswerter und leistungsfähiger ist als herkömmliche Cloud-Data-Warehouses.
  • Skalierbar und kollaborativ: Die Plattform für Data Science und maschinelles Lernen ermöglicht es Entwicklern und Data Scientists, ihre Daten zu erforschen, Modelle zu erstellen und zu produzieren und ihre Analysen im großen Umfang zu teilen. Mit einem automatisierten vollständigen ML-Lebenszyklus lässt sich die Zeit vom Experimentieren mit ML-Modellen bis hin zu robusten Produktionsimplementierungen deutlich verkürzen.

„Das Aufbrechen von Datensilos mit einer offenen Lakehouse-Architektur ist der erste Schritt, um die „Macht“ der Daten in einem Unternehmen wirklich zu erschließen“, unterstreicht Sutara. „Auf diese Weise können sich Führungskräfte auf Menschen, Prozesse und den Geschäftswert konzentrieren.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Über die Umfrage

Die Umfrage, die diesem Bericht zugrunde liegt, wurde von MIT Technology Review Insights im Mai und Juni 2022 durchgeführt. Im Folgenden sind die wichtigsten demografischen Daten der 600 Führungskräfte aufgeführt, die an der Umfrage teilgenommen haben.

Die Befragten haben in ihren Unternehmen leitende Positionen im Technologiebereich inne. Die Mehrheit (84 %) sind Führungskräfte der C-Ebene: Chief Information Officers, Chief Technology Officers, Chief Data/Analytics Officers und Chief AI Officers (CIOs machen 72 % der gesamten Stichprobe aus). Der Rest besteht aus Senior Vice Presidents oder Vice Presidents für KI, Datenplattformen oder Technik sowie aus Leitern für KI und maschinelles Lernen.

Zu den Ergebnissen der Studie

(ID:48593928)