Mit dem neuen Terraform Provider will Confluent das Data-Streaming-Infrastrukturmanagement in der Cloud automatisieren und damit gleichzeitig dessen Komplexität reduzieren. Zudem wurden Produktneuheiten für einfacheres Network Provisioning und eine schnellere Erkennung potenzieller Datenschutzverletzungen vorgestellt. weiterlesen
Wie managen und analysieren Sie Ihre Datenberge? Wem vertrauen Sie Ihre Daten und deren Verwaltung an? Stimmen Sie bis zum 31.08. in den verschiedenen Kategorien für Ihren präferierten Hersteller ab und erhalten Sie die Chance, einen Uxbridge Lautsprecher von Marshall zu gewinnen! Jetzt abstimmen >>
Der Fachkräftemangel wird sich künftig noch weiter verschärfen und Technologien wie Prozessautomatisierung und Künstliche Intelligenz haben in den vergangenen Jahren den Markt nachhaltig verändert. Werfen Sie mit uns einen Blick auf die aktuellen Erkenntnisse in den Führungsebenen, die finanziellen Aussichten für 2022 und die Arbeitsmodelle der Zukunft. Jetzt lesen
Jedes Unternehmen verfügt über Daten in riesigen Mengen – und der Mittelstand ist da keine Ausnahme. Schon heute erzeugt jeder Mensch im Durchschnitt über ein Gigabyte täglich, Tendenz steigend. Laut Statistik werden jedoch nur zwei Prozent der generierten Daten tatsächlich gespeichert. Das bedeutet, dass ihr großes Potenzial zur Aufbereitung und Analyse für neue Erkenntnisse verloren geht. Aber selbst wenn Informationen im System verbleiben, sind sie oft in Tabellenkalkulationen versteckt, die nur schwer zu analysieren sind. weiterlesen
Der Einsatz von Grafikprozessoren (GPU´s) zur Beschleunigung von VDI-Workloads steigert die Leistung der rechen- und grafikintensivsten Anwendungen. So können Mitarbeiter auch von entfernten und verstreuten Standorten aus an Projekten zusammenarbeiten. Erfahren Sie, wie Sie durch den Einsatz von GPUs Zeit und Geld sparen können. Jetzt lesen
Daten sind allgegenwärtig und bergen ein enormes Potenzial. Doch Unternehmen setzen nur einen Bruchteil davon ein, um geschäftlichen Nutzen daraus zu ziehen. weiterlesen
Um Datensilos, Komplexität und ständiger Veränderung zu begegnen, setzen Unternehmen Data Fabrics ein – einen der derzeit größten Trends im Datenmanagement. Hier sind 10 Dinge, die Sie unbedingt über Data Fabrics wissen sollten. Mehr erfahren
Das Fraunhofer IPK benötigt industrielle Güter, um eine neue Technologie zu testen. Das Institut will die Qualitätskontrolle durch KI so deutlich vereinfachen. weiterlesen
Data-Warehouse- und Data-Lake-Umgebungen wachsen rasant, wobei analytische Anwendungsfälle wie KI/ML das Wachstum von Datensätzen im Petabyte-Bereich vorantreiben. weiterlesen