Sie sind hier: Startseite » Markt » Studien

Internet der Dinge Hauptverursacher für Datenflut


Studie: Big Data wird zunehmend zum Problem für Rechenzentren
Experten gehen von einer Verzehnfachung des Datenvolumens von heute 4,4 auf dann 44 Zettabyte aus

(01.07.15) - Big Data wird immer mehr zu einem Problem für Rechenzentren. Laut einer aktuellen Studie von Hostinganbieter LeaseWeb gehen 77 Prozent der befragten IT-Experten davon aus, dass die wachsende globale Datenflut zu einer zunehmend großen Herausforderung für Rechenzentren wird. Tendenz steigend: Für das Jahr 2020 gehen bereits 82 Prozent der Fachleute von Problemen aus. Diese Zahlen verwundern nicht angesichts der Geschwindigkeit, mit der Big Data derzeit voranschreitet. So rechnen die Marktforscher von IDC damit, dass sich das weltweite Datenvolumen bis 2020 verzehnfachen wird – von derzeit 4,4 auf 44 Zettabyte. Laut Benjamin Schönfeld, Geschäftsführer von LeaseWeb Deutschland, muss der stetig wachsenden Datenflut mit effizienten und innovativen Lösungen entgegengetreten werden. Einen Ausweg sieht der Speicherexperte unter anderem in nanobasierten Speichertechnologien.

Nanobasierte "Racetrack-Speicher" bis 2020 serienreif
Die Experten sind sich laut der LeaseWeb-Studie einig, dass die meisten Rechenzentren in puncto Kapazitäten (Server, Storage, Netzwerk) wachsen werden (73 Prozent). Schönfeld sieht in modernen Nanolösungen großes Potential, um den Speichermarkt und damit auch die Rechenzentrumslandschaft zu revolutionieren: "Diese innovativen Technologien ermöglichen, verglichen mit heutigen Flash-Speichern, das Hundertfache der aktuell möglichen Speicherdichte und extrem kurze Zugriffszeiten." Die Datacenter Expert Group im eco – Verband der deutschen Internetwirtschaft e. V. geht davon aus, dass die ersten nanobasierten "Racetrack-Speicher" schon 2020 serienreif sein werden und dann bisherige Speicherarchitekturen kontinuierlich ablösen. Dementsprechend rechnen auch 71 Prozent der von LeaseWeb befragten IT-Experten damit, dass die Nanotechnologie im Jahr 2020 das Problem des wachsenden Speicherbedarfs lösen wird.

Internet der Dinge wird Hauptverursacher für Datenflut
Der Geschäftsführer von LeaseWeb Deutschland sieht die rasch voranschreitende globale Digitalisierung als Hauptursache für die stetig und immer schneller steigende weltweite Datenmenge an. "Vor allem das Internet der Dinge und die damit verbundene zunehmende Verbreitung von vernetzten Produkten, funk- und softwarebasierten Geschäftsmodellen werden dafür sorgen, dass sich der Datenbestand künftig alle zwei Jahre verdoppeln wird", betont Schönfeld. Noch im Jahr 2002 lag die geschätzte Speicherkapazität aller Rechenzentren weltweit bei einem Petabyte (PB). Ein PB entspricht 0,000001 ZB. Heute bewegen sich die Datenmengen bereits im Zettabyte-Bereich. Ein Zettabyte ist eine Zahl mit 21 Nullen und entspricht einer Trilliarde Byte. (LeaseWeb: ra)

LeaseWeb: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • IT-Service-Unternehmen

    Die konjunkturelle Entwicklung schlägt sich im Geschäftsjahr 2024 auf die Umsätze der in Deutschland tätigen IT-Dienstleister nieder. Während die Anbieter im Jahr 2023 dem Rückgang der Wirtschaftsleistung noch trotzen konnten, legte ihr Umsatz im Jahr 2024 lediglich um durchschnittlich 2,6 Prozent zu (2023: 9,4 Prozent). Die angespannte wirtschaftliche Lage sowie geopolitische Unsicherheiten zwangen viele Anwenderunternehmen, ihre Investitionen in digitale Technologien zu priorisieren oder gar zu verschieben. Aufgrund der Hoffnung auf eine geopolitische Entspannung, eine anziehende Konjunktur, unter anderem aufgrund des Sondervermögens der neuen Bundesregierung, sowie enormer Nachholeffekte bei der digitalen Transformation rechnen IT-Dienstleister für 2025 und 2026 wieder mit höheren Wachstumsraten.

  • Fehlende Datenstandards als Engpass

    Trotz des enormen Potenzials von Artificial Intelligence (AI) im Gesundheitswesen befinden sich viele Einrichtungen noch in der Anfangsphase der Umsetzung. Eine aktuelle internationale Studie von SS&C Blue Prism zeigt: 94 Prozent der befragten Organisationen betrachten AI zwar als strategisch wichtig - doch mangelnde Datenqualität und fragmentierte Dateninfrastrukturen behindern den effektiven Einsatz.

  • Netzwerksichtbarkeit gewinnt weiter an Bedeutung

    63 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, dass sie im Laufe der vergangenen zwölf Monate Opfer mindestens eines Cyber-Angriffs geworden sind - ein Anstieg von 6,7 Prozent im Vergleich zum Vorjahr. Dies ergab die diesjährige Hybrid-Cloud-Security-Studie 2025 von Gigamon. Zum dritten Mal in Folge hat der führende Deep-Observability-Experte weltweit mehr als 1.000 Sicherheits- und IT-Experten befragt. Demnach ist dieser Anstieg vor allem auf die weitverbreitete Nutzung von KI durch Cyberangreifer zurückzuführen. Zudem beeinflusst die Technologie Sicherheit und Management von hybriden Cloud-Infrastrukturen.

  • Grundlage moderner KI-Anwendungen

    Confluent hat die Ergebnisse ihres vierten jährlichen Data Streaming Reports veröffentlicht. Für die Studie wurden 4.175 IT-Führungskräfte in zwölf Ländern befragt, darunter 325 aus Deutschland. Die Ergebnisse zeigen, dass Daten-Streaming-Plattformen (DSP) nicht mehr optional, sondern entscheidend für den Erfolg von Künstlicher Intelligenz (KI) und die umfassende digitale Transformation von deutschen Unternehmen sind. Eine deutliche Mehrheit der IT-Entscheider (81?Prozent) ist überzeugt, dass DSP die Einführung von KI erleichtern, da sie zentrale Herausforderungen wie Datenzugriff, -qualität und -Governance direkt adressieren.

  • KI erobert den Mittelstand

    Künstliche Intelligenz (KI) ist im Alltag kleiner und mittelständischer Unternehmen (KMU) angekommen. Bereits jede dritte Firma (32 Prozent) setzt auf die zukunftsweisende Technologie - das ergab eine aktuelle YouGov-Studie* im Auftrag von Ionos. Der Anteil KI-nutzender Unternehmen ist innerhalb eines Jahres um 11 Prozentpunkte gestiegen. Weitere 40 Prozent wollen KI einsetzen, wenn sie günstig oder kostenlos verfügbar ist. Der Paradigmenwechsel ist in vollem Gange - KI ist nicht länger nur ein Thema für Konzerne.

  • Viele nutzen KI, aber nur wenige bezahlen dafür

    In Deutschland dominieren aktuell bei Künstlicher Intelligenz die kostenlosen Angebote. Gerade einmal zehn Prozent derjenigen Bundesbürgerinnen und Bundesbürger, die generative KI einsetzen, bezahlen dafür: Acht Prozent nutzen aktuell kostenpflichtige KI-Dienste, zwei Prozent haben das in der Vergangenheit getan, jetzt aber nicht mehr.

  • Vertrauen als kritischer Faktor

    Cloudera, die hybride Plattform für Daten, Analysen und KI, hat die Ergebnisse ihrer jüngsten Studie "The Future of Enterprise AI Agents" veröffentlicht. Im Rahmen der Umfrage wurden im Januar und Februar 2025 fast 1.500 IT-Führungskräfte in Unternehmen in 14 Ländern, unter anderem Deutschland, befragt, um ihre Nutzungsgewohnheiten, Use Cases und Meinungen zu KI-Agenten (AI Agents) zu verstehen.

  • Compliance als größte Herausforderung

    Fivetran, Anbieterin für Data Movement, präsentiert eine neue Studie über den Einsatz von KI in Unternehmen. Die von Redpoint Content durchgeführte Umfrage zeigt, dass fast die Hälfte der Unternehmen von verzögerten, unzureichenden oder gescheiterten KI-Projekten berichten - und das trotz ehrgeiziger Strategien und großer Investitionen in KI und Datenzentralisierung.

  • SaaS bleibt die bevorzugte Wahl

    Das BCI hat den Emergency and Crisis Communications Report 2025, gesponsert von F24, veröffentlicht. Bereits im 11. Jahr analysiert dieser Bericht, wie sich die Krisenkommunikation in den vergangenen zwölf Monaten entwickelt hat, welche Kommunikationsmethoden bevorzugt werden und welche Auswirkungen neue Technologien auf den Sektor haben.

  • GenAI-Technologien im Finanzsektor

    NTT Data hat eine neue Studie veröffentlicht, die den Einsatz von generativer KI (GenAI) im globalen Bankensektor untersucht. Der Bericht mit dem Titel "Intelligent Banking in the Age of AI" zeigt, dass Banken und Finanzinstitute trotz der zunehmenden Verbreitung von GenAI-Technologien im Finanzsektor geteilter Meinung sind, wenn es um ergebnisorientierte Strategien geht. Nur die Hälfte der Banken (50 Prozent) sieht darin ein Instrument zur Steigerung von Produktivität und Effizienz. Ebenfalls die Hälfte (49 Prozent) glaubt, dass GenAI zur Senkung der operativen IT-Ausgaben eingesetzt werden kann.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen