Vertrauen gegenüber Generative AI schwindet
180-Grad-Wende: Kritischerer Blick auf GenAI-Tools
Deutsche Unternehmen realisieren langsam, dass Generative AI nicht so harmlos ist wie viele von ihnen anfangs gedacht haben
Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.
ChatGPT hat einen Hype um Generative AI und einen Tsunami an neuen KI-Tools ausgelöst. Viele Unternehmen stellten sich im Zuge dessen die Frage, wie sicher und vertrauenswürdig die Technologie überhaupt ist. Schließlich wird sie – ähnlich wie Instant Messaging und Social Media Apps – im öffentlichen Diskurs besonders in Sachen Sicherheit eher kritisch hinterfragt. Gigamon hat auch in diesem Jahr wieder 150 deutsche CIO/CISOs zu diesem Thema* befragt. Sie beantworteten dabei Fragen rund um das Thema Sicherheit moderner Technologien und Umgang mit Risiken. Im Vergleich zur letztjährigen Untersuchung** lassen die aktuellen Ergebnisse eine deutliche Veränderung in der Wahrnehmung vermuten.
Laut der Gigamon-Studie von 2023** stand die Mehrheit der deutschen Unternehmen Generative AI im letzten Jahr noch optimistisch gegenüber. 75 Prozent der befragten CIO/CISOs sahen keinen Grund, ChatGPT nicht zu nutzen. Der Rest hatte das Tool entweder bereits aus dem Unternehmen verbannt (fünf Prozent) oder beschäftigte sich mit den Risiken, um eine baldige Entscheidung zu treffen (20 Prozent). Mittlerweile hat diese Einstellung eine 180-Grad-Wende gemacht. Heute setzen deutlich weniger deutsche Unternehmen die Technologie bedenkenlos ein (31 Prozent). 25 Prozent haben die Initiative ergriffen und ChatGPT und Google Gemini abgeschafft (25 Prozent); 44 Prozent werten die möglichen Sicherheitsrisiken derzeit noch aus. Somit scheint das Vertrauen in Generative AI im Laufe der letzten zwölf Monate abgenommen zu haben.
Vertrauen in Instant Messaging Apps steigt
Eine gänzlich andere Entwicklung ereilt WhatsApp. Im letzten Jahr stieß die Instant Messaging App auf mehrheitliche Ablehnung von Seiten der CIO/CISOs. Damals gaben 67 Prozent an, den Einsatz der Anwendung unterbunden zu haben. Kein einziges der befragten Unternehmen erlaubte WhatsApp innerhalb der geschäftlichen Grenzen. Aus der aktuellen Umfrage geht jedoch hervor, dass sich der Umgang mit der App gelockert hat. Nur noch 22 Prozent der CIO/CISOs haben sie aus Sicherheitsgründen verboten; 34 Prozent gaben an, dass sie keine Bedenken haben, wenn Mitarbeitende WhatsApp nutzen. Geht es um TikTok, hat sich die Lage ebenfalls geändert. Während die Kurzvideo-App 2023 bei zehn Prozent der Befragten nicht sonderlich positiv in deren Gunst stand, 89 Prozent potenzielle Sicherheitsrisiken prüften und nur ein Prozent kein Problem mit ihr hatte, ist der Standpunkt deutscher Unternehmen heute weniger eindeutig. Zwar verbieten mehr von ihnen die Nutzung von TikTok (47 Prozent), aber auch der Anteil derjenigen, die die App erlauben, ist um 23 Prozent gestiegen.
"Deutsche Unternehmen realisieren langsam, dass Generative AI nicht so harmlos ist wie viele von ihnen anfangs gedacht haben. Womöglich sind sie selbst Opfer einer Phishing-Attacke gewesen, bei der täuschend echt wirkende E-Mails generiert wurden oder sie haben andere Nachteile durch die Technologie erfahren. Jedenfalls nehmen mehr Unternehmen die Risiken ernst, die mit ChatGPT, Google Gemini und Co. einhergehen, stellen die Anwendungen eingehend auf den Prüfstand und entscheiden sich zunehmend gegen den bedenkenlosen Einsatz. Doch auch wenn Generative AI genauer unter die Lupe genommen wird, steigt interessanterweise die Akzeptanz anderer Anwendungen wie WhatsApp und TikTok, die bislang unter den wachsamen, skeptischen Augen von CIO/CISOs standen. Umso wichtiger ist es, die Sichtbarkeit der IT-Umgebung zu erhöhen, um möglichen Blind Spots entgegenzuwirken", sagt Ali Moniri, Technical Lead EMEA bei Gigamon.
Unternehmen erkennen zunehmend die Bedeutung von Deep Observability
Die Umfrage zeigt außerdem, dass IT-Verantwortliche in Deutschland zunehmend die Bedeutung von Sichtbarkeit bis hinunter auf Netzwerkebene (Deep Observability) erkennen, um sich vor Bedrohungen zu schützen, die sich über Blind Spots einschleichen könnten. Im Vergleich zum Vorjahr haben viele unter ihnen die Transparenz ihrer Infrastrukturen gefördert. 55 Prozent der Befragten berichten von Sichtbarkeit, die von der Netzwerk- bis zur Anwendungsebene reicht (2023: 28 Prozent). 53 Prozent geben an, dass sie bessere Einblicke in den bislang stark vernachlässigten verschlüsselten Datenverkehr haben (2023: 21 Prozent). Diese Schritte haben dazu geführt, dass sich weniger CIO/CISOs um Blind Spots sorgen als zuvor (31 Prozent; 2023: 52 Prozent). Denn sie sind nun in der Lage, Schwachstellen und aktive Angriffe schneller zu erkennen und zu bekämpfen. Daher ist Deep Observability beim Einsatz von Technologien wie ChatGPT und WhatsApp, die sich als potenzielle Schlupflöcher herausstellen können, ein absolutes Must-have.
*Methodik: Hybrid-Cloud-Studie 2024
Die globale Studie wurde von Gigamon in Auftrag gegeben und vom 22. März bis 6. April 2024 von Vitreous World durchgeführt. An der Erhebung haben insgesamt 1033 CIO/CISO/CTO/CRO sowie andere Senior IT-Entscheider aus Deutschland (150), Großbritannien, Frankreich, den Vereinigten Staaten, Singapur und Australien teilgenommen.
**Methodik: Hybrid-Cloud-Studie 2023
Die globale Studie wurde von Gigamon in Auftrag gegeben und vom 19. April bis 2. Mai 2023 von Vitreous World durchgeführt. An der Erhebung haben insgesamt 1020 CIO/CISO sowie andere C-Level-Manager aus Deutschland (150), Großbritannien, Frankreich, den Vereinigten Staaten, Singapur und Australien teilgenommen. (Gigamon: ra)
eingetragen: 23.08.24
Newsletterlauf: 21.10.24
Gigamon: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Ihr PMK-Verlags-Newsletter hier >>>>>>