Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Programme sind anfällig für Schwachstellen


Softwarwareentwickler erleben oftmals böse Überraschungen: Selbst nach langer und erfolgreicher Anwendung von Cloud Computing-Programmen tun sich plötzlich unerwartete Schwachstellen auf
Allein im Jahr 2012 wurden 9.762 bis dahin unbekannte Sicherheitslücken in der Open Source Vulnerability Database, einer weltweit zugänglichen Datenbank zur Verwaltung von Wissen um Sicherheitslücken in Software, registriert

(02.10.14) - Integration von digitalem Fachwissen und Automatisierung von Risiko-Analysen kann Testverfahren für Software deutlich verbessern und Cloud Computing sicherer machen. Das zeigen neueste Ergebnisse eines Projekts des Wissenschaftsfonds FWF zur Qualitätssicherung sicherheitskritischer Systeme, die soeben veröffentlicht wurden. Die Ergebnisse bilden eine Grundlage für sogenannte nicht-funktionale Sicherheitstests. Diese sollen Schwachstellen von Software identifizieren, die sich nicht aus dem unmittelbaren Programmablauf ergeben – und spielen für Cloud Computing eine immer wichtigere Rolle. Mit den nun entwickelten Grundlagen können solche Tests weiter automatisiert und nutzerfreundlicher gemacht werden.

Softwarwareentwickler erleben oftmals böse Überraschungen: Selbst nach langer und erfolgreicher Anwendung von Cloud Computing-Programmen tun sich plötzlich unerwartete Schwachstellen auf. Tatsächlich sind gerade Cloud-Programme anfällig dafür. Nicht weil sie schlecht geschrieben wurden, sondern weil sie viele laufend aktualisierte Schnittstellen besitzen. Diese machen Funktionalitäten erforderlich, die weit über den eigentlichen Programmablauf hinausgehen und von dritten Systemen abhängen. Sogenannte nicht-funktionale Sicherheitstests können diese Aspekte zwar testen, doch die konventionellen Methoden der Qualitätssicherung scheitern oft an der Komplexität der Anforderungen. Jetzt haben WissenschafterInnen der Universität Innsbruck Grundlagen vorgestellt, die nicht-funktionale Tests deutlich verbessern können.

Die wesentlichen Erfolgskriterien dieser vom Team um Prof. Ruth Breu, Leiterin des Instituts für Informatik, entwickelten Grundlagen sind dabei die Integration von Fachwissen sowie eine Automatisierung der Prozesse zur Risikoanalyse. Die Wichtigkeit für die Integration formalisierten Expertenwissens über Schwachstellen in Software führt die Expertin dabei eindrucksvoll aus: "Allein im Jahr 2012 wurden 9.762 bis dahin unbekannte Sicherheitslücken in der Open Source Vulnerability Database, einer weltweit zugänglichen Datenbank zur Verwaltung von Wissen um Sicherheitslücken in Software, registriert. Tatsächlich sind die Ursachen vieler dieser Sicherheitslücken aber seit Langem bekannt. Sie hätten zum Zeitpunkt der Softwareentwicklung also schon vermieden werden können. Optimierte nicht-funktionale Tests sollten daher auf solches existierende Wissen zurückzugreifen. Genau das tut unser Verfahren."

Dazu formalisiert das Team um Prof. Breu, Dr. Michael Felderer und Philipp Zech solches Wissen und macht es damit für nachfolgende automatische Risikoanalysen verfügbar. Diese Analysen resultieren in Risikoprofilen der zu testenden Systeme, die zum Erstellen ausführbarer Sicherheitstest verwendet werden. Dabei kommen moderne Programmiersprachen wie Scala und ASP sowie modellbasierte Verfahren zum Einsatz. Zu diesem automatisierten Prozess der Risikoanalyse meint Prof. Breu: "Das Problem bei bisherigen nicht-funktionalen Sicherheitstests ist die schier unendliche Anzahl an Möglichkeiten für Fehler. Bisher versuchte man, diese Situation durch menschliches Expertenwissen zu meistern, z. B. bei Penetrationstests. Die von uns gewählte Herangehensweise erlaubt nun aber ein strukturiertes und automatisiertes Testverfahren."

Prof. Breu ergänzt: "Zunächst war unsere Arbeit ja eher theoretisch geleitet. Doch wir wollten auch die Praxistauglichkeit unserer Überlegungen demonstrieren. Daher haben wir Real-Life Tests durchgeführt, die Reaktionen auf häufige Problemsituationen wie SQL-Injection-Angriffe checken." Im Rahmen der jetzt publizierten Arbeit wurde dabei zunächst auf eigens geschriebene Programme zurückgegriffen. Doch bereits seit einiger Zeit werden vom Team um Prof. Breu auch öffentlich verfügbare Testsysteme verwendet. Mit beeindruckendem Erfolg: Bis zu 90 Prozent aller Schwachstellen können aktuell zuverlässig identifiziert werden.

Insgesamt stellen die Ergebnisse dieses Projekts des FWF einen signifikanten Fortschritt für die zukünftige Qualitätssicherung sicherheitskritischer Systeme dar – ein Ergebnis, das die Bedeutung grundlegender wissenschaftlicher Arbeiten für die reibungslose Funktion unseres Alltages einmal mehr unter Beweis stellt. (Universität Innsbruck Institut für Informatik: ra)

Uni Innsbruck Institut für Informatik: Kontakt

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Innovation strategisch angehen

    Um im Markt dauerhaft erfolgreich zu bestehen, sind Software-Unternehmen gefordert, ihre Innovationskraft fortlaufend unter Beweis zu stellen. Dabei sehen sie sich immer wieder mit der anspruchsvollen Frage konfrontiert, wie sie ihre begrenzten Ressourcen am sinnvollsten einsetzen: Sollen sie bewährte Produkte, Dienstleistungen und Prozesse weiter optimieren - oder neue Ideen zu marktreifen Innovationen entwickeln?

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

  • 2025 zeichnen sich laut Fico fünf KI-Trends ab

    Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Java bewegt die Cloud

    Java mag mittlerweile 30 Jahre alt sein, doch die bewährte Programmiersprache bildet immer noch das Fundament zahlreicher geschäftskritischer Anwendungen. Um aktuellen Entwicklungen und Trends nachzuspüren, hat Azul im Rahmen des "2025 State of Java Survey and Report" mehr als 2.000 Java-Experten auf der ganzen Welt befragt. Die wichtigsten Ergebnisse gibt es hier im Überblick.

  • Nutzung von KI-Tools

    In einer Gartner-Studie¹ aus dem Jahr 2024 gaben zwei Drittel der Befragten an, dass Kunden zögern, wenn es um den Einsatz von KI im Kundenservice geht. Dies stellt Unternehmen vor ein Dilemma, da sie zunehmend auf KI setzen, um Kosten zu senken, Einblicke in Geschäftsprozesse zu gewinnen und mit innovativen Technologien auf dem neuesten Stand zu bleiben, während sie gleichzeitig die Kundenzufriedenheit aufrechterhalten.

  • Cloud-Edge-Infrastruktur in Europa

    eco - Verband der Internetwirtschaft e.V. übernimmt das Projektmanagement für das neu gestartete Projekt FACIS im Rahmen der europäischen Infrastrukturinitiative IPCEI-CIS/8ra . FACIS steht für das Konzept der Federation Architecture for Composed Infrastructure Services und wird seit November 2024 für die kommenden zwei Jahre vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) mit rund 6,8 Millionen Euro gefördert.

  • 2025 zeichnen sich fünf KI-Trends ab

    Scott Zoldi, KI-Visionär und Chief Analytics Officer bei Fico, sieht aktuell folgende fünf KI-Trends: Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI. Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Nutzung von KI als Wirtschaftsfaktor

    Die Entwicklung und Adaption von Künstlicher Intelligenz in Deutschland geht einigen viel zu langsam. Ist das wirklich so? Tatsächlich haben wir die KI weder verschlafen noch mutwillig ein- und ausgebremst. Aber es gibt eine Reihe von Besonderheiten, die der Nutzung von KI als Wirtschaftsfaktor nicht förderlich sind.

  • Erste Warnungen in Europa vor US-Clouds

    Norwegen und Dänemark warnen vor US-Cloud-Anbietern. Werden Deutschland und weitere europäische Länder diesem Beispiel folgen? Wann werden Regeln zum Datenschutz verschärft und wie können Unternehmen diese Hürde meistern?

  • Weg zu mehr Nachhaltigkeit

    Die sich zunehmend verschärfende Energieknappheit stellt Industrie, Haushalte und Politik vor enorme Herausforderungen. In einigen Branchen führt dies bereits dazu, dass Produktionskapazitäten gedrosselt werden. Vor diesem Hintergrund geraten auch Rechenzentren ins Blickfeld, die als digitale Infrastrukturen der modernen Gesellschaft zwar eine zentrale Rolle spielen, aber auch als besonders energieintensiv gelten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen