Mit KI zur Cybersicherheit?
- Lesezeichen für Artikel anlegen
- Artikel Url in die Zwischenablage kopieren
- Artikel per Mail weiterleiten
- Artikel auf X teilen
- Artikel auf WhatsApp teilen
- Ausdrucken oder als PDF speichern
Die eine Seite: Niedrigere Hürden für Hacker und intelligenter Spam
Die Fähigkeit von ChatGPT und anderen generativen KI-Systemen, funktionalen Code zu schreiben – neben programmierspezifischen Tools wie Copilot – senkt die Einstiegshürden für die Erstellung von Computerprogrammen aller Art und damit wohl auch von Malware. Die Entwickler von KI-Systemen werden unter Druck geraten, Missbrauch zu verhindern, aber der Einfallsreichtum derjenigen, die KI für kriminelle Zwecke nutzen wollen, ist groß. Das Ergebnis: Ein ständiger Wettlauf zwischen beiden.
Sinkende technische Barrieren könnten es auch Laien noch einfacher machen, in die Internetkriminalität einzusteigen – ein Trend, der bereits besteht und durch das Aufkommen von "Malware-as-a-Service", bei dem Kriminelle ihre Dienste dem Meistbietenden anbieten, weiter verstärkt wird.
KI-geschriebener Code könnte sich für Cyberkriminelle jedoch letztlich als weniger wertvoll erweisen als maschinell erstellte Inhalte, die auf das schwächste Glied der Cybersicherheitskette abzielen: den Nutzer. Die Standardisierung scheinbar von Menschen verfasster Texte kann es Kriminellen ermöglichen, Phishing-E-Mails erheblich zu verfeinern. Um maßgeschneiderte Angriffe zu entwickeln, werden Informationen aus sozialen Medien und von Unternehmenswebsites genutzt.
Zunächst erfolgen individualisierte Angriffe über Text. "Deepfakes", also trügerisch echt wirkende, mittels KI erzeugte Bild-, Audio- oder Videoaufnahmen, heben die kriminelle Täuschung der Opfer jedoch auf ein neues Level. Diese Technologie dürfte auch zunehmend in Desinformationskampagnen zum Einsatz kommen. Fehlerhafte KI-generierte Inhalte haben gezeigt, dass das von diesen Systemen verwendete Ausgangsmaterial ebenfalls anfällig für Manipulationen sein kann.
Die andere Seite: Überwachung der Cyberbedrohung in Echtzeit
Für Cyber-Security-Unternehmen verspricht KI neue Möglichkeiten, potenzielle Angriffe zu erkennen und abzuwehren, bevor sie Schaden anrichten.
Ein Beispiel: Zur Abwehr von Phishing- oder Erpressungsangriffen per E-Mail haben Cyberabwehrunternehmen bisher bestimmte E-Mail-Adressen, Domains oder E-Mail-Inhalte identifiziert und blockiert. Mit diesem statischen Ansatz können zwar bekannte Angriffsmuster blockiert werden, aber Adressen, Domains und Inhalte ändern sich ständig. Doch mit Hilfe von KI lassen sich inzwischen schädliche Inhalte an ihrem Zweck erkennen.
Die Firma Darktrace verwendet diesen Ansatz mit ihren KI-Systemen, die eine Bewertung in vier "Anreizkategorien" vornehmen: Erpressung, Aufforderung, Phishing und sonstiger Spam. Da diese Bewertungen auf grundlegenden Merkmalen der E-Mail-Struktur und nicht auf Signaturen beruhen, können sie schädliche Inhalte unabhängig von oberflächlichen Änderungen erkennen.
Die Grenzen zwischen Cyber- und physischer Sicherheit schwinden
Aus unserer Sicht spielt die KI bei der Bekämpfung von Cyberkriminalität eine entscheidende Rolle – denn digitale Systeme werden auch immer wichtiger für die physische Sicherheit.
Die Fußballweltmeisterschaft 2022 in Katar war ein gutes Beispiel dafür: Das Konzept des „vernetzten“ Stadions ermöglichte es, die Beleuchtung, den Zugang zu den Toren und die Kommunikation in allen acht Stadien über das Aspire Command Centre in Doha zu steuern. Ein erfolgreicher Cyberangriff auf die Weltmeisterschaft hätte nicht nur die Übertragung der Spiele gefährdet, sondern auch die Zuschauer in Gefahr gebracht. Die Fähigkeit der KI, Bedrohungen mit der Geschwindigkeit einer Maschine zu erkennen, war ein bedeutender Teil der Sicherheitsmaßnahmen, um eine Unterbrechung der WM zu vermeiden. Katar ist es gelungen, solche Angriffe erfolgreich zu verhindern oder abzuwehren.
Dagegen ein Negativ-Beispiel: Der Ransomware-Angriff auf die Colonial Pipeline, der 2021 in mehreren Staaten zu Treibstoffengpässen führte, ist ein Beispiel dafür, wie Cyberangriffe in großem Umfang physische Systeme lahmlegen können.
Beeindruckendes Wachstum
Die Analysefirma Precedence Research schätzt den Markt für KI-Cybersicherheit auf ein Volumen von 17,4 Mrd. US-Dollar im Jahr 2022. Bis 2032 könnte er um jährlich 19,4 % auf ein Volumen von 102,8 Mrd. US-Dollar wachsen. ChatGPT hat gezeigt, dass die KI in kurzer Zeit erstaunliche Fortschritte gemacht hat. Abzuwarten bleibt, wer zuerst aus diesen Fortschritten Vorteile ziehen wird – Cyber-Kriminelle oder Sicherheitsfirmen.
Cybersecurity-ETFs
- Der L&G Cyber Security UCITS ETF (IE00BYPLS672) umfasst derzeit knapp über 40 Unternehmen, die Dienstleistungen und Produkte rund um Cybersicherheit wie Viren- & Malwareschutz, Email-und Datenverschlüsselung, Biometrik & ID sowie cloudbasierte Sicherheitslösungen anbieten. Der ETF wurde 2015 aufgelegt und repliziert den ISE Cyber Security UCITS Index, der vom Research & Development-Team der Nasdaq entwickelt wurde.
- Der L&G Emerging Cyber Security ESG Exclusions UCITS ETF (IE000ST40PX8) ist 2022 aufgelegt worden und ergänzt den L&G Cyber Security. Er setzt auf Wachstumsunternehmen aus dem aufstrebenden Sub-Segment, die sich auf Hardwaresicherheit, Threat Intelligence und Blockchain-gestützte Sicherheitslösungen konzentrieren – zusätzlich zu Wachstumssegmenten wie Cloud- und netzwerkbezogene Sicherheitslösungen, die auch im älteren Fonds enthalten sind. Er bildet den Solactive Emerging Cyber Security Index mit knapp 40 Titeln ab.
Keine Kommentare
Die Kommentarfunktion auf stock3 ist Nutzerinnen und Nutzern mit einem unserer Abonnements vorbehalten.