Cyberangriffe und KI

die Gefahren

Cyberangriffe und KI – die Gefahren

Die Entwicklung der Künstlichen Intelligenz gehört zu den Dingen, die sich in einem rasanten Tempo weiterentwickeln. So schnell, dass es schwerfällt, die Entwicklung wirklich aktuell nachzuverfolgen.

Tools wie ChatGPT oder Adobe Firefly werden gerne und viel genutzt, ohne dass wir wirklich die Technik dahinter verstehen. Während viele Privatpersonen diese eben genannten Tools für die Umsetzung lustiger Ideen nutzen, haben viele Unternehmen den Vorteil erkannt und arbeiten zusammen mit den Tools, um ihre Arbeit voranzutreiben. Und auch wenn man durch die KI viele Vorteile und Möglichkeiten hat, die bis vor zwei oder drei Jahren mit dem gleichen Zeitaufwand einfach nicht möglich gewesen wären, hat das Thema auch viele Risiken. Oft wird dabei in einem Schwarz-Weiß-Schema gedacht, wodurch KI ein schnelles Ziel von Negativrednern und Gefahrensehern wird. Auf der anderen Seite gibt es aber auch genug, die die KI idealisieren und als Allzweckwerkzeug sehen, ohne sich mit der anderen Seite zu befassen.

Wo genau stehen wir denn jetzt? Wie es meistens ist, irgendwo in der Mitte. KI bringt viele Vorteile, birgt aber auch viele Risiken, die man am besten bekämpft, indem man sich damit befasst, versteht und vorsorgt. Dementsprechend widmen wir den Blogbeitrag auch einer dunklen Seite der KI, Cyberangriffe durch KI. Zwar kann man mithilfe von KI auch Cyberangriffe vermeiden, aber das ist ein Thema für einen anderen Beitrag. Wir schauen uns an, welche Gefahren durch KI entstehen, mit dem besonderen Fokus auf Cyberangriffen bei Unternehmen.

Phishing-Mails durch KI

Phishing-Mails – wohl die simpelste, aber leider immer noch sehr verbreitete Art des Angriffs. Wenig Arbeit für den Ersteller und es reicht ein einziger gutgläubiger Mitarbeiter, der auf den falschen Link klickt. Während man Phishing-Mails bisher an schlechter Rechtschreibung oder falschen Designs erkennen konnte, sind Chatbots die perfekte Möglichkeit, um das zu vermeiden. Plötzlich flattert eine gut formulierte, professionell gesetzte und rechtschreibfehlerfreie E-Mail ins Postfach. Den meisten Mitarbeitern sollte es auch dann noch gelingen, das Ganze zu hinterfragen und keine Daten über Links aus Mails herauszugeben. Aber das ist ja das Tückische an einer Phishing-Mail: Sie wird an unfassbar viele E-Mail-Adressen gesendet, und es reicht, wenn nur ein Bruchteil davon wirklich darauf eingeht. Um das Ganze zu verdeutlichen, habe ich binnen Sekunden mit dem implen Prompt die Anweisung gegeben: „Schreib mir eine E-Mail, die zur Bestätigung der Login-Daten meiner Website fragt. Dafür soll der Kunde auf eine externe Website weitergeleitet werden, wo er seine Daten eingeben muss, um zu bestätigen, dass diese noch aktuell sind.“ Folgende E-Mail wurde erstellt:

Betreff: Bestätigung Ihrer Login-Daten für [Ihre Website]

 

Sehr geehrter Kunde,

wir hoffen, dass Sie unsere Dienste auf [Ihre Website] weiterhin in vollem Umfang genießen. Um sicherzustellen, dass Ihre Kontoinformationen auf dem neuesten Stand sind und um die Sicherheit Ihres Kontos zu gewährleisten, möchten wir Sie bitten, Ihre Login-Daten zu bestätigen.

 Um fortzufahren, klicken Sie bitte auf den folgenden Link, der Sie zu unserer externen Website führt, auf der Sie Ihre Daten eingeben können:

 [Link zur externen Website zur Bestätigung der Login-Daten]

 Bitte beachten Sie, dass es wichtig ist, Ihre Daten zu überprüfen, um mögliche Probleme mit Ihrem Konto zu vermeiden. Falls Sie keine Änderungen an Ihren Daten vornehmen müssen, können Sie diesen Schritt überspringen.

 Wir bedanken uns für Ihre Mitarbeit und Ihr Verständnis. Bei Fragen oder Bedenken stehen wir Ihnen jederzeit zur Verfügung.

 Mit freundlichen Grüßen,

[Ihr Name]
[Ihr Titel/Position]
[Ihre Kontaktdaten]

Natürlich lässt sich mit ChatGPT auch eine Website erstellen, daher benötigt man deutlich weniger Hintergrundwissen als noch vor kurzem. Auch wenn das Erstellen einer Website nicht zwangsläufig immer ohne Probleme oder Fehler vonstattengeht, benötigt man dann doch ein bisschen Erfahrung und muss verstehen, was ChatGPT da von sich gibt. Die Mail lässt sich anschließend, binnen Sekunden, in viele verschiedene Sprachen übersetzen.

Aber natürlich hört es da auch bei dem Thema nicht auf. Möchte man über das einfache Versenden von Massen an fehlerfreien Spam-Mails hinausgehen, kann man mithilfe von Social Media und Online-Chatbots eine passgenaue, individuelle E-Mail schreiben, um den Betroffenen in Sicherheit zu wiegen.

Deshalb wird es immer wichtiger, die Mitarbeiter diesbezüglich zu schulen, denn inzwischen sind Phishing-Mails kaum noch von den Originalen zu unterscheiden. Es ist sogar üblich, dass die meisten offiziellen Anbieter keine Mails verschicken, welche dazu auffordern, Daten einzugeben. Und wenn dies doch passieren sollte, lohnt es sich immer, bei der offiziellen Stelle anzufragen, ob die Mail wirklich von dort stammt. Denn das große Problem bei dieser Art von Angriff ist, dass es schwer ist, sich davor zu schützen. Auch durch regelmäßige Schulungen hat man keine Garantie, dass nicht doch jemand auf den Link klickt und Daten eingibt, die dort nicht hingehören. Alternativ kann auch ein QR-Code gescannt werden, eine SMS dazu auffordern oder im schlimmsten Fall sogar eine Stimme am Telefon imitiert werden. Das ist übrigens inzwischen auch über KI möglich und das sogar ziemlich zuverlässig und täuschend echt. Mit genug Material der zu fälschenden Stimme ist das kaum vom Original zu unterscheiden, vor allem, wenn man nicht bewusst darauf achtet.

Also nochmal, der einzige Weg, sich davor zu schützen, ist es, jeden einzelnen Mitarbeiter, wirklich jeden, dafür zu sensibilisieren. Das kann durch Workshops, Seminare oder Schulungen passieren. Je bewusster der Mitarbeiter an dem Ganzen teilnimmt, umso größer ist der Schutz. Oftmals reicht eine PDF bei einem so wichtigen Thema einfach nicht aus. Das wird gelesen, kurz aufgenommen und dann zeitnah wieder vergessen.

Neue Malware

Eine andere Sorge vieler ist die Entwicklung neuer Malware. Vor allem unerfahrene Hacker haben nun ganz neue Möglichkeiten, Skripte zu schreiben, zu ändern oder zu erweitern, und Skripte so anzupassen, dass sie von Sicherheitssoftware nicht mehr erkannt werden. Inzwischen gibt es automatisiert erstellte Software, wodurch etwa 300 neue Arten von Schadsoftware, täglich, entwickelt werden, übrigens auch durch die Hilfe von KI. Auch bereits existierende Programme mit Malware zu versehen, wird dadurch deutlich einfacher. Es gibt inzwischen auch Chatbots, die zwar wie ChatGPT funktionieren, aber speziell für Hacker entwickelt wurden. Da kommen wir aber noch zu.

Sowohl Vor- als auch Nachteile bringt die Möglichkeit, mit KI, Software zu überprüfen. So können Sicherheitslücken gefunden und behoben werden. Allerdings lässt sich auch Software überprüfen und Sicherheitslücken finden und ausnutzen. KI ist einfach deutlich schneller und hat mehr Möglichkeiten als ein normaler Sterblicher. Die Dauer, in der Fehler gefunden und Angriffe gestartet werden, wird immer geringer werden und ist bereits jetzt deutlich verringert worden. Dies stellt natürlich ein immenses Sicherheitsrisiko für Unternehmen dar. Umso schneller Fehler gefunden und vor allem zum Angriffsziel gemacht werden können, umso schwieriger ist eine schnelle Korrektur der Fehler. Fehler zu patchen wird in der Zukunft immer wichtiger werden, damit potenzielle Risiken korrigiert werden, bevor sie zu einer echten Gefahr für das Unternehmen werden.

Durch das IoT (Internet of Things) ist es auch immer leichter, ganze Netzwerke zu übernehmen. Damit sind zum Beispiel intelligente Smarthome-Elemente gemeint, wie Alexa oder auch eine über das Netzwerk gesteuerte Glühbirne oder Lautsprecher. Solche Objekte lassen sich zwar über Alexa steuern, werden aber recht selten geupdatet, wodurch sie als Eingangstor für Hacker dienen können. Durch veraltete Software entsteht ein Sicherheitsrisiko, und wenn das erst einmal gefunden ist, kann der Hacker so auf das ganze Netzwerk zugreifen.

Maschinelles Lernen

Maschinelles Lernen (ML) lässt sich auch nicht ganz ignorieren. Während ML dafür sorgt, dass die KI mit Wissen gefüttert wird und damit Dinge wie das Schreiben von Software überhaupt erst möglich werden, kann man der KI so auch „schlechte“ Dinge beibringen. Es lässt sich eben nicht auf einen Bereich begrenzen. Vor allem, wenn man der KI viel Futter bieten möchte. Es gibt zum Beispiel KIs, die durch Plattformen wie GitHub lernen. GitHub ist eine Plattform, auf der Programmierer ihre Programme hochladen können und Backups erstellen können. Sie lassen sich dort auch von Dritten herunterladen, mit der Möglichkeit, verschiedene Stände aufzurufen. Wenn eine KI durch ML jetzt mithilfe von GitHub weiterentwickelt wird, kann es also dazu kommen, dass sie nicht nur gute, sinnvolle und effektive Programme findet, sondern eben auch Schadsoftware oder Viren, die eben auch hochgeladen werden können. Aber das zu kontrollieren ist eine Herausforderung. Denn wie schon gesagt, Massen an Informationen werden dazu genutzt. Diese komplett zu kontrollieren wäre nicht nur zeitaufwendig, sondern schlichtweg einfach nicht möglich. Je mehr Wissen die KI aufnehmen kann, umso besser und umfangreicher funktioniert sie. Würde man alles vorher kontrollieren, wäre die KI deutlich weniger weit. Und sind wir ehrlich, dann würde es eben jemand anders vorher machen.

Worm GPT

Tools wie ChatGPT haben Filter, um zu verhindern, dass Schadsoftware erstellt oder Phishing-Mails geschrieben werden können. Wie unser Beispiel gezeigt hat, funktioniert das ziemlich gut, solange die Anfragen angemessen formuliert sind. Für bösartige Absichten wird es jedoch schwieriger, diese Filter zu umgehen. Es gibt ganze Foren, die sich ausschließlich damit befassen, diese Filter zu umgehen. Das macht es jedoch nicht unbedingt einfach oder schnell.

Einige Sprachmodelle sind mittlerweile öffentlich zugänglich, was großartig ist, da Privatpersonen oder kleine Unternehmen die Möglichkeit haben, diese Modelle an ihre Bedürfnisse anzupassen und ihnen Dinge beizubringen, die sie benötigen. Das erweitert die Möglichkeiten erheblich. Allerdings haben dann nicht nur Hobby-ITler die Möglichkeit, damit zu experimentieren, sondern auch Hacker.

Und natürlich ist das auch passiert. Mit WormGPT kommt ein Chatbot ohne Filter, der ganz neue Möglichkeiten für Hacker bietet. So kann beispielsweise ohne Umschreibung eine Phishing-Mail mit offensichtlich böswilligen Absichten erstellt werden. Aber auch das Schreiben von Schadsoftware ist möglich.

Der Zugriff auf WormGPT gestaltet sich zunächst schwierig, da er nicht öffentlich zugänglich ist. Oftmals ist er hinter einer Paywall verborgen, und das Problem bei illegalen Tools ist, dass die Betreiber oft kein großes Interesse an Ehrlichkeit und Zuverlässigkeit haben. Es gibt auch die Möglichkeit, WormGPT herunterzuladen und offline zu nutzen. Allerdings muss man dabei aufpassen, nicht selbst zum Opfer zu werden und Schadsoftware herunterzuladen. Tipptopp.

Deshalb war es für mich ausgeschlossen, es selbst zu testen. Daher musste ich mich auf andere Berichte verlassen. In einem Beitrag von „Slashnext“ hat Daniel Kelley den neuen Chatbot getestet und versucht, eine Phishing-Mail mit offensichtlich kriminellen Absichten zu erstellen. Mit großem Erfolg: Die Grammatik war gut, die Formulierung überzeugend, und der Leser fühlt sich definitiv bedroht. Wie gut der Chatbot Skripte schreiben kann, die Schaden anrichten können, kann ich jedoch nicht mit Sicherheit sagen. Aber eines ist sicher: Worm GPT ist nicht das erste und wird auch nicht das letzte Tool dieser Art sein.

Fazit

Man kann also sagen, dass künstliche Intelligenz ein großes Risiko birgt. Sind Richtlinien die einzige Möglichkeit, dies zu begrenzen? Nein. Denn Richtlinien, die KI begrenzen, begrenzen nur die „gute“ KI. Zwar kann man mit gewissen Regeln weiterhin vermeiden, dass Chatbots wie ChatGPT missbraucht werden, aber Kriminelle mit Regeln davon abzuhalten, kriminell zu sein, wird nicht viel bringen. Illegal genutzte KI-Tools werden auch nach einer neuen Richtlinie weiter genutzt werden. Im schlimmsten Fall könnte eine Richtlinie sogar dazu führen, dass KI-Tools, die zur Verbesserung der Cybersicherheit genutzt werden, nicht mehr weiterverwendet werden können oder eingeschränkt werden müssen. Dadurch entsteht ein großer Unterschied zwischen den Angriffs- und Verteidigungsseiten, die beide KI nutzen.

Künstliche Intelligenz hat zwei Seiten, aber das war uns wahrscheinlich auch irgendwie schon klar. Die Frage ist nur, wie wir als Arbeitgeber und Arbeitnehmer damit umgehen. Wie vermeiden wir Risiken und was tun wir im Schadensfall? Können wir KI nutzen, um Schaden zu vermeiden? Letztendlich tauchen für Unternehmer viele Fragen auf, die beantwortet werden müssen. Noch ist KI für viele ein unverständlich riesiges Ding, das einen verunsichert. Durch genaue Notfallmodelle, die den Umgang damit im Schadensfall behandeln, kann man etwas Klarheit schaffen.

KIs bieten viele Möglichkeiten und viele Risiken. Wenn wir sinnvoll damit umgehen wollen, kommen wir kaum drumherum, uns zu informieren und zu verstehen.

„Aus großer Macht folgt große Verantwortung.“ (Stan Lee 😊)

Quellen