Ihre Erkenntnisse sind im ersten Tech Watch Flash-Bericht von Europol zusammengestellt, der diese Woche veröffentlicht wurde. Unter dem Titel «ChatGPT – the impact of Large Language Models on Law Enforcement» («ChatGPT – die Auswirkungen von großen Sprachmodellen auf die Strafverfolgung») gibt dieses Dokument einen Überblick über den potenziellen Missbrauch von ChatGPT und bietet einen Ausblick auf das, was noch kommen könnte.
Ziel dieses Berichts von Europol ist es, das Bewusstsein für den potenziellen Missbrauch von LLMs zu schärfen, einen Dialog mit Unternehmen im Bereich der künstlichen Intelligenz (KI) zu eröffnen, um ihnen zu helfen, bessere Schutzmaßnahmen einzubauen, und die Entwicklung sicherer und vertrauenswürdiger KI-Systeme zu fördern.
Eine längere und detailliertere Version dieses Berichts wurde nur für die Strafverfolgungsbehörden erstellt.
Was sind grosse Sprachmodelle?
Ein grosses Sprachmodell ist eine Art von KI-System, das Text verarbeiten, manipulieren und generieren kann.
Beim Training eines LLMs werden große Datenmengen wie Bücher, Artikel und Websites eingespeist, damit es die Muster und Verbindungen zwischen Wörtern lernen kann, um neue Inhalte zu generieren.
ChatGPT ist ein LLM, das von OpenAI entwickelt und im November 2022 im Rahmen einer Forschungsvorschau für die breite Öffentlichkeit freigegeben wurde.
Das derzeit öffentlich zugängliche Modell, das ChatGPT zugrunde liegt, ist in der Lage, menschenähnlichen Text als Reaktion auf Benutzeraufforderungen zu verarbeiten und zu erzeugen. Insbesondere kann das Modell Fragen zu einer Vielzahl von Themen beantworten, Text übersetzen, Gespräche führen («Chatten»), neue Inhalte generieren und funktionalen Code erzeugen.
Die Schattenseite von großen Sprachmodellen
Während die Fähigkeiten von LLMs wie ChatGPT aktiv verbessert werden, bietet die potenzielle Ausnutzung dieser Art von KI-Systemen durch Kriminelle einen düsteren Ausblick.
Die folgenden drei Kriminalitätsbereiche gehören zu den vielen Bereichen, die von den Europol-Experten als besorgniserregend eingestuft wurden:
Betrug und Social Engineering
Die Fähigkeit von ChatGPT, sehr realistische Texte zu verfassen, macht es zu einem nützlichen Werkzeug für Phishing-Zwecke. Die Fähigkeit von LLMs, Sprachmuster nachzubilden, kann genutzt werden, um den Sprachstil bestimmter Personen oder Gruppen zu imitieren. Diese Fähigkeit kann in großem Umfang missbraucht werden, um potenzielle Opfer dazu zu verleiten, ihr Vertrauen in die Hände von kriminellen Akteuren zu legen.
Desinformation
ChatGPT zeichnet sich dadurch aus, dass es in kürzester Zeit und in großem Umfang authentisch klingende Texte produziert. Dies macht das Modell ideal für Propaganda- und Desinformationszwecke, da es den Nutzern ermöglicht, mit relativ geringem Aufwand Nachrichten zu erstellen und zu verbreiten, die ein bestimmtes Narrativ widerspiegeln.
Cyberkriminalität
ChatGPT kann nicht nur menschenähnliche Sprache erzeugen, sondern auch Code in einer Reihe verschiedener Programmiersprachen. Für einen potenziellen Kriminellen mit geringen technischen Kenntnissen ist dies eine unschätzbare Ressource, um bösartigen Code zu erzeugen.
Im Zuge des technologischen Fortschritts und der Verfügbarkeit neuer Modelle wird es für die Strafverfolgungsbehörden immer wichtiger, mit diesen Entwicklungen Schritt zu halten, um Missbräuche zu erkennen und zu verhindern.
Hier geht es zum ausführlichen Bericht.