ChatGPT-Macher sperren regierungsnahe Hacker aus
Regierungsnahe Hacker aus China, Iran, Nordkorea und Russland haben als Kunden Technologie hinter dem Chatbot ChatGPT genutzt, um ihre Angriffe zu verbessern. In Kooperation mit Microsoft seien die Accounts von fünf Hacker-Gruppen aufgekündigt worden, teilte die ChatGPT-Entwicklerfirma OpenAi mit.
Die Hacker nutzten die Technologie mit Künstlicher Intelligenz hauptsächlich, um die Software-Entwicklung zu automatisieren. Einige der Gruppe griffen darauf aber auch zurück, um technische Dokumentation zu übersetzen und nach öffentlich frei verfügbaren Informationen zu suchen. Die iranischen und nordkoreanischen Hacker hätten aber auch Texte für Phishing-Attacken von der KI schreiben lassen. Bei solchen Angriffen werden die Opfer mit Hilfe täuschend echt aussehender E-Mails verleitet, ihre Login-Informationen auf fingierten Websites der Hacker einzutippen.
OpenAI schränkte zugleich ein, die Entdeckung bestätige die Einschätzung, dass aktuelle KI-Technologie für die Entwicklung von Cyberattacken nur eingeschränkt nützlicher sei als herkömmliche Werkzeuge. Auch Microsoft betonte, man habe noch keine neuartigen Angriffe durch den Einsatz von KI gesehen.
ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil davon ist, dass die Software manchmal auch völlig falsche Antworten ausgeben kann, selbst wenn sie nur korrekte Informationen als Basis hatte. Die Software-Entwicklung wird inzwischen aber oft mit KI-Hilfe erfolgreich automatisiert.
© dpa-infocom, dpa:240215-99-993687/4