KI kann KI-Chats belauschen
KI kann KI-Chats belauschen; Von Reisezielen bis hin zu möglichen Auswirkungen medizinischer Befunde – immer mehr Menschen nutzen KIs für Recherchen zu persönlichen und teils hochsensiblen Dingen. Sie verlassen sich dabei darauf, dass die Übertragung gesichert erfolgt und damit nicht Hinz&Kunz mitlesen kann, was sie aktuell bewegt. Forschende der Ben-Gurion Universität demonstrierten nun, dass diese Sicherheit in vielen Fällen nicht gewährleistet war. Denn sie konnten aus den verschlüsselt übertragenen Daten die Antworten von ChatGPT und anderer GPTs mit erstaunlich hoher Zuverlässigkeit rekonstruieren, berichtet der heise online Security-Experte Jürgen Schmidt:
Einblick in die Entschlüsselungsmethoden
Israelischen Forschern ist es gelungen, auf ziemlich abgefahrene Art und Weise die Antworten, die eine KI auf konkrete Fragen des Anwenders gibt, zu entschlüsseln, und zwar nur, indem sie den eigentlich verschlüsselten Netzwerkverkehr belauschen. Dazu haben sie natürlich nicht die Verschlüsselung geknackt, sondern sie machen sich spezielle Eigenheiten dieser KI-Kommunikation zunutze. Insbesondere, dass die KIs wortweise arbeiten und diese Wörter der Antworten auch tatsächlich einzeln übertragen werden. Und zusätzlich kommt eine sogenannte Stromchiffre zum Einsatz, die immer genau ein Zeichen durch ein anderes ersetzt. Das heißt, es bleiben die Wortlängen erhalten. Damit hat ein Lauscher im Netz die Information über die Länge der Wörter. Das reicht alleine natürlich noch nicht aus, um den gesamten Kontext zu entschlüsseln, aber man weiß einiges über den typischen Aufbau solcher Antworten von KIs. Wenn man das und eine Liste von Wörtern einer KI verfüttert und die darauf trainiert, diese Antworten zu rekonstruieren aus den Wortlängen und dem Antwortverhalten der jeweiligen KI, gelang es den Forschern tatsächlich, Inhalte zu rekonstruieren, und zwar mit erstaunlicher Genauigkeit. In über der Hälfte aller abgefangenen Antworten konnten sie den Inhalt des Gesprächs zumindest ganz grob rekonstruieren und in 29 Prozent der Fälle sogar wortwörtlich.
Testen Sie unseren Webseitenbot und stellen ihn alle Fragen zu unseren Produkten
Bot bestellenWebseiten Bots, E Mail Bots , Telefon Bots
Betroffene KI-Systeme
Die Sicherheitslücke betrifft KI-Systeme wie ChatGPT, Microsofts Copilot und Anthropic. Lösungsansätze könnten sein, die Übertragung von einzelnen Wörtern zu vermeiden und stattdessen mehrere Wörter zusammenzufassen. Alternativ könnten die Pakete mit zufälligen Daten auf eine bestimmte Mindestlänge aufgefüllt werden, um die Seitenkanalinformation zu verschleiern. Dadurch wäre es für potenzielle Angreifer schwieriger, die Wortlängen zu bestimmen und somit die Antworten zu rekonstruieren. Diese Maßnahmen könnten die Sicherheit von KI-Systemen verbessern und die Privatsphäre der Nutzer schützen. Es ist wichtig, dass Entwickler von KI-Systemen solche Sicherheitsrisiken ernst nehmen und entsprechende Schutzmechanismen implementieren, um die Integrität der Daten und die Privatsphäre der Nutzer zu gewährleisten.
Bot bestellenWebseiten Bots, E Mail Bots , Telefon Bots