Sicherheitsrisiko KI-Chat: ChatGPT plaudert Anmeldedaten aus
Modernes Orakel, Formulierungshilfe, Unterstützung beim Programmieren, Inspirationsquelle — das alles kann ein KI-Chatbot sein. Auf die Richtigkeit der Antworten einer auf Large Language Models basierenden KI sollte man sich auf keinen Fall verlassen – offenbar ebenso wenig darauf, dass der Dienstleister vertraulich mit dem bereitgestellten Material umgeht. Ein extremes Beispiel für die fehlende Vertrauenswürdigkeit zeigt das IT-News-Portal
Ars Technica. Screenshots eines Lesers und ChatGPT-Nutzers dokumentieren fehlgeleitete Informationen in der Chat-Historie, gespickt mit vertraulichen Informationen.
Der Leser berichtete, was er in der Chat-Historie seines Accounts entdeckte. Er entdeckte dort mehrere Einträge, die nichts mit seinen Anfragen der letzten Tage zu tun hatten. Einer davon sah aus wie die Chat-Kommunikation zweier Supportmitarbeiter, die offenbar vor vier Jahren stattfand. Inhalt der Kommunikation waren mehrere Benutzernamen für einen Apothekendienstleister, nebst dazugehörigen Kennwörtern. Internetadressen und der Name der getesteten App erschienen ebenfalls in der Kommunikation, die unvermittelt in der Chat-Historie des Ars-Technica-Lesers auftauchten – gewürzt mit deftiger Kritik an der Qualität der Software, über die sie sich austauschten.
Präsentation, Forschungsvorhaben und PHP-SkriptWeitere falsch zugeordnete Chats verrieten Details über ein geplantes Forschungsprojekt, dokumentierten die Entstehung PHP-Skripts und zeigten, wie mithilfe von Chatbots ein Bewerbungsschreiben entstand. In allen Chats sind zumindest persönliche, wenn nicht sicherheitskritische Informationen enthalten, die in den falschen Händen viel Schaden anrichten können.
Die in KI-Kommunikationen enthaltenen Informationen sind mindestens peinlich, wenn nicht gefährlich. Quelle:
Ars Technica Traue keiner KIUm ChatGPT zu nutzen, müssen Anwender einen Account anlegen. Darüber kann man bisherige Anfragen einsehen. Zudem regelt OpenAI so die Nutzungslimits: Mit einem kostenlosen Konto sind die Zahl der täglichen Anfragen begrenzt. Nutzer eines bezahlten Pro-Accounts können verschiedene Sprachmodelle ohne Begrenzung nutzen – außerdem werden auf Wunsch die eigenen Chats nicht als Trainingsdaten für die Fortentwicklung verwendet. Trotzdem bleiben die Chatverläufe gespeichert – und bei solchen Zuordnungsfehlern landen die Informationen auch in falschen Händen. Darum sollte man einem Chatbot keine vertraulichen Informationen übereignen. Viele Unternehmen haben darum strikte Regeln für den Umgang mit ChatGPT – oder verbieten die Nutzung von Chatbots komplett.