ChatGPT liest mit: Wie privat sind unsere Gespräche mit KI?

4 months ago 5
Überwachende Augen kommen hinter ChatGPT-Logo hervor

Was wie ein vertrauliches Gespräch mit einer Maschine wirkt, ist in Wahrheit überwacht: ChatGPT analysiert jede Frage und greift bei Verdacht ein.

Die Nutzer von ChatGPT haben ein sehr vertrauliches Verhältnis zu der vergleichbar jungen Anwendung und bedanken sich außerordentlich oft für die Antworten, die sie in den Chats erhalten. Der Betreiber von ChatGPT berichtet nun, dass die Firma viel Geld dadurch verliert, weil Nutzer höflich "Bitte" und "Danke" sagen.

Die Nutzer haben Angst, es sich durch Unhöflichkeit mit der Anwendung verscherzen und von ihr nicht mehr die beste Antwort bekommen. Dass ihre Höflichkeit auf der Maschinenseite Strom und damit Geld kostet, ist den wenigsten bewusst. Eine Anfrage bei ChatGPT kostet etwa zehn mal soviel Strom wie eine Anfrage bei Google in der Vor-KI-Zeit. Je mehr Text in einer Anfrage verarbeitet werden muss, desto mehr Energie wird also auch verbraucht.

Die Höflichkeit gegenüber ChatGPT ist möglicherweise auch ein Hinweis darauf, dass die Nutzer die Software wie einen guten und engen Freud betrachten, dem sie intimste Informationen anvertrauen, für die sie im echten Leben keinen Gesprächspartner haben.

Die Unterhaltung mit ChatGPT ist nicht privat

Nutzer vertrauen ChatGPT intimste Informationen an und gehen davon aus, dass sie mit der Maschine alleine sind, doch der Hersteller OpenAI scannt die Chats automatisch nach bestimmten Themen und lässt sie bei Auffälligkeiten von Moderatoren lesen und kann sie in bestimmten Fällen, in denen man eine Gefährdung Dritter erkennt, auch an die Polizei weitergeben.

Das hat das KI-Unternehmen Open AI, das in den USA aktuell wegen des Suizids eines Teenager verklagt wird, als Sicherheitsmaßnahme verkündet. Die Kriterien für die einzelnen Schritte der Moderation sind nicht bekannt.

Der Vorwurf in den USA lautete, der Chatbot habe dem Jugendlichen Methoden zur Selbsttötung empfohlen und angeboten, einen Abschiedsbrief für ihn zu verfassen. Der Fall in Kalifornien scheint nicht der erste Selbstmord zu sein, der in Zusammenhang mit ChatGPT gebracht wird.

Zudem zeigt sich inzwischen, dass Chatbots psychotische Gedanken in einem Umfang fördern können, wie es bislang nicht bekannt war.

In Fällen von Selbstgefährdung würde die Polizei aus Respekt vor der Privatsphäre der Betroffenen jedoch außen vor gelassen. Grund sei die einzigartig private Natur der Interaktionen mit ChatGPT.

Zu welchen Maßnahmen OpenAI bei erkannter Suizid-Gefahr verpflichtet ist, werden wohl die Gerichte in den Ländern, in welchen ChatGPT genutzt wird, feststellen müssen. Ob sich OpenAI mit Sitz in den USA an solche Urteile halten mag, ist eine andere Sache.

Mehr Sicherheit durch Scanning

OpenAI hatte in einem Blogpost angekündigt, seinen Chatbot sicherer machen zu wollen:

Mit dem weltweiten Anstieg der Nutzung von ChatGPT stellen wir fest, dass Menschen es nicht nur für Such-, Coding- und Schreibzwecke verwenden, sondern auch für sehr persönliche Entscheidungen wie Lebensratschläge, Coaching und allgemeine Unterstützung. In diesem Rahmen begegnen wir gelegentlich Menschen, die sich in einer ernsthaften mentalen Notsituation befinden.

"ChatGPT kennt alle meine Schwächen, Sorgen und Geheimnisse", schreibt Coco Khan, Autorin beim Guardian. Das Sprachmodell werde zunehmend von Menschen wie eine befreundete Person behandelt. Zur eigenen Absicherung hatte Open AI in der Vergangenheit bereits versucht zu verhindern, dass ChatGPT als Freund oder Therapeut benutzt wird.

Dennoch scheint es bislang nicht schwer, von ChatGPT Anleitungen zur Selbstverletzung oder Selbsttötung zu erhalten. Gleichzeitig scheint es der Chatbot jedoch zu vermeiden, direkt auf Fragen zu antworten, die sich mit der Suche nach therapeutischer Hilfe beschäftigen.

Wir möchten natürlich, dass unsere Tools für Menschen so hilfreich wie möglich sind. Deshalb arbeiten wir unaufhörlich daran, wie unsere Modelle Anzeichen von psychischer und emotionaler Belastung erkennen und darauf reagieren und wie wir Menschen mithilfe von Expertenwissen an die richtigen Kontaktstellen weiterleiten.

Open AI

ChatGPT soll keine Aussage machen, die Menschen gefährden können

Neben der Hilfestellung zu potenzieller Selbstverletzung sollen vom Chatbot auch weitere psychische Belastungen besonders behandelt werden. Dazu soll der Glaube zählen, ohne Pause längere Zeit Autofahren zu können. Menschen in psychischen Notlagen soll künftig professionelle Hilfe vermittelt oder die Kontaktaufnahme mit Angehörigen nahegelegt werden. Einen Zeithorizont, wann diese Maßnahmen umgesetzt werden sollen, gab das Unternehmen bislang nicht bekannt.

Zudem sollen Eltern mehr Kontrolle über die Chatbot-Nutzung ihrer Kinder erhalten können, denn in den USA wird gefordert, dass die Unternehmen Eltern eine Möglichkeit bieten, die Einstellungen in den Accounts ihrer Kinder zu kontrollieren.

Andere Eltern werfen den Bots sogar vor, ihre Kinder in die Isolation getrieben und zu gewalttätigem oder sexualisiertem Verhalten ermuntert zu haben. Ein 17-Jähriger soll laut den Vorwürfen sogar zur Gewalt gegen seine eigenen Eltern ermutigt worden sein.

Der Tagesanzeiger in der Schweiz meldete in diesem Zusammenhang im Dezember vergangenen Jahres:

Der amerikanische Teenager mit autistischen Zügen befragte den Chatbot über die Beschränkung seiner Bildschirmzeit durch seine Eltern, nachdem diese ihm Restriktionen auferlegt hatten, weil er durch den exzessiven Gebrauch der Plattform emotional instabil wurde und sich zu isolieren begann. Er litt unter Panikattacken und psychischen Zusammenbrüchen.

Die aktuelle Entwicklung der KI, auf den viele große Hoffnungen setzen, zeigt inzwischen, dass die Algorithmen trotz steigender Leistungsfähigkeit zahlreiche Elemente des menschlichen Zusammenlebens noch nicht beherrschen – was aber auch im Umfeld von Menschen bekannt ist, die sich einer vergleichbaren Kultur zurechnen.

Read Entire Article