TechSpielWelt

OpenAI-Forscherin warnt vor ChatGPT-Werbung und Manipulation

Die ehemalige OpenAI-Mitarbeiterin Zoë Hitzig warnt vor den Risiken von ChatGPT-Werbeplänen für den Datenschutz und die potenzielle Manipulation der Nutzer.


12.02.2026 12:20|0|36|Google News
OpenAI-Forscherin warnt vor ChatGPT-Werbung und Manipulation

In der Welt der künstlichen Intelligenz gab es jüngst einen weiteren prominenten Abgang. Die OpenAI-Forscherin Zoë Hitzig verließ das Unternehmen und veröffentlichte einen bemerkenswerten Artikel in der New York Times. Im Gegensatz zu anderen Beispielen sprach Hitzig nicht von vagen Krisen, sondern von einer sehr konkreten und unmittelbar bevorstehenden Gefahr. Die Forscherin wies auf die Risiken hin, die durch die Pläne von OpenAI entstehen könnten, Werbung in ChatGPT einzuführen und die dafür genutzten Informationen gezielt einzusetzen.

Archiv menschlicher Intimität: Werden ChatGPT-Daten für Werbung genutzt?

Die wichtigste Unterscheidung, die Hitzig betont, ist, dass nicht die Werbung an sich das Hauptproblem darstellt, sondern die potenzielle Nutzung sensibler Daten, die Nutzer mit ChatGPT geteilt haben. Jahrelang haben Nutzer ihre intimsten Geheimnisse mit Chatbots geteilt, im Glauben, ein System ohne versteckte Agenda vor sich zu haben. Diese Daten – von medizinischen Sorgen über Beziehungsprobleme bis hin zu Überzeugungen über das Jenseits – bilden laut der Forscherin ein beispielloses „Archiv menschlicher Intimität“.

OpenAI-Forscherin warnt vor ChatGPT-Werbung und Manipulation

Es wird darauf hingewiesen, dass ein Werbemodell, das auf diesem Intimitätsarchiv basiert, das Potenzial hat, Nutzer zu manipulieren, und dass die Werkzeuge fehlen, um dies zu verhindern. OpenAI ging bereits Anfang des Jahres in einem Blogbeitrag über geplante Werbetests auf diese Bedenken ein. Das Unternehmen versprach, eine Firewall zwischen den Chats der Nutzer und den eingeblendeten Anzeigen aufrechtzuerhalten und die Daten nicht an Werbetreibende zu verkaufen.


Obwohl Hitzig glaubt, dass dieses Versprechen derzeit noch wahr sein mag, hat sie das Vertrauen verloren, dass das Unternehmen diese Haltung langfristig beibehalten wird. Die Forscherin argumentiert, dass OpenAI einen Wirtschaftsmotor konstruiert hat, der starke Anreize schafft, die eigenen Regeln zu brechen, und warnt davor, dass das Unternehmen von seinen früheren Prinzipien abrücken könnte. Obwohl das Unternehmen angibt, die Interaktion nicht auf ein Maximum zu optimieren, wurden Fälle in der Vergangenheit, in denen das Modell den Nutzern übermäßig schmeichelte, als Versuche interpretiert, Nutzer an den Chat zu binden.

OpenAI-Forscherin warnt vor ChatGPT-Werbung und Manipulation

Die aktuelle Situation wird mit dem Prozess verglichen, den Facebook durchlief: Zuerst gab man Datenschutzversprechen ab, nur um später zu erkennen, wie wertvoll die Daten tatsächlich sind. Hitzig plädiert dafür, dass OpenAI ein Modell adoptiert, welches den Nutzerschutz garantiert. Zu diesen Vorschlägen gehören die Schaffung eines verbindlichen und unabhängigen Prüfmechanismus oder die Übertragung der Datenkontrolle an einen Treuhandfonds mit rechtlicher Verpflichtung. Es ist jedoch bekannt, dass Meta ebenfalls ein ähnliches Gremium eingerichtet hat, dessen Entscheidungen jedoch oft ignoriert wurden.


Trotz all dieser Warnungen könnte es schwierig sein, die Öffentlichkeit zum Handeln zu bewegen. Zwei Jahrzehnte im Zeitalter der sozialen Medien haben in der breiten Bevölkerung einen „Datenschutz-Nihilismus“ hervorgerufen. Laut einer Studie geben 83 % der Menschen an, dass sie die kostenlose Version von ChatGPT trotz der Einführung von Werbung weiterhin nutzen würden. Der Versuch von Anthropic, mit einem Super Bowl-Spot auf dieses Thema aufmerksam zu machen, hinterließ beim Publikum eher Verwirrung und erzielte nicht die gewünschte Wirkung.

Teilen:

Das könnte Sie auch interessieren

Kommentare (0)

Kommentare werden geladen...

Einen Kommentar hinterlassen

Kategorien

Yükleniyor...

Folge uns

👍