Odeszła z ChatGPT przez reklamy i nie będzie ostatnia. OpenAI idzie ścieżką Facebooka


Odeszła z ChatGPT przez reklamy i nie będzie ostatnia. OpenAI idzie ścieżką Facebooka

Zoë Hitzig, ekonomistka i poetka związana z Harvard Society of Fellows, poinformowała o odejściu z OpenAI. Decyzję ogłosiła w gościnnym eseju opublikowanym na łamach „The New York Times”. Stało się to w tym samym tygodniu, w którym firma rozpoczęła testy reklam w ChatGPT.

Hitzig spędziła w organizacji dwa lata, pracując nad zagadnieniami tworzenia oraz wyceny modeli sztucznej inteligencji. W swoim tekście przedstawiła rosnący niepokój wobec kierunku biznesowego obranego przez firmę. Według niej wejście w reklamowy model finansowania niesie ryzyko powtórzenia historii znanej z wczesnych lat Facebooka.

„Kiedyś wierzyłam, że mogę pomóc ludziom budującym sztuczną inteligencję wyprzedzić problemy, jakie ona przyniesie” – napisała. Dodała, że ostatnie wydarzenia utwierdziły ją w przekonaniu, iż pytania, z którymi przyszła do projektu, przestały być priorytetem.

Zmiany personalne zbiegają się z okresem intensywnej komercjalizacji technologii oraz rosnącą presją inwestorów. W wielu laboratoriach pojawia się temat wypalenia i konfliktu między tempem wdrożeń a pierwotnymi ideałami badawczymi.

Archiwum ludzkiej szczerości

Autorka eseju podkreśliła wyjątkowy charakter informacji powierzanych chatbotowi. Użytkownicy opisują kwestie zdrowotne, konflikty rodzinne czy przekonania religijne. W jej ocenie powstaje w ten sposób bezprecedensowy zbiór intymnych danych.

Hitzig zaznaczyła, że sama reklama nie jest z definicji niemoralna. Źródłem obaw pozostaje zestawienie komercyjnych bodźców z materiałem o ogromnej wrażliwości. Wskazała, że wiele osób rozmawia z systemem w poczuciu braku ukrytych motywów po drugiej stronie.

W tekście pojawiło się określenie „archiwum ludzkiej szczerości”. Ma ono oddać skalę i głębię zwierzeń gromadzonych w rozmowach z maszyną.

Lekcja z Facebooka

Hitzig przywołała początki mediów społecznościowych. Facebook obiecywał użytkownikom realny wpływ na politykę prywatności oraz kontrolę nad informacjami. Z czasem deklaracje straciły na znaczeniu, a amerykańska Federalna Komisja Handlu uznała późniejsze zmiany za wprowadzające w błąd.

Autorka ostrzegła, że podobna droga może otworzyć się przed twórcami ChatGPT. Pierwsze wdrożenia mogą respektować obecne zapewnienia, jednak wraz z rozbudową modelu przychodów presja ekonomiczna zacznie rosnąć.

Reklamy tylko dla części użytkowników

Testy ogłoszone przez OpenAI obejmują osoby korzystające z darmowej wersji Go oraz abonamentu Go w cenie ośmiu dolarów miesięcznie. Subskrybenci planów Plus, Pro, Business, Enterprise i Education pozostają poza programem. Firma zapowiada, że komunikaty pojawią się pod odpowiedziami, będą wyraźnie oznaczone i nie wpłyną na treść generowaną przez model.

Debata przybrała na sile po kampanii konkurencyjnej firmy Anthropic. W czasie Super Bowl wyemitowano reklamy podkreślające brak lokowania produktów w Claude. Spoty przedstawiały chatboty wplatające promocje w prywatne rozmowy. Sam Altman skrytykował przekaz rywala, uznając go za zabawny, ale niesprawiedliwy. W mediach społecznościowych argumentował, że model finansowany reklamami pozwala dotrzeć do osób, których nie stać na droższe usługi.

Anthropic odpowiada, że chce budować asystenta wspierającego pracę i pogłębione myślenie. Firma informuje, że większość przychodów pochodzi od klientów korporacyjnych.

Personalizacja pod lupą

W dokumentacji pomocy technicznej OpenAI można znaleźć informację, że wśród użytkowników objętych testem personalizacja reklam pozostaje aktywna domyślnie. Dobór komunikatów ma uwzględniać dane z bieżących i wcześniejszych rozmów oraz historię interakcji z reklamami. Według spółki reklamodawcy nie otrzymują dostępu do treści czatów ani danych osobowych, a system wyklucza tematy związane ze zdrowiem czy polityką.

Hitzig zwróciła uwagę na napięcie pomiędzy oficjalnymi deklaracjami a praktykami optymalizacji. Jej zdaniem raporty sugerują dążenie do zwiększania codziennej aktywności użytkowników. Wskazała na możliwość wzmacniania pochlebstw w odpowiedziach modelu.

W eseju pojawiły się odniesienia do psychiatrów opisujących zjawisko określane mianem psychozy chatbotów. Autorka wspomniała również o pozwach dotyczących przypadków samobójstw i przemocy, w których pojawiał się wątek interakcji z systemem.

Propozycje alternatyw

Zamiast prostego podziału na świat z reklamami i bez nich Hitzig zaproponowała rozwiązania strukturalne. Wśród nich znalazły się mechanizmy subsydiowania bezpłatnego dostępu przez podmioty czerpiące zyski z zastosowań AI, powołanie niezależnych rad nadzorczych posiadających realne kompetencje decyzyjne oraz modele oparte na współwłasności danych przez użytkowników.

Jako przykłady wskazała europejskie inicjatywy spółdzielcze oraz systemy współdecydowania znane z niemieckiego prawa. Jej największe obawy dotyczą technologii manipulującej odbiorcami bez ponoszenia kosztów oraz takiej, która przynosi korzyści wąskiej grupie najbogatszych.

Fala odejść w branży

Tydzień przyniósł więcej rezygnacji znanych nazwisk. Mrinank Sharma, wcześniej kierujący zespołem badań nad zabezpieczeniami w Anthropic, zapowiedział rozstanie z firmą i ostrzegł przed zagrożeniami wynikającymi z rozwoju AI. Wkrótce potem o odejściach poinformowali także współzałożyciele xAI, Yuhuai „Tony” Wu i Jimmy Ba, a wraz z nimi kolejni pracownicy.

 

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Odeszła z ChatGPT przez reklamy i nie będzie ostatnia. OpenAI idzie ścieżką Facebooka
 0