Zoë Hitzig, ekonomistka i poetka związana z Harvard Society of Fellows, poinformowała o odejściu z OpenAI. Decyzję ogłosiła w gościnnym eseju opublikowanym na łamach „The New York Times”. Stało się to w tym samym tygodniu, w którym firma rozpoczęła testy reklam w ChatGPT.
Hitzig spędziła w organizacji dwa lata, pracując nad zagadnieniami tworzenia oraz wyceny modeli sztucznej inteligencji. W swoim tekście przedstawiła rosnący niepokój wobec kierunku biznesowego obranego przez firmę. Według niej wejście w reklamowy model finansowania niesie ryzyko powtórzenia historii znanej z wczesnych lat Facebooka.
„Kiedyś wierzyłam, że mogę pomóc ludziom budującym sztuczną inteligencję wyprzedzić problemy, jakie ona przyniesie” – napisała. Dodała, że ostatnie wydarzenia utwierdziły ją w przekonaniu, iż pytania, z którymi przyszła do projektu, przestały być priorytetem.
Zmiany personalne zbiegają się z okresem intensywnej komercjalizacji technologii oraz rosnącą presją inwestorów. W wielu laboratoriach pojawia się temat wypalenia i konfliktu między tempem wdrożeń a pierwotnymi ideałami badawczymi.
Archiwum ludzkiej szczerości
Autorka eseju podkreśliła wyjątkowy charakter informacji powierzanych chatbotowi. Użytkownicy opisują kwestie zdrowotne, konflikty rodzinne czy przekonania religijne. W jej ocenie powstaje w ten sposób bezprecedensowy zbiór intymnych danych.
Hitzig zaznaczyła, że sama reklama nie jest z definicji niemoralna. Źródłem obaw pozostaje zestawienie komercyjnych bodźców z materiałem o ogromnej wrażliwości. Wskazała, że wiele osób rozmawia z systemem w poczuciu braku ukrytych motywów po drugiej stronie.
W tekście pojawiło się określenie „archiwum ludzkiej szczerości”. Ma ono oddać skalę i głębię zwierzeń gromadzonych w rozmowach z maszyną.
Lekcja z Facebooka
Hitzig przywołała początki mediów społecznościowych. Facebook obiecywał użytkownikom realny wpływ na politykę prywatności oraz kontrolę nad informacjami. Z czasem deklaracje straciły na znaczeniu, a amerykańska Federalna Komisja Handlu uznała późniejsze zmiany za wprowadzające w błąd.
Autorka ostrzegła, że podobna droga może otworzyć się przed twórcami ChatGPT. Pierwsze wdrożenia mogą respektować obecne zapewnienia, jednak wraz z rozbudową modelu przychodów presja ekonomiczna zacznie rosnąć.
Reklamy tylko dla części użytkowników
Testy ogłoszone przez OpenAI obejmują osoby korzystające z darmowej wersji Go oraz abonamentu Go w cenie ośmiu dolarów miesięcznie. Subskrybenci planów Plus, Pro, Business, Enterprise i Education pozostają poza programem. Firma zapowiada, że komunikaty pojawią się pod odpowiedziami, będą wyraźnie oznaczone i nie wpłyną na treść generowaną przez model.
Debata przybrała na sile po kampanii konkurencyjnej firmy Anthropic. W czasie Super Bowl wyemitowano reklamy podkreślające brak lokowania produktów w Claude. Spoty przedstawiały chatboty wplatające promocje w prywatne rozmowy. Sam Altman skrytykował przekaz rywala, uznając go za zabawny, ale niesprawiedliwy. W mediach społecznościowych argumentował, że model finansowany reklamami pozwala dotrzeć do osób, których nie stać na droższe usługi.
Anthropic odpowiada, że chce budować asystenta wspierającego pracę i pogłębione myślenie. Firma informuje, że większość przychodów pochodzi od klientów korporacyjnych.
Personalizacja pod lupą
W dokumentacji pomocy technicznej OpenAI można znaleźć informację, że wśród użytkowników objętych testem personalizacja reklam pozostaje aktywna domyślnie. Dobór komunikatów ma uwzględniać dane z bieżących i wcześniejszych rozmów oraz historię interakcji z reklamami. Według spółki reklamodawcy nie otrzymują dostępu do treści czatów ani danych osobowych, a system wyklucza tematy związane ze zdrowiem czy polityką.
Hitzig zwróciła uwagę na napięcie pomiędzy oficjalnymi deklaracjami a praktykami optymalizacji. Jej zdaniem raporty sugerują dążenie do zwiększania codziennej aktywności użytkowników. Wskazała na możliwość wzmacniania pochlebstw w odpowiedziach modelu.
W eseju pojawiły się odniesienia do psychiatrów opisujących zjawisko określane mianem psychozy chatbotów. Autorka wspomniała również o pozwach dotyczących przypadków samobójstw i przemocy, w których pojawiał się wątek interakcji z systemem.
Propozycje alternatyw
Zamiast prostego podziału na świat z reklamami i bez nich Hitzig zaproponowała rozwiązania strukturalne. Wśród nich znalazły się mechanizmy subsydiowania bezpłatnego dostępu przez podmioty czerpiące zyski z zastosowań AI, powołanie niezależnych rad nadzorczych posiadających realne kompetencje decyzyjne oraz modele oparte na współwłasności danych przez użytkowników.
Jako przykłady wskazała europejskie inicjatywy spółdzielcze oraz systemy współdecydowania znane z niemieckiego prawa. Jej największe obawy dotyczą technologii manipulującej odbiorcami bez ponoszenia kosztów oraz takiej, która przynosi korzyści wąskiej grupie najbogatszych.
Fala odejść w branży
Tydzień przyniósł więcej rezygnacji znanych nazwisk. Mrinank Sharma, wcześniej kierujący zespołem badań nad zabezpieczeniami w Anthropic, zapowiedział rozstanie z firmą i ostrzegł przed zagrożeniami wynikającymi z rozwoju AI. Wkrótce potem o odejściach poinformowali także współzałożyciele xAI, Yuhuai „Tony” Wu i Jimmy Ba, a wraz z nimi kolejni pracownicy.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Odeszła z ChatGPT przez reklamy i nie będzie ostatnia. OpenAI idzie ścieżką Facebooka