WeTransfer znalazł się w ogniu krytyki po tym, jak użytkownicy zauważyli niepokojący zapis w zaktualizowanym regulaminie serwisu. Fragment dotyczący wykorzystywania przesyłanych danych sugerował bowiem, że firma może używać plików użytkowników do trenowania modeli sztucznej inteligencji. Profesjonaliści, którzy często korzystają z WeTransfer do przesyłania projektów, zareagowali oburzeniem i zaczęli grozić rezygnacją z usług na rzecz konkurencji.
WeTransfer nie zwlekał z reakcją i niemal natychmiast opublikował nową, poprawioną wersję regulaminu, a także oficjalny wpis na blogu tłumaczący całą sytuację. Firma zapewnia, że nigdy nie zamierzała wykorzystywać zawartości przesyłanych plików do trenowania AI i że nie korzysta z tego typu technologii w odniesieniu do danych klientów.
„Z waszych opinii wywnioskowaliśmy, że mogliście mieć wątpliwości co do własności i kontroli nad swoimi treściami. Dlatego zaktualizowaliśmy regulamin, aby był bardziej zrozumiały i usunęliśmy wzmianki o machine learningu - to nie jest coś, co wykorzystujemy w odniesieniu do danych naszych użytkowników”, czytamy w oświadczeniu WeTransfer.
Choć firma nadal zachowuje standardowy zapis umożliwiającą rozwój i utrzymanie platformy, wszelkie zapisy o uczeniu maszynowym zostały wykreślone.
WeTransfer zmienia regulamin po krytyce użytkowników
Podobna sytuacja miała miejsce w 2023 roku z Dropboxem, którego zmieniony regulamin również sugerował możliwość wykorzystywania danych do trenowania AI. Wówczas również pojawiła się fala krytyki i firma musiała się tłumaczyć.
Incydent pokazuje rosnącą nieufność użytkowników wobec firm technologicznych. W dobie AI, gdzie artyści i twórcy pozywają gigantów za wykorzystywanie ich prac do trenowania modeli takich jak Midjourney czy ChatGPT, nawet wzmianka o uczeniu maszynowym w regulaminach może wywołać publiczne oburzenie. Dobrze, że jest to pilnowane.

Pokaż / Dodaj komentarze do: Pliki przesyłane przez WeTransfer bezpieczne? Firma odnosi się do trenowania AI