Po artykule The Wall Street Journal, który twierdzi, że OpenAI korzysta z narzędzia, które może z dużą dokładnością wykrywać eseje napisane przez ChatGPT, firma podzieliła się informacjami na temat swoich badań nad tekstowymi znakami wodnymi i wyjaśniła dlaczego nie udostępnia metody jego wykrywania.
Według The Wall Street Journal debata na temat tego, czy narzędzie powinno zostać udostępnione, sprawiła, że nie ujrzało ono światła dziennego, mimo że jest „gotowe”. W opublikowanej w niedzielę aktualizacji do majowego wpisu na blogu, OpenAI stwierdziło: „Nasze zespoły opracowały metodę tekstowego znaku wodnego, którą nadal rozważamy, badając alternatywy”.
Firma stwierdziła, że znak wodny to jedno z wielu rozwiązań, obejmujących klasyfikatory i metadane, które sprawdziła w ramach „szeroko zakrojonych badań nad pochodzeniem tekstu”.
Firma stwierdziła, że znak wodny to jedno z wielu rozwiązań, obejmujących klasyfikatory i metadane, które sprawdziła w ramach „szeroko zakrojonych badań nad pochodzeniem tekstu”. Według OpenAI rozwiązanie to „było bardzo dokładne” w niektórych sytuacjach, ale nie radzi sobie tak dobrze w obliczu pewnych form manipulacji, „takich jak używanie systemów tłumaczeniowych, przeformułowanie na inny model generatywny lub proszenie modelu o wstawienie specjalnego znak pomiędzy każdym słowem, a następnie usunięcia tego znak. A tekstowe znaki wodne mogą „nieproporcjonalnie wpłynąć na niektóre grupy” – napisało OpenAI. „Może na przykład napiętnować wykorzystanie sztucznej inteligencji jako przydatnego narzędzia do pisania dla osób, dla których angielski nie jest rodzimym językiem”.
Jak wynika z wpisu na blogu, OpenAI rozważało to ryzyko. Firma napisała również, że priorytetowo potraktowała udostępnienie narzędzi uwierzytelniających dla treści audiowizualnych. W oświadczeniu dla TechCrunch rzecznik OpenAI powiedział, że firma przyjmuje „świadome podejście” do pochodzenia tekstu ze względu na „związaną z tym złożoność i prawdopodobny wpływ na szerszy ekosystem poza OpenAI”.
Pokaż / Dodaj komentarze do: OpenAI kręci bat na uczniów, którzy korzystają z ChatGPT