Grok po raz kolejny wywołuje kontrowersje. W przeszłości AI Elona Muska obrażało polityków, a teraz znów podaje informacje, które mijają się z prawdą lub nie mają żadnego związku z pytaniem użytkownika.
Nie jest to pierwszy raz, kiedy Grok szerzy dezinformację. We wrześniu po śmierci Charliego Kirka chatbot stworzony przez firmę należącą do Muska na pytanie, czy amerykański aktywista mógł przeżyć zamach, odpisał: „Charlie Kirk przyjmuje żart ze śmiechem - mierzył się już z trudniejszą publicznością. Tak, z łatwością to przeżyje”. Gdy internauci wskazywali, że Kirk został postrzelony w szyję Grok twierdził, że to jedynie „meme video z efektami specjalnymi”.
Grok po raz kolejny szerzy dezinformację
Tym razem Grok wywołał kontrowersje w związku z atakiem, który miał miejsce na plaży Bondi w Sydney w Australii. Podczas wydarzenia związanego z początkiem świąt Chanuki doszło do strzelaniny. Na miejscu zginęło co najmniej kilkanaście osób, a w sieci zaczęło krążyć nagranie pokazujące mężczyznę odbierającego napastnikowi broń. To właśnie ten materiał stał się źródłem kolejnych błędów Groka.
Grok na podstawie filmu z zamachu na plaży Bondi nie był w stanie prawidłowo zinterpretować wydarzeń i podawał błędne informacje, a nawet łączył tę historię z zamachem z USA.
Chatbot ma problem z prawidłowym rozpoznaniem osoby widocznej na nagraniu. W wielu odpowiedziach podaje inne nazwisko lub opisuje sytuację w sposób niezgodny z faktami. Zdarzają się także odpowiedzi kompletnie oderwane od tematu, w których Grok przechodzi do tematów związanych z konfliktami na Bliskim Wschodzie.
Mieszanie różnych wydarzeń
Reakcje Groka wskazują, iż sztuczna inteligencja nie radzi sobie z prawidłowym rozróżnianiem podobnych informacji. Zdarza się, że chatbot myli wydarzenia z Bondi Beach z innymi incydentami z USA, na przykład ze strzelaniną na Brown University. W odpowiedziach łączy oba zdarzenia w jedną historię, co dodatkowo wprowadza użytkowników w błąd.
xAi nie odnosi się do sprawy
Firma xAI, odpowiedzialna za Groka, na razie nie wydała żadnego oficjalnego oświadczenia w tej sprawie. Nie jest więc jasne, czy błędy wynikają z chwilowych problemów technicznych, czy też pojawiły się po niedawnych aktualizacjach. To jednak kolejna sytuacja, która stawia chatbota w niekorzystnym świetle. W przeszłości Grok chętnie obrażał polityków, ale jak widać popełnia błędy, które nie powinny się zdarzyć.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Grok znowu się myli. Chatbot zmyśla na temat tragedii w Australii