Prawdziwa sztuczna inteligencja coraz bliżej? DeepMind prognozuje AGI do 2030 roku i ostrzega

Prawdziwa sztuczna inteligencja coraz bliżej? DeepMind prognozuje AGI do 2030 roku i ostrzega

Czy ludzkość stoi u progu przełomu, który może zmienić historię technologii — a być może i świata? Firma DeepMind, należąca do Google, twierdzi, że już do końca tej dekady może osiągnąć przełom w dziedzinie tzw. sztucznej inteligencji ogólnej. To odważne stwierdzenie spotyka się z mieszanką sceptycyzmu i fascynacji wśród naukowców, inżynierów oraz opinii publicznej.

Mimo że termin „Artificial General Intelligence” (AGI) funkcjonuje w debacie publicznej już od wielu lat, jego definicja wciąż pozostaje niesprecyzowana. W najprostszych słowach, AGI to system sztucznej inteligencji zdolny do wykonywania dowolnego zadania intelektualnego, które potrafi człowiek — z podobnym lub wyższym poziomem kompetencji. W przeciwieństwie do obecnie dostępnych modeli, takich jak ChatGPT czy Claude, które specjalizują się w określonych zadaniach i mają swoje wyraźne ograniczenia, AGI miałaby być elastyczna, adaptacyjna i zdolna do samodzielnego uczenia się w sposób przekrojowy.

I tu pojawia się kontrowersja. Niektórzy eksperci uważają, że AGI jest wizją odległą o setki lat, a jej realizacja wymaga technologii, których jeszcze nawet nie potrafimy sobie wyobrazić. Tymczasem DeepMind przekonuje, że przełom może nastąpić już do 2030 roku. Co więcej – firma już teraz projektuje protokoły bezpieczeństwa, które miałyby chronić ludzkość przed potencjalnymi zagrożeniami związanymi z rozwojem takiej technologii.

Od chatbotów do geniuszu – długa droga przed nami

Obecnie liderami rynku są tzw. modele językowe dużej skali (LLM) – systemy przewidujące słowa i generujące tekst lub obrazy na podstawie wzorców z ogromnych zbiorów danych. Mimo imponujących zdolności językowych, mają istotne braki: mylą się w matematyce, słabo radzą sobie z przestrzeganiem złożonych instrukcji, a ich „kreatywność” bywa nieprzewidywalna.

Dlatego przejście od takich narzędzi do czegoś, co dorównuje lub przewyższa najbardziej wykwalifikowanych dorosłych ludzi, wydaje się dla wielu krokiem nie tylko ambitnym, ale wręcz rewolucyjnym.

Zagrożenia AGI: DeepMind ostrzega

W najnowszym raporcie badawczym DeepMind identyfikuje cztery główne kategorie ryzyk, które mogą towarzyszyć pojawieniu się AGI:

  1. Niewłaściwe użycie – czyli zastosowanie AGI do celów nieetycznych lub przestępczych. Przykłady obejmują tworzenie fałszywych nagrań (deepfake) w kampaniach dezinformacyjnych, czy podszywanie się pod inne osoby w oszustwach finansowych. DeepMind sugeruje, że jednym z priorytetów powinno być „uniemożliwienie złośliwym podmiotom dostępu do niebezpiecznych funkcji”.

  2. Niezgodność (misalignment) – scenariusz rodem z „Terminatora”, w którym system AI źle interpretuje nasze intencje i wykonuje zupełnie inne działania niż planowaliśmy. Rozwiązaniem ma być dogłębne zrozumienie działania systemów, co pozwoli monitorować ich decyzje i reagować na ewentualne odchylenia od założonych celów.

  3. Błędy systemowe – sytuacje, w których AGI podejmuje niewłaściwe decyzje z powodu własnych ograniczeń poznawczych, błędnych danych lub niezamierzonych konsekwencji. Przykład? AI, która „w dobrej wierze” podejmuje działania szkodliwe dla środowiska lub zdrowia publicznego, bo nie przewidziała ich skutków.

  4. Ryzyka strukturalne – wynikające z chaosu organizacyjnego lub braku jasnych zasad współpracy między instytucjami rozwijającymi AGI. W grę wchodzi także konkurencja między państwami i firmami, mogąca doprowadzić do braku standardów bezpieczeństwa w wyścigu o dominację technologiczną.

Czy DeepMind może zagwarantować bezpieczeństwo?

Deklaracje DeepMind brzmią uspokajająco, ale wielu obserwatorów zwraca uwagę na potencjalny konflikt interesów. W końcu firma jest częścią technologicznego giganta Google, który również inwestuje w rozwój AGI. Jak zauważają krytycy, chociaż Google raczej nie wykorzysta AI do oszustw finansowych, to motyw zysku może przeważyć nad troską o dobro publiczne.

Ponadto, sama idea pełnej kontroli nad AGI budzi pytania. Jeśli systemy mają stać się tak złożone, że ich decyzje będą trudne do przewidzenia i zrozumienia, jak zapewnić ich pełne bezpieczeństwo? DeepMind przekonuje, że najważniejsze będzie transparentne projektowanie i systemy zatwierdzania działań AI, które pozwolą ludziom zachować kontrolę nad tym, co AGI robi — i dlaczego.

Przygotowani na przewidywalne – co z nieprzewidywalnym?

Choć raport DeepMind skupia się na znanych i przewidywalnych ryzykach, to największym zagrożeniem — jak zauważają eksperci — są te, których jeszcze nie potrafimy sobie wyobrazić. Historia technologii pokazuje, że największe wstrząsy nierzadko przychodzą z najmniej oczekiwanych stron.

Niemniej jednak, fakt że już teraz prowadzi się otwartą debatę na temat potencjalnych zagrożeń AGI, to znak dojrzałości środowiska naukowego. Bo jak stwierdzają autorzy raportu: problemy, które potrafimy sobie wyobrazić, to problemy, do których możemy się przygotować.


 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Prawdziwa sztuczna inteligencja coraz bliżej? DeepMind prognozuje AGI do 2030 roku i ostrzega

 12 Komentarzy
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł