Sztuczna inteligencja od Google'a zwróciła uwagę na ludzki błąd poznawczy, związany z rozpoznawaniem tekstu. Podczas czytania dowolnego artykułu, napisanego w płynny sposób, językiem który widzimy na co dzień i którym posługujemy się równie często, nasz mózg automatycznie interpretuje go jako coś, co zostało stworzone przez człowieka. Problem pojawia się wówczas, gdy wytrenowana SI posługuje się naszym słownictwem równie płynnie.
Czytając książkę, recenzję, czy nawet ten artykuł, ludzki mózg interpretuje napisany tekst jako dzieło człowieka. Dzieje się tak głównie dlatego, iż całość komponuje się w płynną i logiczną całość. Ludzki autor dobrze wie, kiedy użyć danego słowa, a kiedy posłużyć się jego odpowiednikiem, który będzie miał lepsze brzmienie w danej sytuacji. Jak się jednak okazuje, w dzisiejszym świecie coraz większa ilość napisanych, a raczej wygenerowanych zdań pochodzi od sztucznej inteligencji. Rozbudowane systemy SI są trenowane z wykorzystaniem ogromnej ilości ludzkiego tekstu, aby nauczyć się w jaki sposób tworzyć zdania tak jak ludzie. Z góry zakładamy, że płynny język pochodzi z myślenia i odpowiedniego dobierania słów. Obecna rzeczywistość jest często zgoła inna.
Odróżnienie tekstu napisanego przez człowieka od tego, który jest w stanie wygenerować współczesna SI jest zadaniem bardzo trudnym lub wręcz niewykonalnym. Cały proces skupia się na właściwym dobieraniu wyrazów przez sztuczną inteligencję oraz szkoleniu jej za pomocą ogromnych ilości ludzkiego tekstu.
Z uwagi na naszą tendencję do kojarzenia płynnej ekspresji z płynnym myśleniem, dość normalne (jednak błędne) wydaje się twierdzenie, że jeśli dany model sztucznej inteligencji jest w stanie płynnie posługiwać się naszą mową i równie dobrze się wyrażać, oznacza to, iż myśli i czuje tak samo jak człowiek. Nie dziwią zatem ostatnie doniesienia o jednym z inżynierów Google'a, który był przekonany, że system SI o nazwie LaMDA posiada świadomość, bowiem - jak już wiemy - dobrze wytrenowana sztuczna inteligencja może generować zdania podobnie jak ludzie. Z drugiej strony, określenie, czy konkretne SI faktycznie jest zdolne do odczuwania tak samo jak my byłoby dość skomplikowane. Co jednak stoi za tym, że tak łatwo dajemy się wciągnąć w tego typu pułapkę?
Chyba najistotniejszym elementem w odpowiedzi na to pytanie jest fakt, iż systemy SI, takie jak wspomniany Google LaMDA są wynikiem trwającego od dziesięcioleci programu budowania modeli generujących gramatycznie poprawny i logiczny tekst. Wczesne wersje tego systemu, datowane na co najmniej lata 50. XX wieku, znane jako modele n-gramowe najprościej zliczały wystąpienie określonych fraz i wykorzystywały je do odgadywania, jakie słowa prawdopodobnie wystąpią w danych kontekstach. Dla przykładu, dość często zobaczymy połączenie słów "silnik" oraz "samochód", ale "silnik" i "rolki" z reguły raczej nie występują w parze. Współczesne metody różnią się oczywiście znacząco od swoich pierwowzorów, chociażby tym, że są szkolone w całym internecie.
Dzisiejsze modele są w stanie nauczyć się również powiązań między bardziej od siebie "oddalonymi" słowami. Do tego dochodzi jeszcze całe mnóstwo innych zależności, co finalnie składa się na tekst produkowany przez maszynę, który jest wręcz nie do odróżnienia od tego, co w tej samej sytuacji mógłby napisać człowiek. Generalnie rzecz ujmując, zdania budowane przez sztuczną inteligencję tworzone są w taki sposób, że SI dobiera po kolei następne słowa, które pasują do kontekstu już wygenerowanych. Dla przykładu podsuwając wyrazy "rower" oraz "ekologia" moglibyśmy otrzymać od SI zdanie pokroju "rower to ekologiczny środek transportu". Nie dosyć, że zdanie jest poprawnie zbudowane, ma sens, to jeszcze na dodatek wyraża pewną opinię lub stwierdza ogólnie znany fakt. To wszystko sprawia, iż dzisiejsza sztuczna inteligencja jest w stanie naśladować ludzki sposób formułowania zdań. Tym razem zapewniam, że tekst był pisany przez człowieka, jednak kto wie, może za jakiś czas również tego typu publikacje będą generowane przez SI.
Zobacz także:
- NVIDIA podobno szykuje obniżkę cen kart z serii GeForce RTX 30. Znamy nowe ceny
- Desktopowy Intel Arc A380 przetestowany! Jak wypada na tle RX 6400 i GTX 1650? Teraz już wiemy
- Chiński 128-rdzeniowy procesor ARM królem wydajności. Układ jest dużo szybszy niż EPYC 7773X
Pokaż / Dodaj komentarze do: Sztuczna inteligencja od Google'a zwraca uwagę na ludzki błąd poznawczy