Historia i przyszłość sztucznej inteligencji. Co było, jest i będzie?

Historia i przyszłość sztucznej inteligencji. Co było, jest i będzie?

Zapewne wielu z Was będzie zaskoczonych tym faktem, ale historia prac nad sztuczną inteligencją zaczęła się naprawdę już dawno temu. Nie mamy tu na myśli dekad ani wieków, lecz ponad dwa tysiąclecia wstecz. Zanim przyjrzymy się jednym z pierwszych znanych historykom przypadkom pracy nad tą dziedziną nauki, przypomnijmy najpierw, czym w teorii jest sztuczna inteligencja (AI).

Termin ten odnosi się od zdolności rozumowania, uczenia się, planowania i kreatywnego zarządzania danymi przez maszynę. Jest to możliwość przetwarzania przez nią komunikatów w określone obliczenia, które pozwolą otrzymać pożądany efekt. Sztuczna inteligencja (z angielskiego: artificial intelligence; AI) potrafi więc w pewnym stopniu działać niezależnie od ingerencji fizycznej człowieka.

I właśnie tak na kilkaset lat przed naszą erą zaczęto definiować zjawisko “automatu”. Jego termin natomiast odnosił się właśnie do mechanicznych konstrukcji zbudowanych przez człowieka, które potrafiły “działać z własnej woli” i poruszać się bez jego pomocy. Pierwszy znany nam zapis o tego typu wynalazkach pochodzi z okolic około 350 roku p.n.e. I tam właśnie zacznijmy naszą podróż przez naprawdę ciekawą i dynamicznie zmieniającą się historię sztucznej inteligencji (AI).

Zobacz również:

Przyjaciel Platona buduje mechanicznego ptaka (350 r. p.n.e)

Najstarszym odkrytym zapisem, który zawiera wzmianki dot. budowania niezależnie działających urządzeń, jest opis sytuacji z okolic 350 roku p.n.e. Wtedy to pewien zdolny matematyk i filozof będący bliskim przyjacielem Platona zbudował drewnianego gołębia, który był napędzany stopniowymi uderzeniami pary. Człowiek ten nazywał się Archytas z Tarentu.

Jego wynalazek działał w ten sposób, że dzięki ulatniającej się parze zawieszony na linach drewniany ptak był w stanie trzepotać swoimi skrzydłami i utrzymywać na pewnej wysokości. Dzieło Archytasa stanowiło więc najstarszy ze znanych nam historii przypadków działania praktycznego automatu. Niestety, żadne z jego zapisków dot. jego budowy nie zachowały się na dłużej, więc historykom oraz wynalazcom pozostają jedynie domysły co do tego, jak ów ptak dokładnie działał.

Historia sztucznej inteligencji

Rycerz Leonarda da Vinci (1495 r.)

Przez następnych kilkaset lat na świecie stworzono wiele prototypów maszyn, które były w stanie samodzielnie pracować. Warto na pewno wspomnieć o takim wynalazku, jak “Rycerz” autorstwa Leonarda da Vinci. O jego stworzeniu legendarny wynalazca pisał około 1495 roku. Jego osobiste notatki zawierają opis dot. projektu “sztucznego człowieka”, który jest opancerzony w zbroję rycerza. Twór ten posiadał napęd w postaci zewnętrznej mechanicznej korby, która kręciła się za pomocą lin i kół pasowych.

Co ciekawe, wśród wymienianych przez da Vinciego możliwości “Rycerza” znajduje się zdolność do siedzenia, wstawania czy obracania ramionami. Nie są znane późniejsze zapiski wynalazcy, w których potwierdzałby wykonanie próby stworzenia ów automatu, aczkolwiek wszystko wskazuje na to, że jeśli już takowa miała mieć miejsce, to zapewne okazała się sukcesem.

Nadzieję na to daje fakt, że w 2002 roku pracujący dla NASA robotyk - Mark Rosheim - wykorzystał dostępne skany notatek, dzięki którym dokonał dokładnej rekonstrukcji automatu z XV wieku. Jak następnie przekazał, urządzenie faktycznie działało zgodnie z przewidywaniami da Vinciego. Wróćmy więc do bliższych czasowo nam realiów, czyli do XX wieku. Tam już prace nad rozwojem samodzielnie działających maszyn znacznie wykraczają poza manualne możliwości automatów.

Sztuczny mózg - to możliwe? (I poł. XX w.)

Przez kolejne kilkanaście wieków świat poszedł bardzo do przodu pod względem rozwoju maszyn. Na początku XX wieku ludzkość potrafiła stworzyć pierwsze samoloty, które latały niczym ptaki w przestworzach. Jeszcze wcześniej pojazdy ciągnięte przez stworzenia zaprzęgowe zaczęły być stopniowo zastępowane przez samochody. Skoro więc potrafiliśmy już stworzyć coś, co przypominało ptaka czy konia pod względem mobilnych zdolności, to czy jesteśmy zrobić to samo ze “sztucznym człowiekiem”?

Takie rozważania zaczęły się pojawiać coraz częściej wśród licznych profesorów i tęgich umysłów. I tym miejscu należałoby wspomnieć pokrótce o 3 ważnych wydarzeniach związanych z tym zagadnieniem - miały miejsce w pierwszej połowie XX wieku. Jeden z nich przypada na 1921 rok, gdy ktoś pierwszy raz publicznie rzucił terminem “robot”, który odnosił się do idei “sztucznego człowieka”.

Wtedy to pewien czeski pisarz - Karel Čapek - wydał swoją sztukę osadzoną w tematyce science fiction. Ta nosiła tytuł “Uniwersalne roboty Rossuma”. 7 lat później, w japońskim mieście Kyoto profesor Makoto Nishimura zbudował pierwszego na świecie robota. Nazywał się on Gakutensoku i był zdolny do zmiany wyrazu swojej twarzy. Potrafił także ruszać głową i rękami, w czym wspierała go specjalna aparatura ciśnieniowa. Na głowie robota znajdowała się dodatkowo mniejsza maszyna imitująca ptaka. Ta nosiła nazwę Kokukyōchō, co w japońskim oznacza “ptak informujący o świcie”.

I tutaj trzymajcie się mocno! Gdy ptaszek Kokukyōchō zaczynał wydawać z siebie charakterystyczny dźwięk przypominający płacz, wtedy sztuczne oczy robota Gakutensoku zamykały się, a wyraz twarzy przybierał określoną minę, charakterystyczną dla ponurego nastroju. Ponadto w każdej z dłoni robota znajdował się jeden przedmiot. W prawej dłoni trzymał coś na kształt pióra, a w lewej lampkę sygnałową. Gdy ta zaświeciła, Gakutensoku zaczynał wykonywać ruchy przypominające pisanie. I zanim jeszcze przejdziemy do drugiej połowy XX wieku, wspomnijmy o jeszcze jednym zdarzeniu. Chodzi mianowicie o publikację książki pewnego informatyka, Edmunda Callisa Berkleya. Jego dzieło o tytule “Giant Brains, or Machines that Think”, która zostało wydane po raz pierwszy w 1949 roku, przedstawia porównanie ówczesnych modeli działania komputerów z ludzkim mózgiem.

Sztuczna inteligencja

Test Turinga i wielki debiut

Wraz z rozpoczęciem się drugiej połowy XX wieku, dążenia badaczy do ustalenia tego, czy ludzki rozum da się przenieść do maszyny, przybrały na sile. Już w 1950 roku Alan Turing wydał swój przełomowy artykuł “Computer Machinery and Intelligence”. Jego treść skupiała się na możliwościach budowania inteligentnych maszyn oraz testowania ich możliwości rozumowania. Turing opisał w nim metodę badawczą zwaną “grą w naśladowanie”.

Opierała się ona na tym, że zadaniem człowieka było rozróżnienie tego, czy w sytuacji prowadzenia dialogu dalekopisowego po drugiej stronie znajduje się równie żywa osoba czy może maszyna. To badanie finalnie zostało przemianowane w słynny “test Turinga”. W 1956 roku natomiast termin “sztucznej inteligencji” został oficjalnie użyty podczas przemowy doktora Johna McCartney'a z Massachusetts Institute of Technology w czasie specjalnie zorganizowanego wydarzenia Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI).

Był to swego rodzaju event dedykowany naukowcom, którzy prowadzili razem liczne dyskusje na temat badań nad AI w formie przypominającą burzę mózgów. - Konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji - tak dokładnie brzmiało historyczne zdanie wypowiedziane przez McCartney'a.

Dwa lata później badacz ten opracował pierwszy w historii język programowania przeznaczony stricte do badań nad sztuczną inteligencją. Nazwał go LISP (akronim od List Processing, czyli z angielskiego Lista Przetwarzania). Język ten składał się z listy kodów programowania, które posiadały abstrakcyjną strukturę danych, które są stosowane do obliczania określonych zmiennych we wskazanej kolejności.

Główną zasadą matematyczną było to, że dana wartość może powtórzyć się więcej niż raz. Taka ciekawostka, że ten język jest stosowany przez programistów do dzisiaj, a przypomnijmy, że McCartney stworzył go w 1958 roku. Rok po tym zdarzeniu inny z uczonych - Arthur Samuel - opracował termin naukowy “uczenie maszynowe”, który odnosił się do przykładu nabycia przez maszynę zdolności do gry w szachy. Wtedy to badacz pokusił się o stwierdzenie, że za około dekadę AI będzie w stanie ograć człowieka w tę grę. Jego teoria potwierdziła się, aczkolwiek dopiero 40 lat później.

Maszyny idą do pracy

W 1961 roku w jednym z zakładów firmy General Motors w New Jersey pojawił się nowy pracownik. Z tym, że nie pobierał pensji, nie potrzebował ubezpieczenia na życie i też nie spóźniał się na swoją zmianę. Był to bowiem robot przemysłowy o nazwie “Unimate”, który działał przy linii montażowej. Jego praca skupiała się na transporcie obudów matryc oraz spawaniu części produkowanych samochodów.

Pięć lat później na rynku psychoterapeutów pojawiła się nowa stażystka o imieniu ELIZA. Był to pierwszy w historii chatbot (w tamtym czasie stosowano jeszcze określenia “chatterbot”), który przy wykorzystaniu języka naturalnego (NLP) imitował rozmowę z człowiekiem w roli psychoterapeuty. W 1968 roku pochodzący ze ZSRR matematyk - Aleksiej Iwachnenko - przedstawił swoją rozprawę zatytułowaną “Grupowa metoda przetwarzania danych”, która została opublikowana na łamach czasopisma naukowego “Avtomatika”.

Rosyjski badacz zaproponował w niej stosowanie zupełnie nieznanego podejścia do tej technologii. Iwachnenko opisywał wdrożenie specjalnego podzbioru danych do uczenia maszynowego, który działałby w oparciu o sztuczne sieci neuronowe. Dało to podwaliny do dziedziny, którą dziś określa się jako “głębokie uczenie się” przez maszyny. Przez następne lata coraz więcej matematyków, informatyków, filozofów i różnego rodzaju badaczy dołączało do zgłębiania nauki związanej ze sztuczną inteligencją.

Zaczęło powstawać multum nowych terminów i gałęzi badań związanych z tą nauką. W 1979 roku powołano do życia Amerykańskie Stowarzyszenie Sztucznej Inteligencji. Jest to instytucja, która funkcjonuje do dziś i jest obecnie znana jako Stowarzyszenie na rzecz Rozwoju Sztucznej Inteligencji (AAAI).

Sztuczna inteligencja w telefonie

Pierwszy boom i długa zima AI

Początek lat 80-tych to kontynuacja wzrostu popularności sztucznej inteligenci wśród naukowców i matematyków. W tym okresie doszło do kolejnych przełomów, jeśli chodzi o badania nad tą dyscypliną naukową, a i również zaczął pojawiać się pierwszy poważny kapitał, jaki instytucje rządowe wyłożyły na rozwój AI.

W 1980 roku na rynku zadebiutował XCON. Był to pierwszy w historii komercyjny system ekspercki, którego zadaniem była pomoc w dobieraniu systemów komputerowych na potrzeby danego klienta, który chciał dokonać takiego zamówienia. Rok później rząd Japonii postanowił przeznaczył aż 2 miliardy dolarów na rozwój komputerów piątej generacji. Docelowo chciano stworzyć maszyny, które będą w stanie tłumaczyć teksty napisane w innym języku, mówić głosem człowieka i przejawiać rozumienie jego poleceń.

Zapał Japończyków jednak z czasem zaczął gasnąć. Mimo finansowania badań nad rozwojem sztucznej inteligencji aż do 1992 roku, nie udało się wtedy osiągnąć większości z zamierzonych celów. Jeżeli chodzi o przełomowe wydarzenia z tamtej dekady, które zapisały się na kartach historii AI, to na pewno warto wspomnieć pewną konferencję AAAI z 1985 roku. Wtedy to zaprezentowano światu pierwszy na świecie samodzielnie działający program do tworzenia rysunków. Nazywał się on AARON i stał za nim wybitny inżynier specjalizujący się w algorytmach komputerowych, Harold Cohen. Natomiast kilkanaście miesięcy później Ernst Dickmann, przy pomocy swojego zespołu badawczego działającego z ramienia niemieckiego Uniwersytetu Bundeswehry, powołali na świat i zaprezentowali pierwszy w historii samochód, który był w stanie poruszać się bez ingerencji człowieka.

Ich pojazd był w stanie rozpędzić się do prędkości 55 mil na godzinę i sunąć po drodze po linii prostej, jeżeli nie było na niej żadnych przeszkód i innych kierowców. W 1987 roku firma Alactrious Inc. wypuściła swój system Alacrity, który pełnił rolę doradcy strategicznego dla menedżerów w różnych korporacjach. System ten korzystał z ponad 3000 reguł, które miał zapisane w swojej pamięci.

Chociaż naukowy świat zachłysnął się rozwojem AI, to dość szybko zaczęły pojawiać się pierwsze poważne wątpliwości co do możliwości prowadzenia dalszych prac nad badaniami. Wskazywano w tej kwestii na deficyt odpowiedniej mocy obliczeniowej, która była niezbędna do przetwarzania wystarczającej ilości danych, aby maszyny mogły działać wedle założeń inżynierów. Między innymi pewien doktorant McCarthy’ego - Hans Moravec - pisał w jednym ze swoich artykułów naukowych, że “komputery są wciąż miliony razy za słabe, aby wykazywać inteligencję”.

Postępy w przeprowadzanych doświadczeniach były jednak zbyt mozolne w stosunku do oczekiwań inwestorów, którzy zaczęli się w pewnym momencie niecierpliwić i ograniczać poziom funduszy przeznaczanych na poczet dalszych badań. Nastała pierwsza poważna zima AI.

Agenci AI wchodzą na salony

Chociaż temat sztucznej inteligencji pod koniec lat 80-tych zaczął powoli schodzić do podziemia, to nie znaczy że wszystkie prace nad nią całkowicie ustały. Badacze i inżynierowie musieli zadowolić się mniejszymi funduszami, jakie spływały od sponsorów, ale proces rozwoju dalej postępował.

W 1997 roku wydarzyło się w końcu coś, co prognozował pod koniec lat 50-tych Arthur Samuel. Wtedy to system komputerowy o nazwie Deep Blue od firmy IMB pokonał w rozgrywce szachowej ówczesnego mistrza świata, Gary'ego Kasparowa. Tego samego roku firma Microsoft wdrożyła do swojego systemu Windows oprogramowanie Dragon Systems, które pozwoliło rozpoznawać ludzką mowę. Z początkiem XXI wieku znów przyspieszono prace nad tworzeniem różnego rodzaju asystentów AI, którzy wyręczali by człowieka w pewnych zadaniach.

I tak oto w 2002 roku klasyczne odkurzacze zaczęły mieć poważnego konkurenta, bowiem na salony wjechała Roomba. Był to automatycznie działający robot, który był w stanie samodzielnie poruszać się po danej przestrzeni i odkurzać jej podłogi. Dziś takowe urządzenia można znaleźć w wielu domach. W 2003 roku NASA wysłała na Marsa dwa łaziki, które potrafiły same poruszać się po powierzchni tej planety bez pomocy człowieka.

Głośnym wydarzeniem było wypuszczenie w 2011 roku przez firmę Apple systemu Siri w iPhonie 4, który pełnił rolę asystenta głosowego. Był on w stanie na nasze polecenie zmienić piosenkę graną przez odtwarzacz muzyczny lub wybrać numer do osoby, z którą chcemy się połączyć. W kolejnych latach korporacje zaczęły wdrażać systemy sztucznej inteligencji do swoich witryn internetowych, aby odpowiadały na podstawowe pytania klientów. Dużą rolę AI zaczęła odkrywać w kwestii pracy algorytmów, które miały analizować doświadczenia użytkowników takich platform, jak Netflix, X (ex. Twitter) czy Meta (ex.Facebook), by podrzucać im jak najbardziej adekwatne reklamy do jego potrzeb.

ChatGPT

OpenAI wprowadza ChatGPT. Rewolucja XXI wieku

W 2020 roku amerykańskie przedsiębiorstwo wspierane przez Microsoft, na czele którego dziś stoi Sam Altman - OpenAI - zaczęło prowadzić testy nad swoim chatbotem, który będzie działał w oparciu o generatywną sztuczną inteligencję. Model ten nazywał się ChatGPT-3.

Wykorzystywał on głębokie uczenie, by tworzyć na polecenie człowieka kody programistyczne, teksty piosenek i odpowiadać na zadawane pytania. System ten może i nie był pierwszym tego typu na rynku generatywnej sztucznej inteligencji, aczkolwiek na pewno stanowił przełom tworzeniu treści, w przypadku których naprawdę ciężko było zweryfikować, czy za ich stworzeniem stoi człowiek czy maszyna.

Co dalej?

Posłużę się tutaj kultowym już cytatem ze Spider-Mana, gdy wujek Ben mówi do Parkera, że “wielka moc, to wielka odpowiedzialność”. To zdanie idealnie oddaje to, przed jakimi wyzwaniami stoi świat przy dalszym rozkwicie rozwiązań opartych o AI. Dziś możemy za pomocą sztucznej inteligencji generować pięknie wyglądające obrazy, gdzie niekiedy ciężko odróżnić je od rzeczywistych zdjęć.

Jesteśmy w stanie także tworzyć muzykę, podkładać głos danego wokalisty pod komendę wpisywaną w generatorze, który sprawi, że usłyszymy znów Johna Lennona śpiewającego nasz tekst. Sztuczna inteligencja jest już powszechnie spotykanym zjawiskiem w sektorach obsługi klienta. Przeważnie, gdy dzwonimy na daną infolinię, w pierwszej kolejności rozmawiamy z chatbotem.

Tak samo jest w przypadku pomocy na większości witryn e-commerce. Wszystko to jest naprawdę godne podziwu dla osób, które potrafiły opracować i wdrożyć w życie dane rozwiązania, ale trzeba pamiętać również o zagrożeniach, jakie generuje AI. Jeśli ktoś posiadający złe zamiary wobec danej grupy społecznej zechce użyć tej technologii na jej niekorzyść, może oznaczać to nowe kłopoty.

Zagrożenie, z którym mierzymy się już dziś

W 2024 roku coraz częściej możemy przeczytać o zalewie deepfake’ów, czyli tworzeniu grafik, komunikatów głosowych czy nawet filmików przedstawiających sytuacje, które wcale nie miały miejsca. Wyobraźcie sobie nagranie z kandydatem na prezydenta danego kraju, który idzie ulicą zataczając się, co wskazuje na jego stan silnego upojenia alkoholowego. Taka sytuacja może momentalnie zaważyć o dalszym losie jego kampanii wyborczej. Nie trzeba w sumie gdybać, bowiem już miała miejsce sytuacja, gdy w sieci pojawiły się fałszywe zdjęcia przedstawiające aresztowanie Donalda Trumpa, do którego w tamtym czasie wcale nie doszło.

Tak samo jakiś chatbot na podobieństwo ChatGPT mógłby pisać złośliwe treści na tle propagandowym i rozpowszechniać fałszywe informacje w sieci na temat danej grupy społecznej. Podmioty opracowujące nowe modele generatywnej sztucznej inteligencji muszą zadbać o odpowiednie środki bezpieczeństwa, by te nie zostały wykorzystane przeciwko drugiemu człowiekowi. Konieczne jest stworzenie rozsądnych i kompletnych ram regulacyjnych przez instytucje rządowe, które by określały zakres praw, obowiązków i zakazów dot. stosowania tej technologii.

Przyszłość to teraźniejszość

Gdzie natomiast będziemy spotykać AI jeszcze częściej w przyszłych latach? Zdecydowanie będzie pojawiać się ona w coraz większej ilości miejsc pracy, by usprawnić wykonywanie określonych zadań przez człowieka. Wszystko wskazuje na to, że sztuczna inteligencja pomoże rozwiązać problemy medyczne, na które dotychczas lekarze i naukowcy nie potrafili samodzielnie znaleźć odpowiedzi. To zapewne dobre dla wielu pacjentów, którzy otrzymają szansę na przynajmniej stopniowy powrót do zdrowia.

Dzięki AI na pewno zacznie powstawać coraz więcej zawodów i stanowisk, gdzie ludzie będą skupiać się na wdrażaniu i nadzorowaniu działania sztucznej inteligencji w danym sektorze. Możemy prognozować także, że z biegiem lat coraz więcej sprzętów zacznie działać w sposób autonomiczny, przez co sporo naszych codziennych zadań zaczną wykonywać roboty. To również i szansa na większą samodzielność np. dla osób nieposiadających prawa jazdy, bowiem będą ich przewozić ich automatyczne samochody.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Historia i przyszłość sztucznej inteligencji. Co było, jest i będzie?

 0