Google we współpracy z naukowcami z Wild Dolphin Project (WDP) i Georgia Institute of Technology zaprezentowało rewolucyjny projekt DolphinGemma – model sztucznej inteligencji, który analizuje dźwięki wydawane przez delfiny, by odkrywać znaczenia ukryte w ich gwizdach, kliknięciach i skrzekach. Celem jest ambitna idea: nawiązanie pierwszej w historii formy komunikacji międzygatunkowej.
DolphinGemma został wytrenowany na bazie obszernego i precyzyjnie oznaczonego zbioru danych dźwiękowych, gromadzonych przez WDP od 1985 roku w ramach najdłużej prowadzonych na świecie badań nad dzikimi delfinami w ich naturalnym środowisku. Nowy model bazuje na architekturze Gemini i wykorzystuje SoundStream – tokenizator dźwięków stworzony przez Google, który potrafi rozpoznawać wzorce i sekwencje w sygnałach akustycznych.
„Czekałam na to 40 lat” – mówi z entuzjazmem dr Denise Herzing, założycielka i dyrektor naukowy Wild Dolphin Project. – „Sztuczna inteligencja może wychwycić subtelności, których ludzkie ucho nie zdoła nawet zarejestrować. Zrozumiemy, co dla delfinów naprawdę się liczy”.
Dzięki temu AI nie tylko analizuje rejestrowane odgłosy delfinów, ale także prognozuje, jakie dźwięki mogą nastąpić później, na podobnej zasadzie, jak modele językowe przewidują następne słowo w zdaniu.
Delfiny, znane z wyjątkowej inteligencji i złożonego systemu wokalnego, od dawna intrygowały naukowców. DolphinGemma ma pozwolić na znaczące przyspieszenie pracy badawczej, która do tej pory opierała się na ręcznej analizie nagrań – mozolnym i czasochłonnym procesie.
AI schodzi pod wodę
Nowością jest także mobilność technologii – dźwięki delfinów można teraz rejestrować na zwykłych smartfonach Google Pixel, co eliminuje konieczność używania drogiego, niestandardowego sprzętu badawczego. Analiza danych w czasie rzeczywistym w terenie staje się możliwa, co ma kluczowe znaczenie dla dynamicznych i często nieprzewidywalnych warunków pracy pod wodą.
Co dalej? Mówienie do delfinów
Choć zrozumienie delfinów jest już przełomem, prawdziwą rewolucją byłaby możliwość odwrotnej komunikacji – czyli mówienia do nich. Tego zadania podejmuje się zespół z Georgia Institute of Technology, pracując nad systemem CHAT (Cetacean Hearing Augmentation Telemetry) – komputerowym interfejsem podwodnym, który może uczyć delfiny sztucznych dźwięków kojarzonych z określonymi obiektami, jak np. trawa morska, sargassum czy instrumenty badawcze.
Z czasem delfiny mogą nauczyć się odpowiadać tymi dźwiękami, sygnalizując swoje potrzeby lub intencje, co byłoby pierwotną formą „rozmowy”.
W przyszłości DolphinGemma może współpracować z CHAT, wykorzystując swoje predykcyjne możliwości do szybszego rozpoznawania dźwiękowych odpowiedników „słów” wypowiadanych przez delfiny. Dzięki temu interakcje międzygatunkowe mogą stać się płynniejsze i bardziej naturalne.
Eksperymenty trwają
Nowy model AI zostanie wdrożony w nadchodzącym sezonie badań terenowych WDP, koncentrujących się na delfinach plamistych atlantyckich. Jednak w planach są już rozszerzenia na inne gatunki waleni, takie jak delfiny butlonose czy długoszczękie. Będzie to wymagało dalszego trenowania modeli na wokalizacjach specyficznych dla danego gatunku.
DolphinGemma to nie tylko technologiczna nowinka – to krok ku nowemu paradygmatowi relacji człowieka z przyrodą. Gdy nauczymy się lepiej rozumieć naszych morskich kuzynów, być może znajdziemy także nowe sposoby ochrony ekosystemów, które dzielimy.
Jak mówi Google: „To próba wzmocnienia naszego połączenia ze światem morskim – być może pierwszy krok w kierunku dialogu, który trwał milczeniem przez miliony lat.”

Pokaż / Dodaj komentarze do: Google uczy się „rozmawiać” z delfinami. AI otwiera drzwi do komunikacji międzygatunkowej