Podczas dzisiejszego inauguracyjnego wystąpienia na targach Computex na Tajwanie, Jensen Huang, dyrektor generalny firmy NVIDIA, zaprezentował nową technologię dla twórców gier. Ta obejmuje wykorzystanie sztucznej inteligencji i serwerów w chmurze, co stało się nowym, trendem w branży i głównym priorytetem NVIDII.
Nowa technologia nazywa się NVIDIA ACE (Avatar Cloud Engine) for Games. Pozwoli to programistom na umieszczenie NPC, którzy mogą rozmawiać z postaciami graczy w czasie rzeczywistym, ale z dialogami, które nie są skryptowane, ale napędzane przez chatboty AI podobne do ChatGPT, Bing Chat i Bard. Technologia pozwala również na dopasowanie animacji twarzy NPC do nieskryptowanych dialogów.
NVIDIA stwierdziła:
Możesz ożywić NPC za pomocą technik dopasowania modelu NeMo. Po pierwsze, zastosuj klonowanie zachowań, aby umożliwić modelowi języka podstawowego wykonywanie zadań odgrywania ról zgodnie z instrukcjami. Aby jeszcze bardziej dostosować zachowanie NPC do oczekiwań, w przyszłości można zastosować uczenie się wzmacniające na podstawie informacji zwrotnych od ludzi (RLHF), aby otrzymywać informacje zwrotne od projektantów w czasie rzeczywistym podczas procesu tworzenia.
NVIDIA ACE pozwoli programistom na umieszczenie NPC, którzy mogą rozmawiać z postaciami graczy w czasie rzeczywistym z dialogami, które nie są skryptowane, ale napędzane przez AI.
NVIDIA ujawniła również, że AI NPC są kontrolowani przez NeMo Guardrails, co miejmy nadzieję powstrzyma ich przed mówieniem graczom dziwnych, a nawet obraźliwych rzeczy (chociaż z drugiej strony, byliby oni może bardziej naturalni).
Firma zaprezentowała krótkie demo technologiczne ACE, które zostało opublikowane na YouTube (powyżej). To powstało na silniku Unreal Engine 5 z włączonym ray tracingiem i technologią MetaHuman dla modeli postaci NPC. NVIDIA wykorzystała również technologię start-upu Convai, który tworzy postacie AI w grach. Zieloni dodają:
Convai wykorzystało NVIDIA Riva do przetwarzania mowy na tekst i zamianę tekstu na mowę, NVIDIA NeMo do LLM, który napędza rozmowę oraz Audio2Face do napędzanej sztuczną inteligencją animacji twarzy na podstawie poleceń głosowych.
AI NPC pokazany na materiale nie jest jednak doskonały. Jego sposób mówienia wydaje się bardzo sztywny i sztuczny (mamy przecież do czynienia z sztuczną inteligencją), przez co brzmi to jakbyśmy rozmawiali z robotem. Jednak jest więcej niż prawdopodobne, że wzorce mowy ulegną poprawie i staną się bardziej naturalne w nadchodzących miesiącach i latach.
NVIDIA nie podała, kiedy ACE for Games będzie dostępne dla twórców gier. Wspomniała jednak, że technologia Audio2Face, która dopasowuje animację twarzy do mowy postaci w grze, jest używana w dwóch nadchodzących grach: trzecioosobowym tytule science fiction Fort Solis oraz długo oczekiwanej postapokaliptycznej grze S.T.A.L.K.E.R. 2: Heart of Chornobyl.
Pokaż / Dodaj komentarze do: NVIDIA prezentuje przełomową technologię ACE. AI napędzać będzie dialogi NPC w grach