Autonomia coraz bliżej. Wszystko dzięki NVIDII


Autonomia coraz bliżej. Wszystko dzięki NVIDII

Podczas prezentacji na targach CES 2026 Nvidia po raz kolejny ustawiła poprzeczkę dla całej branży motoryzacyjnej. Jensen Huang zaprezentował wizję, w której systemy autonomicznej jazdy przestają jedynie analizować obraz drogi, a zaczynają ją interpretować i logicznie rozumować.

Centralnym punktem prezentacji stała się nowa rodzina modeli sztucznej inteligencji Alpamayo, udostępniona w modelu open source i zaprojektowana jako fundament kolejnej generacji systemów wspomagania kierowcy oraz autonomii pojazdów.

Nvidia jasno komunikuje, że nie chodzi już wyłącznie o detekcję obiektów i planowanie trajektorii, lecz o zdolność analizy złożonych, rzadkich sytuacji drogowych, które od lat stanowią największą barierę dla autonomicznych pojazdów. Według firmy to właśnie w tym obszarze rozstrzygnie się przyszłość autonomii.

Nvidia jasno sygnalizuje, że nie zamierza być jedynie dostawcą układów graficznych. Firma chce stać się mózgiem autonomicznych pojazdów przyszłości.

Alpamayo i moment przełomowy dla fizycznej AI

Nowa rodzina modeli Alpamayo została przez Nvidię określona jako moment porównywalny z pojawieniem się ChatGPT, lecz w kontekście fizycznej sztucznej inteligencji. Flagowym elementem jest Alpamayo 1, model Vision-Language-Action o wielkości 10 miliardów parametrów. System ten nie tylko przetwarza obraz z kamer i generuje decyzje dotyczące ruchu pojazdu, lecz także tworzy logiczny tok rozumowania stojący za każdą decyzją.

Podczas prezentacji Jensen Huang podkreślał, że Alpamayo potrafi analizować nietypowe i skrajne scenariusze drogowe, a następnie uzasadniać swoje wybory w sposób czytelny dla inżynierów i regulatorów. To istotna zmiana w podejściu do autonomii, w której dotychczas dominowały algorytmy działające jak nieprzejrzyste czarne skrzynki.

Nvidia zdecydowała się udostępnić Alpamayo w formule open source, razem z narzędziami treningowymi opartymi na ekosystemie Hugging Face, środowiskiem symulacyjnym AlpaSim oraz rozbudowanymi zestawami danych obejmującymi ponad 1700 godzin jazdy w złożonych warunkach. Ten ruch wyraźnie sygnalizuje ambicję firmy, aby stać się podstawową platformą dla autonomii pojazdów, podobnie jak Android stał się standardem w świecie smartfonów.

Mercedes-Benz jako pierwszy na drodze

Najbardziej namacalnym efektem nowej strategii Nvidii jest ogłoszone partnerstwo z Mercedes-Benz. Producent potwierdził, że model CLA będzie pierwszym seryjnym samochodem wyposażonym w pełny stos autonomiczny Nvidii, w tym możliwości wnioskowania oferowane przez Alpamayo.

Debiut systemu w Stanach Zjednoczonych zaplanowano na pierwszy kwartał 2026 roku, a kolejne rynki, w tym Europa i Azja, mają dołączyć w dalszej części roku. Oficjalnie rozwiązanie klasyfikowane jest jako system poziomu 2+, wymagający stałej uwagi kierowcy, jednak zarówno Nvidia, jak i Mercedes nie ukrywają długoterminowych ambicji sięgających poziomu czwartego autonomii.

Mercedes opisuje nowy system MB.DRIVE ASSIST PRO jako połączenie zaawansowanej nawigacji i wspomagania jazdy, umożliwiające prowadzenie pojazdu w środowisku miejskim od parkingu do celu. Konstrukcja pozwala kierowcy na płynne przejmowanie kontroli bez konieczności dezaktywowania systemu, co wpisuje się w strategię stopniowego oswajania użytkowników z autonomią.

Czujniki i architektura bezpieczeństwa

Nowy stos autonomiczny w Mercedesie CLA opiera się na rozbudowanym zestawie czujników. Pojazd wykorzystuje 30 sensorów, w tym kamery, radary oraz czujniki ultradźwiękowe. Takie podejście ma zapewnić szeroką percepcję otoczenia i redundancję kluczowych danych, szczególnie w środowisku miejskim o wysokiej zmienności.

Nvidia podkreśla, że Alpamayo integruje dane z różnych źródeł w jeden spójny model decyzyjny, zamiast polegać na odseparowanych modułach odpowiedzialnych za widzenie, planowanie i kontrolę.

Vera Rubin jako zaplecze obliczeniowe

Za kulisami całego ekosystemu autonomicznej jazdy stoi nowa platforma obliczeniowa Vera Rubin, następca architektury Blackwell. Nvidia opisuje ją jako sześcioprocesorowy system AI przeznaczony do intensywnych zadań treningowych i symulacyjnych. To właśnie na tej platformie mają powstawać kolejne generacje modeli Alpamayo, które następnie trafią do samochodów produkcyjnych.

Choć Vera Rubin adresowana jest głównie do centrów danych, jej rola w rozwoju autonomii pojazdów ma kluczowe znaczenie, szczególnie w kontekście symulowania milionów scenariuszy drogowych przed wdrożeniem oprogramowania na drogi publiczne.

Open source jako broń strategiczna

Decyzja o otwarciu Alpamayo i powiązanych narzędzi została odebrana jako jeden z najbardziej agresywnych ruchów Nvidii w walce o dominację na rynku autonomii. Udostępnienie modelu, symulatora i danych tworzy ekosystem, do którego mogą dołączyć startupy oraz tradycyjni producenci samochodów bez konieczności budowania własnych stosów autonomicznych od zera.

Równocześnie taki model wzmacnia pozycję Nvidii jako dostawcy sprzętu i oprogramowania, wokół którego naturalnie koncentruje się rozwój całej branży. W kontraście do zamkniętego podejścia Tesli, Nvidia stawia na otwartość i skalę.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Autonomia coraz bliżej. Wszystko dzięki NVIDII
 0