Meta, gigant technologiczny stojący za Facebookiem, Instagramem i WhatsAppem, od lat dąży do uniezależnienia się od zewnętrznych dostawców sprzętu, takich jak Nvidia. Kilka lat temu firma podjęła pierwsze kroki w tym kierunku, projektując własne chipy oparte na architekturze RISC-V do wnioskowania AI. Teraz, według doniesień Reutersa, Meta poszła o krok dalej i stworzyła wewnętrzny akcelerator dedykowany szkoleniu sztucznej inteligencji.
Według raportu, pierwszy akcelerator szkoleniowy AI od Meta został wyprodukowany we współpracy z Broadcom oraz TSMC, które dostarczyło pierwsze działające próbki układów. Partnerzy przeprowadzili już pierwsze testy działania jednostki, a obecnie Meta wdrożyła chip w ograniczonej skali, aby ocenić jego wydajność przed ewentualnym rozszerzeniem produkcji. Jeśli chip spełni oczekiwania Meta, może ograniczyć zależność od potężnych procesorów graficznych Nvidii, takich jak H100, H200 oraz nadchodzące B100 i B200, wykorzystywanych do szkolenia zaawansowanych modeli AI.
Choć szczegóły techniczne nowego układu pozostają nieznane, wiele wskazuje na to, że bazuje on na architekturze tablicy systolicznej. Jest to konstrukcja oparta na sieci identycznych elementów przetwarzających (PE), które rozmieszczone są w formie siatki. Każda jednostka oblicza operacje na macierzach lub wektorach, a dane przepływają przez sieć sekwencyjnie, co zwiększa efektywność obliczeniową i umożliwia lepszą optymalizację zasobów.
Specyfikacja i przewidywana wydajność
Nowy akcelerator, przeznaczony do szkolenia modeli AI, prawdopodobnie będzie wyposażony w nowoczesną pamięć HBM3 lub HBM3E, co pozwoli na sprawną obsługę ogromnych zbiorów danych. Meta dostosowała obsługiwane formaty danych i instrukcje, aby zoptymalizować rozmiar układu, jego zużycie energii oraz osiągi. Kluczowe będzie, czy nowy układ dorówna pod względem wydajności procesorom graficznym AI Nvidii, takim jak H200, B200 czy prawdopodobnie nadchodzący B300.
Nowy chip wpisuje się w strategię Meta Training and Inference Accelerator (MTIA), której celem jest stworzenie własnej linii akceleratorów AI. W przeszłości firma napotkała trudności związane z rozwijaniem podobnych projektów. Na przykład wcześniejszy wewnętrzny procesor wnioskowania został wycofany po tym, jak nie spełnił założeń dotyczących wydajności i efektywności energetycznej. Niepowodzenie to sprawiło, że Meta w 2022 roku zdecydowała się na duże zamówienia procesorów graficznych Nvidii, by sprostać rosnącym wymaganiom przetwarzania AI.
Meta dąży do niezależności od Nvidii
Obecnie Meta jest jednym z największych klientów Nvidii, posiadając dziesiątki tysięcy jej układów GPU. Są one kluczowe dla trenowania modeli sztucznej inteligencji wykorzystywanych m.in. do systemów rekomendacji, reklam oraz rozwijanej przez firmę serii modeli Llama Foundation. Dodatkowo, jednostki te obsługują procesy wnioskowania, umożliwiając płynną interakcję ponad trzem miliardom użytkowników dziennie na platformach Meta.
Jeśli Meta odniesie sukces w budowie własnego akceleratora AI, może to nie tylko ograniczyć jej zależność od Nvidii, ale również wpłynąć na cały ekosystem technologii sztucznej inteligencji.

Pokaż / Dodaj komentarze do: Meta testuje swój własny układ RISC-V do szkolenia AI. Chcą się uniezależnić od Nvidii