DeepSeek nawiązał współpracę z Uniwersytetem Tsinghua w celu ograniczenia szkoleń wymaganych przez modele sztucznej inteligencji. Cel to obniżenie kosztów operacyjnych.
DeepSeek to chiński startup, który zachwycił branżę AI swoim modelem, który jest znacznie tańszy od zachodniej konkurencji. Zespół badaczy opracowuje nową metodę opartą na tzw. uczeniu przez wzmacnianie – technice, która polega na nagradzaniu algorytmu za trafne odpowiedzi, a tym samym kształtowaniu go tak, by coraz lepiej odpowiadał ludzkim oczekiwaniom. Uczenie przez wzmacnianie okazało się skuteczne w przyspieszaniu zadań AI w wąskich aplikacjach i sferach. Jednak rozszerzenie go na bardziej ogólne aplikacje okazało się trudne — i to jest problem, który zespół DeepSeek próbuje rozwiązać.
Mniej treningu, więcej "rozumu"
DeepSeek wprowadza mechanizm nazwany "samozasadnym dostrajaniem krytyki" (self-reflective critique tuning), którego cel jest bardzo prosty: sprawić, by sztuczna inteligencja sama potrafiła ocenić, co zrobiła dobrze, a co źle – i wyciągnąć z tego wnioski. Efekt? Lepsze wyniki przy znacznie mniejszym zużyciu mocy obliczeniowej, czyli także – mniejszych kosztach.
Sukces w testach i otwarte drzwi dla innych
Według przedstawionego artykułu, nowe podejście nie tylko przewyższyło dotychczasowe metody w serii testów porównawczych, ale również okazało się bardziej wydajne pod względem zasobów. Model, który powstał w wyniku współpracy, nazwano DeepSeek-GRM, co oznacza „generalist reward modeling”. Firma zapowiedziała, że technologia zostanie udostępniona na zasadzie open source, dając innym graczom na rynku szansę na dalsze jej rozwijanie.

Pokaż / Dodaj komentarze do: Chiński DeepSeek opracowuje samodoskonalące się modele sztucznej inteligencji