Lekkie i poręczne laptopy, kiedyś zwane Ultrabookami mają wiele zalet. Największą jest ich mobilność, wygoda przenoszenia, w ostatnich latach także bardzo wiele zmieniło się w kwestii wydajności - pojawiły się szybkie niskonapięciowe procesory oraz jeszcze wydajniejsze nośniki M.2 co pozwala na bardzo komfortową i płynną pracę. Piętą achillesową jest jednak wydajność zintegrowanych kart graficznych Intela - wystarcza ona do prostych zastosowań, bardzo dobrze wspiera sprzętową akcelerację filmów, ale do jakichkolwiek gier się nie nadaje. Mimo znacznego postępu jaki w ostatnich 6 latach poczynił Intel nadal nie jest idealnie - stare tytuły mają problemy z kompatybilnością sterowników (bardzo zaniżona wydajność, i/lub błędy w wyświetlanym obrazie) zaś wydajność w nowych produkcjach jest po prostu zbyt niska, nawet na najniższe dostępne w grze poziomy detali. I choć istnieje też segment "pogrubionych" Ultrabooków (choć dziś to już nazwa nieoficjalna) z dodatkową kartą graficzną - ale w cienkiej obudowie i komputerze nie ważącym więcej niż 1,5 kg zainstalować wydajnej karty graficznej, która będzie dobrze chłodzona zwyczajnie się nie da. A montowane są tam zwykle układy mające nie więcej niż 1/10 - 1/8 wydajności topowych GPU z danej serii i nie są w stanie zadowolić graczy, nawet tych mało wymagających. Często takie układy graficzne nie są w stanie wygenerować płynnego obrazu w natywnej rozdzielczości laptopa - i to nawet wtedy, gdy jest to tryb 1366 x 768 pikseli - choć zwykle jest to już więcej...
Dlatego też powstała idea zewnętrznej karty graficznej, którą można by postawić przy laptopie - i która zwiększyłaby jego możliwości w zakresie grania w najnowsze tytuły. Sporo osób z pewnością chciałoby by laptop był ich jedynym komputerem w domu, bo w zasadzie nie zajmuje on miejsca, można go wszędzie schować - a pracę na swoich danych można płynnie kontynuować bez żmudnej ich synchronizacji pomiędzy dwa komputery. Problemem był jednak brak zewnętrznego interfejsu, który by umożliwiał transmisję danych z prędkością będącą w stanie zadowolić wydajne układy graficzne. Historia zewnętrznych kart graficznych sięga jeszcze czasów Express Card, USB 2.0 oraz 3.0 - ale nie były to układy przeznaczone do gier, a tylko do podłączenia dodatkowego (zwykle trzeciego) monitora do laptopa. Na więcej nie pozwalały ograniczenia tych interfejsów, a ich zastosowanie sprowadzało się do wyświetlania pulpitu, pracy biurowej i przysłowiowego pasjansa.
Sytuacja zaczęła się powoli zmieniać dopiero wraz z pojawieniem się interfejsu Thunderbolt. W przypadku Apple miało to miejsce w 2011 roku, natomiast w przypadku typowych pecetów z Windowsem dopiero w 2012 roku. W międzyczasie powstało co najmniej kilka mniej lub bardziej ciekawych obudów dla zewnętrznych kart graficznych - ale stosunkowo niska popularność portów Thunderbolt w laptopach, a także niezbyt dobra wydajność spowodowała, że takie obudowy nigdy nie odniosły sukcesu. Były też stosunkowo drogie same w sobie, a należy pamiętać, że trzeba było dokupić także kartę graficzną we własnym zakresie. Najnowsza wersja Thunderbolt - 3.0 oferuje przepustowość do 40 Gb/s. - czyli 5 GB/s. To też nie jest tak wiele - bo PCI-Express 3.0 x16 może przesłać w ciągu sekundy 126 Gb/s - czyli 15,75 GB/s. Wygląda więc na to, że obudowa dla interfejsu Thunderbolt 3.0 oferuje transfer do karty graficznej na poziomie pomiędzy PCI-Express 3.0 x4 a PCI-Express 3.0 x8 - ze wskazaniem na wolniejsze złącze - zwłaszcza jeśli chcemy jeszcze obraz z karty graficznej przesyłać z powrotem do laptopa, na jego ekran co też zabierze troszkę przepustowości. O ile niższej wydajności (o ile w ogóle) należy spodziewać się po GeForce GTX 1070 podłączonym do laptopa poprzez zewnętrzną obudowę Thunderbolt 3.0? Przekonajmy się testując zewnętrzną kartę graficzną AORUS GTX 1070 Gaming Box od Gigabyte.
Pokaż / Dodaj komentarze do: Test AORUS GTX 1070 Gaming Box - zewnętrzne GPU dla laptopa