Znajdujesz się w sekcji Blogosfera. Zamieszczone tutaj materiały zostały opracowane przez użytkowników serwisu, bądź są owocem samodzielnej pracy redaktorów. Redakcja ITHardware nie ponosi odpowiedzialności za treść poniższej publikacji.

O kondycji współczesnego overclockingu słów kilka

O kondycji współczesnego overclockingu słów kilka

Na wstępie do niniejszego felietonu pragnę zauważyć, że treści i opinie w nim zawarte są w głównej mierze moimi prywatnymi i nie zostały zamówione przez portal. Stanowią one jednak efekt długotrwałych przemyśleń i obserwacji, potwierdzają je również niezliczone konwersacje odbyte z kolegami “po fachu” z kraju i ze świata.

Pozwolę sobie również wyjaśnić, co rozumiem pod pojęciem overclockingu. Standardowe rozumienie (niemal jak definicja wyrwana z Wikipedii) to - Overclocking, po naszemu podkręcanie, to uruchamianie podzespołów komputerowych poza ich specyfikacyjnymi wartościami celem zyskania wydajności, z czym wiąże się wykorzystanie specjalnych narzędzi hardware’owych i software’owych. Sam proceder sięga czasów zamierzchłych nawet do lat 80-ych, gdzie wszystkie procesory Intela 386 pochodziły z jednego procesu produkcyjnego, a ustawienie częstotliwości dokonywało się zworką na płycie. Szczególnie popularny stał się pod koniec lat 90-ych, gdy kupując procesor za 80$ można było w łatwy sposób zyskać 50% wydajności dorównując modelom kilkakrotnie droższym (np. Celeron 300A, który bez problemu działał na 450 Mhz, a szczęśliwcy na powietrzu działali na 504 Mhz; Celeron 533 osiągał 800 Mhz; czy Duron 600, dla którego normą było 900-1000 MHz). Przez ponad dekadę stan ten się utrzymywał i stąd te wszystkie wspomnienia w postaci Athlona XP 1700+, Pentium 4 2.4, Athlona 64 3000+ i 3700+, Pentiumów E2140 i E5200, Core 2 Duo E6300 czy E8400. Miały one jeden wspólny mianownik - były najniższymi modelami w swoich seriach (E8400 jako Wolfdale w rewizji E0, młodszy brat E8600, oczywiście były jeszcze E8200 i E8300, ale jedynie w rewizji C0, mniej podatnej na OC - wybaczcie skrót myślowy!), a co za tym idzie były tanie, jednocześnie przeganiały swoich droższych braci. Wtedy też producenci wpadli na pomysł stworzenia produktów dla overclockerów, takich jak DFI Lanparty czy pierwsze produkty Asusa z serii Republic Of Gamers (Commando, Striker). Sprzęt ten charakteryzował się rozszerzonymi parametrami pracy, przez co idealnie nadawał się do bicia rekordów, co często było umieszczane na pudełku, czy - jak w przypadku pierwszego Rampage Extreme - na samym produkcie (logo "Designed for overclocking" umieszczone na ogromnym radiatorze okrywającym połowę płyty).

Ale nie na historii będę się skupiał. Wszyscy wiodący producenci sprzętu od kilku lat z jednej strony machają flagą “warranty void” dla sprzętu działającego poza specyfikacją, jednocześnie udostępniając poszczególne modele dedykowane overclockingowi (Intel z serii K i X, Ryzen z serii X, pamięci generalnie latają “ile wlezie”, karty graficzne mają specjalne serie jak Matrix od Asusa, Lightning od MSI czy Super Jetstream Palita). Ma to na celu zarówno ograniczenie strat z tytułu reklamacji, ale przede wszystkim zysk - jeśli zablokować podkręcanie na większości modeli i zostawić go na kilku z nich, po czym zażądać za to ekstra, to zarabia się jedynie na możliwości podkręcenia, podczas gdy potencjał w sprzęcie jest teoretycznie ten sam. Wystarczy spojrzeć na to, co działo się zaraz po wypuszczeniu przez Intela procesorów Core 6-generacji (czyli Skylake), gdzie przez pewien czas istniała możliwość podkręcenia ich przy użyciu BCLK powyżej limitu 103 MHz kosztem wsparcia instrukcji AVX i zarządzania energią. Efekt był taki, że w krótkim czasie sprzedaż tańszych zablokowanych procesorów wzrosła do tego poziomu, że Intel wycofał się z tego, wprowadzając naprędce aktualizację mikrokodu i wymuszając (wspólnie z Microsoftem) na producentach płyt głównych jej implementację pod groźbą zerwania współpracy. Dla zwykłego użytkownika była to interesująca okazja, ale pozwolę sobie pominąć perspektywę “przypadkowego” OC (wybaczcie określenie!) i odnieść do zjawiska overclockingu potraktowanego jako hobby lub forma rywalizacji.

Niezależnie od tego, w której z powyższych kategorii się jest, na koniec i tak nieuchronnie czeka nas konfrontacja z innymi ludźmi, do czego najprościej wykorzystać serwis hwbot.org. Z jednej strony daje to możliwość sprawdzenia, jak nasze osiągnięcia wypadają na tle innych, z drugiej - można postawić sobie za cel zbierania pucharków i punktów. Mam w tej kwestii pewne doświadczenie - zajmuję obecnie trzecie miejsce w rankingu polskich overclockerów, co daje mi lokatę w połowie trzeciej setki na świecie. Jest to efekt intensywnych działań rozpoczętych pod koniec 2013 roku, gdzie zakładałem wejście do pierwszej dwudziestki w Polsce do grudnia 2014. Dzięki inwestycjom w sprzęt (agregat chłodzący i kontenery na DI/LN) od połowy 2014 mogę korzystać z dobrodziejstwa używania niskich temperatur, co wydajnie przekłada się na osiągane rezultaty. Od początku 2016 roku utrzymuję się w pierwszej piątce polskich overclockerów, mimo iż od ponad roku moja aktywność w tej materii jest minimalna, zdarza mi się przeprowadzić 1-2 sesje w ciągu miesiąca, z czego nie wyszystkie kończą się rezultatami. Dla porównania w okresie szczytowej aktywności zdarzało mi się nierzadko wstać rano o szóstej, kręcić dwie godziny rano przed wyjściem do pracy, po czym zrobić jeszcze sesję “poprawkową” wieczorem wychodząc od ustawień znalezionych wcześniej, i tak 3-4 razy w tygodniu.

It’s all about the money…

Smutna prawda jest taka, że jest to niezwykle kosztowna zabawa. W domowych warunkach do zabawy na nowych częściach potrzebna jest topowa płyta, odblokowany procesor, porządny zestaw pamięci 2x8 GB i najlepiej jeszcze odpowiednia karta graficzna. Wszystko powinno być dobrze chłodzone i zasilane, mówimy zatem o wydatku rzędu 6-10k PLN na jeden zestaw benchów (2d i 3d). I to jest zestaw podstawowy - do testowania multi-GPU trzeba wydać ponadto drugie tyle na platformę z segmentu HEDT, żeby zapewnić odpowiednią ilość linii PCI-E do kart i uniknąć efektu wąskiego gardła w najnowszych benchmarkach. A cały czas poruszamy się w obrębie jednej platformy - dla pełnego obrazu należałoby takie robocze zestawy testowe posiadać dla każdej podstawki/generacji. Dobrze, ale załóżmy, że udało się skompletować zestaw, uruchomić i mamy - dajmy na to - zdrowy wynik w postaci 130% tego, co na ustawieniach domyślnych. Wchodzimy na hwbota i…

I don’t think it’s funny…

… nagle okazuje się, że ten wynik jest w końcówce stawki. Przyczyn może być mnóstwo - niewłaściwe ustawienia (tweaki), niewłaściwa wersja sterowników, nie ten OS użyty, co trzeba (bo na przykład bench X preferuje 32-bit - są takie!), albo po prostu - za mało zegarów/rdzeniów. I co wtedy? Jeżeli nie dopuszczamy do siebie widma porażki, pozostaje nam zainwestować dodatkowo czas i/lub pieniądze w poprawianie wyniku. W drugim przypadku pojawiają się schody, bo w którymś momencie okazuje się, że zakup dobrego CPU do testowania to nie jest “wejdź na ceneo, wpisz CPU X, zamów z dostawą do domu”. Pojawia się niewdzięczny temat binowania - zamiast 1 sztuki trzeba zamówić kilka, przetestować i zostawić sobie najlepsze 1-2, co pochłania ekstra czas i (znowu) pieniądze, ewentualnie zlecić to komuś i zapłacić ekstra. A na końcu okazuje się - jak z 6600k i 6700k z pierwszych miesięcy - że Caseking (jeden z czołowych dystrybutorów sprzętu na rynek europejski) zrobił taką akcję u siebie na poziomie hurtowym i przerzucił w magazynie 2000 procesorów, sprzedając najlepsze nawet po 1500 euro, a wszystko co poszło do handlu detalicznego jest odrzutem (rejectem) z tej akcji. Potem okazuje się, że producenci np. płyt oprócz sampli inżynieryjnych mają dostęp do specjalnie binowanych lub limitowanych serii o gwarantowanych wyższych osiągach jeszcze przez Intela/AMD, nie mówiąc już o pamięciach z zamkniętych partii produkcyjnych z użyciem chipów dostępnych wyłącznie w fabryce Samsunga czy Hynixa.

Roboclocker od EVGA - pierwszy na świecie system z zamkniętym obiegiem LN2
Roboclocker od EVGA - pierwszy (i jak na razie jedyny) na świecie system chłodzenia ciekłym azotem w obiegu zamkniętym (żródło: https://twitter.com/TEAMEVGA/status/1004780843187892224, oficjalny profil EVGA na Twitterze)

Finał jest taki, że gracze z ligi Elite są po prostu nieosiągalni dla pozostałych z racji przewagi technologicznej - to trochę tak, jakbym wyjechał moim prywatnym samochodem na tor Formuły 1 i startował naprzeciw Kubicy w bolidzie Williamsa. Porównanie jest o tyle trafne, że w tej sytuacji pan Robert nie tylko ciężko trenuje jazdę wyścigową, ale ma także cały sztab ludzi, którzy pracują na jego wynik, włącznie z tym, że jeśli bolid się zepsuje, naprawy są wliczone w koszta działania ekipy, gdzie w moim przypadku muszę za swoje trenować, tankować, czy pokryć ewentualne straty. Po co to w takim razie robić? Ano, jak w powyższym porównaniu - fajnie byłoby się przejechać po Monzie albo Hungaroringu, nawet jeżeli byłoby to tylko seatem ibizą, być może Kubica pozwoli mi wsiąść do bolidu, no i last but not least - można by poznać bardzo pozytywnego człowieka :)

To może w takim razie old school?

To jest bardzo ciekawe zagadnienie, bo z jednej strony części używane mają to do siebie, że z reguły wychodzą taniej niż nowe, z drugiej zaś strony - rekordy np. w benchmarkach 2D na procesorach na socket 939 czy 775 są już bardzo mocno wyśrubowane. W przypadku 775 znam przynajmniej dwóch overclockerów mieszkających na Zachodzie, który kupują procesory na ten socket po cenie złomu na kilogramy i robią selekcję jak wyżej wspomniany Caseking, tylko na E6300 albo E8400. Dochodzi do tego ograniczona dostępność płyt głównych, które już nie są produkowane - znalezienie Rampage Extreme w dobrym stanie w tym momencie graniczy z cudem i trzeba się liczyć z kosztem rzędu 200 euro lub więcej za sprzęt, który może wyzionąć ducha w każdej chwili, nawet leżąc w szufladzie. W przypadku starszych sprzętów (775 sprzed Core 2, 939, Socket A i starsze) problem jest jeszcze inny - z reguły wszystkie dobre sztuki albo są w rękach kolekcjonerów, którzy nie zamierzają się z nimi rozstać, albo są już dawno spalone.

W kwestii old school mierzalny sens ma jeszcze benchowanie “na punkty” tzw. legacy GPU, czyli starych kart na nowych platformach - wyniki testów GPU są przypisywane jedynie do kart bez uwzględnienia procesora, który w przypadku ma gigantyczny wpływ na rezultat w testach aż 3DMarka Vantage włącznie. I tu mimo wszystko pojawia się konkurencja - inni zawodnicy też o tym wiedzą, więc mimo wszystko trzeba poświęcić czas i energię na znalezienie dobrej sztuki i mody, wliczając w to zewnętrzne sekcje zasilania, co wymaga wiedzy i umiejętności przekraczających podstawowy kurs elektroniki.

Quo vadis, overclocking?

Odpowiedź na to jest jedna:

- OC is dead.

I to nie tylko kontekście XOC (eXtreme OC), ale w jakiejkolwiek formie wykraczającej poza jednorazowe załadowanie predefiniowanego profilu przez producenta płyty. Podstawowe trudności są tu dwie, poza samymi kosztami - wysoka awaryjność podzespołów, gdzie procesory potrafią padać na powietrzu w bezpiecznych zdawałoby się warunkach, oraz rosnąca trudność samego podkręcania - tu za doskonały przykład może posłużyć fenomen tzw. cracku pasty, który ciężko obejść samemu bez odpowiedniego zaplecza. Z braku możliwości rywalizacji z lepiej wyposażonymi profesjonalistami pozostaje nam, entuzjastom, w tym momencie jedynie aspekt podkręcania dla czystej przyjemności, żeby zobaczyć lepsze wyniki. Przyczynia się do tego również fakt niekonsekwencji producentów oraz obowiązujących polityk cenowych - kupienie z własnej kieszeni góry topowego sprzętu jest po prostu nieopłacalne, nie tylko w polskich realiach, ale również wśród zamożniejszych społeczeństw (Niemcy, Szwecja czy Wielka Brytania). A poprzez wspieranie zawodów na szczeblu międzynarodowym i organizowanie tzw. OC Labów producenci wykreowali środowisko, w którym wsparcie techniczne jest niezbędne do osiągnięcia jakichkolwiek znaczących wyników, po czym przekierowując budżet i zasoby na promocję moddingu, gamingu i e-sportu zostawili nieliczną garstkę entuzjastów samym sobie.

Hwbot, który jako organizacja miał wspierać społeczność overclockerską, poniósł fiasko i ograniczył się wyłącznie do bycia platformą marketingową dla producentów, którzy wykorzystawszy możliwości uczestników wycofują się ze współpracy. Podstrona oc-esports, która z założenia miała wprowadzić element e-sportu i grywalizacji do overclockingu poprzez podział na ligi i zawody w trybie sezonowym, okazała się nie spełnić założenia przy obecnym cyklu wydawniczym krótszym niż 12 miesięcy, nie wspominając też o obietnicach kontraktów i wsparcia zwycięzców ze strony producentów, które albo nie doszły do skutku, albo okazały się raczej żartem niż poważną współpracą. Wisienką na torcie jest nowa rewizja 7 hwbota, która zapowiadała zmiany w celu uatrakcyjnienia zabawy, wprowadzenia dodatkowych możliwości rywalizacji oraz zniwelowania aspektu finansowego jako głównego czynnika, a po trudnościach z wdrożeniem (brak stabilnych rankingów i przeliczanie wszystkich wyników przez miesiąc) okazało się, że jest zgoła odmiennie. A miejsca w Formule 1, czyli overclockerskiej lidze Elite, są cały czas zajęte przez tych samych ludzi.

Nie sposób wspomnieć tu też o naszej sytuacji w Polsce. Na początek statystyka - 4 osoby znajdujące się w pierwszej dziesiątce rankingu wykazują jakąkolwiek aktywność, przy czym Xtreme Addict (#1) w tym roku zgłaszał jedynie wyniki do zawodów rangi światowej, ja (#3) jestem nieczynny z powodów rodzinnych, Woomack (#5) miał ostatnio jakieś wyniki, ale tak bardziej na podtrzymanie formy, a pierwszą osobą, która jest naprawdę aktywna jest znajdujący się na 9-ym miejscu AdventurePO, który punkty w większości zawdzięcza globalsom za wielowątkowe CPU i jest w czołówce kategorii Enthusiast (użycie wyłącznie chłodzenia powietrznego lub wodnego). W drugiej dziesiątce jest niewiele lepiej - o jakąkolwiek aktywność można posądzić jedynie VING-a (#13) i Remiko (#19). Stara gwardia odeszła na emeryturę, tak jak ryba, aTomic, czy qjak, inni - jak ivanov czy bartx - pozostają w kontakcie przez udział w forach czy eventach, ale nie produkują nowych rezultatów, natomiast nie widać nowych zawodników, którzy nawiążą do osiągnięć międzynarodowych ryby i Chaosa sprzed lat (zwycięstwa na MOA czy medale na GOOC), czy tych nowszych autorstwa XA (takich jak mistrzostwo świata, wygrane w międzynarodowych zawodach czy pierwsze miejsce w ogólnym rankingu hwbota).

Nic więc dziwnego, że zawody drużynowe takie jak Team Cup czy Country Cup od wielu lat wychodzą nam słabo lub wręcz wcale - nie mamy tego kim obsadzić, a nawet jeśli, to ciężko się dogadać i wyegzekwować. Czemu się jednak dziwić, kiedy wszyscy mają swoje priorytety, sprzęt jak na nasze warunki jest po prostu drogi, a wsparcie ze strony lokalnych oddziałów PR producentów jest mocno ograniczone (wystarczy wspomnieć głośne przepychanki PurePC z AMD podczas premiery Ryzen, swoją drogą Lipton też miał video na temat, jak współpracować z lokalnymi oddziałami PR) i zebranie kompletu sprzętu do benchowania stanowi nierzadko wyzwanie. Pytaniem czysto retorycznym jest to o poziom relacji i promocji overclockingu przez portale technologiczne (gdzie kilka lat temu każdy szanujący się portal miał swoją drużynę), a ostatni publiczny pokaz overclockingu z użyciem LN2 odbył się w październiku 2017, wszystkie pozostałe imprezy z PGA i IEM włącznie są obsługiwane przy użyciu klasycznych metod na zachowawczych ustawieniach. Pozostaje więc liczyć jedynie na to, że ci, którzy zostaną przy swoim hobby, będą czerpać z niego radość niezależnie od pobitych rekordów, bo to jest w tym wszystkim chyba najważniejsze.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: O kondycji współczesnego overclockingu słów kilka

 0