
Ciężko nie zauważyć, że Snapdragon 800 często wraca na mój blog. Nic dziwnego, bo jest to prawdopodobnie najważniejszy smartfonowo-tabletowy SoC, który trafi do tegorocznych gadżetów. Do tej pory mogłem tylko spekulować na temat jego wydajności, ale wczoraj do sieci trafiły pierwsze sensowniejsze wyniki benchmarków tego potwora. Czego można się spodziewać po osiemsetce? Mocy desktopowego high-endu z 2006 roku.
A wiadomo to dzięki temu, że Qualcomm udostępnił pewnym zagranicznym redakcjom (ja akurat będę się tu powoływał na Anandtecha, bo ich zestaw testów mocno pokrywa się z moim) referencyjne tablety i smartfony, mające na celu zaprezentowanie mocy najnowszego układu tej firmy. Co z nich wynika? Niespodzianka! Snapdragon 800 jest szybki:
Wydajność procesora wzrosła w tej generacji o kilkadziesiąt procent, ale większość tego wzrostu wynika z szybszych zegarów (2,3 GHz, zamiast 1,6-1,8 GHz w Snapdragonie 600). Osiągnięcie tego było możliwe dzięki zmianie procesu technologicznego z wersji LP (czyli zoptymalizowanej pod kątem energooszczędności) na wersję HPM (czyli taką, która jest optymalizowana pod kątem taktowań). Dzięki temu zabiegowi Snapdragon 800 bez problemu powinien sobie radzić z tegorocznymi układami opartymi na rdzeniach Cortex-A15, takimi jak Exynos Octa, czy Tegra 4.
Jednak o wiele ciekawsze rzeczy dzieją się w przypadku wydajności GPU (Adreno 330), który jest prawie dwa razy wydajniejszy od swojego świeżo upieczonego poprzednika (Adreno 320):
Dzięki temu Qualcomm w końcu odbiera koronę tabletowej wydajności graficznej z rąk Apple i kolejnemu iPadowi nie będzie łatwo wrócić na szczyt. Zresztą nie tylko firma z nadgryzionym jabłkiem w logo będzie się musiała obejść smakiem, bo już można spekulować, że Tegra 4 będzie miała wolniejsze GPU. Skąd to wiem? Wynika to z prostej matematyki. Z zapowiedzi Nvidii wynika, że nowa Tegra powinna być 4-5 razy wydajniejsza od trójki. Niestety, żeby dogonić Adreno 330 ze Snapdragona 800, takie przyspieszenie może w wielu sytuacjach po prostu nie wystarczyć.
Moją uwagę najbardziej przykuł ten wykres:
Oczywiście trzeba na niego patrzeć z przymkniętymi oczami, bo długość zaprezentowanych tu słupków zależy od wielu innych czynników, niż tylko wydajności GPU (zupełnie różne systemy, pamięć operacyjna, API...), ale daje to pewne wyobrażenie na temat tego, w którym miejscu stoi teraz rozwój tabletowych układów graficznych. I wygląda na to, że stoi on gdzieś tu:
A przecież na tym dało się grać w Quake 4 w FullHD i z włączonym wygładzaniem krawędzi... Ciekawe jest też to jak niebezpiecznie blisko temu układowi do wydajności GPU w Kabini, co może spędzać sen z powiek inżynierów AMD.
Pozostaje jeszcze kwestia energooszczędności i ilości wydzielanego ciepła, ale pod tym względem Qualcomm raczej nigdy nie zawodził, choć niektórzy producenci smartfonów miewają problemy ze spowalnianiem procesora z powodu zbyt wysokich temperatur. Niestety nie do końca mam pewność czy to wina samego procesora, czy projektu obudowy. Krótko mówiąc, zapowiada się arcyciekawie i mam nadzieję, że w końcu coś się ruszy w sprawie sensownych stacji dokujących do naszych kieszonkowych i teczkowych gadżetów, bo już nie mogę patrzyć na to ile cykli zegara marnuje się na świecie w kieszeniach ludzi ;)
Tylko czekać na Pełne testy Tegry 4.
Mnie ciekawi pobór energii w stresie tego potwora, Żeby się nie skończyło tak jak w nexusie 10 gdzie pobór energii dochodzi do 10W w stresie.
To nam tylko mówi, ile warte jest to porównanie
Może test akurat faworyzuje bardzo zunifikowane shadery.
a to dobre
chyba że tym hiendem jest atom
Dlatego przydałoby się jakieś w miarę wygodne i niewymagające roota sterowanie SoC. Np, żeby można było sobie wyłączyć 1-2 rdzenie i zbić taktowanie CPU do jakichś 1,2 -1,4 GHz. Podobnie z GPU. Wiem, że teoretycznie można kupić słabszy telefon, ale mimo wszystko miło mieć zapas mocy.
Przecież właśnie tak, (w wielkim uproszczeniu), działa większość nowoczesnych SoC'ów ...
Companion Core w Tegrach, technologia LITTLE.big itd...
Edit: literówka
Dobra, dobra, poczekajmy na nowego atoma... Oby przynajmniej tu Intel nie zawiódł bo jak nie on to kto?