Mieszko Krzykowski | 7 maja 2013, 12:59

Wydajność Core 2 Duo w telefonie? Poproszę!

Wczoraj Intel ujawnił nie tyle garść, co kilka kubłów informacji na temat najnowszej odmiany Atomów. Zaprezentowane szczegóły przekroczyły wszystkie moje oczekiwania i spowodowały, że mój wewnętrzny geek zaczął wymachiwać łapkami i wydawać z siebie nieartykułowane dźwięki. Dlaczego? Bo Intel wziął się NAPRAWDĘ na poważnie za segment smartfonów i tabletów, przez co wygląda na to, że konkurencja nie będzie miała łatwego życia...

Architektura współczesnych Atomów ma już 5 lat, czyli w skali upływu czasu w świecie elektroniki użytkowej, powstała ona gdy po ziemi jeszcze chodziły dinozaury. Co prawda po drodze nastąpiło kilka zmian i poprawek, ale główne założenia projektowe i budowa rdzenia są teraz prawie takie same jak w 2008 roku. Intel chyba nie spodziewał się boomu smartfonowo-tabletowego, ale też trzeba przyznać... że aż do tego roku Atom z wydajnościowego i energooszczędnościowego punktu widzenia radził sobie... nieźle. W końcu jednordzeniowy procesor Intela montowany w Motoroli RAZR i w niektórych sytuacjach był lepszy od konkurencyjnego Snapdragona S4, a platforma CloverTrail+ nie ma się czego wstydzić na tle współczesnych czterordzeniowców ARM, choć widać już na niej wpływ upływu czasu.

Atom Tick-Tock

Teraz ma się wszystko zmienić i Intel chce przenieść tick-tock na „atomowe” pole i możemy się spodziewać corocznych aktualizacji ultramobilnych procesorów giganta x86. Wszystko zacznie się pod koniec tego roku, gdy na rynek trafią tablety z czterordzeniowymi układami Baytrail opartymi na jądrach Silvermont, wykonanymi w niskonapięciowej odmianie 22-nanometrowego procesu technologicznego Intela. Na początku przyszłego roku pojawią się smartfonowa inkarnacja tej architektury (Merrifield), a jakiś czas potem ma powstać Airmont. Czyli wszystko będzie się działo „odrobinę” szybciej niż dotychczas :)

new Atom vs old Atom

Czego możemy się spodziewać? Nie będę się tu wgryzał w szczegóły architektury, bo tym się zajmie ktoś inny z redakcji (niestety Polska, jako kraj trzeciego świata, dostała wszystkie materiały później niż nasi zagraniczni koledzy...), ale można się spodziewać dużych zmian w wydajności. Bardzo dużych. Architektura SIlvermont pozostaje dwupotokowa (Cortex-A15 jest trójpotokowy), ale Atom w końcu nauczy się wykonywać instrukcje poza kolejnością, jak na współczesny procesor przystało (konkurencja od ARM też już to potrafi, nie wspominając o AMD). Do tego dochodzi pozbycie się FSB (tak, Atom nadal korzysta z FSB, o którym w procesorach stacjonarnych już wszyscy zdążyli zapomnieć), co powinno poprawić czas dostępu i szybkość transferów z/do pamięci. Wisienką na torcie jest obsługa instrukcji SSE4.2, sprzętowego szyfrowania danych, wirtualizacji i innych nowych instrukcji. Efekt? Dzięki poprawkom w architekturze i przyspieszeniu zegarów taktujących, pojedynczy rdzeń nowego Atoma powinien być nawet dwa razy szybszy od rdzenia obecnego Atoma. A gdy się do tego jeszcze dorzuci większą liczbę rdzeni (CloverTrail+ ma dwa rdzenie + HT), to okazuje się, że Baytrail powinien zapewniać wydajność wyższą, niż oferowały dwurdzeniowe notebookowe odmiany Core 2 Duo, przy czym pojedynczy rdzeń Silvermont ma 1-1,5 W TDP, a nie kilka/kilkanaście, jak w mobilnych Penrynach :)

vssaltwell

Jednak poprawiono nie tylko wydajność, ale też energooszczędność. Najbardziej oczywistym jej źródłem jest nowy proces technologiczny, który jest ponoć tak dobry, że przy niskich napięciach (czyli tam gdzie jest to najważniejsze w przypadku smartfonów i tabletów) można na nim zaoszczędzić nawet kilkadziesiąt procent energii, zachowując ten sam poziom wydajności. Czyli inaczej mówiąc, przy niskich obciążeniach (synchronizowanie poczty, czytanie e-booków itp.) nowy Atom będzie zużywał jakieś pomijalne ilości energii, a przy wyższych obciążeniach Intel jest w stanie bardzo mocno przyspieszyć procesor, nie wychodząc poza dotychczasowe ramy TDP, co również przekłada się na wolniejsze rozładowywanie akumulatora, bo im szybciej zostaje wykonana jakaś praca, tym szybciej procesor może przejść w stan spoczynku.

Silvermont Turbo

Jednak optymalizacja energooszczędności nie kończy się na samym procesie technologicznym, bo Atom ma dostać porządnego sprzętowego zarządcę energii, o funkcjonalności podobnej do tego co widzimy w nowych biurkowych procesorach tego producenta. Czyli Silvermont dostanie Turbo z prawdziwego zdarzenia (także Turbo dla GPU), a przy okazji będzie możliwe niezależne zarządzanie taktowaniem każdego z rdzeni. To wszystko działa na wyobraźnię, bo już obecne Atomy są energooszczędne i urządzenia oparte na nich czasem biły rekordy czasu pracy (choć nowe Qualcommy też są niezłe pod tym względem), a tu wszystko ma być znacznie poprawione.

Silvermont Module

Co to znaczy w praktyce? Wygląda na to, że Silvermont jest tym na co czekałem od dawna. Już obecne Atomy nie odstają zbyt mocno wydajnością pojedynczego rdzenia od Corteksów-A15, więc można się spokojnie spodziewać tego, że czterordzeniowy Baytrail taktowany zegarem 2+ GHz nie będzie miał żadnych problemów z rozprawieniem się z czterordzeniowymi Corteksami-A15 (o poborze energii nie wspominając). Ale na wydajności procesora świat się nie kończy i te entuzjastyczne dane wcale nie muszą oznaczać, że nowy Atom odniesie sukces. Najłatwiej powinien on mieć na rynku tabletów, choć dużo zależy tu od... Microsoftu i tego, czy Windows Blue pokaże, że firma ta potrafi czasem słuchać użytkowników. Ale kurczę, hybrydowy tablet pokroju Asusa Vivo Tab, który działa na akumulatorze jeszcze dłużej, a przy tym ma wydajność Core 2 Duo? To ktoś w ogóle jeszcze będzie kupował cokolwiek z Pentiumami i Celeronami? ;)

Na rynku tabletów z Androidem może być trochę trudniej, bo dużo zależy od tego jaką wydajność będzie miał GPU Baytraila, który będzie oparty na architekturze Intela, a nie na konstrukcjach PowerVR. Jeszcze ciężej będzie się przebić na rynku smartfonów, gdzie od samej wydajności dużo ważniejszy jest ekosystem. Qualcomm radzi sobie tu tak dobrze głównie dzięki temu, że produkuje takie chipy jak MSM8974, który oprócz czterech rdzeni i mocnego GPU, ma jeszcze zintegrowany odbiornik GPS i Glonass, moduł Wi-Fi ac i modem LTE, a do zapewnienia takiego poziomu integracji i funkcjonalności chipom Intela jeszcze daleko.

Silvermont Performance

Czyli w przyszłym roku czeka nas prawdziwe starcie tytanów, bo Intel wydaje Baytraila, NVIDIA pokaże efekt pracy nad architekturą Denver, AMD zaprezentuje jaguaropochodne układy tabletowe, Qualcomm zapewne też ma jakiegoś asa w rękawie, a za rogiem czai się ARM Cortex-A57. No i nie zapominajmy o Apple, które zgromadziło pod swoimi strzechami kwiat współczesnych inżynierów i ciągle kombinuje coś po cichu. Rynek procesorów jeszcze nigdy nie widział aż takiej konkurencji. Tylko teraz bardzo bym prosił producentów sprzętu o ogarniecie tematu różnych stacji dokujących dla tabletów i smartfonów, a w szczególności Motorolę o wskrzeszenie oryginalnego Atrixa ;)

Komentarze
SunTzu
7 maja 2013, 13:21
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Nie ma o tym wspomniane tutaj, a szkoda.
Edytowane przez autora (2013.05.07, 13:26)
4
revcorey
7 maja 2013, 13:24
Powiem tyle wpis entuzjastyczny tylko... napisany na podstawie materiałów reklamowych intela. Chyba nikt się nie spodziewał że napiszą 'robimy co możemy ARM jest na razie lepszy' :E Wyjdzie to się zobaczy.
8
jackowo
7 maja 2013, 13:26
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Krótki potok wykonawczy to niemalże gwarancja wysokiej wydajności w każdym zastosowaniu. Dłuższy potok, a więc wyższe taktowanie, to wyższa wydajność tylko przy renderingu lub kompresji, ale znacznie niższa w innych typowych sytuacjach.
11
Gregario
7 maja 2013, 13:29
w końcu intel przypomniał sobie o atomach i wziął się poważnie do roboty
7
cichy45
7 maja 2013, 13:30
Zapowiada się bardzo dobrze, oby tak dalej :)
3
SunTzu
7 maja 2013, 13:38
jackowo (2013.05.07, 13:26)
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Krótki potok wykonawczy to niemalże gwarancja wysokiej wydajności w każdym zastosowaniu. Dłuższy potok, a więc wyższe taktowanie, to wyższa wydajność tylko przy renderingu lub kompresji, ale znacznie niższa w innych typowych sytuacjach.

Jest to ciekawa teoria, ale dość naciągana. Powiedziałbym to zależy nie od długości potoku, ale całego procesora najbardziej. Wysoki MHz nie gwarantuje wysokiej wydajności rendering. Jest 'rendering' i Rendering.

Powiedziałbym rendering to praktyczne zastosowanie maksymalnie obciążające processor. Mocny processor z długim potokiem będzie w rendering dobry, słabszy z krótkim potokiem też może być mocny.
Edytowane przez autora (2013.05.07, 13:42)
1
Szwarcu
7 maja 2013, 14:32
O czym Ty chłopie gadasz? :hmm:
2
SunTzu
7 maja 2013, 14:40
Gregario (2013.05.07, 13:29)
w końcu intel przypomniał sobie o atomach i wziął się poważnie do roboty

Czy mało się działo w Atomie przez ostatnie lata? Wg. mnie cały czas pamiętał. Dodano 64bit, dano kolejny rdzeń....
Jednakże problemem atom-a nie była moim zdaniem wydajność, a pobór energii przy tej wydajności. Zauważ, że gdy Atom pojawił się w telefonach był to jeden z najmocniejszych rdzeni, a wydajność komórkowego Atoma jest taka sama jak tego sprzed 5 lat. Gdyby 5 lat temu Atom ciągnął tyle energii....

Czym byłby Silvermount z chipsetem ciągnącym 2x tyle energii co procesor w stresie? Atom był poligonem doświadczalnym i dzięki trybom oszczędzania energii wreszcie Atom ma sens.
Edytowane przez autora (2013.05.07, 14:43)
-1
Magnez
7 maja 2013, 14:41
Szkoda, że AMD odpuściło rynek smartfonów.. Intel wziął się ostro do pracy i prawdopodobnie zostawi ARM w tyle.
6
ZIB2000
7 maja 2013, 14:44
o obecnym problemie na rynku....

takich ludzi jak miomol sa miliony a nie ma co kupić
4
SunTzu
7 maja 2013, 14:44
@up
Spokojnie....
Narazie weszli do tabletów (niby 'Z' było), a jak TSMC zejdzie do 1xnm może wejdą do telefonów.
Edytowane przez autora (2013.05.07, 14:45)
-1
Luk4s
7 maja 2013, 14:47
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Nie ma o tym wspomniane tutaj, a szkoda.

Nowy Atom wedlug to co pisza na Anandzie ma miec potok wykonawczy o długości 14-17 krokow (zalezne od danych, które procek obrabia). Z kolei Jaguar ma miec 16 etapowy potok. W założeniach obie arch. sa podobne - out of order, podobny zestaw instrukcji i dwupotokowosc. Wydajnosc rdzeni powinna byc podobna, ale to tylko czesc SoCa.
1
Magnez
7 maja 2013, 14:49
SunTzu (2013.05.07, 14:44)
@up
Spokojnie....
Narazie weszli do tabletów (niby 'Z' było), a jak TSMC zejdzie do 1xnm może wejdą do telefonów.


Trendy ciągle się zmieniają. Za 5 lat smartfony może będą już niemodne, a będzie się używało czegoś innego. AMD nie może tak przesypiać trendów bo tylko w nich jest nadzieja na zrobienie konkurencji intelowi. Chyba, że jak już będzie bardzo źle to ktoś wykupi AMD i popchnie to lepiej. Chociaż wydaje się, że obecny szef ma jakąś wizje.
4
SunTzu
7 maja 2013, 15:00
Luk4s (2013.05.07, 14:47)
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Nie ma o tym wspomniane tutaj, a szkoda.

Nowy Atom wedlug to co pisza na Anandzie ma miec potok wykonawczy o długości 14-17 krokow (zalezne od danych, które procek obrabia). Z kolei Jaguar ma miec 16 etapowy potok. W założeniach obie arch. sa podobne - out of order, podobny zestaw instrukcji i dwupotokowosc. Wydajnosc rdzeni powinna byc podobna, ale to tylko czesc SoCa.


Trzeba poczekać... pamiętaj, też o tricku jaki Intel zastosował
' In going out-of-order, Silvermont allows instructions to bypass those stages if they don’t need data from memory, effectively shortening the mispredict penalty from 13 stages down to 10.'

To własnie takie małe rzeczy jak nowe stany C,S sprawiają, że urządzenie działa 2-3x dłużej.
Edytowane przez autora (2013.05.07, 15:01)
3
gregory003
7 maja 2013, 15:44
Zaprezentowane szczegóły przekroczyły wszystkie moje oczekiwania i spowodowały, że mój wewnętrzny geek zaczął wymachiwać łapkami i wydawać z siebie nieartykułowane dźwięki.




Sorry, nie mogłem się powstrzymać gdy przeczytałem ten fragment.
Szkoda ze nie mogłem znaleźć filmiku z podskakującą Cheetah z Tarzana...

A tak poważnie:
Czyli Silvermont dostanie Turbo z prawdziwego zdarzenia (także Turbo dla GPU), a przy okazji będzie możliwe niezależne zarządzanie taktowaniem każdego z rdzeni.

A to byłoby coś nowego w x86. Zresztą w ARM tez nie ma niezależnego taktowania. To pewne ze każdy rdzeń będzie taktowany własnym zegarem?
7
miekrzy
7 maja 2013, 15:49
Każdy rdzeń może być taktowany niezależnie, ale trzeba je o to poprosić, czyli domyślnie tego nie robi. Qualcomm w swoich wielordzeniowcach ma takie rozwiązanie włączone domyślnie od „zawsze”.
3
SunTzu
7 maja 2013, 15:57
@up
Swoją drogą w mobilnych rozwiązaniach trochę beznadziejne jest to, że windows przerzuca wątek pomiędzy rdzeniami. Plus w desktopie i serwerach gdzie równomiernie rozprowadza się ciepło... ale minus w mobile gdzie spada energooszczędność

(non stop wybudzany jest rdzeń)
Edytowane przez autora (2013.05.07, 16:21)
-3
gregory003
7 maja 2013, 16:01
miekrzy (2013.05.07, 15:49)
Każdy rdzeń może być taktowany niezależnie, ale trzeba je o to poprosić, czyli domyślnie tego nie robi. Qualcomm w swoich wielordzeniowcach ma takie rozwiązanie włączone domyślnie od „zawsze”.

A to nie jest przypadkiem tak, ze w ARM każdy rdzeń może miec niezalezne taktowanie, o ile projektant SoC opartego o te rdzenie przewidzi dla nich niezależne mnożniki i strefy sygnałowe?
2
LeeLoo_T
7 maja 2013, 16:06
Magnez (2013.05.07, 14:41)
Szkoda, że AMD odpuściło rynek smartfonów.. Intel wziął się ostro do pracy i prawdopodobnie zostawi ARM w tyle.

Intel Atom to architektura do telefonow i tabletow, AMD takiej nie stworzylo. O ile Atom i Core beda wspolistniec ze soba trafiajac w zupelnie inne rynki, to dla AMD Jaguar to przyszlosc na ktorej zbuduja wszystkie przyszle projekty, niestety o telefonach i tabletach(oprocz premium Windows z duza bateria) moga pomarzyc.
Silvermont to architektura dojrzala i o ogromnym potencjale, do tego wejdzie w tick-tock, czyli kazdego roku dostanie nowa wersje.

Techniczne artykuly
http://anandtech.com/show/6936/intels-silv...us-about-mobile
http://www.realworldtech.com/silvermont/
http://techreport.com/review/24767/the-nex...ecture-revealed
Edytowane przez autora (2013.05.07, 16:11)
5
revcorey
7 maja 2013, 16:55
to dla AMD Jaguar to przyszlosc na ktorej zbuduja wszystkie przyszle projekty, niestety o telefonach i tabletach(oprocz premium Windows z duza bateria) moga pomarzyc.
Silvermont to architektura dojrzala i o ogrom

AMD ma za około rok wypuścić własnego ARM....
2
*Konto usunięte*
7 maja 2013, 16:59
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Nie ma o tym wspomniane tutaj, a szkoda.

Gdzie AMD wydłużyło potok w jaguarze??
-4
Luk4s
7 maja 2013, 17:31
mlodybe (2013.05.07, 16:59)
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Nie ma o tym wspomniane tutaj, a szkoda.

Gdzie AMD wydłużyło potok w jaguarze??

Jest to slajdach od AMD. Generalnie wydluzyli potok z 15 na 16 etapow. Oczywiscie warto dodac, ze dlugosc potoku jest tylko jedna ze skladowych, ktora wplywa na IPC i nie determinuje wprost tego czy rdzen bedzie wydajny czy nie.
-1
LeeLoo_T
7 maja 2013, 17:42
jackowo (2013.05.07, 13:26)
SunTzu (2013.05.07, 13:21)
Czytałem o tym rano. Wygląda rewelacyjnie. Skrócili potok, zwiększyli ilość rdzeni, zwiększyli MHz.
Można powiedzieć pod pewnymi względami odwrotność Jaguara, gdzie wydłużli potok.

Krótki potok wykonawczy to niemalże gwarancja wysokiej wydajności w każdym zastosowaniu. Dłuższy potok, a więc wyższe taktowanie, to wyższa wydajność tylko przy renderingu lub kompresji, ale znacznie niższa w innych typowych sytuacjach.

Potok skrocil sie dodano wykonanie OoO to pojdzie na dokladke w dodatkowe MHz, ktore beda dostepne dzieki swietnej wydajnosci SOC 22TG.
revcorey (2013.05.07, 16:55)
to dla AMD Jaguar to przyszlosc na ktorej zbuduja wszystkie przyszle projekty, niestety o telefonach i tabletach(oprocz premium Windows z duza bateria) moga pomarzyc.
Silvermont to architektura dojrzala i o ogrom

AMD ma za około rok wypuścić własnego ARM....

ARM bedzie jako dostawka do APU/CPU w serwerach.
0
Stanley
7 maja 2013, 18:25
Piszecie o potokach potokami słów :D
gregory rozwalił tą małpą :D

a wszystkie te zmiany sprowadzają się do tego żebyśmy jak małpy mogli szybciej klikać lajki na fejsie i umawiać na imprezy po których 40 na 80 chłopa uchla się do zeżygania, 3 na 80 dziewczyn zajdzie w niechcianą ciąże, 200 nieobecnych pozostanie przy komputerach żeby podtrzymać klikalność w internecie, 100 po wszystkim da lajka całej imprezie, 200 wklei jakieś durne fotki i komentarze, 20/80 podczas imprezy będzie z nudów katować telefony szukając kolejnej imprezy, a po tym wszystkim będą krążyć plotki nielicznych którzy dotrwali trzeźwi 'ty stary ale było zajebiście' nawet w zoo nie widzialem tylu małp w jednym miejscu...

Obawiam się że Intel mimo starań nie 'wygra' tej batalii ale sporo może ugrać, nawet jeśli nie to zmiany przeniosą się do laptopów, poźniej do procków serwerowych i wykoszą stare ociężałe architektury tak jak Core wykosiło Itanium, tak jak Pentium M wykosił NetBursta, do telefonów ciekawa sprawa -
Motorolla Atrix 4G miała problem z podwójnym systemem, nie wiem jak w praktyce ale jeśli można by zainstalować Windows 8 w telefonie i korzystać z Metro jak dotychczas korzysta się z kafelków Windows Phone to tego rodzaju 'Motorolla Atrix' w Lapdocku byłaby moim wymarzonym telefonem :)
Nie dość że zapowiada się super wydajność to jeszcze super czas działania na baterii

NVidia jest na tym polu silna myśle że będą koegzystowali razem, NVidia do maszyn rozrywkowych, Intel do uniwersalnych 'poważnych' smartfonów. Kto wie może kolejne odmiany Windows Phone będą na Intelu? Jeśli miałbym dać ponad 2 klocki za telefon to tylko taki - z Intelem na pokladzie i pełnym systemem
Edytowane przez autora (2013.05.07, 18:31)
0
sluka
7 maja 2013, 19:04
Nie rozumiem tego entuzjazmu i radosnego liczenia wydajności x2. Maksymalnie dwa rozkazy na takt, C2D mógł 4. IPC w tym procku będzie w okolicach ~1,1-1,3. Aby dobrze wykorzystać IPC konieczny jest wydajny i sprawny mechanizm OoO oraz odpowiednio długa kolejka rozkazów. Efektywny mechanizm OoO jest jednocześnie energochłonny. Nie ma się co spodziewać mechanizmów o podobnej efektywności jak w biurkowych procesorach. Podobnie jest z Brazosem, który mimo podobieństw do modułów BD jest wyraźnie słabszy zegar w zegar.
Strategią Tic-Toc też nie ma się co podniecać, bo będzie dotyczyła głownie tego co Intela boli najbardziej, czyli GPU. Rdzenie CPU będą przechodzić co najwyżej kosmetykę.
0
gregory003
7 maja 2013, 19:46
celorum (2013.05.07, 19:30)
Co ma Atom wspólnego z wydajnością Core 2 Duo? To jakiś kiepski żart? Testowałem w domu dwurdzeniowego Atoma 1,6GHz z HT. Jest aż 10 razy wolniejszy od core 2 Duo przy 1,6GHz. Niewiele zmieni nawet wzrost mocy o 100%.

Zrozum - tego Atoma, który ma mieć coś wspólnego z C2D jeszcze nie ma. Pojawi się dopiero pod koniec roku. Więc jak mogłeś go przetestować?
5
*Konto usunięte*
7 maja 2013, 19:51
gregory003 (2013.05.07, 19:46)
celorum (2013.05.07, 19:30)
Co ma Atom wspólnego z wydajnością Core 2 Duo? To jakiś kiepski żart? Testowałem w domu dwurdzeniowego Atoma 1,6GHz z HT. Jest aż 10 razy wolniejszy od core 2 Duo przy 1,6GHz. Niewiele zmieni nawet wzrost mocy o 100%.

Zrozum - tego Atoma, który ma mieć coś wspólnego z C2D jeszcze nie ma. Pojawi się dopiero pod koniec roku. Więc jak mogłeś go przetestować?

Przecież ci napisał że biorąc pod uwagę fakt że ten ma być 100% wydajniejszy od starego to i tak będzie daleko w tyle za C2D...
-4
*Konto usunięte*
7 maja 2013, 19:58
sluka (2013.05.07, 19:04)
Nie rozumiem tego entuzjazmu i radosnego liczenia wydajności x2. Maksymalnie dwa rozkazy na takt, C2D mógł 4. IPC w tym procku będzie w okolicach ~1,1-1,3. Aby dobrze wykorzystać IPC konieczny jest wydajny i sprawny mechanizm OoO oraz odpowiednio długa kolejka rozkazów. Efektywny mechanizm OoO jest jednocześnie energochłonny. Nie ma się co spodziewać mechanizmów o podobnej efektywności jak w biurkowych procesorach. Podobnie jest z Brazosem, który mimo podobieństw do modułów BD jest wyraźnie słabszy zegar w zegar.
Strategią Tic-Toc też nie ma się co podniecać, bo będzie dotyczyła głownie tego co Intela boli najbardziej, czyli GPU. Rdzenie CPU będą przechodzić co najwyżej kosmetykę.

Jaguar i brazos nie ma nic wspólnego z BD oprócz producenta.
-4
LeeLoo_T
7 maja 2013, 20:05
celorum (2013.05.07, 19:30)
Co ma Atom wspólnego z wydajnością Core 2 Duo? To jakiś kiepski żart? Testowałem w domu dwurdzeniowego Atoma 1,6GHz z HT. Jest aż 10 razy wolniejszy od core 2 Duo przy 1,6GHz. Niewiele zmieni nawet wzrost mocy o 100%.

Stary Atom jest 2x wolniejszy i tak, jesli Silvermont 2.4GHz spelni obietnice jest w stanie przebic Core 2 ~1.2GHz pod kazdym wzgledem.
http://www.anandtech.com/bench/Product/110?vs=70
Edytowane przez autora (2013.05.07, 20:10)
2
LeeLoo_T
7 maja 2013, 20:13
sluka (2013.05.07, 19:04)
Nie rozumiem tego entuzjazmu i radosnego liczenia wydajności x2. Maksymalnie dwa rozkazy na takt, C2D mógł 4. IPC w tym procku będzie w okolicach ~1,1-1,3. Aby dobrze wykorzystać IPC konieczny jest wydajny i sprawny mechanizm OoO oraz odpowiednio długa kolejka rozkazów. Efektywny mechanizm OoO jest jednocześnie energochłonny. Nie ma się co spodziewać mechanizmów o podobnej efektywności jak w biurkowych procesorach. Podobnie jest z Brazosem, który mimo podobieństw do modułów BD jest wyraźnie słabszy zegar w zegar.
Strategią Tic-Toc też nie ma się co podniecać, bo będzie dotyczyła głownie tego co Intela boli najbardziej, czyli GPU. Rdzenie CPU będą przechodzić co najwyżej kosmetykę.

Jesli spojrzysz na slajdy wydajnosci i efektywnosci okolic 1W, czyli dla wydajnosci telefonow te uklady moga sporo namieszac, a przynajmniej zdobyc rynek wszystko kwestia tego jak wyceni je Intel. Architektura Core ma ogromne problemy z zejsciem ponizej 10W, przynajmniej na dzisiaj to arcytrudne.
Edytowane przez autora (2013.05.07, 20:17)
2
SunTzu
7 maja 2013, 21:26
@Up
Nie tylko Core ma ten problem, Atom pierwszy z chipsetem w IDLE ciągnął okolice 20W (motek południowy bodaj w 130nm).
Ale z współczesnych procesorów problem ten dotyczył też nehalema.

Intel naszczęście rozwiązał ten problem, szczególnie fajnie, że chipset z 3-4W zaczął ciągnąć minimalne ilości poboru energii. CPU łatwo było rozwiązać, ale też nie śpieszyło im się.
Pytanie czy to wszystko wprowadzi AMD, bo Atom np. np. ciągnie <1W podczas oglądania filmu, jeżeli Temash w IDLE będzie ciągnął ~1W energii to już będzie na przegranej pozycji.
1
rcicho
7 maja 2013, 21:42
Widać Jaguar bardzo blisko więc Intel robi zamieszanie. Jak wyjdzie to się okaże co jest wart nowy Atom.
-4
Stanley
7 maja 2013, 21:47
okolice 1W to okolice ostatniego popularnego w telefonach arm od Intela zanim sprzedali go Marvelowi za 600mln dolcow tj XScale PXA272(seria 3xx to raptem 25% boost) przy maxymalnym taktowaniu 624MHz wydajność 800 MIPS dla porównania przy 1.5GHz teoretycznie Atom ma ok 3000 a Pentium M ok 7000
w porownaniu do Atoma Z510(2W 1.1GHz) Intelowy ARM PXA270 520MHz jest ok 5x wolniejszy w czymkolwiek by nie testować
http://www.ptxdist.org/development/kernel/...0100729_en.html
10 lat rozwoju, Atom bedzie z 10x szybszy IPC/MHz od pierwowzoru przy podobnym zapotrzebowaniu na energie ok 1W a zaczynali od 4W w pierwszych atomach i ze sporym poborem energii w spoczynku, brakiem możliwości montowania w telefonach, zaczynali od niewielkiego progresu wobec pierwszych kroków naprawde mobilnych procesorów Pentium M 1.2GHz CULV (ok TDP 6W) - ktoś jeszcze pamieta śp. wynalazek VLIW Transmeta Crusoe 5800(1GHz ok TDP 7W) - patent jak zbić TDP niewielkim kosztem wydajności(nawet kupili Cool & Quiet od AMD - zmiana taktowania w locie, wynajeli Linusa Torvaldsa do pracy nad oprogramowaniem 'emulatora' x86) po czym zbankrutowali :)

Wydajność tragiczna szczególnie we flopsach ale to był jedyny procesor który nawiazywal walke z Intelem - wydajność porównywalna z PIII 600MHz, teraz Intel ma troche trudniejsze zadanie ale jak widać...jeszcze pare lat i tylko GPU uratuje ARM
Edytowane przez autora (2013.05.07, 21:53)
1
gaaazzz
7 maja 2013, 21:54
SunTzu (2013.05.07, 21:26)
@Up
Nie tylko Core ma ten problem, Atom pierwszy z chipsetem w IDLE ciągnął okolice 20W (motek południowy bodaj w 130nm).


Kiedyś miałem netbooka na atomie ( pierwsza wersja n270 ).
Cały netbook w idle ( bateria odpięta ) pobierał ok 10W.

Dlatego nie jest prawda że pierwszy atom pobierał w IDLE 20W ( z chipsetem ).
2
SunTzu
7 maja 2013, 22:33
gaaazzz (2013.05.07, 21:54)
SunTzu (2013.05.07, 21:26)
@Up
Nie tylko Core ma ten problem, Atom pierwszy z chipsetem w IDLE ciągnął okolice 20W (motek południowy bodaj w 130nm).


Kiedyś miałem netbooka na atomie ( pierwsza wersja n270 ).
Cały netbook w idle ( bateria odpięta ) pobierał ok 10W.

Dlatego nie jest prawda że pierwszy atom pobierał w IDLE 20W ( z chipsetem ).

Na twoim netbook-u świat się nie kończy.



Były różne Atom-y, różne chipsety, rózne platformy, różne pobory energii. Widać tutaj jak ładnie Intel robił progres. Dzięki poprawie chipsetów pobór energii spadł znacząco

Różnica pomiędzy D510, a starym 230 wynosi 18W
Edytowane przez autora (2013.05.07, 23:26)
0
Grave
7 maja 2013, 23:27
LeeLoo_T (2013.05.07, 20:13)
sluka (2013.05.07, 19:04)
Nie rozumiem tego entuzjazmu i radosnego liczenia wydajności x2. Maksymalnie dwa rozkazy na takt, C2D mógł 4. IPC w tym procku będzie w okolicach ~1,1-1,3. Aby dobrze wykorzystać IPC konieczny jest wydajny i sprawny mechanizm OoO oraz odpowiednio długa kolejka rozkazów. Efektywny mechanizm OoO jest jednocześnie energochłonny. Nie ma się co spodziewać mechanizmów o podobnej efektywności jak w biurkowych procesorach. Podobnie jest z Brazosem, który mimo podobieństw do modułów BD jest wyraźnie słabszy zegar w zegar.
Strategią Tic-Toc też nie ma się co podniecać, bo będzie dotyczyła głownie tego co Intela boli najbardziej, czyli GPU. Rdzenie CPU będą przechodzić co najwyżej kosmetykę.

Jesli spojrzysz na slajdy wydajnosci i efektywnosci okolic 1W, czyli dla wydajnosci telefonow te uklady moga sporo namieszac, a przynajmniej zdobyc rynek wszystko kwestia tego jak wyceni je Intel. Architektura Core ma ogromne problemy z zejsciem ponizej 10W, przynajmniej na dzisiaj to arcytrudne.


Już kiedyś Intel miał Core ULV z TDP 5W, to że dzisiaj takich nie ma wynika z tego, że z każdą generacją Intel integruje razem z CPU kolejne komponenty i jeszcze od kilku lat zaczął intensywnie rozbudowywać IGP. A to wszystko wpływa na TDP.

Gdyby nie te kolejne integrowane komponenty to TDP 'samego CPU' Core2Duo na pewno dałoby się zbić w 22nm nawet do mniej niż 5W.
Edytowane przez autora (2013.05.07, 23:29)
0
SunTzu
7 maja 2013, 23:45
@up
Ja myślę, że mu chodziło o cała platformę czyli CPU+chipset. Core, Nehalem, SB, IB w IDLE ciągnęły okolice paru W. Podczas normalnej pracy SB/IB ciągną okolice 10W (mobilne niskotaktowane, nie ULV)
0
jkbrenna
8 maja 2013, 08:11
cena ich jest bardzo niekorzystwa w stosunku do ARM, okolo 41 $ do 17 $
-2
eagle
8 maja 2013, 10:02
Aplikacje dla telefonu i tabletu to inny target niż w desktop. Zapotrzebowanie jest na dwa różne rodzaje 'mocy' obliczeniowych. Na tabletach nikt nie potrzebuje super wydajności przy aplikacjach z wieloma skokami i możliwymi ścieżkami, liczenie z duża dokładnością po przecinku również nie jest numerem jeden w przenośnych aplikacjach.
Tutaj bardziej liczy się wydajność zarezerwowana w przeszłości dla DSP plus wydajność GPU.
Doskonałym przykładem jest sprzęt apple który mimo jedno i dwurdzeniowych CPU posiada zawsze dużo wydajniejsze GPU.
Tak że podniesienie samej wydajności CPU w atomie dla posiadacza tabletu da tyle co większa wydajność gpu w Haswellu dla użytkownika desktop.
Ja oczekuję wydajności cpu w desktop, gpu w tabletach i smartphonach.
Przykładem jest SGS3 i Note2. Fajne cpu, beznadziejna wydajność gpu vs apple.
0
SunTzu
8 maja 2013, 11:15
A wg. mnie liczy się balans. Tu o GPU nic nie wiadomo.
Mocne GPU potrzebuje mocnego CPU, bo inaczej gry będą proste jak cep.

Mali to inne GPU, inaczej zbilansowane. Gra zrobiona pod Mali będzie słabo działała na SGX543...
Zawsze możesz w grach przyciąć detale, wyłączyć AA itp... Natomiast jak masz za mało CPU nie ma tu magicznych wynalazków.
Edytowane przez autora (2013.05.08, 11:16)
1
celorum
8 maja 2013, 13:43
gregory003 (2013.05.07, 19:46)
celorum (2013.05.07, 19:30)
Co ma Atom wspólnego z wydajnością Core 2 Duo? To jakiś kiepski żart? Testowałem w domu dwurdzeniowego Atoma 1,6GHz z HT. Jest aż 10 razy wolniejszy od core 2 Duo przy 1,6GHz. Niewiele zmieni nawet wzrost mocy o 100%.

Zrozum - tego Atoma, który ma mieć coś wspólnego z C2D jeszcze nie ma. Pojawi się dopiero pod koniec roku. Więc jak mogłeś go przetestować?

Co ty bełkoczesz? Gdzie niby pisałem, że testowałem Silvermont? Napisałem wyraźnie, że testowałem dwurdzeniowego Atoma 1,6GHz (bo taki był w komputerze Optiplex 160), a nie przyszły procesor co jeszcze nie wyszedł. Jeśli Silvermont ma być 2 razy szybszy od dzisiejszego Atoma, to będzie z 5 razy wolniejszy od Core 2 Duo.
-2
pawełpclab
8 maja 2013, 13:49
zmiany rzeczywiście znaczne.
To czy taki atom ma szanse na nawiązanie walki z konkurencją to już inna sprawa.
Na pierwszy rzut oka wydaje się ze nowy atom poza nieco większą wydajnością od konkurencji nie ma innych zalet, a jego cena będzie pewnie wyższa od ARM-ów
Z drugiej jednak strony atom jest x86 j jeśli implementacja będzie wspierała virtualizacje to będzie możliwe uruchomienie dwóch systemów jednocześnie. W takiej konfiguracji nowy atom deklasuje konkurencje i kilkadziesiąt $ różnicy w cenie nie ma znaczenia.
0
pawełpclab
8 maja 2013, 13:52
celorum (2013.05.08, 13:43)
gregory003 (2013.05.07, 19:46)
(...)

Zrozum - tego Atoma, który ma mieć coś wspólnego z C2D jeszcze nie ma. Pojawi się dopiero pod koniec roku. Więc jak mogłeś go przetestować?

Co ty bełkoczesz? Gdzie niby pisałem, że testowałem Silvermont? Napisałem wyraźnie, że testowałem dwurdzeniowego Atoma 1,6GHz (bo taki był w komputerze Optiplex 160), a nie przyszły procesor co jeszcze nie wyszedł. Jeśli Silvermont ma być 2 razy szybszy od dzisiejszego Atoma, to będzie z 5 razy wolniejszy od Core 2 Duo.


Widocznie Twoja procedura testowa nie była doskonała skoro uzyskałeś wyniki o jakich piszesz. Można nawet przypuszczać jakie instrukcje były wykonywane - operacje na liczbach zmiennoprzecinkowych podwójnej precyzji.
1
SunTzu
8 maja 2013, 15:42
pawełpclab (2013.05.08, 13:49)
zmiany rzeczywiście znaczne.
To czy taki atom ma szanse na nawiązanie walki z konkurencją to już inna sprawa.
Na pierwszy rzut oka wydaje się ze nowy atom poza nieco większą wydajnością od konkurencji nie ma innych zalet, a jego cena będzie pewnie wyższa od ARM-ów
Z drugiej jednak strony atom jest x86 j jeśli implementacja będzie wspierała virtualizacje to będzie możliwe uruchomienie dwóch systemów jednocześnie. W takiej konfiguracji nowy atom deklasuje konkurencje i kilkadziesiąt $ różnicy w cenie nie ma znaczenia.

Z tego co się szacuje, to jaguar/Atom będą daleko w tyle za Cortexami (wydajność/MHz/rdzeń). Wydajność ARMów ma wzrosnąć 2x/core/mhz. Dziś Atom jest około 10% mniej wydajny na /rdzeń/mhz.

Windows RT w tym kontekście wyszedł w całkiem dobrym momencie. Teraz mają platformę beta, poprawią błędy, a gdy będą lepsze Army będą mieli produkt.
Edytowane przez autora (2013.05.08, 15:46)
0
*Konto usunięte*
8 maja 2013, 16:01
SunTzu (2013.05.08, 15:42)
pawełpclab (2013.05.08, 13:49)
zmiany rzeczywiście znaczne.
To czy taki atom ma szanse na nawiązanie walki z konkurencją to już inna sprawa.
Na pierwszy rzut oka wydaje się ze nowy atom poza nieco większą wydajnością od konkurencji nie ma innych zalet, a jego cena będzie pewnie wyższa od ARM-ów
Z drugiej jednak strony atom jest x86 j jeśli implementacja będzie wspierała virtualizacje to będzie możliwe uruchomienie dwóch systemów jednocześnie. W takiej konfiguracji nowy atom deklasuje konkurencje i kilkadziesiąt $ różnicy w cenie nie ma znaczenia.

Z tego co się szacuje, to jaguar/Atom będą daleko w tyle za Cortexami (wydajność/MHz/rdzeń). Wydajność ARMów ma wzrosnąć 2x/core/mhz. Dziś Atom jest około 10% mniej wydajny na /rdzeń/mhz.

Windows RT w tym kontekście wyszedł w całkiem dobrym momencie. Teraz mają platformę beta, poprawią błędy, a gdy będą lepsze Army będą mieli produkt.


Tyle tylko że brazos/jaguar to zupełni inny target jak ARM/Atom. Jestem pewien że AMD wypuści swojego ARM (na razie pewnie kupi licencje na arm a w przyszłości pewnie sam w nim pogrzebie jak NV).

Temash to platforma do mobilnej 'poważnej' rozrywki (możliwość płynnego grania w gry z PC, Na atomie można uruchomić ale pokaz slajdów) a nie jak zabawki na ARM/Atom do Angry birds-a.
-3
SunTzu
8 maja 2013, 16:46
@up
GPU Intel-a jest równie wydajne co w trinity, więc Atom może mieć całkiem sporą moc. Konkurencja ARMowa aka PowerVR też jest coraz lepsza. Pytanie czemu AMD miałoby wypuszczać swojego ARM-a, który byłby lepszy od Temasha?
Edytowane przez autora (2013.05.08, 16:48)
0
skoti48
8 maja 2013, 17:05
Bardzo zaskoczył mnie ten 'art'.
Po pierwsze Atomy od bardzo, bardzo dawna odstają od ARM:
http://www.phoronix.com/scan.php?page=arti..._dual&num=3
Tu w teście jest ponad 2x słabszy procesor niż te które będą konkurencją dla nowego Atoma - zaraz wyjdzie 4x rdzeniowa Tegra 4 z A15 po 1.9GHz czy Snapdragon 800 4x Krait 2.3GHz (w teście 2x A15 1.7GHz).
Zapewne te niektóre sytuacje o których autor wspomina to testy zupełnie innego oprogramowania w jednym i drugim zastosowaniu i to oprogramowanie robi różnicę - przykład: testy przegladarkowe.

Nie wiem czemu też się podniecać SSE4.2 (obliczenia 4x liczb na raz) kiedy mamy w prockach intela AVX (8 liczb na raz), a w A15/Krait mamy podwójne NEONy (8 liczb na raz).
Przy niskich obciążeniach dobrze, że poprawił się Intel, ale do rozwiązań big.LITTLE czy 4+1 od konkurencji mu brakuje.
Asynchroniczne taktowanie rdzeni fajna sprawa... tylko, że wprowadzona jest w Qualcomm Krait i ARM Cortex A15

Wirtualizację pełną ma też konkurencja... to czego brakuje obecnie w ARM to sprzętowego kodowania i dekodowania - ARM planuje to na ARMv8... czyli już za chwilę.

Ot dogonił częściowo konkurencje, ale dalej jest to 2x potokowy procek (vs 3x potokowe Apple Swift, ARM Cortex A15, Qualcomm Krait) i dalej nie ma w pełni konkurencyjnego procka na ten rynek.

0
pawełpclab
8 maja 2013, 17:09
SunTzu (2013.05.08, 15:42)
pawełpclab (2013.05.08, 13:49)
zmiany rzeczywiście znaczne.
To czy taki atom ma szanse na nawiązanie walki z konkurencją to już inna sprawa.
Na pierwszy rzut oka wydaje się ze nowy atom poza nieco większą wydajnością od konkurencji nie ma innych zalet, a jego cena będzie pewnie wyższa od ARM-ów
Z drugiej jednak strony atom jest x86 j jeśli implementacja będzie wspierała virtualizacje to będzie możliwe uruchomienie dwóch systemów jednocześnie. W takiej konfiguracji nowy atom deklasuje konkurencje i kilkadziesiąt $ różnicy w cenie nie ma znaczenia.

Z tego co się szacuje, to jaguar/Atom będą daleko w tyle za Cortexami (wydajność/MHz/rdzeń). Wydajność ARMów ma wzrosnąć 2x/core/mhz. Dziś Atom jest około 10% mniej wydajny na /rdzeń/mhz.

Windows RT w tym kontekście wyszedł w całkiem dobrym momencie. Teraz mają platformę beta, poprawią błędy, a gdy będą lepsze Army będą mieli produkt.



http://www.coremark.org/benchmark/index.php?pg=benchmark
(Wybrać samsunga i arm i obejrzeć raport. Potem można wybraż intela i zobaczyć na co stać atomy. )
2x/core/mhz to nawet arm w swoich przewidywaniach tyle nie ma. Patrząc na wyniki możliwe ze score/core/mhz będzie lepsze w a15. Z drugiej jednak strony rzeczywista wydajność mocno zależy od implementacji kontrolera pamięci itd. A w implementacji to intel jest dobry; przykład smartphonowych atomów gdzie jednordzeniowy atom nawiązuje walkę z dwurdzeniowymi A9
0
SunTzu
8 maja 2013, 17:19


Po co mi benchmarki z których nigdy nie korzystam gdy mam realne aplikacje, a w nich Atom czasem jest 'równie' wydajny.


pawełpclab (2013.05.08, 17:09)
SunTzu (2013.05.08, 15:42)
(...)

Z tego co się szacuje, to jaguar/Atom będą daleko w tyle za Cortexami (wydajność/MHz/rdzeń). Wydajność ARMów ma wzrosnąć 2x/core/mhz. Dziś Atom jest około 10% mniej wydajny na /rdzeń/mhz.

Windows RT w tym kontekście wyszedł w całkiem dobrym momencie. Teraz mają platformę beta, poprawią błędy, a gdy będą lepsze Army będą mieli produkt.


2x/core/mhz to nawet arm w swoich przewidywaniach tyle nie ma. Patrząc na wyniki możliwe ze score/core/mhz będzie lepsze w a15. Z drugiej jednak strony rzeczywista wydajność mocno zależy od implementacji kontrolera pamięci itd. A w implementacji to intel jest dobry; przykład smartphonowych atomów gdzie jednordzeniowy atom nawiązuje walkę z dwurdzeniowymi A9


Aaa pomyliłem A15 z A50. Racja, A57 nie będzie tak wydajny, więc może faktycznie Intel będzie 'lepszy'
Edytowane przez autora (2013.05.08, 17:24)
0
pawełpclab
8 maja 2013, 17:26
skoti48 (2013.05.08, 17:05)
Bardzo zaskoczył mnie ten 'art'.
Po pierwsze Atomy od bardzo, bardzo dawna odstają od ARM:
http://www.phoronix.com/scan.php?page=arti..._dual&num=3
Tu w teście jest ponad 2x słabszy procesor niż te które będą konkurencją dla nowego Atoma - zaraz wyjdzie 4x rdzeniowa Tegra 4 z A15 po 1.9GHz czy Snapdragon 800 4x Krait 2.3GHz (w teście 2x A15 1.7GHz).
Zapewne te niektóre sytuacje o których autor wspomina to testy zupełnie innego oprogramowania w jednym i drugim zastosowaniu i to oprogramowanie robi różnicę - przykład: testy przegladarkowe.

Nie wiem czemu też się podniecać SSE4.2 (obliczenia 4x liczb na raz) kiedy mamy w prockach intela AVX (8 liczb na raz), a w A15/Krait mamy podwójne NEONy (8 liczb na raz).
Przy niskich obciążeniach dobrze, że poprawił się Intel, ale do rozwiązań big.LITTLE czy 4+1 od konkurencji mu brakuje.
Asynchroniczne taktowanie rdzeni fajna sprawa... tylko, że wprowadzona jest w Qualcomm Krait i ARM Cortex A15

Wirtualizację pełną ma też konkurencja... to czego brakuje obecnie w ARM to sprzętowego kodowania i dekodowania - ARM planuje to na ARMv8... czyli już za chwilę.

Ot dogonił częściowo konkurencje, ale dalej jest to 2x potokowy procek (vs 3x potokowe Apple Swift, ARM Cortex A15, Qualcomm Krait) i dalej nie ma w pełni konkurencyjnego procka na ten rynek.




To zależy na który wykres w teście spojrzysz
http://www.phoronix.com/scan.php?page=arti..._dual&num=5
tu wychodzi ze rdzeń atoma (starego atoma) jest porównywalny z A15.
Atomy sromotnie przegrały tam gdzie wykorzystywano fpu double prec. Co w sumie nie powinno dziwić bo te atomy były przeznaczone dla netbooków.

A co do wirtualizacji to sama jej obecność jest równie ważna jak to jakie systemy guesta można zwirtualizować
0
*Konto usunięte*
8 maja 2013, 17:30
SunTzu (2013.05.08, 16:46)
@up
GPU Intel-a jest równie wydajne co w trinity, więc Atom może mieć całkiem sporą moc. Konkurencja ARMowa aka PowerVR też jest coraz lepsza. Pytanie czemu AMD miałoby wypuszczać swojego ARM-a, który byłby lepszy od Temasha?

Tak jak napisałem Jaguar to inny target niż ARM Atom.

Atom ma szanse dołączyć do Jaguara ale ARM nie. Jeśli wydajność nowego Atoma w CPU zbliży się do jaguara to zostanie kwestia GPU i tu raczej nie wróże wysokiej wydajności. Max hd2000 zaś iGP w temashu to raczej półka hd3000 albo i lepiej.
0
revcorey
8 maja 2013, 17:54
Chciałbym zauważyć jedno przy testach ARM vs x86 z phoronixa. Pytanie za 100 pkt. Z jakich dokładnie rozszerzeń korzysta dana wersja. Jak sobie na x86 program jedzie na SSE a na ARM na jana to nie ma co porównywać. Trzeba mieć dwie równoważne implementacje. Po dziś dzień port linuksa na x86 jest lepszy jak na arm.
0
Czabor
8 maja 2013, 18:01
Ciekawe jak dlugo ten NEWS bendzie na 1 miejscu :)
0
skoti48
8 maja 2013, 18:19
pawełpclab (2013.05.08, 17:26)

To zależy na który wykres w teście spojrzysz
http://www.phoronix.com/scan.php?page=arti..._dual&num=5
tu wychodzi ze rdzeń atoma (starego atoma) jest porównywalny z A15.
Atomy sromotnie przegrały tam gdzie wykorzystywano fpu double prec. Co w sumie nie powinno dziwić bo te atomy były przeznaczone dla netbooków.

Większość testów w których przegrywa to FP32 (mało które tam korzystają z podwójnej precyzji). Atom jest w tym teście równie wydajny tylko w takich testach jak x264 czy 7zip czyli bardzo zoptymalizowanymi programami wykorzystującymi SSE, a jeszcze słabo korzystającymi z NEONa, więc to że dorównuje jest tylko spowodowane wadami oprogramowania dla ARM.

pawełpclab (2013.05.08, 17:26)
A co do wirtualizacji to sama jej obecność jest równie ważna jak to jakie systemy guesta można zwirtualizować

Tak - tylko obecnie wizualizować można Androida, Linuxa, BSD, Windows RT, QNX... więc nie jest źle - reszta zależy od softu.
0
*Konto usunięte*
8 maja 2013, 19:22
to czego teraz Intel używa zamiast FSB w cpu do blaszakow?
-1
Stefan999
8 maja 2013, 19:36
Mnie najbardziej ciekawią sterowniki gpu na andka, bo mimo wielu lat 'ciężkiej ' pracy nie udało im sie ich opanować na windowsie.
-1
SunTzu
8 maja 2013, 19:52
mlodybe (2013.05.08, 17:30)
SunTzu (2013.05.08, 16:46)
@up
GPU Intel-a jest równie wydajne co w trinity, więc Atom może mieć całkiem sporą moc. Konkurencja ARMowa aka PowerVR też jest coraz lepsza. Pytanie czemu AMD miałoby wypuszczać swojego ARM-a, który byłby lepszy od Temasha?

Tak jak napisałem Jaguar to inny target niż ARM Atom.

Atom ma szanse dołączyć do Jaguara ale ARM nie. Jeśli wydajność nowego Atoma w CPU zbliży się do jaguara to zostanie kwestia GPU i tu raczej nie wróże wysokiej wydajności. Max hd2000 zaś iGP w temashu to raczej półka hd3000 albo i lepiej.

Z punktu widzenia energetycznego, nie ma problemu by Kabini czy Temach rywalizowali z HD4000.
Edytowane przez autora (2013.05.08, 19:57)
1
*Konto usunięte*
8 maja 2013, 20:10
Nie sądzę aby Intel wsadził do stomatologa hd 4000. Raczej będzie to hd2500. Zdziwię się jak będzie inaczej.
0
Stefan999
8 maja 2013, 20:14
Będzie 4EU z IB, pewnie z niższymi taktami.
0
SunTzu
8 maja 2013, 20:51
@up
Raczej będzie kilka wersji. Atom ma budowę modułową i łatwo go zmieniać, w zależności od potrzeb może być wersja dwurdzeniowa, albo 8 rdzeniowa (CPU). Z GPU w teorii jest jeszcze prościej i pewnie będzie Atom do telefonów i będzie Atom do Tabletów i jeszcze jedna wersja do serwerów. Możliwe, że będzie jeszcze jedna wersja do 'netbooków'/tanich notebooków.

Edytowane przez autora (2013.05.08, 20:52)
0
LeeLoo_T
8 maja 2013, 21:05
SunTzu (2013.05.07, 21:26)
@Up
Nie tylko Core ma ten problem, Atom pierwszy z chipsetem w IDLE ciągnął okolice 20W (motek południowy bodaj w 130nm).
Ale z współczesnych procesorów problem ten dotyczył też nehalema.

Intel naszczęście rozwiązał ten problem, szczególnie fajnie, że chipset z 3-4W zaczął ciągnąć minimalne ilości poboru energii. CPU łatwo było rozwiązać, ale też nie śpieszyło im się.
Pytanie czy to wszystko wprowadzi AMD, bo Atom np. np. ciągnie <1W podczas oglądania filmu, jeżeli Temash w IDLE będzie ciągnął ~1W energii to już będzie na przegranej pozycji.

Saltwell juz daje rade i wydajnoscia przebija A9, natomiast ARM wprowadza A15 szeroką 3drozna architekture, ta niedomaga efektywnosciowo, jest nastawiona na wydajnosc kosztem energii, przerabiany A9 pozostanie jako glowny konkurent niskich energii do czasu wejscia pierwszych 64bitowcow A5x.
Silvermont wyglada swietnie i przewaga Intela jest nie tylko produkcja w trigate, ale w momencie kiedy ARM przejdzie na 20 nanometry Intel bedzie prezentowal 14 nanometrowy shrink zapowiedzianej architektury Airmont, by po roku wprowadzic nowa architekture w tym samym procesie.
W mikroserwerach Intel pokaze duzy pazur, problemem beda urzadzenia konsumenckie, tutaj niskie marze moga byc utrudnieniem.
Edytowane przez autora (2013.05.08, 21:14)
0
*Konto usunięte*
8 maja 2013, 21:22
LeeLoo_T (2013.05.08, 21:05)
SunTzu (2013.05.07, 21:26)
@Up
Nie tylko Core ma ten problem, Atom pierwszy z chipsetem w IDLE ciągnął okolice 20W (motek południowy bodaj w 130nm).
Ale z współczesnych procesorów problem ten dotyczył też nehalema.

Intel naszczęście rozwiązał ten problem, szczególnie fajnie, że chipset z 3-4W zaczął ciągnąć minimalne ilości poboru energii. CPU łatwo było rozwiązać, ale też nie śpieszyło im się.
Pytanie czy to wszystko wprowadzi AMD, bo Atom np. np. ciągnie <1W podczas oglądania filmu, jeżeli Temash w IDLE będzie ciągnął ~1W energii to już będzie na przegranej pozycji.

Saltwell juz daje rade i wydajnoscia przebija A9, natomiast ARM wprowadza A15 szeroką 3drozna architekture, ta niedomaga efektywnosciowo, jest nastawiona na wydajnosc kosztem energii, przerabiany A9 pozostanie jako glowny konkurent niskich energii do czasu wejscia pierwszych 64bitowcow A5x.
Silvermont wyglada swietnie i przewaga Intela jest nie tylko produkcja w trigate, ale w momencie kiedy ARM przejdzie na 20 nanometry Intel bedzie prezentowal 14 nanometrowy shrink zapowiedzianej architektury Airmont, by po roku wprowadzic nowa architekture w tym samym procesie.
W mikroserwerach Intel pokaze duzy pazur, problemem beda urzadzenia konsumenckie, tutaj niskie marze moga byc utrudnieniem.

Wszystko fajnie ale najpopularniejszego i chyba największego producenta microserwerów kupiło AMD:)
-2
Grave
8 maja 2013, 21:29
mlodybe (2013.05.08, 21:22)
LeeLoo_T (2013.05.08, 21:05)
(...)

Saltwell juz daje rade i wydajnoscia przebija A9, natomiast ARM wprowadza A15 szeroką 3drozna architekture, ta niedomaga efektywnosciowo, jest nastawiona na wydajnosc kosztem energii, przerabiany A9 pozostanie jako glowny konkurent niskich energii do czasu wejscia pierwszych 64bitowcow A5x.
Silvermont wyglada swietnie i przewaga Intela jest nie tylko produkcja w trigate, ale w momencie kiedy ARM przejdzie na 20 nanometry Intel bedzie prezentowal 14 nanometrowy shrink zapowiedzianej architektury Airmont, by po roku wprowadzic nowa architekture w tym samym procesie.
W mikroserwerach Intel pokaze duzy pazur, problemem beda urzadzenia konsumenckie, tutaj niskie marze moga byc utrudnieniem.

Wszystko fajnie ale najpopularniejszego i chyba największego producenta microserwerów kupiło AMD:)


Tyle, że 'microserwery' z Atomami są ofertowane już od dawna, dodatkowo już pod koniec zeszłego roku Intel zaprezentował specjalną wersję Atoma przeznaczoną dla microserwerów (Centerton - sam CPU bez IGP), natomiast AMD jakkolwiek ma potencjał do zaprezentowania czegoś dobrego, to póki co niczego na rynek microserwerów nie wprowadziło.

Zresztą to samo tyczy się tabletów. Intel ma znikomą liczbę 'design wins' w tabletach na tle ARM, ale AMD wypada tu jeszcze gorzej. Hondo zapowiadany tle czasu przeszedł praktycznie niezauważony.

Dalej są smartfony - bardzo mało design wins Intela, ale zero - u AMD (bo AMD dla smarfonów w ogóle nic nie ma w ofercie).

Nawet z tym Atomem nowej generacji (OoO) Intelowi będzie bardzo ciężko przebić się na rynku tabletów i Smarfonów, zdominowanym przez ARM, ale... i tak jest to znacznie łatwiejsze zadanie dla Intela niż dla AMD z uwagi na olbrzymią kasę i najnowocześniejsze procesy technologiczne, których AMD nie ma.
Edytowane przez autora (2013.05.08, 21:45)
0
pawełpclab
8 maja 2013, 21:51
skoti48 (2013.05.08, 18:19)
pawełpclab (2013.05.08, 17:26)

To zależy na który wykres w teście spojrzysz
http://www.phoronix.com/scan.php?page=arti..._dual&num=5
tu wychodzi ze rdzeń atoma (starego atoma) jest porównywalny z A15.
Atomy sromotnie przegrały tam gdzie wykorzystywano fpu double prec. Co w sumie nie powinno dziwić bo te atomy były przeznaczone dla netbooków.

Większość testów w których przegrywa to FP32 (mało które tam korzystają z podwójnej precyzji). Atom jest w tym teście równie wydajny tylko w takich testach jak x264 czy 7zip czyli bardzo zoptymalizowanymi programami wykorzystującymi SSE, a jeszcze słabo korzystającymi z NEONa, więc to że dorównuje jest tylko spowodowane wadami oprogramowania dla ARM.

pawełpclab (2013.05.08, 17:26)
A co do wirtualizacji to sama jej obecność jest równie ważna jak to jakie systemy guesta można zwirtualizować

Tak - tylko obecnie wizualizować można Androida, Linuxa, BSD, Windows RT, QNX... więc nie jest źle - reszta zależy od softu.



No i zajrzałem do kodów źródłowych sciMarka.
Nie ma żadnych optymalizacji to krótkie funkcje w c.
- Monte carlko w jedenj pętli sterowanej intami jest jeden if + 4 operacje na DOUBLE
- FFT kilka pętli sterownych int + nico operacji na DOUBLE
- sor 3 pętle sterowane int a w najgłębszej kika operacji na DOUBLE
Takie były wyniki.
http://www.phoronix.com/scan.php?page=arti..._dual&num=4
Co za zbierzność im stosunek opsracji na double do operacji na intjest większy tym gorsze wyniki atoma.
Po przejrzeniu nawet można stwierdzic ze krytyczną dla atoma jest operacja mnożenia DOUBLE z dodawaniem nie jest najgorzej.
Tak więc te testy w rzeczywistości mierzą wydajnosć FPU za to kompilacja czy pakowanie wydajność rdzenia.

Jak z tej wyliczanki możliwych do zwirtualizowania Os wywalisz androida (no bo po co wirtualizować go skoro on i tak już będzie działał)
To cała reszta wymieniona pewnie i tak razem nie ma więcej jak 2% udziału w rynku.
Czyli grupa potencjalnych userów którzy byliby zaineresowani taką wirtualizacją raczej znikoma.
1
SunTzu
8 maja 2013, 22:17
@up
Zapominasz o serwerach. Z pewnością 8 rdzeniowy Atom, a może i 16 rdzeniowy Atom znalazłby zastowanie.
Edytowane przez autora (2013.05.08, 22:18)
0
skoti48
8 maja 2013, 22:51
pawełpclab (2013.05.08, 21:51)

No i zajrzałem do kodów źródłowych sciMarka.
Nie ma żadnych optymalizacji to krótkie funkcje w c.
- Monte carlko w jedenj pętli sterowanej intami jest jeden if + 4 operacje na DOUBLE
- FFT kilka pętli sterownych int + nico operacji na DOUBLE
- sor 3 pętle sterowane int a w najgłębszej kika operacji na DOUBLE
Takie były wyniki.
http://www.phoronix.com/scan.php?page=arti..._dual&num=4
Co za zbierzność im stosunek opsracji na double do operacji na intjest większy tym gorsze wyniki atoma.
Po przejrzeniu nawet można stwierdzic ze krytyczną dla atoma jest operacja mnożenia DOUBLE z dodawaniem nie jest najgorzej.
Tak więc te testy w rzeczywistości mierzą wydajnosć FPU za to kompilacja czy pakowanie wydajność rdzenia.

Przykład SciMarka wyrwałeś zupełnie z kontekstu - właśnie dlatego, że jest to C bez optymalizacji pod specjalne procki (jak x264 czy 7zip) daje lepszą możliwość porównania, ale tu faktycznie jest problem związany z liczbami podwójnej precyzji... ofc w wypadku liczb pojedyńczej precyzji byłoby podobnie.
Atom i A15 w liczbach całkowitych mają podobną wydajność na zegar.
W liczbach zmiennoprzecinkowych (większość obliczeń) jest już zgoła odmiennie, ze względu na jednostki wektorowe - Atom potrafi liczyć tylko 4 liczby zmiennoprzecinkowe pojedyńczej precyzji i 2x liczby podwójnej podczas jednego cyklu zegara (SSE3 - ale SSE4.2 też tylko tyle potrafi). A15/Krait mogą liczyć 8x liczb pojedyńczej precyzji i 4x liczb podwójnej precyzji w cyklu zegara (2x NEONy znane z A9 w każdym rdzeniu co daje konkurenta dla AVX nie dla SSE). Niestety nie wiem jak mieli skonfigurowany kompilator i czy mieli włączoną wektoryzację kodu (sądząc po innych testach i wynikach Tegry 3 tak), ale jeśli tak to 2x większe możliwości obliczeniowe + 50% szybsze dekodowanie instrukcji (trzeci potok) plasują wyniki z testu właśnie tam gdzie można było się ich spodziewać.

pawełpclab (2013.05.08, 21:51)
Jak z tej wyliczanki możliwych do zwirtualizowania Os wywalisz androida (no bo po co wirtualizować go skoro on i tak już będzie działał)
To cała reszta wymieniona pewnie i tak razem nie ma więcej jak 2% udziału w rynku.
Czyli grupa potencjalnych userów którzy byliby zaineresowani taką wirtualizacją raczej znikoma.

To z Androidem to tak na serio? Główne zadanie wirtualizacji to testowanie innych konfiguracji i działanie w 'sandboxie', aby nie było wpływu na host. Drugą sprawą jest to, że osób zainteresowanych wirtualizacją jest mniej więcej tyle co te inne systemy mają udziału i przy okazji tak się składa, że użytkownicy tych systemów mają znaczący udział tu.
0
*Konto usunięte*
8 maja 2013, 22:56
Grave (2013.05.08, 21:29)
mlodybe (2013.05.08, 21:22)
(...)

Wszystko fajnie ale najpopularniejszego i chyba największego producenta microserwerów kupiło AMD:)


Tyle, że 'microserwery' z Atomami są ofertowane już od dawna, dodatkowo już pod koniec zeszłego roku Intel zaprezentował specjalną wersję Atoma przeznaczoną dla microserwerów (Centerton - sam CPU bez IGP), natomiast AMD jakkolwiek ma potencjał do zaprezentowania czegoś dobrego, to póki co niczego na rynek microserwerów nie wprowadziło.

Zresztą to samo tyczy się tabletów. Intel ma znikomą liczbę 'design wins' w tabletach na tle ARM, ale AMD wypada tu jeszcze gorzej. Hondo zapowiadany tle czasu przeszedł praktycznie niezauważony.

Dalej są smartfony - bardzo mało design wins Intela, ale zero - u AMD (bo AMD dla smarfonów w ogóle nic nie ma w ofercie).

Nawet z tym Atomem nowej generacji (OoO) Intelowi będzie bardzo ciężko przebić się na rynku tabletów i Smarfonów, zdominowanym przez ARM, ale... i tak jest to znacznie łatwiejsze zadanie dla Intela niż dla AMD z uwagi na olbrzymią kasę i najnowocześniejsze procesy technologiczne, których AMD nie ma.


Za to intelowi słabo idzie w rozwiązaniach wbudowanych...
-4
revcorey
8 maja 2013, 23:16

Za to intelowi słabo idzie w rozwiązaniach wbudowanych...

Oj oj. Zależy co ty rozumiesz przez rozwiązania wbudowane(pewnie gadżety typu telefon). Generalnie jeśli z kryterium weźmiemy systemy wykorzystujące win emdded i linuks(wrzucimy też w to minikomputery przemysłowe, takie śmieszne hybrydy ekran+mini/micro ATX też) to tak źle nie jest. Co więcej te wszystkie stare projekty czy nawet obecnie klepane jakieś tam kontrolery to nic innego jak Intel 8051, chociaż wiadomo z głównego nurtu dość mocno intela wypchnął atmel i pic . A dziś z kolei ich konstrukcje autorskie 8/16 bitowe powoli będą wypierane przez rdzenie ARM serii M0 i M1. Taki NXP 1100 jak pamiętam to koszt 7-9 zł.
Edytowane przez autora (2013.05.08, 23:18)
0
Grave
8 maja 2013, 23:34
mlodybe (2013.05.08, 22:56)
Grave (2013.05.08, 21:29)
(...)


Tyle, że 'microserwery' z Atomami są ofertowane już od dawna, dodatkowo już pod koniec zeszłego roku Intel zaprezentował specjalną wersję Atoma przeznaczoną dla microserwerów (Centerton - sam CPU bez IGP), natomiast AMD jakkolwiek ma potencjał do zaprezentowania czegoś dobrego, to póki co niczego na rynek microserwerów nie wprowadziło.

Zresztą to samo tyczy się tabletów. Intel ma znikomą liczbę 'design wins' w tabletach na tle ARM, ale AMD wypada tu jeszcze gorzej. Hondo zapowiadany tle czasu przeszedł praktycznie niezauważony.

Dalej są smartfony - bardzo mało design wins Intela, ale zero - u AMD (bo AMD dla smarfonów w ogóle nic nie ma w ofercie).

Nawet z tym Atomem nowej generacji (OoO) Intelowi będzie bardzo ciężko przebić się na rynku tabletów i Smarfonów, zdominowanym przez ARM, ale... i tak jest to znacznie łatwiejsze zadanie dla Intela niż dla AMD z uwagi na olbrzymią kasę i najnowocześniejsze procesy technologiczne, których AMD nie ma.


Za to intelowi słabo idzie w rozwiązaniach wbudowanych...


Jak idzie Intelowi w rozwiązaniach wbudowanych nie sprawdzałem, ale niezależnie od tego i tak nie ma nawet co porównywać jeżeli w całym roku 2012 Intel 'na czysto' (net income) miał 11 mld $ zysku, podczas gdy AMD - niecałe 0,5 mld - ponad 20x mniej od Intela i nawet o ok 100 mln $ mniej od (zajmującej się praktycznie tylko GPU) Nvidii.

Co ciekawe jak popatrzy się po forach czy komentarzach w necie to co chwila można przeczytać jak to AMD non stop i bez przerwy 'kopie tyłek' czy to Intelowi czy Nvidii, lub jak to za sprawą AMD Intel czy NV ciągle są 'w ciemnej d...' tymczasem rzeczywistość jest zupełnie inna - z tych 3 firm (Intel, NV, AMD) to AMD radzi sobie najgorzej.

Forsowanie tezy o 'potężnym AMD' to takie trochę 'życzeniowe' kreowanie wizerunku firmy które nie ma nic wspólnego z rzeczywistością.
Edytowane przez autora (2013.05.08, 23:43)
3
pawełpclab
9 maja 2013, 01:10
skoti48 (2013.05.08, 22:51)
pawełpclab (2013.05.08, 21:51)

No i zajrzałem do kodów źródłowych sciMarka.
Nie ma żadnych optymalizacji to krótkie funkcje w c.
- Monte carlko w jedenj pętli sterowanej intami jest jeden if + 4 operacje na DOUBLE
- FFT kilka pętli sterownych int + nico operacji na DOUBLE
- sor 3 pętle sterowane int a w najgłębszej kika operacji na DOUBLE
Takie były wyniki.
http://www.phoronix.com/scan.php?page=arti..._dual&num=4
Co za zbierzność im stosunek opsracji na double do operacji na intjest większy tym gorsze wyniki atoma.
Po przejrzeniu nawet można stwierdzic ze krytyczną dla atoma jest operacja mnożenia DOUBLE z dodawaniem nie jest najgorzej.
Tak więc te testy w rzeczywistości mierzą wydajnosć FPU za to kompilacja czy pakowanie wydajność rdzenia.

Przykład SciMarka wyrwałeś zupełnie z kontekstu - właśnie dlatego, że jest to C bez optymalizacji pod specjalne procki (jak x264 czy 7zip) daje lepszą możliwość porównania, ale tu faktycznie jest problem związany z liczbami podwójnej precyzji... ofc w wypadku liczb pojedyńczej precyzji byłoby podobnie.
Atom i A15 w liczbach całkowitych mają podobną wydajność na zegar.
W liczbach zmiennoprzecinkowych (większość obliczeń) jest już zgoła odmiennie, ze względu na jednostki wektorowe - Atom potrafi liczyć tylko 4 liczby zmiennoprzecinkowe pojedyńczej precyzji i 2x liczby podwójnej podczas jednego cyklu zegara (SSE3 - ale SSE4.2 też tylko tyle potrafi). A15/Krait mogą liczyć 8x liczb pojedyńczej precyzji i 4x liczb podwójnej precyzji w cyklu zegara (2x NEONy znane z A9 w każdym rdzeniu co daje konkurenta dla AVX nie dla SSE). Niestety nie wiem jak mieli skonfigurowany kompilator i czy mieli włączoną wektoryzację kodu (sądząc po innych testach i wynikach Tegry 3 tak), ale jeśli tak to 2x większe możliwości obliczeniowe + 50% szybsze dekodowanie instrukcji (trzeci potok) plasują wyniki z testu właśnie tam gdzie można było się ich spodziewać.

pawełpclab (2013.05.08, 21:51)
Jak z tej wyliczanki możliwych do zwirtualizowania Os wywalisz androida (no bo po co wirtualizować go skoro on i tak już będzie działał)
To cała reszta wymieniona pewnie i tak razem nie ma więcej jak 2% udziału w rynku.
Czyli grupa potencjalnych userów którzy byliby zaineresowani taką wirtualizacją raczej znikoma.

To z Androidem to tak na serio? Główne zadanie wirtualizacji to testowanie innych konfiguracji i działanie w 'sandboxie', aby nie było wpływu na host. Drugą sprawą jest to, że osób zainteresowanych wirtualizacją jest mniej więcej tyle co te inne systemy mają udziału i przy okazji tak się składa, że użytkownicy tych systemów mają znaczący udział tu.


Generalnie to fantazjujesz. Piszesz ze nie wiesz jak mieli skonfigurowany kompilator, czy była włączona wektoryzacja. Przecież te informacje są na drugiej stronie artykułu, linki do procedur testowych , źródeł programów testujących.
Tobie jednak wygodniej pisać wyssane z palca bzdury.
0
skoti48
9 maja 2013, 01:49
pawełpclab (2013.05.09, 01:10)

Generalnie to fantazjujesz. Piszesz ze nie wiesz jak mieli skonfigurowany kompilator, czy była włączona wektoryzacja. Przecież te informacje są na drugiej stronie artykułu, linki do procedur testowych , źródeł programów testujących.
Tobie jednak wygodniej pisać wyssane z palca bzdury.

Nie fantazjuję tylko po prostu wiem o czym mówię, w przeciwieństwie do Ciebie. Na drugiej stronie masz podane flagi konfiguracji przed kompilacją kompilatora... nie zaś flagi kompilacji danego programu (a tu decydują się optymalizacje programu jak wektoryzacja itp.)
0
*Konto usunięte*
9 maja 2013, 06:13
revcorey (2013.05.08, 23:16)

Za to intelowi słabo idzie w rozwiązaniach wbudowanych...

Oj oj. Zależy co ty rozumiesz przez rozwiązania wbudowane(pewnie gadżety typu telefon). Generalnie jeśli z kryterium weźmiemy systemy wykorzystujące win emdded i linuks(wrzucimy też w to minikomputery przemysłowe, takie śmieszne hybrydy ekran+mini/micro ATX też) to tak źle nie jest. Co więcej te wszystkie stare projekty czy nawet obecnie klepane jakieś tam kontrolery to nic innego jak Intel 8051, chociaż wiadomo z głównego nurtu dość mocno intela wypchnął atmel i pic . A dziś z kolei ich konstrukcje autorskie 8/16 bitowe powoli będą wypierane przez rdzenie ARM serii M0 i M1. Taki NXP 1100 jak pamiętam to koszt 7-9 zł.

Rozwiązania wbudowane to nie sa telefony tylko bankomaty automaty do gier ect....
-3
revcorey
9 maja 2013, 07:23

Rozwiązania wbudowane to nie sa telefony tylko bankomaty automaty do gier ect....

A czy ja tak napisałem? I tak mam/miałem do czynienia z rozwiązaniami wbudowanymi. I wiem jak to wygląda i jest mniej więcej tak jak napisałem. W zależności od segmentu intel jest albo go nie ma albo radzi sobie lepiej lub gorzej.
Edytowane przez autora (2013.05.09, 07:25)
0
LeeLoo_T
9 maja 2013, 11:54
Grave (2013.05.08, 21:29)
mlodybe (2013.05.08, 21:22)
(...)

Wszystko fajnie ale najpopularniejszego i chyba największego producenta microserwerów kupiło AMD:)


Tyle, że 'microserwery' z Atomami są ofertowane już od dawna, dodatkowo już pod koniec zeszłego roku Intel zaprezentował specjalną wersję Atoma przeznaczoną dla microserwerów (Centerton - sam CPU bez IGP), natomiast AMD jakkolwiek ma potencjał do zaprezentowania czegoś dobrego, to póki co niczego na rynek microserwerów nie wprowadziło.

Zresztą to samo tyczy się tabletów. Intel ma znikomą liczbę 'design wins' w tabletach na tle ARM, ale AMD wypada tu jeszcze gorzej. Hondo zapowiadany tle czasu przeszedł praktycznie niezauważony.

Dalej są smartfony - bardzo mało design wins Intela, ale zero - u AMD (bo AMD dla smarfonów w ogóle nic nie ma w ofercie).

Nawet z tym Atomem nowej generacji (OoO) Intelowi będzie bardzo ciężko przebić się na rynku tabletów i Smarfonów, zdominowanym przez ARM, ale... i tak jest to znacznie łatwiejsze zadanie dla Intela niż dla AMD z uwagi na olbrzymią kasę i najnowocześniejsze procesy technologiczne, których AMD nie ma.

Kwestia ceny, no i musi byc kompletna w pelni konkurencyjna(SoC z nowoczesnymi kontrolerami) w stosunku do uzywanej energii i zastosowanych aplikacji.
AMD pokazalo, ze 2drozna architektura moze byc bardzo wydajna na kilu, kilkunastu wattach, a dolozyc tylko najlepsza technologie fabow od Intela i to powinno dac sobie rade.
W starym Atomie jest zminiaturyzowana mysl techniczna z lat 90, a w Silvermont wchodza osiagniecia z ostatnich lat. Pozostanie kwestia cen i oczywiscie sama oferta, czy bedzie pelna obsada segmentow, jak bedzie wygladac dalszy rozwoj rynku itp.
Edytowane przez autora (2013.05.09, 11:56)
0
Arlic
9 maja 2013, 20:36
Intel Silvermount którego nikt nawet nie widział ani nie zaprezentowano dokładnie jego budowy jest wydajniejszy od AMD Jaguara którego nikt nie widział i nikt dokładnie nie zaprezentował jego budowy.

Wzgląd na przyszłość poprzez wsadzanie głowy do mikrofalówki podczas jej działania?
-1
*Konto usunięte*
9 maja 2013, 21:13
Arlic (2013.05.09, 20:36)
Intel Silvermount którego nikt nawet nie widział ani nie zaprezentowano dokładnie jego budowy jest wydajniejszy od AMD Jaguara którego nikt nie widział i nikt dokładnie nie zaprezentował jego budowy.

Wzgląd na przyszłość poprzez wsadzanie głowy do mikrofalówki podczas jej działania?

Akurat o jaguarze wiadomo bardzo dużo a do tego pokazano jego możliwości.
-3
gregory003
10 maja 2013, 12:13
mlodybe (2013.05.09, 21:13)
Arlic (2013.05.09, 20:36)
Intel Silvermount którego nikt nawet nie widział ani nie zaprezentowano dokładnie jego budowy jest wydajniejszy od AMD Jaguara którego nikt nie widział i nikt dokładnie nie zaprezentował jego budowy.

Wzgląd na przyszłość poprzez wsadzanie głowy do mikrofalówki podczas jej działania?

Akurat o jaguarze wiadomo bardzo dużo a do tego pokazano jego możliwości.

Gdzie? Na slajdach i prezentacjach AMD?
2
*Konto usunięte*
10 maja 2013, 15:54
gregory003 (2013.05.10, 12:13)
mlodybe (2013.05.09, 21:13)
(...)

Akurat o jaguarze wiadomo bardzo dużo a do tego pokazano jego możliwości.

Gdzie? Na slajdach i prezentacjach AMD?

Na pewno więcej pokazali niż intel.
-4
Grave
12 maja 2013, 00:04
A propos APU AMD to na ultrabooknews testują nowego Acera Aspire V5 11' z Temashem na pokładzie (A6-1450). Wydajność CPU i GPU jest mniej więcej na poziomie Sandy Bridge ULV taktowanym tym samym zegarem. Acer dał bardzo dobry ekran, podświetlaną klawiaturę, 4GB RAM i 500GB HDD.

Z wad - obudowa jest cała z plastiku, laptop nie ma ani jednego bezpośrednio dostępnego wyjścia video, jest jedynie złącze do podłączenia adaptera, który... nie jest załączony w pudełku i trzeba go dokupić.... :>

I to co w sumie mnie najbardziej interesowało - czas działania na baterii - słaby.

Podczas zwykłego wyświetlania pulpitu Windows pokazał ledwie ~3h do wyładowania (81%) co oznacza, że laptop nie pobije żadnych rekordów czasu pracy na baterii pomimo niskiego TDP samego APU.

Cena w europie to 480 EU czyli ~2000zł. Imho powinien kosztować tyle samo co laptopy z Brazosem niejako zastępując je (czyli 1300-1600zł). Ale Acer wycenił tego lapka zdecydowanie wyżej, więc trudno ocenić jak sobie poradzi.
Edytowane przez autora (2013.05.12, 00:14)
-1
*Konto usunięte*
12 maja 2013, 15:04
Grave (2013.05.12, 00:04)
A propos APU AMD to na ultrabooknews testują nowego Acera Aspire V5 11' z Temashem na pokładzie (A6-1450). Wydajność CPU i GPU jest mniej więcej na poziomie Sandy Bridge ULV taktowanym tym samym zegarem. Acer dał bardzo dobry ekran, podświetlaną klawiaturę, 4GB RAM i 500GB HDD.

Z wad - obudowa jest cała z plastiku, laptop nie ma ani jednego bezpośrednio dostępnego wyjścia video, jest jedynie złącze do podłączenia adaptera, który... nie jest załączony w pudełku i trzeba go dokupić.... :>

I to co w sumie mnie najbardziej interesowało - czas działania na baterii - słaby.

Podczas zwykłego wyświetlania pulpitu Windows pokazał ledwie ~3h do wyładowania (81%) co oznacza, że laptop nie pobije żadnych rekordów czasu pracy na baterii pomimo niskiego TDP samego APU.

Cena w europie to 480 EU czyli ~2000zł. Imho powinien kosztować tyle samo co laptopy z Brazosem niejako zastępując je (czyli 1300-1600zł). Ale Acer wycenił tego lapka zdecydowanie wyżej, więc trudno ocenić jak sobie poradzi.

Kabini są przeznaczone do tanich laptopów a temash to selekty.
0
Zaloguj się, by móc komentować