Mateusz Brzostek | 30 listopada 2013, 16:52

W sercu PlayStation 4

PlayStation 4 trafiło wreszcie do sklepów i w ręce specjalistów od dekonstrukcji, i możemy się przyjrzeć, co ma w środku. A tam - same dziwy! Niby to oczywiste i wiedzieliśmy o tym od dawna, ale konsola jest zadziwiająco podobna do peceta...

APU prawie jak w pececie

Sercem maszyny jest APU z ośmioma rdzeniami głównego procesora i procesorem graficznym. Dwa 4-rdzeniowe bloki konstrukcyjne architektury Jaguar oraz procesor graficzny zajmują lwią część powierzchni krzemowego jądra. Układ zaprojektowany przez AMD zgodnie ze specyfikacją Sony jest produkowany w tajwańskich fabrykach TSMC, w tym samym procesie produkcyjnym, co nowoczesne karty graficzne AMD i Nvidii.

ps4_die_map

Zdjęcie jądra pokazuje, jak podobny jest układ z PS4 do desktopowych APU AMD. Ma dwa bloki konstrukcyjne architektury Jaguar, dwa razy więcej niż w Kabini, i dziewięć razy więcej procesorów strumieniowych w GPU. Procesor graficzny to architektura GCN znana z ostatnich generacji Radeonów, przerobiona nieco pod kątem większych możliwości GPGPU. Bardzo prawdopodobne, że ma dużo wspólnego z Radeonami R9 – na przykład wbudowany kontroler audio znany jako TrueAudio. W jądrze jest 20 jednostek SIMD, z których wykorzystywane jest 18; dwie są zapasem pozwalającym „uratować” niedoskonałe jądra, których część jest niefunkcjonalna. W świecie pecetowym zrobiono by z takich układów dwa modele: jeden z większą, drugi z mniejszą liczbą procesorów strumieniowych.

Nie licząc radykalnie zmienionych proporcji GPU do CPU, w PS4 jest niewiele obwodów, których nie ma w Kabini. Największą nowością jest oczywiście 256-bitowy kontroler pamięci GDDR5, który zapewnia obu procesorom dostęp do wspólnego obszaru pamięci. Większa część wyprowadzeń z układu to właśnie interfejs pamięci rozmieszczony na trzech krawędziach jądra. Zestaw łącz do komunikacji z resztą konsoli jest stosunkowo skromny. Jest uniwersalne 4-pasmowe wyjście obrazu, w PS4 skonfigurowane jako HDMI 1.4a (choć mogłoby być też DisplayPortem albo DVI). Podobne do PCI Express 4-pasmowe łącze służy do komunikacji z drugim procesorem. To podobny schemat jak w pecetach, gdzie APU jest połączone z mostkiem południowym, obsługującym urządzenia wejścia/wyjścia; ale dodatkowy procesor w PS4 jest znacznie bardziej funkcjonalny. Zajmuje się kompresją wideo (30 ostatnich sekund rozgrywki jest cały czas zapisywane), dźwięku i funkcjami sieciowymi, na przykład pobieraniem danych, kiedy konsola jest w stanie uśpienia. Drugi procesor jest też kontrolerem dysku i napędu Blu-ray.

Co ciekawe, większość pobocznych bloków funkcjonalnych jest identycznych, jak w Kabini – raz zaprojektowane z myślą o produkcji w TSMC mogą być łatwo używane w kolejnych układach. Gdyby dodać temu układowi jeszcze kilka pasów PCI Express i ograniczyć kontroler pamięci do 128 bitów, można by go zapakować w desktopową podstawkę typu FM2 :) 

Maszyna do grania vs. maszyny... nie tylko do grania

Okazuje się, że nie pomyliłem się wiele w przewidywaniach z początku roku. W układzie z PS4 dominuje procesor graficzny; jest ponad 3,5 raza większy, niż osiem rdzeni x86 wraz z ich pamięcią podręczną.

galeria_krzemu_2_1000pxSpośród podobnych układów ten jest najbardziej „przechylony” w stronę GPU. APU z Xboxa One ma większe krzemowe jądro, ale sporą jego część poświecono na wbudowaną szybką pamięć, magistrale wewnątrzukładowe i dodatkowe jednostki obliczeniowe potrzebne na przykład do funkcjonowania Kinecta.

bar_graph

W dużych APU desktopowych takich jak Richland, Kaveri czy Haswell te proporcje są bliższe jedności. W Kabini GPU jest 1,7 raza większe od CPU, ale to dlatego, że sporej części GPU nie można już odchudzić bez dużej utraty funkcjonalności. Ciekawe, czy w przyszłorocznych Atomach też będzie dominował procesor x86?

Tradycja i nowoczesność

Procesor PlayStation 4 to z jednej strony bardzo nowoczesny układ, w którym inżynierowie nie bali sie postawić na zunifikowaną pamięć i wykorzystanie GDDR5. Z drugiej strony widać, że wszędzie, gdzie nie była konieczna nowoczesność, kierowano się prostotą. Podczas gdy APU Xboxa One integruje stosunkowo skomplikowany system pamięci i wiele dodatkowych funkcji (sieć, obróbka wideo itp.) w jednym jądrze, procesor PS4 jest tak prosty, jak to tylko możliwe. Funkcje nie wymagające najwyższej wydajności przeniesiono do drugiego procesora, co ma szereg konsekwencji. Wraz z rozwojem technik produkcji Sony będzie mogło przenosić produkcję jednego lub drugiego układu do innych fabryk i procesów technologicznych, a ich stosunkowa prostota ułatwi i przyspieszy przeprojektowywanie. Ponieważ główny procesor nie musi pracować podczas pobierania danych, nie trzeba było wyposażać go w zaawansowane techniki oszczędzania energii (choć chyba nie jest to najlepsze rozwiązanie, skoro konsola pożera podobno 70 W podczas pobierania danych).

Ta prostota opłaca się w produkcji, jest też (jak twierdzi Sony) atrakcyjna dla twórców gier. Z drugiej strony spora część kosztu produkcji PS4 jest związana z pamięcią GDDR5, i przeniesienie produkcji APU w inny proces technologiczny jej nie zmniejszy. Za to APU Xboxa One jest dziś droższe w produkcji, ale ten koszt jest całkowicie pod kontrolą Microsoftu. Niezależnie od cen pamięci DRAM, wraz z taniejącą produkcją krzemu produkcja Xboxa też będzie coraz tańsza.

Dość już się napatrzyłem na zdjęcia jąder – idę pograć na moim skomplikowanym, zawodnym, złożonym z mnóstwa kawałków krzemu pececie...

Zdjęcia za iFixit.com oraz chipworks.com

Komentarze
majkel84
30 listopada 2013, 17:20
Świetny, techniczny tekst. Aż dziwne, że znalazł się tylko na blogu. Jak zwykle doskonale zilustrowana wiedza w czystej formie. Nie to co marketingowe pitu pitu, które zazwyczaj musimy czytać na innych 'tech blogach'...
Edytowane przez autora (2013.11.30, 17:22)
22
kolo2255
30 listopada 2013, 17:51
Tekst bardzo mi się podoba, ale brakuje mi w nim dokładniejszego opisu koprocesora zastosowanego w PS4, wydaje mi się bardzo ciekawą konstrukcją, jednak nikt o nim szerzej nie pisze.
4
Stefan999
30 listopada 2013, 17:51
Fani teorii spiskowych mogliby powiedzieć, że Jaguar został zaprojektowany dla konsol i przy okazji trafił do laprtopów.
0
waszu
30 listopada 2013, 18:05
kolo2255 (2013.11.30, 17:51)
Tekst bardzo mi się podoba, ale brakuje mi w nim dokładniejszego opisu koprocesora zastosowanego w PS4, wydaje mi się bardzo ciekawą konstrukcją, jednak nikt o nim szerzej nie pisze.

I dlatemu nic nie ma - nikt o nim nie nie wie. Na beyond3d w temacie o bebechach ps4 były wstępne zdjęcia wnętrza - niestety samej metalowej osłony bez bloków wewnątrz.
3
Pioy
30 listopada 2013, 18:06
Dość już się napatrzyłem na zdjęcia jąder – idę pograć na moim skomplikowanym, zawodnym, złożonym z mnóstwa kawałków krzemu pececie...
Tekst roku - masz wirtualne piwo ode mnie :E
13
Galvatron
30 listopada 2013, 18:44
TępicielFermentu (2013.11.30, 18:21)
AMD robi to co umie robić. Nie umie zrobić porządnego procesora, nie umie zrobić porządnego GPU - ale SOC który nie ma konkurencji do konsoli styknie :P Pewno Intel i NVIDIA mogli by stworzyć znacznie wydajniejszy, ale widocznie im się nie opłaci

Nvidia dopiero od stosunkowo niedawna sprzedaje architekturę Kepler, co pozwoliłoby Intelowi na stworzenie APU dla konsol. Wcześniej tylko AMD było w stanie zaoferować kompleksowe rozwiązanie. Sam Intel miał - i nadal ma - za słabe GPU, za to Zieloni nie posiadają odpowiedniej technologii CPU.
6
Stefan999
30 listopada 2013, 18:52
Gpu w przypadku Intela to tylko kwestia ilości jednostek i zgodności programowej. Zaprojektowaliby układ ze 100-120 EU i wydajność GPU z XO osiągnięta.
1
Labovsky
30 listopada 2013, 18:58
Bardzo prawdopodobne, że ma dużo wspólnego z Radeonami R9 – na przykład wbudowany kontroler audio znany jako TrueAudio.

To nie prawdopodobne Mateusz, lecz pewne ;)

https://www.youtube.com/watch?v=Z5tBolPan8U
1
el_nino
30 listopada 2013, 19:02
Konkluzja jest najlepsza ;). Uśmiałem się. Ciekawy artykuł.
2
McMenel
30 listopada 2013, 19:02
Stefan999 (2013.11.30, 18:52)
Gpu w przypadku Intela to tylko kwestia ilości jednostek i zgodności programowej. Zaprojektowaliby układ ze 100-120 EU i wydajność GPU z XO osiągnięta.

Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
2
Stefan999
30 listopada 2013, 19:19
McMenel (2013.11.30, 19:02)
Stefan999 (2013.11.30, 18:52)
Gpu w przypadku Intela to tylko kwestia ilości jednostek i zgodności programowej. Zaprojektowaliby układ ze 100-120 EU i wydajność GPU z XO osiągnięta.

Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
Bierze bo może. Apu z PS4 jest wyceniane na 100 dolarów, czyli okolice i3 i A10. Jeśli Intel użyłby swoich atomów i GPU, a produkcję zlecił w swoich fabach koszta nie byłyby pewnie znacznie większe. Jednak AMD złożyło propozycje nie do odrzucenia i nikt inny nie miał szans zejść tak z marży jak oni. I tak nie wyjdą na tym źle, bo to drobne dla Intela to majątek dla AMD.
0
McMenel
30 listopada 2013, 19:19
Czabor (2013.11.30, 19:08)
McMenel (2013.11.30, 19:02)
(...)

Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
jak zwal tak zwal... AMD x64, x64, x86-64 ale nie x86!
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64

Widać nawet nie przeczytałeś artu na wiki... x86_64 to nie osobna architektura tylko rozszerzenie instrukcji x86.
3
Galvatron
30 listopada 2013, 19:37
Czabor (2013.11.30, 19:08)


jak zwal tak zwal... AMD x64, x64, x86-64 ale nie x86!
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64

x86 to architektura, tak jak ARM czy POWER. Występuje ona w wariantach 32-bit i 64-bit, potocznie zwanych 'x86/i386/i686' i 'x64'. W rzeczywistości mamy do czynienia z x86 32-bit i x86 64-bit.
4
McMenel
30 listopada 2013, 19:47
Czabor (2013.11.30, 19:40)
Galvatron (2013.11.30, 19:37)
(...)

x86 to architektura, tak jak ARM czy POWER. Występuje ona w wariantach 32-bit i 64-bit, potocznie zwanych 'x86/i386/i686' i 'x64'. W rzeczywistości mamy do czynienia z x86 32-bit i x86 64-bit.


Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.

Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.
3
Raphael1
30 listopada 2013, 19:49
Dobry ART.
Osobiście nie potrafię jednak ogarnąć jakim sposobem tak skromne rdzenie CPU, do tego z tak niskim zegarem potrafią skutecznie wykarmić to GPU i hulać w najnowszych grach.

W PC, nawet najmocniejsze rdzenie tykające z zegarem 1,6GHz dają rade w wielu zastosowaniach ale na pewno nie w nowych, wymagających grach i do tego karmiąc 18 bloków SIMD GCN.

How?
3
Assassin
30 listopada 2013, 20:02
Nie potrafią. Na razie sprawę załatwiają uproszczenia w grach i optymalizacja pod konkretną architekturę. W przyszłości devsi zapewne nauczą się dobrze wykorzystywać GPGPU, więc też nie będzie tragedii.
1
Andree
30 listopada 2013, 20:10
McMenel (2013.11.30, 19:47)
Czabor (2013.11.30, 19:40)
(...)


Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.

Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.

System Orbis OS jest oparty na zmodyfikowanej wersji FreeBSD 9.0.
64-bitowe jądro systemu FreeBSD jest w stanie wykonywać 32-bitowe aplikacje, ale zdziwiłbym się gdyby Sony nie usunęło tej zbędnej funkcjonalności.
Poza tym i tak aplikacje muszą być podpisane cyfrowo przez Sony, więc nie ma się czym podniecać.
P.S.
64-bitowe aplikacje mogą obsługiwać znacznie więcej niż 4 GB na proces. Chyba że piszesz o aplikacjach 32-bitowych wykonywanych w systemie 64-bitowym, które nie muszą wtedy współdzielić tych 4 GB z 32-bitowym systemem.
Edytowane przez autora (2013.11.30, 20:15)
4
McMenel
30 listopada 2013, 20:10
Czabor (2013.11.30, 20:03)
McMenel (2013.11.30, 19:47)
(...)

Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.


Oficjalnie o CPU w PS4 samo Sony mowi ze to x64 lub jesli wolisz x86-x64.Nie ma nigdzie ani slowa o kompatybilnosci z 32 bit czyli czystym x86.I to narazie na tyle

Pomimo ze sie czepiam art uwazam za bardzo dobry :D

Nadal nie rozumiesz x86-64 misi być 32 bitowy. Bo liczba 64 oznacza de facto jedynie możliwości adresowe procesora. Nic więcej. Podstawa jest taka sama. To jak z 64 znakowym hasłem. Musi w sobie zawierać najpierw 32 znaki aby mogło być 64 znakowe. Nic więcej. Czyli wyjaśniam x86 to nazwa architektury mikroprocesora 64 to ilość bitów którą może zaadresować dla jednego procesu. I jeżeli tego nie zrozumiałeś to chyba dam sobie spokój.
@UP po co usuwać skoro i tak nie ma to znaczenia. Instrukcje i programowanie jest te samo jedynie przestrzeń adresowa się zwiększa.
Edytowane przez autora (2013.11.30, 20:12)
0
Andree
30 listopada 2013, 20:20
Po co usuwać kompletnie zbędny podsystem 32-bitowy z systemu operacyjnego 64-bitowego? Choćby po to żeby zmniejszyć jego wymagania. To nie jest tak że 64-bitowy system może ot tak uruchomić 32-bitowe aplikacje po prostu przełączając procesor, musi zawierać całe środowisko uruchomieniowe z 32-bitowymi wersjami bibliotek systemowych.
2
Raphael1
30 listopada 2013, 20:42
Assassin (2013.11.30, 20:02)
Nie potrafią. Na razie sprawę załatwiają uproszczenia w grach i optymalizacja pod konkretną architekturę. W przyszłości devsi zapewne nauczą się dobrze wykorzystywać GPGPU, więc też nie będzie tragedii.

No właśnie widzę że dają.
Uproszczenia w grach? jakie? pytam serio bo nie zauważyłem.
Niższa rozdzielczość czy oprawa graficzna to sprawa dla rdzeni GCN. Uproszczeń dla CPU nie widzę.
Optymalizacja pod 1 architekturę, racja, ta zawsze była siła konsol.
To jednak nie zmienia faktu że te skromniutkie rdzenie radzą sobie z czymś co na PC wymaga nieporównywalnie większej mocy obliczeniowej CPU.
GPGPU, HSA, owszem, to zapas mocy który się rozwija, co rokuje dobrą żywotność konsoli.

Generalnie w tym temacie mam na myśli przykład BF4. Jakim cudem 8xJauar 1,6GHz daje tutaj radę gdy na Windows, z znacznie mocniejszymi rdzeniami z tak niskim zegarem nie ma najmniejszego sensu tej gry uruchamiać (o ile w ogóle by ruszyła) - z czego wynika ta różnica. Przecież w obu przypadkach mamy X86-64 + GCN.
5
Raphael1
30 listopada 2013, 20:45
Assassin (2013.11.30, 20:02)
Nie potrafią. Na razie sprawę załatwiają uproszczenia w grach i optymalizacja pod konkretną architekturę. W przyszłości devsi zapewne nauczą się dobrze wykorzystywać GPGPU, więc też nie będzie tragedii.


Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?
3
McMenel
30 listopada 2013, 20:46
Raphael1 (2013.11.30, 20:42)
Assassin (2013.11.30, 20:02)
Nie potrafią. Na razie sprawę załatwiają uproszczenia w grach i optymalizacja pod konkretną architekturę. W przyszłości devsi zapewne nauczą się dobrze wykorzystywać GPGPU, więc też nie będzie tragedii.

No właśnie widzę że dają.
Uproszczenia w grach? jakie? pytam serio bo nie zauważyłem.
Niższa rozdzielczość czy oprawa graficzna to sprawa dla rdzeni GCN. Uproszczeń dla CPU nie widzę.
Optymalizacja pod 1 architekturę, racja, ta zawsze była siła konsol.
To jednak nie zmienia faktu że te skromniutkie rdzenie radzą sobie z czymś co na PC wymaga nieporównywalnie większej mocy obliczeniowej CPU.
GPGPU, HSA, owszem, to zapas mocy który się rozwija, co rokuje dobrą żywotność konsoli.

Generalnie w tym temacie mam na myśli przykład BF4. Jakim cudem 8xJauar 1,6GHz daje tutaj radę gdy na Windows, z znacznie mocniejszymi rdzeniami z tak niskim zegarem nie ma najmniejszego sensu tej gry uruchamiać (o ile w ogóle by ruszyła) - z czego wynika ta różnica. Przecież w obu przypadkach mamy X86-64 + GCN.

Narzut OS, sterowników. Kiedy nie musisz przejmować się różnymi konfiguracjami i wiesz dokładnie czym dysponujesz możesz uzyskać większą wydajność.
1
Kazubin
30 listopada 2013, 20:54
Raphael1 (2013.11.30, 20:45)
Assassin (2013.11.30, 20:02)
Nie potrafią. Na razie sprawę załatwiają uproszczenia w grach i optymalizacja pod konkretną architekturę. W przyszłości devsi zapewne nauczą się dobrze wykorzystywać GPGPU, więc też nie będzie tragedii.


Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?

Limit jest ustawiony na 60, a ilość rzeczywista generowanych klatek jest różna i zależna od sytuacji.
http://www.youtube.com/watch?v=pT1-mXZBDMM
http://www.youtube.com/watch?v=dkjS4wLEQX0
Do średniej 50 wystarczy ci jakiś Ci3.
http://pclab.pl/art55318-3.html
Nie widzę jakiś wielkich wymagań dla PC.
Edytowane przez autora (2013.11.30, 20:56)
3
Andree
30 listopada 2013, 20:56
Najczęstszym uproszczeniem w grach na konsole jest założenie stałej ilości klatek na sekundę (30 lub 60), bez dopasowywania jej do możliwości danego komputera.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Edytowane przez autora (2013.11.30, 21:00)
3
Kalimdor
30 listopada 2013, 20:59
Ja mam takie pytanko spoza rdzenia ;P

Pamięć RAM zastosowana w PS4 jest szybsza od tej w PS3?
1
Galvatron
30 listopada 2013, 21:04
25,6GB/s (XDR) i 22,4GB/s (GDDR3) vs 176GB/s
Edytowane przez autora (2013.11.30, 21:07)
3
mozilla007
30 listopada 2013, 21:14
Takich redaktorów powinni zatrudniać.
5
Raphael1
30 listopada 2013, 21:14
Kazubin (2013.11.30, 20:54)
Raphael1 (2013.11.30, 20:45)
(...)


Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?

Limit jest ustawiony na 60, a ilość rzeczywista generowanych klatek jest różna i zależna od sytuacji.
http://www.youtube.com/watch?v=pT1-mXZBDMM
http://www.youtube.com/watch?v=dkjS4wLEQX0
Do średniej 50 wystarczy ci jakiś Ci3.
http://pclab.pl/art55318-3.html
Nie widzę jakiś wielkich wymagań dla PC.


Racja, jestem tylko ciekaw jak to i3 (2C/4T) czy i5 (4C/4T) czy i7 (4C/8T) poradziło by sobie z zegarem 1,6GHz.
Tak czy siak narzut Windows, DX, sterowników (nie wiem) jest znaczny.
1
Kazubin
30 listopada 2013, 21:16
Kalimdor (2013.11.30, 20:59)
Ja mam takie pytanko spoza rdzenia ;P

Pamięć RAM zastosowana w PS4 jest szybsza od tej w PS3?

Łącznie 512 MB pamięci, dzielonej na dwie:

256 MB XDR DRAM pamięci systemowej (Rambus), taktowanej z częstotliwością 400 MHz (3,2 GHz efektywnie)[19]o przepustowości 25,6 GB/s
256 MB GDDR3 pamięci graficznej, taktowanej z częstotliwością 650 MHz (1,3 GHz efektywnie) o przepustowości 22.4 GB/s (w starszych modelach pamięć ma taktowanie 700 MHz @ 1,4 GHz)
wiki
Inaczej mówiąc twardy dysk i czytnik robił za ram :F Na szczęście w PS4 postanowiono naprawić błędy z przeszłości.


@Raphael1
Przykręć kran i sprawdź ;)
Edytowane przez autora (2013.11.30, 21:18)
-2
Raphael1
30 listopada 2013, 21:17
Andree (2013.11.30, 20:56)
Najczęstszym uproszczeniem w grach na konsole jest założenie stałej ilości klatek na sekundę (30 lub 60), bez dopasowywania jej do możliwości danego komputera.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Dlatego czekam na Mantle + hUMA na PC.
-1
McMenel
30 listopada 2013, 21:29
Raphael1 (2013.11.30, 21:17)
Andree (2013.11.30, 20:56)
Najczęstszym uproszczeniem w grach na konsole jest założenie stałej ilości klatek na sekundę (30 lub 60), bez dopasowywania jej do możliwości danego komputera.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Dlatego czekam na Mantle + hUMA na PC.

Problem jest w tym iż na razie AMD nie planuje APU z mocnym GPU dla PC. Aczkolwiek ciekawie by było jeżeli GPU z APU mogło po podpięciu dedyka służyć do liczenia fizyki :D... Ale to lekko licząc jeszcze z dwa lata sobie poczekamy :D.
1
Kazubin
30 listopada 2013, 21:36
Pytanie jest czy istnieje na rynku PC znacząca grupa klientów dla takiego rozwiązania (APU z mocnym GPU).
1
McMenel
30 listopada 2013, 21:39
Kazubin (2013.11.30, 21:36)
Pytanie jest czy istnieje na rynku PC znacząca grupa klientów dla takiego rozwiązania (APU z mocnym GPU).

Jeżeli będzie miało to wydajność z konsol to czemu nie ?? Stawiasz to w salonie zamiast konsoli i masz dwa w jednym. Plus było by genialne na steam machine.
1
Raphael1
30 listopada 2013, 21:41
McMenel (2013.11.30, 21:29)
Raphael1 (2013.11.30, 21:17)
(...)
Dlatego czekam na Mantle + hUMA na PC.

Problem jest w tym iż na razie AMD nie planuje APU z mocnym GPU dla PC. Aczkolwiek ciekawie by było jeżeli GPU z APU mogło po podpięciu dedyka służyć do liczenia fizyki :D... Ale to lekko licząc jeszcze z dwa lata sobie poczekamy :D.


Też na to liczę i generalnie ku temu to zmierza.
1
*Konto usunięte*
30 listopada 2013, 21:44
Mateusz....
Pała za małą manipulację....
Haswell występuje w wersji 2c+GT3, 4C+GT3.... a ty porównujesz nam tutaj 4C+GT2. Wiadomo, że ten konfig jest dedykowany CPU i ma zdaję się najgorszy bilans CPUvsGPU.
W dodatku nie jestem pewien czy ten 2rdzeniowiec nie jest czasem wydajniejszy w grach od tego 8 rdzeniowca. Silny wątek pozwala lepiej wykorzystać moc procesora.
Trzeba pamiętać, że 2c+GT3 to tylko ULV i ciągnie zaledwie 17W podczas gdy PS4 ciągnie 120W (nie można tych układów porównywać wydajnościowo)

Lol
mam jakiegoś wielbiciela minuta po napisaniu posta minus:P
Edytowane przez autora (2013.11.30, 21:57)
1
Kazubin
30 listopada 2013, 21:47
@McMenel
Osoby, które znam i mają słabsze konfiguracje (często integry) nie namówię na żadną zmianę, bo to co mają w zupełności im wystarcza do zabawy, a dla osób lubiących większą ilość klatek i detali takie rozwiązanie będzie zwyczajnie za słabe.
Oczywiście są to moje wyobrażenia, ale wydaje mi się, że jeżeli było by większe miejsce na rynku komputerowym na APU z mocną grafiką to AMD już dawno by tłukło na tym kasę.
Edytowane przez autora (2013.11.30, 21:47)
-2
Assassin
30 listopada 2013, 22:02
Raphael1 (2013.11.30, 20:45)
Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?

BF4 to generalnie gra mocno uproszczona w stosunku do np. takiej ARMA (dużo skryptów, znacznie prostsza balistyka...). Do takich gier jak BF4 stworzone jest właśnie PS4. Gdybym zobaczył coś porównywalnego z Rome Total War działającego płynnie na PS4 to wtedy rzeczywiście bym się zdziwił.
Edytowane przez autora (2013.11.30, 22:06)
6
*Konto usunięte*
30 listopada 2013, 22:14
Assassin (2013.11.30, 22:02)
Raphael1 (2013.11.30, 20:45)
Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?

BF4 to generalnie gra mocno uproszczona w stosunku do np. takiej ARMA (dużo skryptów, znacznie prostsza balistyka...). Do takich gier jak BF4 stworzone jest właśnie PS4. Gdybym zobaczył coś porównywalnego z Rome Total War działającego płynnie na PS4 to wtedy rzeczywiście bym się zdziwił.

Musisz poczekać... Rendery profesjonalne po dziś dzień z oporem nie korzystają z nowych instrukcji tylko ChaosGroup tutaj rusza palcem.... Mental Ray pisany jest zdaję się na SSE3...
Tymczasem Jaguar ma tam wiele modyfikacje względem PCtowego właśnie w tym zakresie. Muszą powstać silniki, które będą wykorzystywały nowe instrukcje jak tylko się da, po drugie co trudniejsze i gorsze muszą pisać wielowątkowo co wywoła pewnie zgrzyt zębów u developerów....

... Rome II jest tutaj doskonałym przykładem. Gra jest najgorszym co mogło spotkać sprzęt, wiele obiektów, ogromna sceneria... Jeszcze AI by się przydalo.
Gra wykorzystuje zdaję się 8 wątków, ale... jest limitowana przez 1 ( prawdopodobnie grafikę, która posyłana jest przez 1 wątek). Właśnie tu widać jak bardzo musi się zmienić podejście. Jak na ironię przepisywanie silników z powodzeniem przysłuży się PCtom, gdzie właśnie Rome jest taką grą, której cały czas mamy the worst case scenario i FX dostaje po d....

Jakby nie patrzeć PS4/Xone to jedyne 'komputery', które mają dostępne 8FPU. Widać w jaką stronę po prostu musi iść soft. Ale na to trzeba czekać.
Edytowane przez autora (2013.11.30, 22:25)
2
*Konto usunięte*
30 listopada 2013, 22:32
Andree (2013.11.30, 20:56)
Najczęstszym uproszczeniem w grach na konsole jest założenie stałej ilości klatek na sekundę (30 lub 60), bez dopasowywania jej do możliwości danego komputera.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało. Tymczasem po dziś dzień PCI-E 1.1 x16 w żaden sposób nie ogranicza topowego GPU....
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.
Edytowane przez autora (2013.11.30, 22:38)
-4
Singularity
30 listopada 2013, 22:50
przepraszam ale co w tym dziwnego, że ps4 wygląda jak pc skoro to w istocie jest pc tylko mocno spersonalizowany pod to jak chciało Sony?
1
Raphael1
30 listopada 2013, 23:38
TępicielFermentu (2013.11.30, 23:11)
majkel84 (2013.11.30, 17:20)
Świetny, techniczny tekst. Aż dziwne, że znalazł się tylko na blogu. Jak zwykle doskonale zilustrowana wiedza w czystej formie. Nie to co marketingowe pitu pitu, które zazwyczaj musimy czytać na innych 'tech blogach'...


Przepraszam, ale co tu widzisz technicznego? Ja niewiele, poza zachwalaniem AMD i ochów achów. Dostały murzyny zlecenie, to wykonały jak każdy inny podwykonawca. Nie wiadomo wcale czy to jest wydajne i fajne, bo nie ma do czego porównać. O architekturze procesora nie ma NIC ciekawego, o wydajności też nic. Masa bezsensownego lania wody


Słyszałeś kiedyś o tym że imię, a co za tym idzie Nick jest zapisem energetycznym i na dłuższą metę oddziałuje na nosiciela? (na krótszą też ale efekty łatwiej widać po dłuższym czasie)
Chcę byś mnie dobrze zrozumiał. Z mojej subiektywnej perspektywy wygląda to tak że gdy widzę Twój post, nim zacznę czytać rzuca mi się w oczy 'Tępienie' oraz 'Ferment' i tak o Tobie myślę bo sam tak się określasz. Tępienie i Fermentowanie. Tak mi się kojarzysz. Gdybyś poświęcił kawałek swego życia na rozwój wewnętrzny zauważył byś jak podświadomość reaguje na słowa klucze i mądrzej używał określeń samego siebie.

Na marginesie, w AMD widziałem głównie Amerykanów, widziałem Azjatkę, Hindusa, kolesia w stylu Włocha ale Afroamerykanina jeszcze nie. Może faktycznie widziałeś więcej ode mnie.

'To coś' jest do czego porównać bo to mówimy o X86-64 oraz GCN więc porównania do PC jak najbardziej na miejscu. Jedynie co zostaje w sferze spekulacji to wzrost wydajności na tle faktu że PS4 to już APU z hUMA, co w świcie desktop PC dopiero za rogiem. O tym z reszta przekonamy się niebawem.
3
sevae
1 grudnia 2013, 00:22
@Czabor

Przecież x86-64 (AMD64) to tylko nazwa ROZSZERZENIA dla procesora x86, wcześniejszym było to x86-32 (IA-32) i to też było rozszerzenie, dla x86. Nie ma znaczenia jaki jest system, procesor i tak jest kompatybilny z x86 czyli obsłuży nawet program 16 bitowy.

Procesor w PS4 zawiera w sobie teoretyczne x16, x32 i x64. Zresztą to zaleta i przekleństwo x86, każdy musi być kompatybilny z pierwszym x86 z końca lat siedemdziesiątych.

To nie jest żadna nowa architektura a zwykły 64 bitowy x86 tak jak stare 32 bitowe x86 i tak jak pierwsze 16 bitowe x86. Wszystkie to x86 tylko mogą więcej pamięci adresować i taka to różnica. A wszystkie kompatybilne są z pierwszym 16 bitowym x86.

Zresztą gdyby nie były nie mogliby go nazywać x64 ani x86-64 ani AMD64 bo tak to nazywać sobie też możesz każdy procesor dla PC od chyba 8 lat. Wszystkie na PC to x64 i każdy wie że to zwykłe x86 z możliwością zaadresowania większej ilości pamięci. To że ten z PS4 nazywają tak jak nazywa się zamiennie każdy procesor x86 na PC tylko potwierdza, że to zwykłe x86, inaczej zmieniliby nazwę. A na systemie 64 bitowym możesz odpalać programy 32 bitowe, robię to codziennie, zresztą 99% gier jest 32 bitowa na PC. To działa tylko odwrotnie, na 32 bitowym nie odpalisz 64 bitowych.

Zresztą rdzenie CPU to Jaguary, nawet nie mają zmienionej nazwy kodowej względem PCtowych.
Edytowane przez autora (2013.12.01, 00:36)
4
Andree
1 grudnia 2013, 01:09
Na 64-bitowych Windowsach uruchamiasz 32-bitowe programy dlatego, że MS wyposażył go w podsystem WoW64 (Windows 32-bit on Windows 64-bit).
Gdyby tego podsystemu nie było, to byś mógł uruchamiać tylko programy 64-bitowe, niezależnie od tego co potrafi procesor. Tak samo nie możesz na 64-bitowych Windowsach uruchamiać programów dla DOS, bo MS usunął ten podsystem.
http://en.wikipedia.org/wiki/WoW64
Procesor PowerPC zastosowany w XBox 360 był wyposażony w niestandardowe zabezpieczenia, takie jak pamięć PROM z 'fuse bits' uniemożliwiająca downgrade firmware konsoli, czy zawarty w samym procesorze program sprawdzania podpisu elektronicznego boot sektora.
The Xbox 360 Security System and its Weaknesses
Trudno mi uwierzyć żeby APU stosowane w konsolach nowej generacji miały gorsze zabezpieczenia albo tak jak nasze PC-ty uruchamiały się w archaicznym trybie rzeczywistym x86 (tak, tym znanym z DOS). Ale nie wiem czy AMD wyrzucił z APU te archaiczne tryby pracy i instrukcje czy nie. Na pewno dzięki temu rdzenie CPU byłyby mniejsze i bardziej oszczędne.
1
Andree
1 grudnia 2013, 01:22
SunTzu (2013.11.30, 22:32)
Andree (2013.11.30, 20:56)
Najczęstszym uproszczeniem w grach na konsole jest założenie stałej ilości klatek na sekundę (30 lub 60), bez dopasowywania jej do możliwości danego komputera.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało. Tymczasem po dziś dzień PCI-E 1.1 x16 w żaden sposób nie ogranicza topowego GPU....
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.

W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
0
ludozerka
1 grudnia 2013, 01:27
Aj już kilka razy twierdziłem że APU jest czymś większym niż nam się wydaje. O ile mi wiadomo wszystkie prezentacje na ostatniej imprezie AMD odbyły się na rdzeniach SteamrollerA!!! Poprawioną rewizję AMD skrzętnie chroni przed testami przedpremierowymi i coraz bardziej wydaje się że chce zrobić konkurencji i klientom niespodziankę... Co do historii CPU i architektur to pierwsze x64 na rynku konsumenckim PC wypuściło AMD następnie część patentu wedle prawa międzynarodowego musiała udostępnić Intelowi. Oczywiście mówiąc X64 nie mamy na myśli jakiegoś specjalnego cudownego rozwiązania jest to po prostu długość instrukcji jaką przetwarza procesor!!! i gwoli ścisłości nadal świat software nie nauczył się w pełni używać tego rozwiązania bo większość programów jest pisanych w 32bit+konwersja do 64 ...
Same rozwiązania z XBO i PS4 są uproszczeniem dla programistów w przenoszeniu aplikacji między platformami, a samo Mantle od AMD jest właśnie uniwersalnym bezpośrednim językiem programowania GCN i rdzeni x86 co AMD teraz wykorzysta to do podniesienia wydajności swoich produktów w grach multiplatformowych a producenci mu przyklasną bo to bardzo upraszcza i zarazem obniża koszty tworzenia gier, zapewniając lepszą optymalizację tym samym lepszą ocenę programu...
-1
sevae
1 grudnia 2013, 01:30
Andree (2013.12.01, 01:09)
Na 64-bitowych Windowsach uruchamiasz 32-bitowe programy dlatego, że MS wyposażył go w podsystem WoW64 (Windows 32-bit on Windows 64-bit).
Gdyby tego podsystemu nie było, to byś mógł uruchamiać tylko programy 64-bitowe, niezależnie od tego co potrafi procesor. Tak samo nie możesz na 64-bitowych Windowsach uruchamiać programów dla DOS, bo MS usunął ten podsystem.
http://en.wikipedia.org/wiki/WoW64
Procesor PowerPC zastosowany w XBox 360 był wyposażony w niestandardowe zabezpieczenia, takie jak pamięć PROM z 'fuse bits' uniemożliwiająca downgrade firmware konsoli, czy zawarty w samym procesorze program sprawdzania podpisu elektronicznego boot sektora.
The Xbox 360 Security System and its Weaknesses
Trudno mi uwierzyć żeby APU stosowane w konsolach nowej generacji miały gorsze zabezpieczenia albo tak jak nasze PC-ty uruchamiały się w archaicznym trybie rzeczywistym x86 (tak, tym znanym z DOS). Ale nie wiem czy AMD wyrzucił z APU te archaiczne tryby pracy i instrukcje czy nie. Na pewno dzięki temu rdzenie CPU byłyby mniejsze i bardziej oszczędne.

Uruchamiam programy 32 bitowe na procesorze x64. System faktycznie może pozwalać na to może nie pozwalać, ważne że procesor pozwala. Gdyby był ten procesor taki jak o nim myśli Czabor to by trzeba emulować.
Edytowane przez autora (2013.12.01, 01:30)
2
sevae
1 grudnia 2013, 01:33
Andree (2013.12.01, 01:22)
SunTzu (2013.11.30, 22:32)
(...)
Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało. Tymczasem po dziś dzień PCI-E 1.1 x16 w żaden sposób nie ogranicza topowego GPU....
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.

W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.

A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.
Edytowane przez autora (2013.12.01, 02:01)
0
*Konto usunięte*
1 grudnia 2013, 02:45
Andree (2013.12.01, 01:22)
SunTzu (2013.11.30, 22:32)
(...)
Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało. Tymczasem po dziś dzień PCI-E 1.1 x16 w żaden sposób nie ogranicza topowego GPU....
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.

W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.

Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.

sevae (2013.12.01, 01:33)
Andree (2013.12.01, 01:22)
(...)

W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.

A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.


Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.
Edytowane przez autora (2013.12.01, 02:59)
3
Amitoza
1 grudnia 2013, 05:19
Jeszcze zapomniałeś nam uświadomić, że ukłądy są na pewno robione w fabryce sony, bo sony wszystko robi w swojej fabryce, że tak na prawde, to sony uczyło AMD jak się robi gpu, bo amd tego nie potrafi... i jeszcze uświadomić nas, że to nie AMD zrobiło ten układ, tylko sony z toshibą, a amd coś tam od siebie dołożyło.

Kontroler pamięci i huma to też dzieło sony zapewne :E

No i całą resztę historii rodem z Sci-fi

a teraz mistrzu uświadomię Cię, że to o czym piszesz, to integralny element GCN 2.0. A nie jakieś wydmuszki 'inżynierów' sony. To o czym piszesz to różnica między GCN i GCN 2.0.

http://www.redgamingtech.com/wp-content/up...nd-1024x547.jpg
11
taith
1 grudnia 2013, 09:15
@ wszyscy ślepi miłośnicy konsol
integracja CPU i GPU nie zwiększy drastycznie jakości grafiki
może polepszyć fizykę i wspomóc obliczenia które nie są związane z grafiką
dlatego w PC działa sprawnie tandem z osobną kartą graficzną która nie potrzebuje szybkiej pamięci, tylko dobrej przepustowości
wszystkie obliczenia wykonywane w obrębie GPU to długie serie powtarzających się obliczeń, dlatego nie potrzeba, jak w CPU bufora z bardzo szybkimi pamięciami L1 i L2 które są krytyczne w CPU ale w GPU daje to symboliczny wzrost wydajności
i mamy tutaj lekko zmodyfikowaną lecz standardową konfigurację x86 niewiele się da już wyczarować pod względem grafiki tutaj, tylko FLOPSy w grafikach są ważne kiedy chodzi o grafikę
dobry silnik wykorzystujący je to inna kwestia
0
piobzo
1 grudnia 2013, 09:38
tak patrze na cpu ps4, odnoszę wrażenie że w ps4 są dwa procesory i karta grafiki... tak na logikę nie powinno być tam czasem pamięci l3, do komunikacji między jednym 4 rdzeniowcem a drugim?
-1
Raphael1
1 grudnia 2013, 11:17
SunTzu (2013.12.01, 02:45)
Andree (2013.12.01, 01:22)
(...)

W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.

Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.

sevae (2013.12.01, 01:33)
(...)

A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.


Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.


No racja, PCI-E nie jest limitem, limitem jest tu 128bit DDR3 (28GB/s) bo przecież dane ta latają między RAM a kilkukrotnie szybszym VRAM.
We wspólnej przestrzeni adresowej PS4 nie dość że odpada kopiowanie wielu danych to jeszcze całość śmiga w pamięci z szybkością 176GB/s.

P.S.
'cena była by w okolicach PS3' - PS3 była o połowę droższa w produkcji.
4
Andree
1 grudnia 2013, 11:48
Theoretical vs. Actual Bandwidth: PCI Express and Thunderbolt
Z tego artykułu wynika że przepustowość PCI-E 16x 2.0 to 0,5GB*16=8GB/s w każdym kierunku ,przepustowość PCI-E 16x 3.0 to 16GB/s w każdym kierunku.

Ale nie każdy ma karty podłączone 16x, w przypadku konfiguracji SLI/Crossfire w większości płyt głównych karty działają 8x, a ponadto trzeba te same dane równocześnie przesyłać do obu kart. Jeżeli nie stanowi to problemu w przypadku PC to głównie dlatego że karty mają duże ilości pamięci, do której tekstury są ładowane podczas wczytywania mapy gry. Ale stanowi to problem podczas wczytywania tekstur w locie, co skutkuje chwilowymi przycięciami gry. Dlatego też unika się tekstur proceduralnych, zwłaszcza dynamicznie modyfikowanych. Tak więc realistycznie mamy transfer 8GB/s vs 176GB/s :E
3
Kazubin
1 grudnia 2013, 11:53
Tak tylko co z tego jak obecne karty ze średniej półki mają taką ilość vramu, że spokojnie radzą sobie z C3 i wszystko jest już wrzucone przy pierwszym ładowaniu ;)


Przykładowe zużycie w rozdzielczości powyżej FHD
http://www.guru3d.com/articles_pages/crysi...enchmark,8.html
Edytowane przez autora (2013.12.01, 11:54)
0
Andree
1 grudnia 2013, 12:03
To z tego, że gry na konsole będą mogły być pisane z użyciem w.w technik, które będą źle działały na PC, co będzie skutkować zauważalnymi przycięciami i gorszą wydajnością portów z konsol, niż by to wynikało z porównania wydajności GPU.
2
Kazubin
1 grudnia 2013, 12:15
Andree (2013.12.01, 12:03)
To z tego, że gry na konsole będą mogły być pisane z użyciem w.w technik, które będą źle działały na PC, co będzie skutkować zauważalnymi przycięciami i gorszą wydajnością portów z konsol, niż by to wynikało z porównania wydajności GPU.

Przy obecnych ilościach ramu i Vramu nie będzie to miało żadnego znaczenia. Dwa to co definiuje wydajność sprzętu to przede wszystkim możliwości CPU i GPU, więc powiedz mi jakie tekstury oraz jaka ilość danych musiała by być aby zatkać magistralę, nie przewyższając możliwości procesora i układu graficznego ;)
0
Andree
1 grudnia 2013, 12:25
Wystarczy dokonywać w locie wielu niewielkich modyfikacji tekstur (animacji, zabrudzeń, uszkodzeń etc.). W przypadku konsol nowej generacji efekty będą natychmiast widoczne, a w przypadku PC-tów dopiero po ich przesłaniu do pamięci karty graficznej.
2
Kazubin
1 grudnia 2013, 12:28
Przecież one mogą być już wczytane, po co w locie ? Ot zmienia się tekstura obiektu i tyle. To istnieje od dawna i żadna to nowość ;)

Ps.
Uważasz, że coś takiego zatka magistralę ?
Edytowane przez autora (2013.12.01, 12:34)
2
Andree
1 grudnia 2013, 12:35
Np. trwałe ślady po kulach albo ściekającej krwi, inne zabrudzenia, uszkodzenia i osmalenia zależą od rozgrywki, więc muszą być liczone na bieżąco. A gdybym chciał mieć w grze telewizor wyświetlający jakiś filmik? To też można by zrealizować jako dynamiczną teksturę.
P.S.
to nie chodzi o to czy zatka czy nie, tylko ile czasu trwa przesłanie tekstury z pamięci karty graficznej do pamięci operacyjnej, a po jej zmodyfikowaniu przesłanie z powrotem.
W tym czasie wątek modyfikujący te tekstury będzie musiał czekać, co nie będzie zachodziło w konsolach, bo nie będzie żadnego przesyłania dużych ilości danych, poza tymi niezbędnymi do dokonania samej modyfikacji.
Edytowane przez autora (2013.12.01, 12:39)
2
*Konto usunięte*
1 grudnia 2013, 12:46
Hashi (2013.12.01, 11:10)
@Amitoza
Naprawdę za bardzo spinasz te swoje poslady.
Powtórzę Ci jeszcze raz. Modyfikacja układu AMD to rozwinięcie Spurs. Ja nie umniejszam wkładu AMD, natomiast ty mi tu próbujesz wmówić, że Sony nie wie jak robić Cpu i GPU. Uswiadomie Cię, psx i ps2 to produkty w 95% Sony/Toshiba i sprzedaly się >100mln razy. Toshiba to lider innowacji układów SoC, a w latach 80ych była największym producentem półprzewodnikow na świecie. Miałem układy w sprzęcie pc wszystkich firm od Intela, amd po Nv. Ty natomiast wyglądasz mi na zwykłego, zakompleksionego, zachlysnietego znaczkiem Amd chłopczyka. To software pokazuje na co stać hardware, wbij to sobie do główki.

Dam wam znać jak przestanę się śmiać.

Hashi (2013.12.01, 04:40)

PS I jeszcze jedno do Waszej wiadomości. Kod zoptymalizowany pod konsolę i przeportowany na PC w 99% przypadków chodzi szybciej.

Choć rac powiedział, że coś działa szybciej na PC.
Edytowane przez autora (2013.12.01, 12:47)
1
Galvatron
1 grudnia 2013, 12:46
McMenel (2013.11.30, 20:46)

Narzut OS, sterowników. Kiedy nie musisz przejmować się różnymi konfiguracjami i wiesz dokładnie czym dysponujesz możesz uzyskać większą wydajność.

Nie tylko. Również m.in. kompilacja. W wypadku PC musisz kompilować pod masę architektur CPU i GPU, co automatycznie powoduje, że nie jesteś w stanie wycisnąć wszystkiego z każdej z nich. Jesli kod ma działać na jak najszerszej gamie sprzętu, to niestety, ale można zastosować tylko bardziej ogólne optymalizacje, bo trudno, żeby na półce były dedykowane wersje gry dla Bulldozera, Core i7, Core 2 i Phenoma II, GCN, VLIW, Keplera, Fermiego itd. W wypadku konsoli nie ma tego problemu.
3
Kazubin
1 grudnia 2013, 12:46
@Andree
Ale po co je przesyłać? Jak one mogą być już w Vramie, czyli dwie, trzy, nawet cztery tekstury tego samego obiektu. Daj nam przykład gdzie dla karty graficznej 7870, magistrala była problemem, a kij dawaj coś dla tytana, ba kilku tytanów ;)
Edytowane przez autora (2013.12.01, 12:50)
0
Stanley
1 grudnia 2013, 12:49
Andree (2013.12.01, 01:22)
SunTzu (2013.11.30, 22:32)

Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało[...]

zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC. Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.


Myśle że obaj macie racje, to o czym pisze SunTzu jest logiczne to o czym piszesz również ale nie tyle chodzi o wydajność ale o jej rozmiar (niższa cena i lepsze wykorzystanie)
0
Andree
1 grudnia 2013, 12:52
Bo dyskutujemy o teksturach dynamicznych, generowanych lub modyfikowanych proceduralnie.
A po co je przesyłać w tą i z powrotem? Żeby wprost zasymulować na PC algorytm używany w konsoli, która nie przechowuje dwóch kopii tej samej tekstury, jednej w RAM a drugiej w VRAM, tylko po to żeby zaoszczędzić na kopiowaniu po PCI-E.
2
*Konto usunięte*
1 grudnia 2013, 12:55
Raphael1 (2013.12.01, 11:17)
SunTzu (2013.12.01, 02:45)
(...)

Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.

(...)


Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.


No racja, PCI-E nie jest limitem, limitem jest tu 128bit DDR3 (28GB/s) bo przecież dane ta latają między RAM a kilkukrotnie szybszym VRAM.
We wspólnej przestrzeni adresowej PS4 nie dość że odpada kopiowanie wielu danych to jeszcze całość śmiga w pamięci z szybkością 176GB/s.

P.S.
'cena była by w okolicach PS3' - PS3 była o połowę droższa w produkcji.

RAM DDR3 w PC nie jest limitem dla CPU. Przyśpieszenie RAM nie daje wzrostu wydajności. Poza tym przepustowość pamięcie RAM dla pipelineu w grach czasem nie ma tak dużego znaczenia jak opóźnienia, nie ma na rynku lepszej alternatywy niż kości DDR3.

Ano PS3 było znacznie droższe w produkcji, ale to inna bajka zastosowanie dGPU podniosłoby koszt produkcji o 80$, a miałbyś w tym momencie dwie jednostki iGPU do fizyki (coś aka kabini+optymalizacje GPGPU) i dGPU do grafiki. Oczywiście developer móglby mieć tu dowolność i np. robić samo AA na iGPU... Pytanie po co większa moc skoro żadna z gier mimo tylu lat przygotowań na nową konsolę jej nie wykorzystuje? Mało tego wrócilibyśmy do problemów jakie miało PS3, choć różnica diametralna, bo o ile w xbox mieliśmy 3 zwykłe rdzenie, tak w PS4 trzeba było to ogarnąć na SPE
Edytowane przez autora (2013.12.01, 13:01)
2
Kazubin
1 grudnia 2013, 13:03
@Andree
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.
Edytowane przez autora (2013.12.01, 13:04)
0
*Konto usunięte*
1 grudnia 2013, 13:04
Andree (2013.12.01, 12:52)
Bo dyskutujemy o teksturach dynamicznych, generowanych lub modyfikowanych proceduralnie.
A po co je przesyłać w tą i z powrotem? Żeby wprost zasymulować na PC algorytm używany w konsoli, która nie przechowuje dwóch kopii tej samej tekstury, jednej w RAM a drugiej w VRAM, tylko po to żeby zaoszczędzić na kopiowaniu po PCI-E.

Tylko na zauważ, że konsoli masz dostępne z 8GB zaledwie 3-4GB dla GPU+1-2GB na grę. W PC masz 8GB pamięci RAM z czego 7,4GB na grę :) + np. 4GB VRAM. Dlatego w PC nie ma to większego znaczenia, bo masz wpiz... RAM-u.
Poza tym już niedługo, będzie HSA na PC i dGPU będzie miało bezpośredni dostęp do pamięci RAM/

EDIT
jeszcze jedna sprawa. CPU Intela ma iGPU, które w przypadku liczenia fizyki ma współdzieloną cache L3 o wiele szybsza jak mnie pamięć nie myli od rozwiązania w xone.
Edytowane przez autora (2013.12.01, 13:15)
2
Galvatron
1 grudnia 2013, 13:09
Hashi (2013.12.01, 11:10)
@Amitoza
Naprawdę za bardzo spinasz te swoje poslady.
Powtórzę Ci jeszcze raz. Modyfikacja układu AMD to rozwinięcie Spurs. Ja nie umniejszam wkładu AMD, natomiast ty mi tu próbujesz wmówić, że Sony nie wie jak robić Cpu i GPU. Uswiadomie Cię, psx i ps2 to produkty w 95% Sony/Toshiba i sprzedaly się >100mln razy. Toshiba to lider innowacji układów SoC, a w latach 80ych była największym producentem półprzewodnikow na świecie. Miałem układy w sprzęcie pc wszystkich firm od Intela, amd po Nv. Ty natomiast wyglądasz mi na zwykłego, zakompleksionego, zachlysnietego znaczkiem Amd chłopczyka. To software pokazuje na co stać hardware, wbij to sobie do główki.

Sony już raz pokazało na co je stać, gdy sami zaprojektowali PS2. Efekt był taki, że technologicznie byli daleko za Xboxem. W wypadku PS3 na szczęście zrezygnowali z powtarzania tego błędu i skorzystali z normalnego GPU.

Co byś o nich nie pisał, oni nie potrafią stworzyć układu graficznego na miarę NV, AMD czy PowerVR. Nawet PS Vita dostało SoC ARM + właśnie PowerVR.
3
Andree
1 grudnia 2013, 13:15
Kazubin (2013.12.01, 13:03)
@Andree
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.

Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie (i ich przesyłaniem do karty graficznej).
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
Edytowane przez autora (2013.12.01, 13:17)
1
*Konto usunięte*
1 grudnia 2013, 13:18
Andree (2013.12.01, 13:15)
Kazubin (2013.12.01, 13:03)
@Andree
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.

Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie.
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
Była to bolączka z powodu tego, że na Radeonach w okresie wakacyjnym przed premierą gry uwalili OGL-a :) To właśnie się działało, mało tego były crashe....
Patch później gry i kolejna wersja catalystów z listopada naprawiały te bolączki. Nie wspominając o tym, że FPS wzrósł bodaj o 30%. Niby zawsze chwalę sterowniki AMD, ale tu nieźle uwalili. (IDtech nie mógł tutaj nic zdziałać, bo stery były uwalone)
Zresztą jak wyglądała premiera COD-a na konsolach? Trochę podobna sprawa.
Edytowane przez autora (2013.12.01, 13:24)
3
Kazubin
1 grudnia 2013, 13:35
Andree (2013.12.01, 13:15)
Kazubin (2013.12.01, 13:03)
@Andree
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.

Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie (i ich przesyłaniem do karty graficznej).
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
To nie był problem sprzętowy, a 'softwerowy'.
0
Andree
1 grudnia 2013, 13:40
To był port z konsoli, tak działał przed zoptymalizowaniem go dla PC, z uwzględnieniem jego ograniczeń.
1
Kazubin
1 grudnia 2013, 13:44
Problem dotyczył zarówno konsol:
http://www.youtube.com/watch?v=1rbh7ztsQU8
http://www.youtube.com/watch?v=bJ7IsR4ef2c
Edytowane przez autora (2013.12.01, 13:49)
2
Andree
1 grudnia 2013, 13:50
Bo PS3 ma odrębną pamięć VRAM.
http://playstation.about.com/od/ps3/a/PS3SpecsDetails_3.htm
Edit: oglądam lets play na 360 w HD i problem jest mało dostrzegalny (w porównaniu z PC).
http://www.youtube.com/watch?v=2YcUkDZ6i6w
W przypadku Xbox 360 cały obraz staje się bardziej szczegółowy po chwili bezruchu, a na PC tylko fragmenty które dopiero znalazły się w polu widzenia po obrocie.
Edytowane przez autora (2013.12.01, 14:01)
-2
*Konto usunięte*
1 grudnia 2013, 14:03
@up
Jakie to ma znaczenie? Przecież masz tam współdzieloną pamięć.
3
Galvatron
1 grudnia 2013, 14:07
RSX może korzystać z XDR Cella, natomiast w drugą stronę to już nie bardzo.
Edytowane przez autora (2013.12.01, 14:08)
3
Kazubin
1 grudnia 2013, 14:39
Andree (2013.12.01, 13:50)
...

W poście #83 stwierdziłeś całkiem co innego :) Kłamczuszek.

Właśnie sprawdziłem RAGE na moim już wieloletnim kompie i nic takiego nie ma miejsca jak na twoim filmiku. Sprawa już dawno została załatana i gra chodzi mi bardzo dobrze. Gdybyś miał wątpliwości mogę wrzucić zrzut video z frapsa.


Pozdrawiam.
Edytowane przez autora (2013.12.01, 14:40)
-2
*Konto usunięte*
1 grudnia 2013, 14:56
Galvatron (2013.12.01, 14:07)
RSX może korzystać z XDR Cella, natomiast w drugą stronę to już nie bardzo.

No, ale przecież megatexturing nie był w Vram-ie, a właśnie w XDR. Więc jakie ma to znaczenie, że PS3 ma vram, który nie brał udziału w megatexturze. To serio pytanie, bo nie znam dokładnie pipelinu tylko załóżmy, że faktycznie to siedzi w vram-ie...
Fragment tekstury kopiowany jest do XDR z XDR->VRAMu, by po obróceniu głową wywalić z VRAM-u ściągnąć kolejny fragment do XDR, z XDR znowu do VRAM-u i tak w kółko... po co dublować dane w obu pamięciach? Po co kopiować do VRAMu gdy już można renderować gdy znajdzie się w XDR.
Edytowane przez autora (2013.12.01, 15:01)
2
Galvatron
1 grudnia 2013, 15:20
Hashi (2013.12.01, 14:27)

Co do PS2 to EE miał dwa rdzenie wektorowe dodatkowo dlatego dewastowal Pentiumy w tamtym okresie w pretwarzaniu geometrii, a że tylko First party potrafiło to wykorzystać to już nie ma znaczenia.

I co z tego, skoro w praktyce Xbox, ze swoim PIII/Celeronem 733MHz + GF3 (4PS/2VS) + 64MB RAM @ 6,4GB/s, rozkładał na łopatki rewolucyjne technologie Sony?
6
Michael86
1 grudnia 2013, 15:51
Hashi (2013.12.01, 15:27)
W multiplatformach dodajmy. 300Mhz, vram@40GB/s.


Cały czas zasłaniasz się grami multiplatformowymi lub exami na ps3/4.
Killzone 2 i 3 czy U2 i U3 czy The last of us z palcem w 4 literach chodziło by na xbox 360, nie wspominając, że na PC w FHD i wyższych detalach.
Twoja stara taktyka to zasłanianie się exami PS których nie można porównać z PC czy Xboxem i wmawianie jakiej to nie użyli kosmicznej technologii dostępnej tylko dla PlayStation, której nie da się przenieść na PC i Xboxa.

Jestem ciekaw co byś opowiadał gdyby się okazało że taki killzone wychodzi na PC i wygląda zdecydowanie lepiej.
Edytowane przez autora (2013.12.01, 15:53)
2
*Konto usunięte*
1 grudnia 2013, 17:06
Hashi (2013.12.01, 15:17)
vram trzymane są tekstury np nakładane na końcu jak malunki na murach itp.
Tekstury z góry są przygotowane w xdr i ddr3. W xdr chyba w 1/4 rozdzielczości ale sam render target np w kz2 to było 2560x720.

Ale KZ to zupełnie inny silnik prawda? Technicznie znacząco odbiega od idtech.
Edytowane przez autora (2013.12.01, 17:08)
0
Hashi
1 grudnia 2013, 17:38
SunTzu (2013.12.01, 17:06)
Hashi (2013.12.01, 15:17)
vram trzymane są tekstury np nakładane na końcu jak malunki na murach itp.
Tekstury z góry są przygotowane w xdr i ddr3. W xdr chyba w 1/4 rozdzielczości ale sam render target np w kz2 to było 2560x720.

Ale KZ to zupełnie inny silnik prawda? Technicznie znacząco odbiega od idtech.

Przy KZ3 studio w publikacjach pisało ze juz przy KZ2 wykorzystano prawie pełny potencjał PS3 (coś koło 60%). Dlatego w trójce postawiono największy nacisk na streamowanie jak największej ilości wszystkiego (bo hardwareowo nie daliby rady ulepszyć pewnych rzeczy/ilość RAM fakt, odgrywała najważniejszy problem). Np streamowano animowaną geometrię (ocean w śnieżnych lokacjach), o teksturach nie wspominając.
Gra nie powala rozdzielczością (1280x720) ale np Akmir Snowdrift w multi wygląda obłędnie realnie. Grałem w Crysis2 multiplayer to szczerze? To jak past gen i nex gen.
Po prostu efekt śniegu i zawieruchy jest bardzo dobrze odwzorowany (śnieg przykleja się do butów, o śladach na śniegu nie wspominając), a animacje są na lepszym poziomie niż w BF3. Takie efekty są nie możliwe do zrealizowania na PC z 2006 z 256ram. Jak zobaczę uwierzę.
Silnik KZ to dla mnie wyznacznik technologii sony. Publikacje guerillagames ma ciekawe. Przestrzeń barw w KZ to nie RGB ale YUV.
http://www.youtube.com/watch?v=BEO8aRq2cLc
Edytowane przez autora (2013.12.01, 17:48)
-4
*Konto usunięte*
1 grudnia 2013, 17:43
@up
Czemu ciągle bierzesz PCta z 2006r. wiadomo, że wtedy MS z Xboxem zaprezentował coś co urwało jaja sony i wszystkim....
Zapominasz, że zarówno xbox/ps3 są optymalizowane pod małą ilość pamięci. Tak w teorii na linuksie może coś... Ale na szczęście to był krótki moment w dzisiejszych czasach nie musimy mieć takich problemów.
Nie oceniałbym PS4/Xone przez pryzmat przeszłości.

Wykorzystanie sprzętowe konsoli jest banalnie proste. Wystarczy dać sporo fizyki/skomplikowanej geometri już masz obciążenie w 100% :) Nie wyobrażam sobie jak można się chwalć tym, że wykorzystuje się sprzęt w 60%.
Edytowane przez autora (2013.12.01, 17:50)
4
Hashi
1 grudnia 2013, 17:53
@SunTzu
Przestrzeń barw w KZ to nie RGB ale YUV.
Wspominałeś kiedyś o podsystemie pamięci w Intelach ze ma nawet 400GB/s. No to pokaże Ci pewien obrazek dotyczący PS3:
http://www.ibm.com/developerworks/power/li...erf/figure1.gif
409.6GB/s jeśli zsumuje się prędkość LS -> SPU (dla 8 rdzeni).

Tu jest opisany silnik:
http://www.slideshare.net/guerrillagames/t...y-of-killzone-2
Edytowane przez autora (2013.12.01, 17:56)
-4
Kazubin
1 grudnia 2013, 17:53
@Yoshi75
Przecież KZ3 na PS3 wygląda znacznie lepiej :D

Ps.
Jak tu wybrnąć co nie ? ;)

Nowe KZ wygląda bardzo dobrze, jest to wysoki poziom i odstawia starą generację w szary kont (co raczej trudne nie było). Nie chce mi się bawić w kwestię Crysis3 vs Metro LL vs BF4 vs KZSF, bo wszystkie te gry wyglądają bardzo dobrze i słowa, że któraś 'miaszczy' całą grupę jest zwykłym trollingiem.
Edytowane przez autora (2013.12.01, 18:06)
4
McMenel
1 grudnia 2013, 17:59
Echh Yoshi i Hasi i można popcorn brać bo znów zacznie się masturbowanie się Sony. Oświetlenie jest stosunkowo łatwe do zrobienia. Ot pierdolniesz kilka lens flare i gawiedź zadowolona. Łatwy do uzyskania efekt. Problem w tym iż gawiedź nie widzi dyskretnych efektów.
2
Michael86
1 grudnia 2013, 18:10
Widziałem jak wygląda Killzone i jest bardzo ładny jak na konsole...do Crysisa 3 jeszcze mu brakuje sporo...
5
Hashi
1 grudnia 2013, 18:13
@McMenel
Pamiętasz ten filmik? Tu widziałeś tą lens flarę. Podpowiem Ci, ja steruję tą postacią i KAMERĄ:
http://www.youtube.com/watch?v=99JltBwW7hI
Ta lens flara jak to nazywasz jest liczona real-time bo cała mapa porusza się na tym oceanie na wszystkie strony.
Edytowane przez autora (2013.12.01, 18:14)
-3
Assassin
1 grudnia 2013, 18:14
Szczerze mówiąc dużo większe wrażenie zrobił na mnie KZ2, który łączył wyczucie smaku, wrażliwość artystyczną twórców z genialną optymalizacją, dość skutecznie ukrywającą wszystkie ograniczenia przestarzałego już sprzętu. KZ: SF po prostu w rzemieślniczo bardzo poprawny sposób wykorzystuje możliwości sprzętu PS4, ale iskry geniuszu jakoś tu nie dostrzegam.
Edytowane przez autora (2013.12.01, 21:32)
0
kwahoo
1 grudnia 2013, 18:14
Yoshi75 (2013.12.01, 17:48)
KZ z PS4 już rozłożył na łopatki BF4 i Crysisa3 z pc za 5 koła :)






Oświetlenie miażdży
A to dopiero początek i wy się będziecie o głupie cyferki kłócić. Zobaczymy w 2014 roku Uncharted i The Order 1886 itd.................... titan z pc za 4 koła spuchnie ;)


Pff. Pecetowy silnik z 2004 roku. Nie z 2014. Sprzed dekady.


Zwróć uwagę na napis MIXOM, ten mały napis MIXOM.
Edytowane przez autora (2013.12.01, 18:22)
3
Hashi
1 grudnia 2013, 18:22
Wrzuć może od razu jpg 160mpx to w ogóle forum siądzie. Przechwalanie się statycznymi obrazami to jak ocenianie właściwości jezdnych stojącego auta.
-4
*Konto usunięte*
1 grudnia 2013, 18:24
kwahoo (2013.12.01, 18:14)

Pff. Pecetowy silnik z 2004 roku. Nie z 2014. Sprzed dekady.


Zwróć uwagę na napis MIXOM, ten mały napis MIXOM.

4
*Konto usunięte*
1 grudnia 2013, 18:27
Hashi (2013.12.01, 17:53)
@SunTzu
Przestrzeń barw w KZ to nie RGB ale YUV.

A skąd mój drogi wzięło Ci się RGB? Gdzie ja o tym w ogóle wspomniałem...

Hashi (2013.12.01, 17:53)

Wspominałeś kiedyś o podsystemie pamięci w Intelach ze ma nawet 400GB/s. No to pokaże Ci pewien obrazek dotyczący PS3:
http://www.ibm.com/developerworks/power/li...erf/figure1.gif
409.6GB/s jeśli zsumuje się prędkość LS -> SPU (dla 8 rdzeni).

Już wiem... chyba chodziło o cache L4. Tak tak 400GB/s ale to na wyjściu, nie podsystem całej pamięci zsumowany. 400GB/s możesz porównać z GDDR5 :) Intel nie podaje ile GB/s ma L1 wewnątrz EU. Szkoda, że nie można porównać.
Hashi (2013.12.01, 17:53)

Tu jest opisany silnik:
http://www.slideshare.net/guerrillagames/t...y-of-killzone-2
To dalej nie ma nic wspólnego z tym o czym z Andree dyskutowaliśmy.
Edytowane przez autora (2013.12.01, 18:51)
2
Hashi
1 grudnia 2013, 18:53
Tu jest coś w ten deseń.
http://media.bestofmicro.com/R/Z/376847/or...e-bandwidth.png
Z tego co czytałem rożnica jest taka, że LS jest tak adresowane, ze programista wie dokładnie gdzie są dane. W cache tego nie ma.
-1
*Konto usunięte*
1 grudnia 2013, 19:23
@up
No i możesz porównać podsystemy CPU-> 51GB/s L1 vs 940GB/s L1, 51GB/s L2 vs 300GB/s L2,
200GB/s wzięło się pewnie z tąd, że pomnożyli przepustowość każdego z L1 w 8SPF. Odpowiednikiem tego byłoby zdaję się pojedyńcze EU czy CU, a w nich cache L1. Nie pamiętam tutaj na pamięć tak dobrze archi. Bo L1 jest chyba już CU... pomnożysz to *18 i wyjdzie Ci max dla PS4

Bardzo możliwe. Ale ale nie ma to większego znaczenia punktem całego rozwiazania jest współdzielona pamięć i współdzielona szyna. Współdzielona pamięć na poziomie L3, L4, DDR3, wspólna szyna jest o wiele wydajniejszym rozwiązaniem niż to co masz w PS4, gdzie w gruncie rzeczy masz 'doklejone' GPU, a nie HSA w pełnej postaci. GPU ma tutaj wydzielony obszar pamięci, wydzieloną szynę. Na pełne HSA od AMD w PCtach przyjdzie czekać jeszcze bodaj 2-4lata konsole tutaj nic nie przyśpieszyły. Jedynie wprowadziły kluczowe dla wydajności GPGPU zamiany. Ale filozofia działania jest identyczna jak na PC w Llano.
Jedynie Intel ma tu rozwiązanie, które teoretycznie odbiega od tego co ma AMD w PS4 (technikę dzialania).
Edytowane przez autora (2013.12.01, 19:38)
1
miekrzy
1 grudnia 2013, 19:42
SunTzu, daj sobie spokój z dyskutowaniem z Hashim, bo ten człowiek prowadzi jakąś prywatną krucjatę podsyłając ciągle te same źródła, które wydaje mu się, że rozumie ;)
5
*Konto usunięte*
1 grudnia 2013, 19:45
Hashi (2013.12.01, 19:33)
Co do tekstur proceduralnych parę lat temu znalazłem taki filmik. Wszystkie tekstury zajęły 318KB:
http://www.youtube.com/watch?v=WzYb4q39q88
Tu jest artykuł ale traktuje go z przymrużeniem oka
http://www.psu.com/a1063/4D-Graphics--A-Re...tation-3?page=0
200GB/s to jest realny transfer w środku procesora, 8x128bit/cykl@1,6GHz. 51GB/s (LS -> SPU) porównujesz do 940GB/s? Hahahahah chłopie rozbawiłeś mnie teraz.

Edit
Współdzielona szyna to EIB w Cell. Dane mogą tam krążyć w 8 pakietach 'do woli' do póki nie są na torach kolizyjnych.
Edit 2
A nie ty wziąłeś L1 w PPE i sume transferu L1 dla całego procesora Intela. No tak naginanie rzeczywistości pod własne Ja. OK rozumiem Cie. SPU nie mają L1, ani L2.

No i to normalka ile mają zajmować :P

Ano tak zrobiłem, bo ty tak zrobiłeś dla SPU. Widzę, że rozumiesz dlaczego częstu zgubne jest sumowanie :)

miekrzy (2013.12.01, 19:42)
SunTzu, daj sobie spokój z dyskutowaniem z Hashim, bo ten człowiek prowadzi jakąś prywatną krucjatę podsyłając ciągle te same źródła, które wydaje mu się, że rozumie ;)


Ale czegoś się dowiedziałem :) Np. bardzo fajny schemacik Cella widać jak ładnie przygotowana część jako GPU, bo dokładnie taką archi ma też Intel. Znalazł mi fajny test cache Intel-a widać jak ładnie Haswell przyśpieszył nie zdawałem sobie wcześniej z tego sprawy. Naprawdę można z takiej dyskusji sporo wynieść :P
Edytowane przez autora (2013.12.01, 19:51)
2
Hashi
1 grudnia 2013, 19:49
Wiem tylko tyle że L1 jest najbliżej rdzenia i hula z jego pełną prędkością (w GHz). Dochodzi pytanie czy rdzeń wie w której dokładnie komórce/bloku są dane.
Tu masz schemat ramp i szyny:
http://www.ibm.com/developerworks/power/li...t9/figure14.gif
Data arbiter to zapewne odpowiednik Intelowskiego 'System Agent'.
Edytowane przez autora (2013.12.01, 19:51)
-3
SNC
1 grudnia 2013, 19:55
Hashi wytlumacz mi wkoncu dlaczego sony uwstecznilo sie i dalo w ps4 soc o mocy 1.84tflopsa skoro w samym rsx z ps3 jest 1..8tflops + wszechpotezny cell?:)
5
Hashi
1 grudnia 2013, 19:58
Nie wiem pytaj Cernego. Zapytaj na tweecie.
Cell to poprostu ciekawy proc, mega-trudny w programowaniu (dlatego tak długo PS3 nie złamano) ale fajnie się patrzy jak chłopaki z Amsterdamu prawie z dzielnicy czerwonych latarni wyciskają z tego pełną moc.
Edytowane przez autora (2013.12.01, 19:59)
-3
SNC
1 grudnia 2013, 20:01
Tego co zapowiadal wiele tytulow startowych a wyszlo z tego Knack ze srednia nota 55% i Killzone ktory dostaje w recenzjach przewaznie 7/10 a nie rzadko 6 ? :)
Edytowane przez autora (2013.12.01, 20:17)
-1
*Konto usunięte*
1 grudnia 2013, 20:03
Hashi (2013.12.01, 19:49)
Wiem tylko tyle że L1 jest najbliżej rdzenia i hula z jego pełną prędkością (w GHz). Dochodzi pytanie czy rdzeń wie w której dokładnie komórce/bloku są dane.
Tu masz schemat ramp i szyny:
http://www.ibm.com/developerworks/power/li...t9/figure14.gif
Data arbiter to zapewne odpowiednik Intelowskiego 'System Agent'.

U Intela też hula L1 z pełną prędkością :) Zresztą same GHz pamięci nie ma wielkiego znaczenia, sama pamięć jest bardzo różna w wydajności.
Tak czy siak 1x PPE=51,2GB/s 1x Haswell=235GB/s, dla L2=51,2GB/s vs 82GB/s, ale jest mały trick wielkość pamięci....

PS
W sumie mógłbym od biedy porównać 50GB/s w LS z 235GB/s L1 CPU... Jako, że w PC CPU odwala robotę jaką wykonuje SPF:)
W sumie na tej logice można porównać 50*8 vs (PS3 ma 7SPF+1xPPF?) vs 940GB/s/
Edytowane przez autora (2013.12.01, 20:03)
0
Hashi
1 grudnia 2013, 20:22
Mówiłem ogólnie o L1 a nie akurat o Cellu czy Intelu itd.
-2
eagle
1 grudnia 2013, 20:35
McMenel (2013.11.30, 20:10)
Czabor (2013.11.30, 20:03)
(...)


Oficjalnie o CPU w PS4 samo Sony mowi ze to x64 lub jesli wolisz x86-x64.Nie ma nigdzie ani slowa o kompatybilnosci z 32 bit czyli czystym x86.I to narazie na tyle

Pomimo ze sie czepiam art uwazam za bardzo dobry :D

Nadal nie rozumiesz x86-64 misi być 32 bitowy. Bo liczba 64 oznacza de facto jedynie możliwości adresowe procesora. Nic więcej. Podstawa jest taka sama. To jak z 64 znakowym hasłem. Musi w sobie zawierać najpierw 32 znaki aby mogło być 64 znakowe. Nic więcej. Czyli wyjaśniam x86 to nazwa architektury mikroprocesora 64 to ilość bitów którą może zaadresować dla jednego procesu. I jeżeli tego nie zrozumiałeś to chyba dam sobie spokój.
@UP po co usuwać skoro i tak nie ma to znaczenia. Instrukcje i programowanie jest te samo jedynie przestrzeń adresowa się zwiększa.

Chyba coś uprościłeś. Ważniejsza przy określeniu z o jakim procesorze mówimy jest szyna danych a nie adresowa, organizacja alu etc...

McMenel (2013.12.01, 17:59)
Echh Yoshi i Hasi i można popcorn brać bo znów zacznie się masturbowanie się Sony. Oświetlenie jest stosunkowo łatwe do zrobienia. Ot pierdolniesz kilka lens flare i gawiedź zadowolona. Łatwy do uzyskania efekt. Problem w tym iż gawiedź nie widzi dyskretnych efektów.


Wyłącz wszystkie 'potrzebne' efekty dobijające karty na pc, a zamiast tego dopchaj gpu dużym terenem sceny ze szczegółową siatką i pięknymi modelami........
Dla mnie PC poza demami i użytkami nie pokazuje swojej przewagi do czasu końca kolejnych generacji konsol.
Jedynym prawdziwym pecetowym rodzynkiem był Crysis 1. Daj mi produkcję na PC która przez wielkość świata, bogactwo AI, fizyki została zrealizowana tylko na PC ?
Sorki ale dla mnie dopracowana gra nie oznacza wpychanie na siłę wymyślnych AA, niebotycznego anizo ponieważ to może zrobić programista.
Dla mnie coś co by przemawiało za PC to gra która ma olbrzymiasty świat nie możliwy do otrzymania ze względów wydajnościowych na konsolach.
Tak się składa że ostatnie 6-7 lat poza crysis 1 graliśmy na typowo konsolowych portach gier dopchanych teksturami, rozdzielczością etc. Nawet głupie doładowywanie poziomów było w tych samych miejscach.
Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.
Edytowane przez autora (2013.12.01, 20:45)
2
eagle
1 grudnia 2013, 20:49
@UP
PC nie jest żadnym złomem. Wyprzedza sporo konsole, ale w sensie dyktowania standardów na rynku rozrywki nie istnieje.
Tak samo płonne są nadzieje ludzi myślących że nagle PC będzie dyktował warunki, jak i tych którzy szukają w konsolach ukrytej mocy. Jako posiadacz obu platform cieszę się że następne gta nie będzie portem z 512 MB konsoli ale z 8GB i tyle.....
5
*Konto usunięte*
1 grudnia 2013, 21:00
eagle (2013.12.01, 20:35)
Daj mi produkcję na PC która przez wielkość świata, bogactwo AI, fizyki została zrealizowana tylko na PC ?


Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
eagle (2013.12.01, 20:35)

Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.


Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole :) Gdy to stanie się standardem to będziesz miał potem gry tworzone na PC.
Ale to proces, który będzie trwał.
Edytowane przez autora (2013.12.01, 21:07)
1
SNC
1 grudnia 2013, 21:09
Yoshi z tym gameplayem to Cie ponioslo bo przewija sie opinia ze to bardzo ladna gra ale nudna jak cholera i schematyczna i nie uwazam tez ze bije C3. Raczej przychylal bym sie do opini ze wyglada odrobinke gorzej.
Edytowane przez autora (2013.12.02, 10:33)
2
eagle
1 grudnia 2013, 21:35
SunTzu (2013.12.01, 21:00)
eagle (2013.12.01, 20:35)
Daj mi produkcję na PC która przez wielkość świata, bogactwo AI, fizyki została zrealizowana tylko na PC ?


Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
eagle (2013.12.01, 20:35)

Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.


Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole :) Gdy to stanie się standardem to będziesz miał potem gry tworzone na PC.
Ale to proces, który będzie trwał.

PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ? :-)
1
Crew 900
1 grudnia 2013, 21:37
PC i wszystko jasne :D
1
Crew 900
1 grudnia 2013, 21:39
eagle (2013.12.01, 20:35)

Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ? :-)


PC + kontroler :D
Edytowane przez autora (2013.12.01, 21:39)
1
*Konto usunięte*
1 grudnia 2013, 21:46
eagle (2013.12.01, 21:35)
SunTzu (2013.12.01, 21:00)
(...)

Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
(...)


Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole :) Gdy to stanie się standardem to będziesz miał potem gry tworzone na PC.
Ale to proces, który będzie trwał.

PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ? :-)

nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.

Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.
Edytowane przez autora (2013.12.01, 21:48)
2
sevae
1 grudnia 2013, 22:04
eagle (2013.12.01, 20:49)
@UP
PC nie jest żadnym złomem. Wyprzedza sporo konsole, ale w sensie dyktowania standardów na rynku rozrywki nie istnieje.

Muszę się wtrącić w dyskusję i zaprotestować. Właśnie dyktuje, cała technologia do budowy konsol, gatunki gier, dystrybucja cyfrowa, dyski twarde i instalacja gier, F2P, DLC i patche, niektóre gatunki (chociażby FPSy jak taki Killzone), MMO, INDIE. To wszystko dzieci PC, prawie wszystko rodzi się na PC i jest przeszczepiane na grunt konsolowy. Jedynie Nintendo się opiera i jest czystą konsolą, ale pewnie nie wytrzymają długo.
0
sevae
1 grudnia 2013, 22:07
Czabor (2013.12.01, 21:18)

Pc rozwinol sie niesamowicie przez ostanie lata.Tylko co z tego jak dalej musi byc kompatybilny z 32 bit.

Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.
1
Czabor
1 grudnia 2013, 22:13
SunTzu (2013.12.01, 21:46)
eagle (2013.12.01, 21:35)
(...)

PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ? :-)

nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.

Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.


Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem
Edytowane przez autora (2013.12.01, 22:13)
0
Czabor
1 grudnia 2013, 22:16
sevae (2013.12.01, 22:07)
Czabor (2013.12.01, 21:18)

Pc rozwinol sie niesamowicie przez ostanie lata.Tylko co z tego jak dalej musi byc kompatybilny z 32 bit.

Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.


No wlasnie .I po co?
1
Avalanc
1 grudnia 2013, 22:28
Hashi (2013.12.01, 19:45)

Moze nie rozumiem ale zawsze mam racje.


<3

Przepraszam, ale nie mogłem się powstrzymać.
2
*Konto usunięte*
1 grudnia 2013, 22:35
Czabor (2013.12.01, 22:13)
SunTzu (2013.12.01, 21:46)
(...)

nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.

Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.


Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem

Problem taki, że w CPU masz niespożyte siły. Tylko trzeba pisać tak, by wykorzystać np. najnowsze SSE, AVX/FMA...
Choć pewnie i tak najlepiej by było wykorzystać to przeklęte iGPU, który prawie każdy CPU ma.
0
sevae
1 grudnia 2013, 22:40
Czabor (2013.12.01, 22:16)
sevae (2013.12.01, 22:07)
(...)

Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.


No wlasnie .I po co?

Dla kompatybilności, po to żeby nie było generacji PC. Teoretyzując, gdyby wszystkie konsole np. Sony były od początku na x86 mógłbyś odpalać na nich każdą grę jaka wyszła na jakąkolwiek konsolę Sony w historii (gdyby nie blokowano tego sztucznie). Tak jak na PC możesz odpalać gry które kupowałeś w latach '90 i masz je w swojej kolekcji. Po to.
Edytowane przez autora (2013.12.01, 22:43)
-1
Czabor
1 grudnia 2013, 22:56
sevae (2013.12.01, 22:40)
Czabor (2013.12.01, 22:16)
(...)


No wlasnie .I po co?

Dla kompatybilności, po to żeby nie było generacji PC. Teoretyzując, gdyby wszystkie konsole np. Sony były od początku na x86 mógłbyś odpalać na nich każdą grę jaka wyszła na jakąkolwiek konsolę Sony w historii (gdyby nie blokowano tego sztucznie). Tak jak na PC możesz odpalać gry które kupowałeś w latach '90 i masz je w swojej kolekcji. Po to.


Save probuje ale nie moge tego zrozumiec
LSD
rozumiem nawet lepiej niz ci sie wydaje
0
Czabor
1 grudnia 2013, 23:01
SunTzu (2013.12.01, 22:35)
Czabor (2013.12.01, 22:13)
(...)


Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem

Problem taki, że w CPU masz niespożyte siły. Tylko trzeba pisać tak, by wykorzystać np. najnowsze SSE, AVX/FMA...
Choć pewnie i tak najlepiej by było wykorzystać to przeklęte iGPU, który prawie każdy CPU ma.

bez jaj dasz sobie rade
0
Czabor
1 grudnia 2013, 23:06
0
Czabor
1 grudnia 2013, 23:07
jebac schematy
-2
*Konto usunięte*
1 grudnia 2013, 23:25
Czabor (2013.12.01, 23:06)
http://www.youtube.com/watch?v=eFqTsmRosjg
W pierwszej sekundzie... Tarantino. Nie, to nie tarantino to z jakiegoś innego filmu... i dup tarantino!
0
Amitoza
2 grudnia 2013, 01:05
Yoshi75 (2013.12.01, 20:36)
SNC (2013.12.01, 19:55)
Hashi wytlumacz mi wkoncu dlaczego sony uwstecznilo sie i dalo w ps4 soc o mocy 1.84tflopsa skoro w samym rsx z ps3 jest 1..8tflops + wszechpotezny cell?:)


To wytłumacz mi dlaczego na PS4 mamy najładniejszy tytuł ze wszystkich fpsów :)

Graficznie KZ kładzie na łopatki Crysis 3 i a pod względem gameplay'u urywa mu głowę. Muszę jeszcze was pocieszyć KZ w multi wygląda lepiej niż BF4 i C3 w singlu ale jaja. A to dopiero startowy tytuł.





Kto tam zabłysnął i napisał że KZ3 wygląda lepiej od KZ na PS4 żarty wam się trzymają he.
Takie to uwstecznienie hue hue.

Coś dla twardzieli pc-towych

'Kupiłem !!. Co prawda bez takiej spiny i męczarni, po prostu zamówiłem w media expert i kurier przywiózł mi do domu i jestem zachwycony tym sprzętem !!. Jezu zrobiłem świetny interes pozbywając się blaszanego złomu z gtx 670 w sli które dławiło się na BF4. Bf na ps4 wygląda przecudownie i na dobrą sprawę nie widzę różnic pomiędzy pc na max, a tym co oferuje ps4 i do tego ta płynność, zero sturringu który aż kuł w oczy w moim zestawie ze sli + spadki płynności. Ac4 black falg wygląda rewelacyjnie i brak jakichkolwiek zwolnień animacji (z tego co czytałem na neogafie to gtx 780 ma problem z utrzymaniem płynności :D), No i na deser killzone który jest w tej chwili najlepiej wyglądającą grą jaką widziałem i śmieszny crysis 3 może się schować pod stół i nie wyłaźić, do tej gry teraz wszystko będzie porównywane, a to dopiero początek. Czekam jeszcze z niecierpliwością na NBA 2k14 czyli coś czego również nie ma na puszcze :). Pozdrawiam wszytskich posiadaczy ps4 i ludzi ze zdrowym podejściem do sprawy'

;)


czy Ty serio myślisz, że to co tu wrzuciłeś wygląda dobrze?
4
Czabor
2 grudnia 2013, 03:04
SunTzu (2013.12.01, 23:25)
Czabor (2013.12.01, 23:06)
http://www.youtube.com/watch?v=eFqTsmRosjg
W pierwszej sekundzie... Tarantino. Nie, to nie tarantino to z jakiegoś innego filmu... i dup tarantino!


ta to Tarantino.Tak dla odmiany bo konsolami chce mi sie juz zygac.Tak samo jak 32 bit
Zlam schematy jak on :D
Edytowane przez autora (2013.12.02, 03:17)
0
majkel84
2 grudnia 2013, 08:29
TępicielFermentu (2013.11.30, 23:11)
Przepraszam, ale co tu widzisz technicznego? Masa bezsensownego lania wody


Zazwyczaj nie odpowiadam trollom, ale dziś jest dzień dobroci. Popatrz tu; http://pclab.pl/kat1-2.html
Od jakiegoś roku nie ma tu słowa o architekturze nowych rozwiązań, dlatego taki rzut okiem i taka analiza techniczna jest zawsze mile widziana.

Wyskrob coś choćby podobnego to pogadamy.


0
Zaloguj się, by móc komentować