
PlayStation 4 trafiło wreszcie do sklepów i w ręce specjalistów od dekonstrukcji, i możemy się przyjrzeć, co ma w środku. A tam - same dziwy! Niby to oczywiste i wiedzieliśmy o tym od dawna, ale konsola jest zadziwiająco podobna do peceta...
APU prawie jak w pececie
Sercem maszyny jest APU z ośmioma rdzeniami głównego procesora i procesorem graficznym. Dwa 4-rdzeniowe bloki konstrukcyjne architektury Jaguar oraz procesor graficzny zajmują lwią część powierzchni krzemowego jądra. Układ zaprojektowany przez AMD zgodnie ze specyfikacją Sony jest produkowany w tajwańskich fabrykach TSMC, w tym samym procesie produkcyjnym, co nowoczesne karty graficzne AMD i Nvidii.
Zdjęcie jądra pokazuje, jak podobny jest układ z PS4 do desktopowych APU AMD. Ma dwa bloki konstrukcyjne architektury Jaguar, dwa razy więcej niż w Kabini, i dziewięć razy więcej procesorów strumieniowych w GPU. Procesor graficzny to architektura GCN znana z ostatnich generacji Radeonów, przerobiona nieco pod kątem większych możliwości GPGPU. Bardzo prawdopodobne, że ma dużo wspólnego z Radeonami R9 – na przykład wbudowany kontroler audio znany jako TrueAudio. W jądrze jest 20 jednostek SIMD, z których wykorzystywane jest 18; dwie są zapasem pozwalającym „uratować” niedoskonałe jądra, których część jest niefunkcjonalna. W świecie pecetowym zrobiono by z takich układów dwa modele: jeden z większą, drugi z mniejszą liczbą procesorów strumieniowych.
Nie licząc radykalnie zmienionych proporcji GPU do CPU, w PS4 jest niewiele obwodów, których nie ma w Kabini. Największą nowością jest oczywiście 256-bitowy kontroler pamięci GDDR5, który zapewnia obu procesorom dostęp do wspólnego obszaru pamięci. Większa część wyprowadzeń z układu to właśnie interfejs pamięci rozmieszczony na trzech krawędziach jądra. Zestaw łącz do komunikacji z resztą konsoli jest stosunkowo skromny. Jest uniwersalne 4-pasmowe wyjście obrazu, w PS4 skonfigurowane jako HDMI 1.4a (choć mogłoby być też DisplayPortem albo DVI). Podobne do PCI Express 4-pasmowe łącze służy do komunikacji z drugim procesorem. To podobny schemat jak w pecetach, gdzie APU jest połączone z mostkiem południowym, obsługującym urządzenia wejścia/wyjścia; ale dodatkowy procesor w PS4 jest znacznie bardziej funkcjonalny. Zajmuje się kompresją wideo (30 ostatnich sekund rozgrywki jest cały czas zapisywane), dźwięku i funkcjami sieciowymi, na przykład pobieraniem danych, kiedy konsola jest w stanie uśpienia. Drugi procesor jest też kontrolerem dysku i napędu Blu-ray.
Co ciekawe, większość pobocznych bloków funkcjonalnych jest identycznych, jak w Kabini – raz zaprojektowane z myślą o produkcji w TSMC mogą być łatwo używane w kolejnych układach. Gdyby dodać temu układowi jeszcze kilka pasów PCI Express i ograniczyć kontroler pamięci do 128 bitów, można by go zapakować w desktopową podstawkę typu FM2 :)
Maszyna do grania vs. maszyny... nie tylko do grania
Okazuje się, że nie pomyliłem się wiele w przewidywaniach z początku roku. W układzie z PS4 dominuje procesor graficzny; jest ponad 3,5 raza większy, niż osiem rdzeni x86 wraz z ich pamięcią podręczną.
Spośród podobnych układów ten jest najbardziej „przechylony” w stronę GPU. APU z Xboxa One ma większe krzemowe jądro, ale sporą jego część poświecono na wbudowaną szybką pamięć, magistrale wewnątrzukładowe i dodatkowe jednostki obliczeniowe potrzebne na przykład do funkcjonowania Kinecta.
W dużych APU desktopowych takich jak Richland, Kaveri czy Haswell te proporcje są bliższe jedności. W Kabini GPU jest 1,7 raza większe od CPU, ale to dlatego, że sporej części GPU nie można już odchudzić bez dużej utraty funkcjonalności. Ciekawe, czy w przyszłorocznych Atomach też będzie dominował procesor x86?
Tradycja i nowoczesność
Procesor PlayStation 4 to z jednej strony bardzo nowoczesny układ, w którym inżynierowie nie bali sie postawić na zunifikowaną pamięć i wykorzystanie GDDR5. Z drugiej strony widać, że wszędzie, gdzie nie była konieczna nowoczesność, kierowano się prostotą. Podczas gdy APU Xboxa One integruje stosunkowo skomplikowany system pamięci i wiele dodatkowych funkcji (sieć, obróbka wideo itp.) w jednym jądrze, procesor PS4 jest tak prosty, jak to tylko możliwe. Funkcje nie wymagające najwyższej wydajności przeniesiono do drugiego procesora, co ma szereg konsekwencji. Wraz z rozwojem technik produkcji Sony będzie mogło przenosić produkcję jednego lub drugiego układu do innych fabryk i procesów technologicznych, a ich stosunkowa prostota ułatwi i przyspieszy przeprojektowywanie. Ponieważ główny procesor nie musi pracować podczas pobierania danych, nie trzeba było wyposażać go w zaawansowane techniki oszczędzania energii (choć chyba nie jest to najlepsze rozwiązanie, skoro konsola pożera podobno 70 W podczas pobierania danych).
Ta prostota opłaca się w produkcji, jest też (jak twierdzi Sony) atrakcyjna dla twórców gier. Z drugiej strony spora część kosztu produkcji PS4 jest związana z pamięcią GDDR5, i przeniesienie produkcji APU w inny proces technologiczny jej nie zmniejszy. Za to APU Xboxa One jest dziś droższe w produkcji, ale ten koszt jest całkowicie pod kontrolą Microsoftu. Niezależnie od cen pamięci DRAM, wraz z taniejącą produkcją krzemu produkcja Xboxa też będzie coraz tańsza.
Dość już się napatrzyłem na zdjęcia jąder – idę pograć na moim skomplikowanym, zawodnym, złożonym z mnóstwa kawałków krzemu pececie...
Zdjęcia za iFixit.com oraz chipworks.com
I dlatemu nic nie ma - nikt o nim nie nie wie. Na beyond3d w temacie o bebechach ps4 były wstępne zdjęcia wnętrza - niestety samej metalowej osłony bez bloków wewnątrz.
Nvidia dopiero od stosunkowo niedawna sprzedaje architekturę Kepler, co pozwoliłoby Intelowi na stworzenie APU dla konsol. Wcześniej tylko AMD było w stanie zaoferować kompleksowe rozwiązanie. Sam Intel miał - i nadal ma - za słabe GPU, za to Zieloni nie posiadają odpowiedniej technologii CPU.
To nie prawdopodobne Mateusz, lecz pewne
https://www.youtube.com/watch?v=Z5tBolPan8U
Juz chyba wymagania portow z PS3 na PS4 na PC obsuguje w wiekszosci tylko x64
http://pclab.pl/news55005.html
http://pclab.pl/news55276.html
http://pclab.pl/news55066.html
Wypadalo by sie w koncu zainteresowac z ta juz oklepana dawno temu technologia
Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64
Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
Z tymże koszty takiego rozwiązania pewnie nikogo by nie zadowalały skoro Intel bierze niezłe sumy za swoje najmocniejsze APU.
Cabor proponuje zapoznać się z
http://pl.wikipedia.org/wiki/X86-64
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64
Widać nawet nie przeczytałeś artu na wiki... x86_64 to nie osobna architektura tylko rozszerzenie instrukcji x86.
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64
Widać nawet nie przeczytałeś artu na wiki... x86_64 to nie osobna architektura tylko rozszerzenie instrukcji x86.
Powaznie?x64 moze spokojnie funkcjonowac bez x86 a tu masz oficjalna specyfikacje konsol
http://www.nowgamer.com/news/1830502/sonys..._confirmed.html
Jak byk pisze x86-x64!!!!Czyli x64 lub AMD64 jak kto woli
jak zwal tak zwal... AMD x64, x64, x86-64 ale nie x86!
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64
x86 to architektura, tak jak ARM czy POWER. Występuje ona w wariantach 32-bit i 64-bit, potocznie zwanych 'x86/i386/i686' i 'x64'. W rzeczywistości mamy do czynienia z x86 32-bit i x86 64-bit.
jak zwal tak zwal... AMD x64, x64, x86-64 ale nie x86!
Tym bardziej ze nie znam info aby procki z konsol wogole obslugiwaly x86 za to napewno x64
x86 to architektura, tak jak ARM czy POWER. Występuje ona w wariantach 32-bit i 64-bit, potocznie zwanych 'x86/i386/i686' i 'x64'. W rzeczywistości mamy do czynienia z x86 32-bit i x86 64-bit.
Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.
x86 to architektura, tak jak ARM czy POWER. Występuje ona w wariantach 32-bit i 64-bit, potocznie zwanych 'x86/i386/i686' i 'x64'. W rzeczywistości mamy do czynienia z x86 32-bit i x86 64-bit.
Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.
Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.
Osobiście nie potrafię jednak ogarnąć jakim sposobem tak skromne rdzenie CPU, do tego z tak niskim zegarem potrafią skutecznie wykarmić to GPU i hulać w najnowszych grach.
W PC, nawet najmocniejsze rdzenie tykające z zegarem 1,6GHz dają rade w wielu zastosowaniach ale na pewno nie w nowych, wymagających grach i do tego karmiąc 18 bloków SIMD GCN.
How?
Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.
Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.
Oficjalnie o CPU w PS4 samo Sony mowi ze to x64 lub jesli wolisz x86-x64.Nie ma nigdzie ani slowa o kompatybilnosci z 32 bit czyli czystym x86.I to narazie na tyle
Pomimo ze sie czepiam art uwazam za bardzo dobry
Jest to prawda jesli system 64 bitowy obsuguje rowniez aplikacje 32 bitowe.
Jest tak w wypadku PS4?Chyba nie skoro w specyfikacji pisze x86-64.
Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.
System Orbis OS jest oparty na zmodyfikowanej wersji FreeBSD 9.0.
64-bitowe jądro systemu FreeBSD jest w stanie wykonywać 32-bitowe aplikacje, ale zdziwiłbym się gdyby Sony nie usunęło tej zbędnej funkcjonalności.
Poza tym i tak aplikacje muszą być podpisane cyfrowo przez Sony, więc nie ma się czym podniecać.
P.S.
64-bitowe aplikacje mogą obsługiwać znacznie więcej niż 4 GB na proces. Chyba że piszesz o aplikacjach 32-bitowych wykonywanych w systemie 64-bitowym, które nie muszą wtedy współdzielić tych 4 GB z 32-bitowym systemem.
Chyba tak. Skoro pisze x86_64 który jest kompatybilny wstecz. Czyli możesz używać aplikacji 32 bitowych. Może inaczej x86 to oznaczenie architektury 32 bitowej _64 to oznaczenie dodatkowych instrukcji pozwalających na adresowanie więcej niż 4GB pamięci dla jednego procesu. Pod względem programowania za bardzo się nie różnią jedynie 64 pozwala na obsługę własnie 4GB na proces.
Oficjalnie o CPU w PS4 samo Sony mowi ze to x64 lub jesli wolisz x86-x64.Nie ma nigdzie ani slowa o kompatybilnosci z 32 bit czyli czystym x86.I to narazie na tyle
Pomimo ze sie czepiam art uwazam za bardzo dobry
Nadal nie rozumiesz x86-64 misi być 32 bitowy. Bo liczba 64 oznacza de facto jedynie możliwości adresowe procesora. Nic więcej. Podstawa jest taka sama. To jak z 64 znakowym hasłem. Musi w sobie zawierać najpierw 32 znaki aby mogło być 64 znakowe. Nic więcej. Czyli wyjaśniam x86 to nazwa architektury mikroprocesora 64 to ilość bitów którą może zaadresować dla jednego procesu. I jeżeli tego nie zrozumiałeś to chyba dam sobie spokój.
@UP po co usuwać skoro i tak nie ma to znaczenia. Instrukcje i programowanie jest te samo jedynie przestrzeń adresowa się zwiększa.
No właśnie widzę że dają.
Uproszczenia w grach? jakie? pytam serio bo nie zauważyłem.
Niższa rozdzielczość czy oprawa graficzna to sprawa dla rdzeni GCN. Uproszczeń dla CPU nie widzę.
Optymalizacja pod 1 architekturę, racja, ta zawsze była siła konsol.
To jednak nie zmienia faktu że te skromniutkie rdzenie radzą sobie z czymś co na PC wymaga nieporównywalnie większej mocy obliczeniowej CPU.
GPGPU, HSA, owszem, to zapas mocy który się rozwija, co rokuje dobrą żywotność konsoli.
Generalnie w tym temacie mam na myśli przykład BF4. Jakim cudem 8xJauar 1,6GHz daje tutaj radę gdy na Windows, z znacznie mocniejszymi rdzeniami z tak niskim zegarem nie ma najmniejszego sensu tej gry uruchamiać (o ile w ogóle by ruszyła) - z czego wynika ta różnica. Przecież w obu przypadkach mamy X86-64 + GCN.
Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?
No właśnie widzę że dają.
Uproszczenia w grach? jakie? pytam serio bo nie zauważyłem.
Niższa rozdzielczość czy oprawa graficzna to sprawa dla rdzeni GCN. Uproszczeń dla CPU nie widzę.
Optymalizacja pod 1 architekturę, racja, ta zawsze była siła konsol.
To jednak nie zmienia faktu że te skromniutkie rdzenie radzą sobie z czymś co na PC wymaga nieporównywalnie większej mocy obliczeniowej CPU.
GPGPU, HSA, owszem, to zapas mocy który się rozwija, co rokuje dobrą żywotność konsoli.
Generalnie w tym temacie mam na myśli przykład BF4. Jakim cudem 8xJauar 1,6GHz daje tutaj radę gdy na Windows, z znacznie mocniejszymi rdzeniami z tak niskim zegarem nie ma najmniejszego sensu tej gry uruchamiać (o ile w ogóle by ruszyła) - z czego wynika ta różnica. Przecież w obu przypadkach mamy X86-64 + GCN.
Narzut OS, sterowników. Kiedy nie musisz przejmować się różnymi konfiguracjami i wiesz dokładnie czym dysponujesz możesz uzyskać większą wydajność.
Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?
Limit jest ustawiony na 60, a ilość rzeczywista generowanych klatek jest różna i zależna od sytuacji.
http://www.youtube.com/watch?v=pT1-mXZBDMM
http://www.youtube.com/watch?v=dkjS4wLEQX0
Do średniej 50 wystarczy ci jakiś Ci3.
http://pclab.pl/art55318-3.html
Nie widzę jakiś wielkich wymagań dla PC.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Pamięć RAM zastosowana w PS4 jest szybsza od tej w PS3?
Słowem; dlaczego w PS4 do BF4 wystarczy taki skromny Jaguarek X86-64 ze śmiesznie niskim zegarem a na PC trzeba mieć minimum 2x wyżej taktowane rdzenie i to szybsze niż Jaguar?
Limit jest ustawiony na 60, a ilość rzeczywista generowanych klatek jest różna i zależna od sytuacji.
http://www.youtube.com/watch?v=pT1-mXZBDMM
http://www.youtube.com/watch?v=dkjS4wLEQX0
Do średniej 50 wystarczy ci jakiś Ci3.
http://pclab.pl/art55318-3.html
Nie widzę jakiś wielkich wymagań dla PC.
Racja, jestem tylko ciekaw jak to i3 (2C/4T) czy i5 (4C/4T) czy i7 (4C/8T) poradziło by sobie z zegarem 1,6GHz.
Tak czy siak narzut Windows, DX, sterowników (nie wiem) jest znaczny.
Pamięć RAM zastosowana w PS4 jest szybsza od tej w PS3?
Łącznie 512 MB pamięci, dzielonej na dwie:
256 MB XDR DRAM pamięci systemowej (Rambus), taktowanej z częstotliwością 400 MHz (3,2 GHz efektywnie)[19]o przepustowości 25,6 GB/s
256 MB GDDR3 pamięci graficznej, taktowanej z częstotliwością 650 MHz (1,3 GHz efektywnie) o przepustowości 22.4 GB/s (w starszych modelach pamięć ma taktowanie 700 MHz @ 1,4 GHz)
wiki
Inaczej mówiąc twardy dysk i czytnik robił za ram :F Na szczęście w PS4 postanowiono naprawić błędy z przeszłości.
@Raphael1
Przykręć kran i sprawdź
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
Problem jest w tym iż na razie AMD nie planuje APU z mocnym GPU dla PC. Aczkolwiek ciekawie by było jeżeli GPU z APU mogło po podpięciu dedyka służyć do liczenia fizyki
Jeżeli będzie miało to wydajność z konsol to czemu nie ?? Stawiasz to w salonie zamiast konsoli i masz dwa w jednym. Plus było by genialne na steam machine.
Problem jest w tym iż na razie AMD nie planuje APU z mocnym GPU dla PC. Aczkolwiek ciekawie by było jeżeli GPU z APU mogło po podpięciu dedyka służyć do liczenia fizyki
Też na to liczę i generalnie ku temu to zmierza.
Pała za małą manipulację....
Haswell występuje w wersji 2c+GT3, 4C+GT3.... a ty porównujesz nam tutaj 4C+GT2. Wiadomo, że ten konfig jest dedykowany CPU i ma zdaję się najgorszy bilans CPUvsGPU.
W dodatku nie jestem pewien czy ten 2rdzeniowiec nie jest czasem wydajniejszy w grach od tego 8 rdzeniowca. Silny wątek pozwala lepiej wykorzystać moc procesora.
Trzeba pamiętać, że 2c+GT3 to tylko ULV i ciągnie zaledwie 17W podczas gdy PS4 ciągnie 120W (nie można tych układów porównywać wydajnościowo)
Lol
mam jakiegoś wielbiciela minuta po napisaniu posta minus
Osoby, które znam i mają słabsze konfiguracje (często integry) nie namówię na żadną zmianę, bo to co mają w zupełności im wystarcza do zabawy, a dla osób lubiących większą ilość klatek i detali takie rozwiązanie będzie zwyczajnie za słabe.
Oczywiście są to moje wyobrażenia, ale wydaje mi się, że jeżeli było by większe miejsce na rynku komputerowym na APU z mocną grafiką to AMD już dawno by tłukło na tym kasę.
BF4 to generalnie gra mocno uproszczona w stosunku do np. takiej ARMA (dużo skryptów, znacznie prostsza balistyka...). Do takich gier jak BF4 stworzone jest właśnie PS4. Gdybym zobaczył coś porównywalnego z Rome Total War działającego płynnie na PS4 to wtedy rzeczywiście bym się zdziwił.
BF4 to generalnie gra mocno uproszczona w stosunku do np. takiej ARMA (dużo skryptów, znacznie prostsza balistyka...). Do takich gier jak BF4 stworzone jest właśnie PS4. Gdybym zobaczył coś porównywalnego z Rome Total War działającego płynnie na PS4 to wtedy rzeczywiście bym się zdziwił.
Musisz poczekać... Rendery profesjonalne po dziś dzień z oporem nie korzystają z nowych instrukcji tylko ChaosGroup tutaj rusza palcem.... Mental Ray pisany jest zdaję się na SSE3...
Tymczasem Jaguar ma tam wiele modyfikacje względem PCtowego właśnie w tym zakresie. Muszą powstać silniki, które będą wykorzystywały nowe instrukcje jak tylko się da, po drugie co trudniejsze i gorsze muszą pisać wielowątkowo co wywoła pewnie zgrzyt zębów u developerów....
... Rome II jest tutaj doskonałym przykładem. Gra jest najgorszym co mogło spotkać sprzęt, wiele obiektów, ogromna sceneria... Jeszcze AI by się przydalo.
Gra wykorzystuje zdaję się 8 wątków, ale... jest limitowana przez 1 ( prawdopodobnie grafikę, która posyłana jest przez 1 wątek). Właśnie tu widać jak bardzo musi się zmienić podejście. Jak na ironię przepisywanie silników z powodzeniem przysłuży się PCtom, gdzie właśnie Rome jest taką grą, której cały czas mamy the worst case scenario i FX dostaje po d....
Jakby nie patrzeć PS4/Xone to jedyne 'komputery', które mają dostępne 8FPU. Widać w jaką stronę po prostu musi iść soft. Ale na to trzeba czekać.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.
Przepraszam, ale co tu widzisz technicznego? Ja niewiele, poza zachwalaniem AMD i ochów achów. Dostały murzyny zlecenie, to wykonały jak każdy inny podwykonawca. Nie wiadomo wcale czy to jest wydajne i fajne, bo nie ma do czego porównać. O architekturze procesora nie ma NIC ciekawego, o wydajności też nic. Masa bezsensownego lania wody
Przepraszam, ale co tu widzisz technicznego? Ja niewiele, poza zachwalaniem AMD i ochów achów. Dostały murzyny zlecenie, to wykonały jak każdy inny podwykonawca. Nie wiadomo wcale czy to jest wydajne i fajne, bo nie ma do czego porównać. O architekturze procesora nie ma NIC ciekawego, o wydajności też nic. Masa bezsensownego lania wody
Słyszałeś kiedyś o tym że imię, a co za tym idzie Nick jest zapisem energetycznym i na dłuższą metę oddziałuje na nosiciela? (na krótszą też ale efekty łatwiej widać po dłuższym czasie)
Chcę byś mnie dobrze zrozumiał. Z mojej subiektywnej perspektywy wygląda to tak że gdy widzę Twój post, nim zacznę czytać rzuca mi się w oczy 'Tępienie' oraz 'Ferment' i tak o Tobie myślę bo sam tak się określasz. Tępienie i Fermentowanie. Tak mi się kojarzysz. Gdybyś poświęcił kawałek swego życia na rozwój wewnętrzny zauważył byś jak podświadomość reaguje na słowa klucze i mądrzej używał określeń samego siebie.
Na marginesie, w AMD widziałem głównie Amerykanów, widziałem Azjatkę, Hindusa, kolesia w stylu Włocha ale Afroamerykanina jeszcze nie. Może faktycznie widziałeś więcej ode mnie.
'To coś' jest do czego porównać bo to mówimy o X86-64 oraz GCN więc porównania do PC jak najbardziej na miejscu. Jedynie co zostaje w sferze spekulacji to wzrost wydajności na tle faktu że PS4 to już APU z hUMA, co w świcie desktop PC dopiero za rogiem. O tym z reszta przekonamy się niebawem.
Przepraszam, ale co tu widzisz technicznego? Ja niewiele, poza zachwalaniem AMD i ochów achów. Dostały murzyny zlecenie, to wykonały jak każdy inny podwykonawca. Nie wiadomo wcale czy to jest wydajne i fajne, bo nie ma do czego porównać. O architekturze procesora nie ma NIC ciekawego, o wydajności też nic. Masa bezsensownego lania wody
Słyszałeś kiedyś o tym że imię, a co za tym idzie Nick jest zapisem energetycznym i na dłuższą metę oddziałuje na nosiciela? (na krótszą też ale efekty łatwiej widać po dłuższym czasie)
Chcę byś mnie dobrze zrozumiał. Z mojej subiektywnej perspektywy wygląda to tak że gdy widzę Twój post, nim zacznę czytać rzuca mi się w oczy 'Tępienie' oraz 'Ferment' i tak o Tobie myślę bo sam tak się określasz. Tępienie i Fermentowanie. Tak mi się kojarzysz. Gdybyś poświęcił kawałek swego życia na rozwój wewnętrzny zauważył byś jak podświadomość reaguje na słowa klucze i mądrzej używał określeń samego siebie.
Na marginesie, w AMD widziałem głównie Amerykanów, widziałem Azjatkę, Hindusa, kolesia w stylu Włocha ale Afroamerykanina jeszcze nie. Może faktycznie widziałeś więcej ode mnie.
'To coś' jest do czego porównać bo to mówimy o X86-64 oraz GCN więc porównania do PC jak najbardziej na miejscu. Jedynie co zostaje w sferze spekulacji to wzrost wydajności na tle faktu że PS4 to już APU z hUMA, co w świcie desktop PC dopiero za rogiem. O tym z reszta przekonamy się niebawem.
Nie przetestujesz tego, bo nie ma jak. Architektura ta sama, ale nie porównasz sobie nic do czasu premiery nowszych procesorów dla PC. AMD jest tu tylko podwykonawcą, nie ma czym się zachwycać. A mój nick jest fajny, wiem o tym
Przecież x86-64 (AMD64) to tylko nazwa ROZSZERZENIA dla procesora x86, wcześniejszym było to x86-32 (IA-32) i to też było rozszerzenie, dla x86. Nie ma znaczenia jaki jest system, procesor i tak jest kompatybilny z x86 czyli obsłuży nawet program 16 bitowy.
Procesor w PS4 zawiera w sobie teoretyczne x16, x32 i x64. Zresztą to zaleta i przekleństwo x86, każdy musi być kompatybilny z pierwszym x86 z końca lat siedemdziesiątych.
To nie jest żadna nowa architektura a zwykły 64 bitowy x86 tak jak stare 32 bitowe x86 i tak jak pierwsze 16 bitowe x86. Wszystkie to x86 tylko mogą więcej pamięci adresować i taka to różnica. A wszystkie kompatybilne są z pierwszym 16 bitowym x86.
Zresztą gdyby nie były nie mogliby go nazywać x64 ani x86-64 ani AMD64 bo tak to nazywać sobie też możesz każdy procesor dla PC od chyba 8 lat. Wszystkie na PC to x64 i każdy wie że to zwykłe x86 z możliwością zaadresowania większej ilości pamięci. To że ten z PS4 nazywają tak jak nazywa się zamiennie każdy procesor x86 na PC tylko potwierdza, że to zwykłe x86, inaczej zmieniliby nazwę. A na systemie 64 bitowym możesz odpalać programy 32 bitowe, robię to codziennie, zresztą 99% gier jest 32 bitowa na PC. To działa tylko odwrotnie, na 32 bitowym nie odpalisz 64 bitowych.
Zresztą rdzenie CPU to Jaguary, nawet nie mają zmienionej nazwy kodowej względem PCtowych.
Gdyby tego podsystemu nie było, to byś mógł uruchamiać tylko programy 64-bitowe, niezależnie od tego co potrafi procesor. Tak samo nie możesz na 64-bitowych Windowsach uruchamiać programów dla DOS, bo MS usunął ten podsystem.
http://en.wikipedia.org/wiki/WoW64
Procesor PowerPC zastosowany w XBox 360 był wyposażony w niestandardowe zabezpieczenia, takie jak pamięć PROM z 'fuse bits' uniemożliwiająca downgrade firmware konsoli, czy zawarty w samym procesorze program sprawdzania podpisu elektronicznego boot sektora.
The Xbox 360 Security System and its Weaknesses
Trudno mi uwierzyć żeby APU stosowane w konsolach nowej generacji miały gorsze zabezpieczenia albo tak jak nasze PC-ty uruchamiały się w archaicznym trybie rzeczywistym x86 (tak, tym znanym z DOS). Ale nie wiem czy AMD wyrzucił z APU te archaiczne tryby pracy i instrukcje czy nie. Na pewno dzięki temu rdzenie CPU byłyby mniejsze i bardziej oszczędne.
Umożliwia to zastosowanie ustalonego kwantu czasu symulacji i jest to coś z czego później trudno wybrnąć. Dlatego spotyka się wiele portów gier z konsol na PC z tym ograniczeniem.
Poza tym APU PS4 wykorzystuje hUMA, czyli zarówno CPU jak i GPU mają dostęp do tej samej przestrzeni adresowej, co eliminuje obecne w PCtach powolne kopiowanie danych (np. tekstur) między nimi.
http://www.redgamingtech.com/ps4-hardware-...inside-the-ps4/
http://www.extremetech.com/gaming/164557-p...dust-eventually
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.
W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
Same rozwiązania z XBO i PS4 są uproszczeniem dla programistów w przenoszeniu aplikacji między platformami, a samo Mantle od AMD jest właśnie uniwersalnym bezpośrednim językiem programowania GCN i rdzeni x86 co AMD teraz wykorzysta to do podniesienia wydajności swoich produktów w grach multiplatformowych a producenci mu przyklasną bo to bardzo upraszcza i zarazem obniża koszty tworzenia gier, zapewniając lepszą optymalizację tym samym lepszą ocenę programu...
Gdyby tego podsystemu nie było, to byś mógł uruchamiać tylko programy 64-bitowe, niezależnie od tego co potrafi procesor. Tak samo nie możesz na 64-bitowych Windowsach uruchamiać programów dla DOS, bo MS usunął ten podsystem.
http://en.wikipedia.org/wiki/WoW64
Procesor PowerPC zastosowany w XBox 360 był wyposażony w niestandardowe zabezpieczenia, takie jak pamięć PROM z 'fuse bits' uniemożliwiająca downgrade firmware konsoli, czy zawarty w samym procesorze program sprawdzania podpisu elektronicznego boot sektora.
The Xbox 360 Security System and its Weaknesses
Trudno mi uwierzyć żeby APU stosowane w konsolach nowej generacji miały gorsze zabezpieczenia albo tak jak nasze PC-ty uruchamiały się w archaicznym trybie rzeczywistym x86 (tak, tym znanym z DOS). Ale nie wiem czy AMD wyrzucił z APU te archaiczne tryby pracy i instrukcje czy nie. Na pewno dzięki temu rdzenie CPU byłyby mniejsze i bardziej oszczędne.
Uruchamiam programy 32 bitowe na procesorze x64. System faktycznie może pozwalać na to może nie pozwalać, ważne że procesor pozwala. Gdyby był ten procesor taki jak o nim myśli Czabor to by trzeba emulować.
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.
W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.
... to hUMA dopiero w GPGPU może się przydać, ale desktopowe CPU mają iGPU, które też może operować na tej samej przestrzeni adresowej. Dziś w dekstopie masz tylko AM3, które nie ma iGPU i ten problem zaczyna znikać.
Dwa w PCtach masz wielokrotnie wydajniejsze procesory, ktore z powodzeniem mogą nadrobić te braki, jedynie będzie problem na Low-Endach, a te przecież mają iGPU.
W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.
W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.
Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.
http://zapodaj.net/90c95bfe4fc14.jpg.html
Hardwarowe rozwinięcie technologi SPURS od SONY.
PS I jeszcze jedno do Waszej wiadomości. Kod zoptymalizowany pod konsolę i przeportowany na PC w 99% przypadków chodzi szybciej.
Kontroler pamięci i huma to też dzieło sony zapewne
No i całą resztę historii rodem z Sci-fi
a teraz mistrzu uświadomię Cię, że to o czym piszesz, to integralny element GCN 2.0. A nie jakieś wydmuszki 'inżynierów' sony. To o czym piszesz to różnica między GCN i GCN 2.0.
http://www.redgamingtech.com/wp-content/up...nd-1024x547.jpg
integracja CPU i GPU nie zwiększy drastycznie jakości grafiki
może polepszyć fizykę i wspomóc obliczenia które nie są związane z grafiką
dlatego w PC działa sprawnie tandem z osobną kartą graficzną która nie potrzebuje szybkiej pamięci, tylko dobrej przepustowości
wszystkie obliczenia wykonywane w obrębie GPU to długie serie powtarzających się obliczeń, dlatego nie potrzeba, jak w CPU bufora z bardzo szybkimi pamięciami L1 i L2 które są krytyczne w CPU ale w GPU daje to symboliczny wzrost wydajności
i mamy tutaj lekko zmodyfikowaną lecz standardową konfigurację x86 niewiele się da już wyczarować pod względem grafiki tutaj, tylko FLOPSy w grafikach są ważne kiedy chodzi o grafikę
dobry silnik wykorzystujący je to inna kwestia
Naprawdę za bardzo spinasz te swoje poslady.
Powtórzę Ci jeszcze raz. Modyfikacja układu AMD to rozwinięcie Spurs. Ja nie umniejszam wkładu AMD, natomiast ty mi tu próbujesz wmówić, że Sony nie wie jak robić Cpu i GPU. Uswiadomie Cię, psx i ps2 to produkty w 95% Sony/Toshiba i sprzedaly się >100mln razy. Toshiba to lider innowacji układów SoC, a w latach 80ych była największym producentem półprzewodnikow na świecie. Miałem układy w sprzęcie pc wszystkich firm od Intela, amd po Nv. Ty natomiast wyglądasz mi na zwykłego, zakompleksionego, zachlysnietego znaczkiem Amd chłopczyka. To software pokazuje na co stać hardware, wbij to sobie do główki.
W przypadku tekstur proceduralnych (tworzonych lub modyfikowanych przez algorytm wykonywany na CPU) na PC niezbędne jest skopiowanie tych tekstur z pamięci operacyjnej do VRAM po każdej zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC.
Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.
A nawet w przypadku konsol starszej generacji... za wyjątkiem PS3 któremu dorzucono drugie GPU w ostaniej chwili bo zobaczono co zaprezentował MS (Cell miał być APU, jedynym APU gdyby nie x360, wtedy też jak reszta miałby współdzieloną pamięć). Współdzielona pamięć w konsolach to od dawna była norma. Pierwszą konsolą ze współdzieloną pamięcią było Nintendo64 i od tamtej pory każde nintendo tak ma i zazwyczaj reszta konkurencji. No i gdyby nie przekoksowany x360 mniejszymi kroczkami ale już od dawna byłaby ósma generacja z większym skokiem, raz się robi za duży krok to potem i tak trzeba mniejszy.
Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.
No racja, PCI-E nie jest limitem, limitem jest tu 128bit DDR3 (28GB/s) bo przecież dane ta latają między RAM a kilkukrotnie szybszym VRAM.
We wspólnej przestrzeni adresowej PS4 nie dość że odpada kopiowanie wielu danych to jeszcze całość śmiga w pamięci z szybkością 176GB/s.
P.S.
'cena była by w okolicach PS3' - PS3 była o połowę droższa w produkcji.
http://www.gamechup.com/ps4-will-have-many...e-system-cerny/
PS3 ma najbardziej zaawansowany tzw bus w cpu, który potrafi przetrzymywac do 8 kolejek danych.
Z tego artykułu wynika że przepustowość PCI-E 16x 2.0 to 0,5GB*16=8GB/s w każdym kierunku ,przepustowość PCI-E 16x 3.0 to 16GB/s w każdym kierunku.
Ale nie każdy ma karty podłączone 16x, w przypadku konfiguracji SLI/Crossfire w większości płyt głównych karty działają 8x, a ponadto trzeba te same dane równocześnie przesyłać do obu kart. Jeżeli nie stanowi to problemu w przypadku PC to głównie dlatego że karty mają duże ilości pamięci, do której tekstury są ładowane podczas wczytywania mapy gry. Ale stanowi to problem podczas wczytywania tekstur w locie, co skutkuje chwilowymi przycięciami gry. Dlatego też unika się tekstur proceduralnych, zwłaszcza dynamicznie modyfikowanych. Tak więc realistycznie mamy transfer 8GB/s vs 176GB/s
Przykładowe zużycie w rozdzielczości powyżej FHD
http://www.guru3d.com/articles_pages/crysi...enchmark,8.html
Przy obecnych ilościach ramu i Vramu nie będzie to miało żadnego znaczenia. Dwa to co definiuje wydajność sprzętu to przede wszystkim możliwości CPU i GPU, więc powiedz mi jakie tekstury oraz jaka ilość danych musiała by być aby zatkać magistralę, nie przewyższając możliwości procesora i układu graficznego
Ps.
Uważasz, że coś takiego zatka magistralę ?
P.S.
to nie chodzi o to czy zatka czy nie, tylko ile czasu trwa przesłanie tekstury z pamięci karty graficznej do pamięci operacyjnej, a po jej zmodyfikowaniu przesłanie z powrotem.
W tym czasie wątek modyfikujący te tekstury będzie musiał czekać, co nie będzie zachodziło w konsolach, bo nie będzie żadnego przesyłania dużych ilości danych, poza tymi niezbędnymi do dokonania samej modyfikacji.
Naprawdę za bardzo spinasz te swoje poslady.
Powtórzę Ci jeszcze raz. Modyfikacja układu AMD to rozwinięcie Spurs. Ja nie umniejszam wkładu AMD, natomiast ty mi tu próbujesz wmówić, że Sony nie wie jak robić Cpu i GPU. Uswiadomie Cię, psx i ps2 to produkty w 95% Sony/Toshiba i sprzedaly się >100mln razy. Toshiba to lider innowacji układów SoC, a w latach 80ych była największym producentem półprzewodnikow na świecie. Miałem układy w sprzęcie pc wszystkich firm od Intela, amd po Nv. Ty natomiast wyglądasz mi na zwykłego, zakompleksionego, zachlysnietego znaczkiem Amd chłopczyka. To software pokazuje na co stać hardware, wbij to sobie do główki.
Dam wam znać jak przestanę się śmiać.
PS I jeszcze jedno do Waszej wiadomości. Kod zoptymalizowany pod konsolę i przeportowany na PC w 99% przypadków chodzi szybciej.
Choć rac powiedział, że coś działa szybciej na PC.
Narzut OS, sterowników. Kiedy nie musisz przejmować się różnymi konfiguracjami i wiesz dokładnie czym dysponujesz możesz uzyskać większą wydajność.
Nie tylko. Również m.in. kompilacja. W wypadku PC musisz kompilować pod masę architektur CPU i GPU, co automatycznie powoduje, że nie jesteś w stanie wycisnąć wszystkiego z każdej z nich. Jesli kod ma działać na jak najszerszej gamie sprzętu, to niestety, ale można zastosować tylko bardziej ogólne optymalizacje, bo trudno, żeby na półce były dedykowane wersje gry dla Bulldozera, Core i7, Core 2 i Phenoma II, GCN, VLIW, Keplera, Fermiego itd. W wypadku konsoli nie ma tego problemu.
Ale po co je przesyłać? Jak one mogą być już w Vramie, czyli dwie, trzy, nawet cztery tekstury tego samego obiektu. Daj nam przykład gdzie dla karty graficznej 7870, magistrala była problemem, a kij dawaj coś dla tytana, ba kilku tytanów
Gdyby kopiowanie danych było 'powolne', albo PC miałby sobie w jakikolwiek sposób tym nie radzić przejście z PCI-E1->2->3 coś by dawało[...]
zmianie. W przypadku konsol nowej generacji nie ma potrzeby w.w. kopiowania, więc ta technika będzie wydajniejsza niż na PC. Także doczytywanie tekstur mapy 'w locie' będzie płynniejsze.
Myśle że obaj macie racje, to o czym pisze SunTzu jest logiczne to o czym piszesz również ale nie tyle chodzi o wydajność ale o jej rozmiar (niższa cena i lepsze wykorzystanie)
A po co je przesyłać w tą i z powrotem? Żeby wprost zasymulować na PC algorytm używany w konsoli, która nie przechowuje dwóch kopii tej samej tekstury, jednej w RAM a drugiej w VRAM, tylko po to żeby zaoszczędzić na kopiowaniu po PCI-E.
Ano baa, że wydajniejsza, ale nie mająca wpływu na wydajność. Bo PCI-E nie jest tu limitem... jest spory zapas mocy, Zdaję się dla najwydajniejszych GPU dopiero PCI-E3.0 x4 staje się limitem mamy spory zapas.
Czy ja wiem czy Xbox był przekoksowany i tak i nie... mogli obniżyć zegarki pewnie dłużej to by działało....
Ale jakoś mieści się z mojej wyobraźni PS4 z dGPU+SR/iGPU. To byłoby wydajniejsze rozwiązanie i wcale nie podniosłoby tak znacznie kosztu konsoli, cena byłaby w okolicach PS3.
No racja, PCI-E nie jest limitem, limitem jest tu 128bit DDR3 (28GB/s) bo przecież dane ta latają między RAM a kilkukrotnie szybszym VRAM.
We wspólnej przestrzeni adresowej PS4 nie dość że odpada kopiowanie wielu danych to jeszcze całość śmiga w pamięci z szybkością 176GB/s.
P.S.
'cena była by w okolicach PS3' - PS3 była o połowę droższa w produkcji.
RAM DDR3 w PC nie jest limitem dla CPU. Przyśpieszenie RAM nie daje wzrostu wydajności. Poza tym przepustowość pamięcie RAM dla pipelineu w grach czasem nie ma tak dużego znaczenia jak opóźnienia, nie ma na rynku lepszej alternatywy niż kości DDR3.
Ano PS3 było znacznie droższe w produkcji, ale to inna bajka zastosowanie dGPU podniosłoby koszt produkcji o 80$, a miałbyś w tym momencie dwie jednostki iGPU do fizyki (coś aka kabini+optymalizacje GPGPU) i dGPU do grafiki. Oczywiście developer móglby mieć tu dowolność i np. robić samo AA na iGPU... Pytanie po co większa moc skoro żadna z gier mimo tylu lat przygotowań na nową konsolę jej nie wykorzystuje? Mało tego wrócilibyśmy do problemów jakie miało PS3, choć różnica diametralna, bo o ile w xbox mieliśmy 3 zwykłe rdzenie, tak w PS4 trzeba było to ogarnąć na SPE
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.
A po co je przesyłać w tą i z powrotem? Żeby wprost zasymulować na PC algorytm używany w konsoli, która nie przechowuje dwóch kopii tej samej tekstury, jednej w RAM a drugiej w VRAM, tylko po to żeby zaoszczędzić na kopiowaniu po PCI-E.
Tylko na zauważ, że konsoli masz dostępne z 8GB zaledwie 3-4GB dla GPU+1-2GB na grę. W PC masz 8GB pamięci RAM z czego 7,4GB na grę
Poza tym już niedługo, będzie HSA na PC i dGPU będzie miało bezpośredni dostęp do pamięci RAM/
EDIT
jeszcze jedna sprawa. CPU Intela ma iGPU, które w przypadku liczenia fizyki ma współdzieloną cache L3 o wiele szybsza jak mnie pamięć nie myli od rozwiązania w xone.
Naprawdę za bardzo spinasz te swoje poslady.
Powtórzę Ci jeszcze raz. Modyfikacja układu AMD to rozwinięcie Spurs. Ja nie umniejszam wkładu AMD, natomiast ty mi tu próbujesz wmówić, że Sony nie wie jak robić Cpu i GPU. Uswiadomie Cię, psx i ps2 to produkty w 95% Sony/Toshiba i sprzedaly się >100mln razy. Toshiba to lider innowacji układów SoC, a w latach 80ych była największym producentem półprzewodnikow na świecie. Miałem układy w sprzęcie pc wszystkich firm od Intela, amd po Nv. Ty natomiast wyglądasz mi na zwykłego, zakompleksionego, zachlysnietego znaczkiem Amd chłopczyka. To software pokazuje na co stać hardware, wbij to sobie do główki.
Sony już raz pokazało na co je stać, gdy sami zaprojektowali PS2. Efekt był taki, że technologicznie byli daleko za Xboxem. W wypadku PS3 na szczęście zrezygnowali z powtarzania tego błędu i skorzystali z normalnego GPU.
Co byś o nich nie pisał, oni nie potrafią stworzyć układu graficznego na miarę NV, AMD czy PowerVR. Nawet PS Vita dostało SoC ARM + właśnie PowerVR.
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.
Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie (i ich przesyłaniem do karty graficznej).
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.
Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie.
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
Patch później gry i kolejna wersja catalystów z listopada naprawiały te bolączki. Nie wspominając o tym, że FPS wzrósł bodaj o 30%. Niby zawsze chwalę sterowniki AMD, ale tu nieźle uwalili. (IDtech nie mógł tutaj nic zdziałać, bo stery były uwalone)
Zresztą jak wyglądała premiera COD-a na konsolach? Trochę podobna sprawa.
Daj konkretne przykłady, inaczej trudno nazwać to nawet dyskusją.
Np. filmik RAGE PC Megatextures Epic Fail.
Wyraźnie widać że PC się nie wyrabia z doczytywaniem tekstur w locie (i ich przesyłaniem do karty graficznej).
Mogę też zamieścić wypowiedź Carmacka dotyczącą dynamicznych tekstur:
http://www.computerandvideogames.com/31456...ful-as-ps3-360/
http://www.youtube.com/watch?v=1rbh7ztsQU8
http://www.youtube.com/watch?v=bJ7IsR4ef2c
http://playstation.about.com/od/ps3/a/PS3SpecsDetails_3.htm
Edit: oglądam lets play na 360 w HD i problem jest mało dostrzegalny (w porównaniu z PC).
http://www.youtube.com/watch?v=2YcUkDZ6i6w
W przypadku Xbox 360 cały obraz staje się bardziej szczegółowy po chwili bezruchu, a na PC tylko fragmenty które dopiero znalazły się w polu widzenia po obrocie.
Jakie to ma znaczenie? Przecież masz tam współdzieloną pamięć.
@Galvatron
Tak PSVITA to arm+vr z drobną różnica. GPU w PSV ma własny vram który jest stosem 3D ulozonym na GPU, dzięki czemu magistrala vram jest wewnątrz GPU (dzięki temu mozna uzyskać duże transfery przy np x6 niższym takcie/psv prawdopodobnie ma magistrale vram 512 lub 1024bit) Układ produkuje Toshiba i jako pierwsza wprowadziła takie coś.
Co do PS2 to EE miał dwa rdzenie wektorowe dodatkowo dlatego dewastowal Pentiumy w tamtym okresie w pretwarzaniu geometrii, a że tylko First party potrafiło to wykorzystać to już nie ma znaczenia.
W poście #83 stwierdziłeś całkiem co innego
Właśnie sprawdziłem RAGE na moim już wieloletnim kompie i nic takiego nie ma miejsca jak na twoim filmiku. Sprawa już dawno została załatana i gra chodzi mi bardzo dobrze. Gdybyś miał wątpliwości mogę wrzucić zrzut video z frapsa.
Pozdrawiam.
No, ale przecież megatexturing nie był w Vram-ie, a właśnie w XDR. Więc jakie ma to znaczenie, że PS3 ma vram, który nie brał udziału w megatexturze. To serio pytanie, bo nie znam dokładnie pipelinu tylko załóżmy, że faktycznie to siedzi w vram-ie...
Fragment tekstury kopiowany jest do XDR z XDR->VRAMu, by po obróceniu głową wywalić z VRAM-u ściągnąć kolejny fragment do XDR, z XDR znowu do VRAM-u i tak w kółko... po co dublować dane w obu pamięciach? Po co kopiować do VRAMu gdy już można renderować gdy znajdzie się w XDR.
Tekstury z góry są przygotowane w xdr i ddr3. W xdr chyba w 1/4 rozdzielczości ale sam render target np w kz2 to było 2560x720.
Co do PS2 to EE miał dwa rdzenie wektorowe dodatkowo dlatego dewastowal Pentiumy w tamtym okresie w pretwarzaniu geometrii, a że tylko First party potrafiło to wykorzystać to już nie ma znaczenia.
I co z tego, skoro w praktyce Xbox, ze swoim PIII/Celeronem 733MHz + GF3 (4PS/2VS) + 64MB RAM @ 6,4GB/s, rozkładał na łopatki rewolucyjne technologie Sony?
Cały czas zasłaniasz się grami multiplatformowymi lub exami na ps3/4.
Killzone 2 i 3 czy U2 i U3 czy The last of us z palcem w 4 literach chodziło by na xbox 360, nie wspominając, że na PC w FHD i wyższych detalach.
Twoja stara taktyka to zasłanianie się exami PS których nie można porównać z PC czy Xboxem i wmawianie jakiej to nie użyli kosmicznej technologii dostępnej tylko dla PlayStation, której nie da się przenieść na PC i Xboxa.
Jestem ciekaw co byś opowiadał gdyby się okazało że taki killzone wychodzi na PC i wygląda zdecydowanie lepiej.
Co tam rozkładało na łopatki xbox pierwszy chyba śnisz waść gry z PS2 zmiażdżyły pierwszego xboxa bez popity i jeszcze sprawdz jeden z drugim kiedy premierę miało PS2 i xbox
Uncharted 2 nie zagości na Xboxie 360. Potwierdzili to sami twórcy, czyli Naughty Dog.
Głównie ze względów technicznych. Według Christopha Balestry, prezesa Naughty Dog, Xbox 360 jest zbyt słaby, by uciągnąć ogromne wymagania Uncharted 2: Among Thieves.
Całą grę można przejść bez ładowania i nie wymagamy instalacji na dysku twardym. Wszystkie efekty realizowane są przez SPU, a głębia ostrości jest nie do osiągnięcia przez na konsoli Xbox. Poświęciliśmy wiele czasu, aby wykorzystać moc tej maszyny.
A co dopiero Killzone w 3D hehe..
Tak tak minusujcie oczywistą oczywistość fakty itp. Dawaj jeden z drugim składajcie pc-ta z 2006 roku albo nawet z 2007 i odpalcie BF4 albo Crysis3 no czekam na kozaka który to zrobi wtedy możecie minusować
Tekstury z góry są przygotowane w xdr i ddr3. W xdr chyba w 1/4 rozdzielczości ale sam render target np w kz2 to było 2560x720.
Ale KZ to zupełnie inny silnik prawda? Technicznie znacząco odbiega od idtech.
Tekstury z góry są przygotowane w xdr i ddr3. W xdr chyba w 1/4 rozdzielczości ale sam render target np w kz2 to było 2560x720.
Ale KZ to zupełnie inny silnik prawda? Technicznie znacząco odbiega od idtech.
Przy KZ3 studio w publikacjach pisało ze juz przy KZ2 wykorzystano prawie pełny potencjał PS3 (coś koło 60%). Dlatego w trójce postawiono największy nacisk na streamowanie jak największej ilości wszystkiego (bo hardwareowo nie daliby rady ulepszyć pewnych rzeczy/ilość RAM fakt, odgrywała najważniejszy problem). Np streamowano animowaną geometrię (ocean w śnieżnych lokacjach), o teksturach nie wspominając.
Gra nie powala rozdzielczością (1280x720) ale np Akmir Snowdrift w multi wygląda obłędnie realnie. Grałem w Crysis2 multiplayer to szczerze? To jak past gen i nex gen.
Po prostu efekt śniegu i zawieruchy jest bardzo dobrze odwzorowany (śnieg przykleja się do butów, o śladach na śniegu nie wspominając), a animacje są na lepszym poziomie niż w BF3. Takie efekty są nie możliwe do zrealizowania na PC z 2006 z 256ram. Jak zobaczę uwierzę.
Silnik KZ to dla mnie wyznacznik technologii sony. Publikacje guerillagames ma ciekawe. Przestrzeń barw w KZ to nie RGB ale YUV.
http://www.youtube.com/watch?v=BEO8aRq2cLc
Czemu ciągle bierzesz PCta z 2006r. wiadomo, że wtedy MS z Xboxem zaprezentował coś co urwało jaja sony i wszystkim....
Zapominasz, że zarówno xbox/ps3 są optymalizowane pod małą ilość pamięci. Tak w teorii na linuksie może coś... Ale na szczęście to był krótki moment w dzisiejszych czasach nie musimy mieć takich problemów.
Nie oceniałbym PS4/Xone przez pryzmat przeszłości.
Wykorzystanie sprzętowe konsoli jest banalnie proste. Wystarczy dać sporo fizyki/skomplikowanej geometri już masz obciążenie w 100%
Oświetlenie miażdży
A to dopiero początek i wy się będziecie o głupie cyferki kłócić. Zobaczymy w 2014 roku Uncharted i The Order 1886 itd.................... titan z pc za 4 koła spuchnie
Przestrzeń barw w KZ to nie RGB ale YUV.
Wspominałeś kiedyś o podsystemie pamięci w Intelach ze ma nawet 400GB/s. No to pokaże Ci pewien obrazek dotyczący PS3:
http://www.ibm.com/developerworks/power/li...erf/figure1.gif
409.6GB/s jeśli zsumuje się prędkość LS -> SPU (dla 8 rdzeni).
Tu jest opisany silnik:
http://www.slideshare.net/guerrillagames/t...y-of-killzone-2
Przecież KZ3 na PS3 wygląda znacznie lepiej
Ps.
Jak tu wybrnąć co nie ?
Nowe KZ wygląda bardzo dobrze, jest to wysoki poziom i odstawia starą generację w szary kont (co raczej trudne nie było). Nie chce mi się bawić w kwestię Crysis3 vs Metro LL vs BF4 vs KZSF, bo wszystkie te gry wyglądają bardzo dobrze i słowa, że któraś 'miaszczy' całą grupę jest zwykłym trollingiem.
Chłopie pie**lisz jak potuczony. Oświetlenie zabiera najwięcej mocy zaraz obok geometrii. Nawet nie wiesz że tutaj geo i światło zapisane jest w teksturach. Akurat KZ ma oświetlenie dynamiczne liczone real-time. Wiesz co to deferred lightining?
Lens flare to ty masz w głowie taką wielką nie do ogarnięcia. Weź rzuć jeszcze jakimś hasłem (przy U3 tez widziałeś lens-flare.. problem w tym że to było liczone real-time jako oświetlenie globalne).
Odpowiedz mi na jedno pytanie. Masz dział PC i artykuły o kartach z wykresami i rysunkami, cyferkami. Po co tu wchodzisz.
Oświetlenie to to jak odbija światło każdy element sceny.
Pamiętasz ten filmik? Tu widziałeś tą lens flarę. Podpowiem Ci, ja steruję tą postacią i KAMERĄ:
http://www.youtube.com/watch?v=99JltBwW7hI
Ta lens flara jak to nazywasz jest liczona real-time bo cała mapa porusza się na tym oceanie na wszystkie strony.
Oświetlenie miażdży
A to dopiero początek i wy się będziecie o głupie cyferki kłócić. Zobaczymy w 2014 roku Uncharted i The Order 1886 itd.................... titan z pc za 4 koła spuchnie
Pff. Pecetowy silnik z 2004 roku. Nie z 2014. Sprzed dekady.
Zwróć uwagę na napis MIXOM, ten mały napis MIXOM.
Pff. Pecetowy silnik z 2004 roku. Nie z 2014. Sprzed dekady.
Zwróć uwagę na napis MIXOM, ten mały napis MIXOM.
Przestrzeń barw w KZ to nie RGB ale YUV.
A skąd mój drogi wzięło Ci się RGB? Gdzie ja o tym w ogóle wspomniałem...
Wspominałeś kiedyś o podsystemie pamięci w Intelach ze ma nawet 400GB/s. No to pokaże Ci pewien obrazek dotyczący PS3:
http://www.ibm.com/developerworks/power/li...erf/figure1.gif
409.6GB/s jeśli zsumuje się prędkość LS -> SPU (dla 8 rdzeni).
Już wiem... chyba chodziło o cache L4. Tak tak 400GB/s ale to na wyjściu, nie podsystem całej pamięci zsumowany. 400GB/s możesz porównać z GDDR5
Tu jest opisany silnik:
http://www.slideshare.net/guerrillagames/t...y-of-killzone-2
http://media.bestofmicro.com/R/Z/376847/or...e-bandwidth.png
Z tego co czytałem rożnica jest taka, że LS jest tak adresowane, ze programista wie dokładnie gdzie są dane. W cache tego nie ma.
No i możesz porównać podsystemy CPU-> 51GB/s L1 vs 940GB/s L1, 51GB/s L2 vs 300GB/s L2,
200GB/s wzięło się pewnie z tąd, że pomnożyli przepustowość każdego z L1 w 8SPF. Odpowiednikiem tego byłoby zdaję się pojedyńcze EU czy CU, a w nich cache L1. Nie pamiętam tutaj na pamięć tak dobrze archi. Bo L1 jest chyba już CU... pomnożysz to *18 i wyjdzie Ci max dla PS4
Bardzo możliwe. Ale ale nie ma to większego znaczenia punktem całego rozwiazania jest współdzielona pamięć i współdzielona szyna. Współdzielona pamięć na poziomie L3, L4, DDR3, wspólna szyna jest o wiele wydajniejszym rozwiązaniem niż to co masz w PS4, gdzie w gruncie rzeczy masz 'doklejone' GPU, a nie HSA w pełnej postaci. GPU ma tutaj wydzielony obszar pamięci, wydzieloną szynę. Na pełne HSA od AMD w PCtach przyjdzie czekać jeszcze bodaj 2-4lata konsole tutaj nic nie przyśpieszyły. Jedynie wprowadziły kluczowe dla wydajności GPGPU zamiany. Ale filozofia działania jest identyczna jak na PC w Llano.
Jedynie Intel ma tu rozwiązanie, które teoretycznie odbiega od tego co ma AMD w PS4 (technikę dzialania).
http://www.youtube.com/watch?v=WzYb4q39q88
Tu jest artykuł ale traktuje go z przymrużeniem oka
http://www.psu.com/a1063/4D-Graphics--A-Re...tation-3?page=0
200GB/s to jest realny transfer w środku procesora, 8x128bit/cykl@1,6GHz. 51GB/s (LS -> SPU) porównujesz do 940GB/s? Hahahahah chłopie rozbawiłeś mnie teraz.
Edit
Współdzielona szyna to EIB w Cell. Dane mogą tam krążyć w 8 pakietach 'do woli' do póki nie są na torach kolizyjnych.
Edit 2
A nie ty wziąłeś L1 w PPE i sume transferu L1 dla całego procesora Intela. No tak naginanie rzeczywistości pod własne Ja. OK rozumiem Cie. SPU nie mają L1, ani L2.
Moze nie rozumiem ale zawsze mam racje.
http://www.youtube.com/watch?v=WzYb4q39q88
Tu jest artykuł ale traktuje go z przymrużeniem oka
http://www.psu.com/a1063/4D-Graphics--A-Re...tation-3?page=0
200GB/s to jest realny transfer w środku procesora, 8x128bit/cykl@1,6GHz. 51GB/s (LS -> SPU) porównujesz do 940GB/s? Hahahahah chłopie rozbawiłeś mnie teraz.
Edit
Współdzielona szyna to EIB w Cell. Dane mogą tam krążyć w 8 pakietach 'do woli' do póki nie są na torach kolizyjnych.
Edit 2
A nie ty wziąłeś L1 w PPE i sume transferu L1 dla całego procesora Intela. No tak naginanie rzeczywistości pod własne Ja. OK rozumiem Cie. SPU nie mają L1, ani L2.
No i to normalka ile mają zajmować
Ano tak zrobiłem, bo ty tak zrobiłeś dla SPU. Widzę, że rozumiesz dlaczego częstu zgubne jest sumowanie
Ale czegoś się dowiedziałem
Tu masz schemat ramp i szyny:
http://www.ibm.com/developerworks/power/li...t9/figure14.gif
Data arbiter to zapewne odpowiednik Intelowskiego 'System Agent'.
Cell to poprostu ciekawy proc, mega-trudny w programowaniu (dlatego tak długo PS3 nie złamano) ale fajnie się patrzy jak chłopaki z Amsterdamu prawie z dzielnicy czerwonych latarni wyciskają z tego pełną moc.
Tu masz schemat ramp i szyny:
http://www.ibm.com/developerworks/power/li...t9/figure14.gif
Data arbiter to zapewne odpowiednik Intelowskiego 'System Agent'.
U Intela też hula L1 z pełną prędkością
Tak czy siak 1x PPE=51,2GB/s 1x Haswell=235GB/s, dla L2=51,2GB/s vs 82GB/s, ale jest mały trick wielkość pamięci....
PS
W sumie mógłbym od biedy porównać 50GB/s w LS z 235GB/s L1 CPU... Jako, że w PC CPU odwala robotę jaką wykonuje SPF
W sumie na tej logice można porównać 50*8 vs (PS3 ma 7SPF+1xPPF?) vs 940GB/s/
Oficjalnie o CPU w PS4 samo Sony mowi ze to x64 lub jesli wolisz x86-x64.Nie ma nigdzie ani slowa o kompatybilnosci z 32 bit czyli czystym x86.I to narazie na tyle
Pomimo ze sie czepiam art uwazam za bardzo dobry
Nadal nie rozumiesz x86-64 misi być 32 bitowy. Bo liczba 64 oznacza de facto jedynie możliwości adresowe procesora. Nic więcej. Podstawa jest taka sama. To jak z 64 znakowym hasłem. Musi w sobie zawierać najpierw 32 znaki aby mogło być 64 znakowe. Nic więcej. Czyli wyjaśniam x86 to nazwa architektury mikroprocesora 64 to ilość bitów którą może zaadresować dla jednego procesu. I jeżeli tego nie zrozumiałeś to chyba dam sobie spokój.
@UP po co usuwać skoro i tak nie ma to znaczenia. Instrukcje i programowanie jest te samo jedynie przestrzeń adresowa się zwiększa.
Chyba coś uprościłeś. Ważniejsza przy określeniu z o jakim procesorze mówimy jest szyna danych a nie adresowa, organizacja alu etc...
Wyłącz wszystkie 'potrzebne' efekty dobijające karty na pc, a zamiast tego dopchaj gpu dużym terenem sceny ze szczegółową siatką i pięknymi modelami........
Dla mnie PC poza demami i użytkami nie pokazuje swojej przewagi do czasu końca kolejnych generacji konsol.
Jedynym prawdziwym pecetowym rodzynkiem był Crysis 1. Daj mi produkcję na PC która przez wielkość świata, bogactwo AI, fizyki została zrealizowana tylko na PC ?
Sorki ale dla mnie dopracowana gra nie oznacza wpychanie na siłę wymyślnych AA, niebotycznego anizo ponieważ to może zrobić programista.
Dla mnie coś co by przemawiało za PC to gra która ma olbrzymiasty świat nie możliwy do otrzymania ze względów wydajnościowych na konsolach.
Tak się składa że ostatnie 6-7 lat poza crysis 1 graliśmy na typowo konsolowych portach gier dopchanych teksturami, rozdzielczością etc. Nawet głupie doładowywanie poziomów było w tych samych miejscach.
Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.
To wytłumacz mi dlaczego na PS4 mamy najładniejszy tytuł ze wszystkich fpsów
Graficznie KZ kładzie na łopatki Crysis 3 i a pod względem gameplay'u urywa mu głowę. Muszę jeszcze was pocieszyć KZ w multi wygląda lepiej niż BF4 i C3 w singlu ale jaja. A to dopiero startowy tytuł.
Kto tam zabłysnął i napisał że KZ3 wygląda lepiej od KZ na PS4 żarty wam się trzymają he.
Takie to uwstecznienie hue hue.
Coś dla twardzieli pc-towych
'Kupiłem !!. Co prawda bez takiej spiny i męczarni, po prostu zamówiłem w media expert i kurier przywiózł mi do domu i jestem zachwycony tym sprzętem !!. Jezu zrobiłem świetny interes pozbywając się blaszanego złomu z gtx 670 w sli które dławiło się na BF4. Bf na ps4 wygląda przecudownie i na dobrą sprawę nie widzę różnic pomiędzy pc na max, a tym co oferuje ps4 i do tego ta płynność, zero sturringu który aż kuł w oczy w moim zestawie ze sli + spadki płynności. Ac4 black falg wygląda rewelacyjnie i brak jakichkolwiek zwolnień animacji (z tego co czytałem na neogafie to gtx 780 ma problem z utrzymaniem płynności
PC nie jest żadnym złomem. Wyprzedza sporo konsole, ale w sensie dyktowania standardów na rynku rozrywki nie istnieje.
Tak samo płonne są nadzieje ludzi myślących że nagle PC będzie dyktował warunki, jak i tych którzy szukają w konsolach ukrytej mocy. Jako posiadacz obu platform cieszę się że następne gta nie będzie portem z 512 MB konsoli ale z 8GB i tyle.....
Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.
Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole
Ale to proces, który będzie trwał.
PC nie jest żadnym złomem. Wyprzedza sporo konsole, ale w sensie dyktowania standardów na rynku rozrywki nie istnieje.
Tak samo płonne są nadzieje ludzi myślących że nagle PC będzie dyktował warunki, jak i tych którzy szukają w konsolach ukrytej mocy. Jako posiadacz obu platform cieszę się że następne gta nie będzie portem z 512 MB konsoli ale z 8GB i tyle.....
Schociaz jeden rozsadny....
Pc rozwinol sie niesamowicie przez ostanie lata.Tylko co z tego jak dalej musi byc kompatybilny z 32 bit.A cala jego moc daje tylko panom od ekonomi pretekst aby nie inwestowac w optymalizacje.Mam nadzieje ze bedzie sie to teraz zmieniac.Bo mocy ma naprawde duzo.Ostatnio odpalilem sobie taki ciekawy programik Rhinoceros w nowej wersji 5 64 bit( beta ).Na osmioletnim Dell Dimension.Z barku laku u kumpeli w biurze ,szybka nocka a sprzetu brak.W porownaniu do 4 smiga jak na najnowszym sprzecie.Wiec da sie zoptymalizowac?Pewnie ze sie da.
Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
Jeżeli przewaga komputerów w rozrywce ma być tylko przez możliwość podłączenia 3 monitorów, odpalenie 4k .. a na ekranie cały czas będzie ten sam świat gry co na konsoli to ja dziękuję.
Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole
Ale to proces, który będzie trwał.
PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ?
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ?
PC + kontroler
Tak malowniczo opisujesz własnie strategie, MMO, czy Armę 3
Mam dość podobne zdanie, fajnie by było zobaczyć coś co zatnie titana... jak kiedyś C1.
Zgodnie z twoją logiką PS4 nie ma równie sensu, grafika prawie wszystkich gier... AC wygląda o zgrozo tak samo wszędzie.
Tak, więc najpierw niech zaczną tworzyć nowe gry na nowe konsole
Ale to proces, który będzie trwał.
PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ?
nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.
Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.
PC nie jest żadnym złomem. Wyprzedza sporo konsole, ale w sensie dyktowania standardów na rynku rozrywki nie istnieje.
Muszę się wtrącić w dyskusję i zaprotestować. Właśnie dyktuje, cała technologia do budowy konsol, gatunki gier, dystrybucja cyfrowa, dyski twarde i instalacja gier, F2P, DLC i patche, niektóre gatunki (chociażby FPSy jak taki Killzone), MMO, INDIE. To wszystko dzieci PC, prawie wszystko rodzi się na PC i jest przeszczepiane na grunt konsolowy. Jedynie Nintendo się opiera i jest czystą konsolą, ale pewnie nie wytrzymają długo.
Pc rozwinol sie niesamowicie przez ostanie lata.Tylko co z tego jak dalej musi byc kompatybilny z 32 bit.
Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.
PS4 ma sens ponieważ rynek wybrał konsole.
Nie dodaje to jednak temu sprzętowi ani jednego flopa czy mipsa więcej, tak samo jak 4 titany gier tylko dla PC.
To co podałeś wyżej - arma, mmo to była raczej sprawa sterowania i przyzwyczajeń.
Jest beta wot na x-a, diablo III na konsole. Powoli pękają kolejne bastiony PC.
Lubię PC i gry na nie, ale jak mam włączyć AC4 na PC czy PS4 leżąc na kanapie to zgadnij co wybiorę ?
nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.
Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.
Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem
Pc rozwinol sie niesamowicie przez ostanie lata.Tylko co z tego jak dalej musi byc kompatybilny z 32 bit.
Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.
No wlasnie .I po co?
Moze nie rozumiem ale zawsze mam racje.
<3
Przepraszam, ale nie mogłem się powstrzymać.
nie wiem, ja za biedny jestem na konsolę. Co do MMO fizyka, wiele postaci to wymaga mocnego CPU. Arma podobnie złożoność gry też wymaga mocnego CPU.
Strategie mało, że wymagają mocnego cpu, bo dużo obiektów/AI/Fizyka, to jeszcze trzeba do tego karty graficznej, która obejmie ten obszar.
Nie przeczę te gry będą działać na konsole, ale muszą być pod nie optymalizowane tzn. poobcinane vs wersja pctowa.
Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem
Problem taki, że w CPU masz niespożyte siły. Tylko trzeba pisać tak, by wykorzystać np. najnowsze SSE, AVX/FMA...
Choć pewnie i tak najlepiej by było wykorzystać to przeklęte iGPU, który prawie każdy CPU ma.
Kompatybilny z 16 bit. Każdy procesor x86 musi być kompatybilny z Intel 8086 (1978 rok). Rdzenie Jaguar też są.
No wlasnie .I po co?
Dla kompatybilności, po to żeby nie było generacji PC. Teoretyzując, gdyby wszystkie konsole np. Sony były od początku na x86 mógłbyś odpalać na nich każdą grę jaka wyszła na jakąkolwiek konsolę Sony w historii (gdyby nie blokowano tego sztucznie). Tak jak na PC możesz odpalać gry które kupowałeś w latach '90 i masz je w swojej kolekcji. Po to.
No wlasnie .I po co?
Dla kompatybilności, po to żeby nie było generacji PC. Teoretyzując, gdyby wszystkie konsole np. Sony były od początku na x86 mógłbyś odpalać na nich każdą grę jaka wyszła na jakąkolwiek konsolę Sony w historii (gdyby nie blokowano tego sztucznie). Tak jak na PC możesz odpalać gry które kupowałeś w latach '90 i masz je w swojej kolekcji. Po to.
Save probuje ale nie moge tego zrozumiec
LSD
rozumiem nawet lepiej niz ci sie wydaje
Cala bajka polega na tym aby CPU oddal czesc swojej wladzy i bedzie znacznie wydajniej.Ale on nie chce jej oddac i to jest problem
Problem taki, że w CPU masz niespożyte siły. Tylko trzeba pisać tak, by wykorzystać np. najnowsze SSE, AVX/FMA...
Choć pewnie i tak najlepiej by było wykorzystać to przeklęte iGPU, który prawie każdy CPU ma.
bez jaj dasz sobie rade
To wytłumacz mi dlaczego na PS4 mamy najładniejszy tytuł ze wszystkich fpsów
Graficznie KZ kładzie na łopatki Crysis 3 i a pod względem gameplay'u urywa mu głowę. Muszę jeszcze was pocieszyć KZ w multi wygląda lepiej niż BF4 i C3 w singlu ale jaja. A to dopiero startowy tytuł.
Kto tam zabłysnął i napisał że KZ3 wygląda lepiej od KZ na PS4 żarty wam się trzymają he.
Takie to uwstecznienie hue hue.
Coś dla twardzieli pc-towych
'Kupiłem !!. Co prawda bez takiej spiny i męczarni, po prostu zamówiłem w media expert i kurier przywiózł mi do domu i jestem zachwycony tym sprzętem !!. Jezu zrobiłem świetny interes pozbywając się blaszanego złomu z gtx 670 w sli które dławiło się na BF4. Bf na ps4 wygląda przecudownie i na dobrą sprawę nie widzę różnic pomiędzy pc na max, a tym co oferuje ps4 i do tego ta płynność, zero sturringu który aż kuł w oczy w moim zestawie ze sli + spadki płynności. Ac4 black falg wygląda rewelacyjnie i brak jakichkolwiek zwolnień animacji (z tego co czytałem na neogafie to gtx 780 ma problem z utrzymaniem płynności
czy Ty serio myślisz, że to co tu wrzuciłeś wygląda dobrze?
ta to Tarantino.Tak dla odmiany bo konsolami chce mi sie juz zygac.Tak samo jak 32 bit
Zlam schematy jak on
Zazwyczaj nie odpowiadam trollom, ale dziś jest dzień dobroci. Popatrz tu; http://pclab.pl/kat1-2.html
Od jakiegoś roku nie ma tu słowa o architekturze nowych rozwiązań, dlatego taki rzut okiem i taka analiza techniczna jest zawsze mile widziana.
Wyskrob coś choćby podobnego to pogadamy.