PlayStation 5

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Fajna technika, ale czemu wrzuciłeś to tutaj, a nie do wątku PC > O kartach graficznych?
Co do filmiku to oglądałem na monitorze 4K i faktycznie ~75% rozdziałki + ten filtr wygląda zdecydowanie lepiej od DLSS w BF5 i delikatnie lepiej w metro.
Ogólnie wielki plus biorąc pod uwagę cenę i moc tej karty. W takim razie DLSS jeszcze bardziej traci sens, bo ciężko go wdrożyć w danej grze, wspierających tytułów jest mało i raczej nie zanosi się na wielką zmianę.
 

Blue

Prezes
Było już na starym forum, ale gorzej bo tylko jako przykład było podane to:


Patrzę na ten materiał i potwierdza, że będzie powodowało widoczne artefakty, niektórzy mogą chcieć je widzieć i nie mieć mydła, ja tam wole w 2 stronę. Np wolę większe mydło, ale mniej simplexingu, a tu na wodzie dostajemy śnieżące piksele, wkurzałoby mnie tak samo jak dithering w wiesku 3.

DLSS jest coś zwalone w BF V, bo tekstury wyglądają jak na ultra low tam.
 

paulinus

Junior
Wrzucilem tu, bo nie wierze w 4k native, z pelna dokladnoscia jak na pc, tylko w nextgenach.
Ostatnim razem to byl upscaling, teraz bedzie wiecej bajerow.
Co, imo, jeat bdb informacja, bo czyni plynna gre bardziej realna.
 

JaWamDam

Badass
Szwedzi już wrzucili PS5 na stronach Media Marktu (oczywiście jest to placeholder) za 9999 koron (jakieś 4 tyś zł)

 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
AMD opatentowało technikę hybrydowego Raytracingu. Ma to polegać na tym że soft i hardware będzie zaprzęgnięty do liczenia odbić promieni aby uzyskać efekt taki jak na RTXach. RT w konsolach całkiem prawdopodobne.
 
U

Usunięte konto 2

Guest
Takie info pojawiło się już wcześniej. Tyle że software'owy raytracing do tej pory był znacznie mniej wydajny od sprzętowego pseudo-raytracingu od Nvidii i do tej pory nie poczyniono postępów, które zmniejszałyby ogromną różnicę w wydajności. A dedykowanego hardware zdaje się żadnego do tej pory AMD nie pokazało. Pojawiły się jakieś konkretny w końcu? Ponieważ RTX od Nvidii ma jeszcze długą drogę do pokonania jeżeli chodzi zarówno o wydajność jak i aplikację w grach, a tu nagle AMD, które przez ostatnich kilka lat nawet nie wystawiło konkurencji dla Nvidiowego high-endu, nagle w dwa lata ma przegonić zupełnie nową technologię od Zielonych? Ciężko w to uwierzyć. Spodziewam się, że prędzej użyją jeszcze bardziej okrojonej wersji pseudo-raytracingu do jakiegoś pojedynczego feature, np. cieni, albo odbić, tylko po to, by odebrać Nvidii wyłączność na używanie "raytracing" w marketingu.
EDIT:
No i jeszcze do tego taka technologia w sprzęcie tańszym, niż jedna high-endowa karta?
 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
Nie wgrywałem sie w ten DataSheet z patentem dogłębnie, ale wychodzi mi na to, że AMD nie będzie wykorzystywać osobnych jednostek jak robi to nVidia. Zieloni poszli po najzimniejszej linii oporu linii najmniejszego oporu, tworząc rdzenie Tensor i RTX do liczenia promieni. Czy li cofneli się dobre 10 lat w rozwoju kiedy to zaczęły wchodzić zunifikowane shadery. Wcześniej były pixel shadery, vertex shadery, geometry shadery itp. Wszystko siedziało w rdzeniu, zajmowało miejsce i miało jedno swoje zadanie do którego było używane. Jak nie miało co robić, to siedziało i się nudziło. Potem zostały zaprezentowane w bodajże 2006 roku, zunifikowane shadery. To był skok na przód w wydajności. Nie było podziału na poszczególne zadania, tylko shader mógł liczyć na bieżąco pixele, vertexy, geometrie itp. Tylko po to, żeby jednostki nie stały odłogiem i się nie nudziły.

w kartach RTX, jak nie używamy RT, to dobre pół rdzenia, leży i się nudzi, nie ma co robić, nie potrafi liczyć nic innego, tylko odbicia promieni. A jak już ma coś do liczenia, to budżet energetyczny, nakłada kaganiec na te rdzenie i nie mogą one osiągać jakiejś super duper wydajności. Teraz AMD idzie krok dalej niż nVidia, omija etap z wyspecjalizowanymi jednostkami i startuje ze zunifikowanymi shaderami, które będą też potrafiły sprawnie liczyć RT. Dlatego nazwane jest to hybrydową metodą liczenia odbić promieni. Jak będzie potrzeba, to część rdzeni będzie liczyć odbicia promieni, jak nie, to będą cisnąć nad wierzchołkami alb pixelami czy co tam innego będą musiały liczyć. Dlatego uważam że to co robi AMD jest lepsze od podejścia nVidii. Pytanie jak z wydajnością. Nie spodziewał bym się wodotrysków, tylko czegoś na poziomie obecnego RT od zielonych. Zieloni za to na pewno nie śpią i już opracowują nowe rdzenie RT z lepszą wydajnością itp.

I zanim zakrzyczycie mnie że jestem fanbojem AMD, to nie, jestem fanbojem nowych technologii a to co robi AMD jest bardzo logiczne.
 
Last edited by a moderator:
  • Popieram
Reactions: paulinus

Simplex

Apostoł VR, Moderator Globalny
PSN
patrz niżej
XBL
patrz niżej
Steam
simplexpl
Ja nie zamierzam zakrzykiwać i mam nadzieję, że kol. Dejw ma rację, ale cieżko uwierzyć, że nvidia mająca rzędy wielkości więcej kasy na R&D (w tym opłacenie najlepszych specjalistów) od AMD cofnęła się o 10 lat w rozwoju podczas gdy AMD które w pewnym momencie miało problem nie zbankrutować, a co dopiero sypać kasę na R&D płynniutko sobie wyprzedziło nvidię. Zresztą może się np okazać, że Turing to był tylko taki "prototyp" w którym te jednostki były osobno, a następna architektura będzie już zunifikowana. Raytacing na Turingach i tak jest w wielu aspektach szczątkowy oraz bardzo wymagajacy sprzętowo (powrót do grania w 1080p w erze 4K).

"najzimniejszej linii oporu" - zakładam, ze tam miało być "najmniejszej linii oporu"? W takim razie poprawiam na "linii najmniejszego oporu".
 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
"najzimniejszej linii oporu" - zakładam, ze tam miało być "najmniejszej linii oporu"? W takim razie poprawiam na "linii najmniejszego oporu".
Dzięki bardzo za poprawę.

Nie mówię, że opracowanie Turinga i osobnych jednostek RT i Tensor było proste. Wręcz przeciwnie, jest to czaso i finanso chłonne. Możliwe że masz rację, że Turing był prototypem, a następne wersje już będą zunifikowane. Ale z drugiej strony, przygotowanie takiej prototypowej wersji, w której inaczej będzie się wykorzystywać bloki obliczeniowe, a w następnej generacji tworzenie jeszcze innej metody renderowania i wykorzystania bloków, spowoduje problemy w pisaniu gier i silników renderujących. W przeciągu trzech generacji, powstały by trzy różne metody obliczania grafiki. Pascal, Touring i Ampere, każda z innym podejściem do liczenia grafiki. Nie jest to idealny sposób na rozwój i może doprowadzić do tego, że deweloperzy porzucą nowinki nVidii do momentu, aż ta opracuje finalnego sposobu liczenia. Nie jest to pożądane przez nVidię, oni chcą aby programiści używali ich technik. Dlatego po wielogodzinnym gładzeniu swojej szklanej kuli i wpatrywaniu się w nią, uważam że zostaniemy z rozdzielnymi jednostkami od RT u nVidii jeszcze przez kilka generacji (trzy?), chyba że pomysł AMD chwyci i deweloperzy będą cali w skowronkach z tego powodu. Wtedy nVidia będzie musiała zareagować na to. Wszystko zależy od wydajności liczenia odbić przez AMD. Jedną przewagę ma AMD nad nVidią. SoC w konsolach. Jak deweloperzy chwycą RT przygotowane przez AMD na konsolach, to nVidia będzie musiała zmienić swój sposób, bo może się okazać że nagle wydajniejsze jednostki nVidii, nie obsługują RT bo nie ma pod nie napisanego kodu.
 

Simplex

Apostoł VR, Moderator Globalny
PSN
patrz niżej
XBL
patrz niżej
Steam
simplexpl
Odkąd pamiętam, nvidia płaci developerom za używanie ich technologii (GimpWorks) i pewnie teraz będzie tak samo.
 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
A ile tych GameWorksów jest w tej chwili w grach? Jakoś nie widzę specjalnie tych funkcji, w szczególności włosów itp. Ostatnio częsciej widywałem logo AMD w grach niż nVidie.
 

Simplex

Apostoł VR, Moderator Globalny
PSN
patrz niżej
XBL
patrz niżej
Steam
simplexpl
Każda gra która ma wsparcie dla Ansel to też GameWorks. No teraz oprócz GameWorks masz jeszcze wsparcie dla RTX, za które nvidia zapewne płaci, bo żaden dev o zdrowych zmysłach nie będzie implemenował raytracingu dla promila ludzi którzy kupili kartę za 5 tysięcy i są gotowi grać w niej w 1080p.
Ale faktycznie, widać odchodzenie od GameWorks i dobrze, bo nie bez powodu było ono nazywane "GimpWorks"

Ja uważam, że jakby się dało łatwo zaimplementować wydajnie działający RT w architekturze zunifikowanej to nvidia by to po prostu zrobiła. Najwyraźniej się nie dało. Wiadomo że dedykowany układ zapewniający sprzętowe wsparcie dla konkretnych obliczeń zawsze będzie o rzędy wielkości szybszy w tych konkretnych obliczeniach niż układ "uniwersalny". Tak było na początku z PhysX, a gdy moc układów uniwersalnych stała się wystarczająoc mocna, można było przenieść obliczenia PhysX na te układy. I pewnie tak będzie z RTX za kilka genracji.
A w przypadku RTX widać że nawet na dedykowanych układach to ledwie działa, oferuje tylko wycinek możliwości raytacingu i pożera ogromne ilości mocy obliczeniowych. Liczenie tego na układzie uniwersalnym będzie jeszcze wolniejsze.
 
  • Popieram
Reactions: Dejw

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
No dobrze, tylko że taki układ RT znajduje się w części karty (ostatnio chyba przesadziłem, pisząc o połowie GPU, nie pamiętam ile % powierzchni zajmują Tensory i RT), ze względu na budżet energetyczny jak i powierzchnię układu, nie mogą nawalić tam miliona rdzeni RT żeby to szybko liczyło. Teraz, jeżeli AMD da więcej, ale wolniejszych rdzeni, które będą liczyć RT, a dodatkowo będą też liczyć inne rzeczy, to może wyjść na plus. Mi też się nie chce wierzyć że AMD dogoni nagle nVidie w RT, ale sama idea jest dobra i powinno to iść w tym kierunku. Cholera wie co tam AMD gotuje. Ta nowa seria to jest zmodyfikowana wersja GNC, a następna architektura, czyli Navi, ma być już całkowicie nowa. Krążą plotki że będzie też modułowa jak rdzenie Zen.
 

Simplex

Apostoł VR, Moderator Globalny
PSN
patrz niżej
XBL
patrz niżej
Steam
simplexpl
Ale przecież to już są układu o nazwie Navi. A architektura nazywa się RDNA i niby miała być nowa.
 
  • Popieram
Reactions: Dejw

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Ale przecież to już są układu o nazwie Navi. A architektura nazywa się RDNA i niby miała być nowa.
Zaorane :D

Tak jak Simplex pisze, nie zanosi się na jakieś rewolucyjne nowości. Też jestem ciekaw co pokażą w nowych konsolach, ale spodziewam się na prawdę ograniczonych efektów RT. Jedyne co może wyjść lepiej to oczywiście jakieś triki developerów pod konsole tak jak obecnie szachownica w 4K itp, co może dać elementy RT przy rozsądnej (30 fps) wydajności w 4K :)

A co do dyskusji o NV vs AMD to też uważam, że jakby NV uznała, że nowe, zunifikowane shadery są w stanie policzyć RT na rozsądnym poziomie wydajności, to by tak zrobili. Na tą chwilę pewnie chcieli jak najszybciej dodać taki feature w swoich kartach i dało się to zrobić jedynie poprzez wyspecjalizowane jednostki obliczeniowe.
 

angh

Prezes
PSN
angh
rdna to update gnc i nic wiecej. dobry update, ale update.
i tak, uklady, ktore robia tylko jedna rzecz a poza tym leza odlogiem to rozwiązanie szybkie, ale strasznie nie elastyczne.
 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
Ale przecież to już są układu o nazwie Navi. A architektura nazywa się RDNA i niby miała być nowa.
Zamotałem się w tych nazwach i zmianach Architektur u AMD. Obecnie jest RDNA potem ma wyjść RDNA 2 właśnie z obsługą RT. A mi w głowie został stary slajd z bodajże 2017 roku z Siggraphu, gdzie AMD pisało że Navi ma być skalowalne.

Dobra, EoT o tym RT, bo zaczyna się robić jakaś mała wojenka, a ja wychodzę na fanboja AMD którym nie jestem. Podoba mi sie ich wizja przyszłości i trzymam za to kciuki, tyle.
 

angh

Prezes
PSN
angh
Naprawdę nieelastyczne. /G
Tak elastyczne jak kupowanie aegis physic accelerator card. zwykle się nudziła, a jak w końcu pojawiły się gry to przestała być potrzebna, bo standardowe uklady przejęły funkcjonalność. rocznica z rtx polega na tym, ze o ile aegis mogłeś wsadzić i wyciągnąć jak już była zbędna, tak rtx units są nie do ruszenia.
 
  • Popieram
Reactions: Dejw

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Konkurencja nie posiada mocniejszej karty nawet do grania bez RT, więc NV mogła sobie pozwolić na takie eksperymenty.
W sumie zastanawiam się po co w ogóle coś takiego teraz zrobili, skoro wydajność nie jest powalająca (jak to simplex pisał, cofnięcie się do 1080p), a przecież AMD ich nie cisnęło w tej kwestii. Co zabawne to sprowokowało czerwonych do zajęcia się tematem i to właśnie za sprawą konsol może się okazać, że większość gier (portów) będzie wspierać RT na kartach AMD tak samo dobrze (albo lepiej) niż na kartach NV w przyszłości.
 
  • Popieram
Reactions: Dejw

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Xbox One XYZ :D

A wracając do PS5 to ciągle tylko jakieś przecieki, w zasadzie co tydzień czytam nowe i nawet nie chce mi się tego tutaj wrzucać.
Przynajmniej wiadomo, że w środku zagości Zen2 więc o 60 fps można być w końcu spokojnym, a przynajmniej w kontekście CPU, które często było limiterem w obecnej generacji, a przynajmniej tak tłumaczyli się devsi.

Jak będzie nawet tylko 2x mocniejsza od PS4 Pro to i tak pozwoli na bardzo ładne gry w 4K bez jakichś rozmazanych cieni itp., więc czekam niecierpliwie ;)
 

sicksteaphoar

Stały bywalec
Jak będzie nawet tylko 2x mocniejsza od PS4 Pro to i tak pozwoli na bardzo ładne gry w 4K bez jakichś rozmazanych cieni itp., więc czekam niecierpliwie ;)
Nie może być tak slaba by ledo przeskoczyłaby One Xa ;) Też mocno zlewam na te przecieki, ale jeśli rzeczywiście dostaniemy GPU o mocy RTXa 2070 to z racji zamkniętej architektury doczekamy się niesamowicie wyglądających gier.
 
  • Popieram
Reactions: Aludan

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Oni chcą być zawsze pierwsi i jedyni, więc nie może być w nazwie "two" (tfu? ;P) czy nawet 5. Pewnie walną coś w rodzaju Xbox One Hundred :D
A tak zupełnie poważnie to nie można lekceważyć MS, bo prawdopodobnie wydadzą mocniejsza konsolę - mają dobre zaplecze do budowania fizycznie udanych urządzeń, co już pokazali przy XoX.

Spodziewam się scenariusza jak obecnie, czyli nowy X mocniejszy od PS5, ale Sony zasypie rynek świetnymi exami i jedynie multiplatformy będą nieco lepiej wyglądać na X, ale pewnie bez tragedii* na PS5.

*w sensie, że w następnej generacji pewnie ciężko będzie się doszukać już różnic w jakości obrazu 4K nawet jak X będzie mocniejszy o 10-20%.
 

angh

Prezes
PSN
angh
Xbox 10.
W sumie binarnie mialo by to sens. tak samo jak w10 (jak w dwa - zero)

Co do wydajnosci, to roznicy nie bedzie lub beda znikome na poziomie cpu/gpu. Jedyne roznice moga byc na poziomie pamieci, szyny danych, cache.
jak dl amnie znowu zdecyduja eksy, ale majac dobrego PC to chyba decyzja juz zapadla.
 

Dejw

Aktywny forumowicz
XBL
DejwPL
Steam
DEJW[PL]
Mi gdzieś migną nagłówek o nowej super technologi SSD w przyszłych konsolach. Nawet nie klikałem.

I prosze was wszystkich o jedno. Nie nastawiajcie sie na 60 fps w nowej generacji. Będzie, owszem, ale nie w każdej grze. Będą gry, które będą robione z naciskiem na wizualia, i tam bedzie 30 fps. W dynamicznych grach bedzie 60, ale ogolnie, 30 fps nie zniknie z rynku. Devsi, majac do wyboru 60 fps albo super ekstra grafike, wybiora to drugie w grach pokroju METRO, Horizon Zero Down, czy tym podobnych, gdzie dynamika nie jest tak wymagana a niedostatki 30 fps mozna zamaskowac auto aimem ;)
 

Aludan

Aktywny forumowicz
PSN
AludanPL
XBL
Aludan
Steam
Aludan
Bardziej chodzi o to, że biorąc pod uwagę o wiele mocniejsze CPU i min. 2x mocniejsze GPU, to już nie będzie wymówek czemu nie ma trybu performance (60 fps) i tak realnie patrząc po prostu jak twórcy gry będą chcieli taki tryb wprowadzić to nie będą musieli kombinować dwa lata jak tyle klatek utrzymać na CPU z tostera :)

30 fps na pewno nie zniknie, ale spodziewam się większej ilości gier z możliwością wyboru quality/performance, bo po prostu będzie to łatwiejsze do zrobienia i nie utraci tyle na jakości jak obecnie. Zresztą to co mi się nasuwa na pierwszy ogień to quality = 30 fps z RT, performance = 60 fps bez RT, taka reguła... oczywiście zobaczymy czy mam rację ;)