benőmenő írta:Normal mapek mióta is vannak? Aztán nyilván azóta is minden úgy néz ki, mint az első xboxon.
[vdeo]
Benő, te kezdetektől fogva négy lépéssel vagy lemaradva.
Odáig próbálj meg felzárkózni fejben, hogy vannak ezek a metodikák, amiknek a megismerésére elbasztál egy csomó időt, és amikor ezeket mind bepötyögte vki egy programba, ami sok képlet, akkor azt a GPU, mint egy hw-es fordító átfordítja egy végeredményre, ami annyi lesz, hogy az adott kijelzőn az egyes pixelek milyen szín értékeket vegyenek fel. Hívjuk ezt képnek. Szóval megvan a kép, az egyszerűség kedvéért, egy szép kézműves, mindenféle AI beavatkozás nélküli natív FHD kép, ahogy azt az Úr a 6. napon megálmodta, mielőtt a hetediken megpihent volna.
Ez a szín információ elmegy a hdmi vagy dp kábelen keresztül a kijelzőig, aki meg kiolvassa a jelből, hogy neki melyik pixelt milyen színnel kell kivilágítania, és tadam, ott az eredmény.
Kivéve, hogy az egyes szám nem indokolt, merthogy többféle eredmény lehet, a kijelzőtől függően. Ez a szép kézműves FHD kép totál máshogy fog kinézni egy 4k kijelzőn és egy FHD kijelzőn. És itt jön be az amit a múltkor én a DF videón linkeltem be, te meg azzal a cukimuki kis ábrával, hogy ugye 1 pixel 1 szín, szóval a szemet úgy lehet optikailag becsapni, ha köztes szín értékek vannak, és attól tűnik simának az él, és nem receficének, még akkor is, ha amúgy a pixelrács a képernyőn az tökre szögletes cucc.
Na és ettől tér el ugyanaz a kép egy FHD tv-n és egy 4K tv-n ugyanannál a játéknál, mert miután belemegy a jel jól a hdmi-be, még utána is van rajta változtatás, attól függően hova érkezik. A TV esetén AI-nak hívja ezt a jónép, főleg a cégek, pedig ugye ez csak egy sima osztás. jön 1 pixelnyi színadat egy 2*2es pixelrácsra, mert ugye a küldött jel FHD, a megjelenítő felület meg 4k, és akkor az AI ennyit csinál, hogy a 2*2es rács szélső színeinek az értékeit összehasonlítja minden irányba a szomszédos 2*2es ráccsal, és ha eltér kiátlagolja és azt az értéket jeleníti meg. Kivonás, ha az érték nem nulla, akkor osztás, ha 0, akkor az marad ami jött. Három soros programkód, közismert nevén AI.
Ez mondjuk egy X360, vagy x1 játék esetén kurvalátványos különbség, mert ott ugye pont mindig az AA-val spóroltak, és ez meg ugye pont azt a hatást hozza.
És ez kurvafüggetlen attól, hogy amúgy maga az alapszínérték, a hdmi nem kijelző felöli végén hogyan jött össze. Mindegyik engine, megoldás, programozási trükk esetén ugyanez van. Kap a TV 1920*1080 darab színértéket a gridre, ha FHD a kijelző, akkor így meg is jeleníti, ha meg 4k, akkor jön a 3 soros program, izé, AI, kivon és oszt és azt jeleníti meg.
Szóval te már itt elvesztél, mert még mindig azon rugózol ebben a videóban is, hogy az eredeti 1920*1080 hogyan jön össze. Mondom, kurvamindegy az alap kiindulási pont szempontjából, hogy akkor mi is az AI.
Na most a dlss az ehhez képest két dolgot csinál.
Az 1.0 és a 2.0 az simán behozta ezt a trükköt a hdmi másik végére, és már a gpu elvégzi ezeket a számításokat és az AI hirtelen átkerült a gpu-ba. Itt még mindig kurvamindegy, hogy a megAIzás előtt hogyan áll össze a kép. A végeredmény szempontjából nyilván nem, de az eljárás szempontjából igen. Valahogy, vmi csiribicsirbú után összeáll 1920*1080 színérték, és ahelyett, hogy belemenne a hdmi-be, a GPU még ráAIzik egyet, és utána megy a hdmi-be. Funfact, hogy a hdmi másik végén a TV, ettől még ugyanúgy viselkedik, mintha nem lenne dlss, szóval az AIval élsimított képbe simán beleképsimít, ha tud, szóval még mindig ugyanott vagyunk, hogy amúgy a szemünk által befogadott élmény nem csak a GPU által renderelt képtől függ.
A 3.0 dlss meg abban lépett tovább, hogy bejött ez a
motion vector. Ami ugye azért überfasza, mert állóképeket hoz létre a GPU, szóval a mozgás mint olyan egy illúzió eleve, egy állóképen a mozgás vektora az eléggé elvont dolog. Na szóval itt annyi a plusz, hogy mikor létrehozza az alapképet, és megvan az 1920*1080 színérték, akkor nem csak annyit csinál, hogy minden pixel színértékét egy 2*2es rácshoz rendeli és a szomszédos 2*2es rácsokat egymáshoz átlagolja, hanem mindezt időben egymás után következő képekkel is megteszi. Kiszámol 2 db egymás után következő 1920*1080 színértéket, vagy ha jobban tetszik képet, és nem rakja így be a hdmibe, hanem fogja, meg AI-za a "hagyományos", a tv és dlss1.0 meg 2.0 által alkalmazott módon, majd fogja és összehasonlítja az immár 3840*2160es két képet pixelenként, és minden esetben kiszámolja, hogy a két képen azonos helyen levő pixelek színértékének mi az átlaga, így lesz 3840*2160 kiátlagolt száma (azaz színértéke), úgy, hogy még a helyét is tudja, hiszen az ugyanaz, mint a két kiátlagolt számé volt, és tadam, ez a köztes kép.
És ez azért működik jól, amit az AA is jól működik, ugyanaz az elmélet mögötte a szem részére létrehozott illúzió szempontjából.
És ha végre azonos lenne a megértésünk, hogy ez hogyan működik, és hogy ez az utólagos AI-zás miért független attól, hogy amúgy az eredeti 1920*1080 színérték kiszámolása milyen képalkotási módszerrel jött létre, akkor tudnánk végre arról eszmét cserélni, hogy ennek mi a buktatója.
Nyilván azt is figyelembe véve, hogy a fenti eszmefuttatás csomó mindent elnagyol, egyszerűsít, de hát így is wall of text, szóval igyekeztem a főbb pontokra fókuszálni, hátha Micsut leszámítva a többieknek érthető lesz, bár az eddigiek alapján kétlem.
De most élek a feltételezéssel, hogy felfogtad, hogy bár az 1920*1080 képpont létrehozása szempontjából valóban nem mindegy, hogy hogyan állnak elő a színértékek, de ez az egész dlss-di egy független ráépülő folyamat. Ezért is tud pl külön, dedikált tranzisztorokat kapni, mert a cudák számolnak egy 1920*1080as szín hálót, színértékkel és elrendezéssel, kész, végeztek, továbbadják az AI magoknak, hogy dolgozzanak vele. Ahogy enélkül a beépített AI nélkül is végeznek a cudák mondjuk egy radeonon, és a HDMIn adják tovább a tv-ben levő külön magoknak, hogy dolgozzanak vele. Mikor továbbadták a cudák, akkor tudják már a következő képet számolni, amíg az AI mag meg AIzik az előzővel.
És a buktató. Fogsz egy játékot, ami még a 4k hajnalán jött létre, mondjuk anno 1404. Elindítod, FHD, építed a mütyiri házakat meg amit kell. Bezoomolsz maxra és az ablaka a háznak csak egy üvegfelület, jó felbontás váltás 4k-ra, és az ablakban megjelenik az üvegfelületben egy kereszt, vagyis az egy üvegtáblás ablak 4 üvegtáblás lett. Nemtudom valóban így van e, csak elméleti példának hoztam fel, mint a 20 wattos dlss3 képes kártyát, ami amúgy 0 wattot fogyaszt, ha jobban belegondolunk, mert ugye a 4090esnél a 450ből 450et esznek a cudák, akkor az AIre nulla jut.
Szóval tegyük fel így van, ez a különbség a 4k és a FHD textúra között. A dlss3.0 a FHDban egy üvegtáblából álló ablak minden megrajzolt élét elsimítja olyanra, hogy magadhoz nyúlsz. Erre írtam anno, hogy a 720p-s x360as AC4 esetén is kibaszott szép, szemet simogató látvány volt, mert sehol egy recefice (30 fps-től most tekintsünk el), és a színek meg a minden gyönyörű volt, de ugyanezt tudom majd elmondani a forza motorsport5ről is, hogy egyszerűen ezzel a plusz élsimítással a mai napig jóleső látvány brümmögni vele (és 60 fps is...), de ez nem jelenti azt, hogy az FM6-7 ne lenne még ezerszer szebb, nem azért mert simábbak az élek, az ugye nem lehetséges, hanem mert több a detail.
Az ablakokra visszatérve, a FHD képet megAizva még attól az ablak egy felület marad, a 4es tagolás nem áll elő a semmiből. És mivel közben felnégyszerezted pixel szempontból a képet, hát ez pont olyan lesz, mint az FM5. Szép, sima, kerek minden, de akkor is szemcsés, darabos. Felnagyítod az elnagyolást, mert ugyan ez az egy üvegfelület az ablak 1920*1080 pixelen igényes, de négyszer annyin már elnagyoltnak hat, akkor is, ha nem recés az ablak széle, mert überprofi az AA a dlss miatt, vagy mert a tv a saját AIjával kisimította.
És amikor összehasonlítgatja Dani meg Moby screenshoton, hogy na melyik a natív, meg melyik dlss, akkor az azért tudja közel ugyanazt adni, mert létezik a 4k textúra. De ugye most éppen a vidia bíztat, hogy elég lesz egy sima FHD textúra, aztán a többit
megoldja az élsimítás AI. És ha elterjed ez a dlss3.0 akkor onnan egy lépés, hogy miafasznak szenvedjünk egyáltalán a 4k textúrával, amikor azt valójában sose fogja senki se látni, mindenki úgyis dlss3.0val nyomja a semmiből, plusz watt fogyasztás nélkül, csak úgy előálló frémeket, és paff, ami 6-10 éve előrelépés volt, hogy a 4x annyi pixel teret ad a több részlet kirajzolásának az bamm, már el is veszett a múlt ködébe.
Ezt próbálom Mobynak is elmagyarázni, sikertelenül.
De legalább azt megtudtam, hogy csak a cuda vesz fel áramot, a többi rész a 4090esnek nem. Ma se hiába keltem fel.
Boldog cloud napot mindenkinek!