A PC-s játékoknak leáldozott
És ebben a gépben egy 750W-os SFX táp van. És akkor vegyük elő az insider híreket arról, hogy a 4090Ti-t nem lehet megcsinálni, mert szétolvad a szomszéd utca is, és kacagjunk együtt.
Én azt gondolom, hogy az analfabétizmus ellen nem lehet hatékonyan harcolni írásban.Moby írta:És ebben a gépben egy 750W-os SFX táp van. És akkor vegyük elő az insider híreket arról, hogy a 4090Ti-t nem lehet megcsinálni, mert szétolvad a szomszéd utca is, és kacagjunk együtt.
Írtam korábban, hogy a 9800gx2vel sem az volt a gond, hogy leolvadt (bár az se lepett volna meg egy ponton túl a 102-104 fokos üzemhőmérséklet mellett), hanem hogy egy 30oniksz légköbméteres szobában bármikor 5-6 fokkal tudta emelni a szobahőmérsékletet.
Lányom szobájában ebben a pillanatban szereltem fel egy 1000 wattos norvég villanyradiátort/fűtőlapot, ami -20 fok külső hőmérsékletig a belső hőmérsékletet 32 fok fölé tudja tolni ~35 légköbméteres szobaméretig. Ő szobája picit nagyobb, de elégnek éreztem ezt a fűtőteljesítményt, mert a 32 fok se cél, meg mert csak kiegészítő fűtés.
Szóval öröm és bódottá, hogy a 4090es nem izzik Dózsa vastrónját és a 9800gx2-t meghazudtoló módon, de attól még a 500 wattbúl (plusz a konfig többi része, ugye, helló ryzen 7950x mondjuk) előálló hő vhol megjelenik, ha mondjuk a szobában, akkor nem biztos, hogy kellemes, ha -20ban is nyitott ablaknál kell játszani a 8k géminget, hogy óránként ne három kilót izzadj le magadról, csak felet.
És ez a gond a sok wattal, hogy abból biza hő lesz, az egy jó kezdőlépés, hogy nem pont a szilikonon magán, de attól az még ottan vanik vhol. És igen, ezt is írtam már, hogy a víz jobb, mert egyenletesebben engedi ki a szobába, mint egy léghűtés, de akkor is végül ottan köt ki az arcodban. Ez télen fun, nyáron kevésbé.
A linkelt, azonnal fix1-re vett hír arról szólt, hogy a 4090Ti azért nem készül el, mert leolvad a kártya, és a minféle táp is. Namost én továbbra is csupán annyit kérdeznék, hogy mennyire vehetőek ezek a hírek komolyan a valós TÉNYEK ismeretében? mert ugye a 4090 megjelenése előtt is ment a népek riogatása az 1000W-os tápokról, saztán ehhez képest ugye...Naszal az ada lovelace-el kapcsolatban a fogyasztásról, tápígényről, melegedésről, problémákról szóló képzelgések és a gyakorlati tapasztalatok igen-igen messze kerütek egymástól. Ilyenformán én minden hírt, cikket, szakértést megmondást cinikus kuncogással kezelek. A komfortról szóló részével nehéz bármit kezdenem. Igen, a gépek melegszenek, nyáron meg meleg van, ha a kettőt összeadom, az nem jó, de külön-külön sem, dehát tudjuk, hogy ezekre a problémákra van megoldás. Praktikusan csak annyival tudom kommentálni, hogy sajnos nem engedhetem meg magamnak, hogy egymilliórt vegyek vga-t, mert elképesztő luxusnak tartom, emellett klímám azért mégis van, és még a vellanyszámlát is ki tudom utána fizetni, akkor is, ha kerget a rezsidémon, mert a meleget gép nélkül sem viselem jól. Aki egymillióért vesz vga-t, de izzad tőle a melegben, az egy állat, de ez nyilvánvalóan az ő választása, nem valamiféle kényszer, amibe a fogyasztás vagy a technológia terszi bele.Botond írta:Én azt gondolom, hogy az analfabétizmus ellen nem lehet hatékonyan harcolni írásban.
Írtam korábban, hogy a 9800gx2vel sem az volt a gond, hogy leolvadt (bár az se lepett volna meg egy ponton túl a 102-104 fokos üzemhőmérséklet mellett), hanem hogy egy 30oniksz légköbméteres szobában bármikor 5-6 fokkal tudta emelni a szobahőmérsékletet.
Lányom szobájában ebben a pillanatban szereltem fel egy 1000 wattos norvég villanyradiátort/fűtőlapot, ami -20 fok külső hőmérsékletig a belső hőmérsékletet 32 fok fölé tudja tolni ~35 légköbméteres szobaméretig. Ő szobája picit nagyobb, de elégnek éreztem ezt a fűtőteljesítményt, mert a 32 fok se cél, meg mert csak kiegészítő fűtés.
Szóval öröm és bódottá, hogy a 4090es nem izzik Dózsa vastrónját és a 9800gx2-t meghazudtoló módon, de attól még a 500 wattbúl (plusz a konfig többi része, ugye, helló ryzen 7950x mondjuk) előálló hő vhol megjelenik, ha mondjuk a szobában, akkor nem biztos, hogy kellemes, ha -20ban is nyitott ablaknál kell játszani a 8k géminget, hogy óránként ne három kilót izzadj le magadról, csak felet.
És ez a gond a sok wattal, hogy abból biza hő lesz, az egy jó kezdőlépés, hogy nem pont a szilikonon magán, de attól az még ottan vanik vhol. És igen, ezt is írtam már, hogy a víz jobb, mert egyenletesebben engedi ki a szobába, mint egy léghűtés, de akkor is végül ottan köt ki az arcodban. Ez télen fun, nyáron kevésbé.
Én ennél egyszerűbb ember vagyok, jobban hiszek abban, hogy kapásból ne a problémagenerálás irányába menjünk el, akkor is, ha azokra a problémákra aztán vannak fasza megoldásaink. Rövidtávon. Tanulságos lesz ez a tél ebből a szempontból is, hogy valóban ennyi múlik e a mennyi áramot fogyasztok, hogy mennyire van pénzem, vagy esetleg az élet és a valóság nem egy végtelenített excel.Moby írta:A linkelt, azonnal fix1-re vett hír arról szólt, hogy a 4090Ti azért nem készül el, mert leolvad a kártya, és a minféle táp is. Namost én továbbra is csupán annyit kérdeznék, hogy mennyire vehetőek ezek a hírek komolyan a valós TÉNYEK ismeretében? mert ugye a 4090 megjelenése előtt is ment a népek riogatása az 1000W-os tápokról, saztán ehhez képest ugye...Naszal az ada lovelace-el kapcsolatban a fogyasztásról, tápígényről, melegedésről, problémákról szóló képzelgések és a gyakorlati tapasztalatok igen-igen messze kerütek egymástól. Ilyenformán én minden hírt, cikket, szakértést megmondást cinikus kuncogással kezelek. A komfortról szóló részével nehéz bármit kezdenem. Igen, a gépek melegszenek, nyáron meg meleg van, ha a kettőt összeadom, az nem jó, de külön-külön sem, dehát tudjuk, hogy ezekre a problémákra van megoldás. Praktikusan csak annyival tudom kommentálni, hogy sajnos nem engedhetem meg magamnak, hogy egymilliórt vegyek vga-t, mert elképesztő luxusnak tartom, emellett klímám azért mégis van, és még a vellanyszámlát is ki tudom utána fizetni, akkor is, ha kerget a rezsidémon, mert a meleget gép nélkül sem viselem jól. Aki egymillióért vesz vga-t, de izzad tőle a melegben, az egy állat, de ez nyilvánvalóan az ő választása, nem valamiféle kényszer, amibe a fogyasztás vagy a technológia terszi bele.
Hogy most mást ne mondjak a leolvadás is olyan, hogy nézed a skálát, van egy pont ahol leolvad a gecibe. Előtte van egy elég széles rész, ahol nem olvad le, onnan vehetsz 1 millió mintát, és mindig azt látod, hogy nem olvad le, szóval akár meg is győzheted magad, hogy á, soseolvadezle, mert hát egymillió minta nem tévedhet, aztán rácsavarsz még 0,0000001 ampert és paff, leolvadt a gecibe, még a vezeték is kiégett a falból, ahogy a börleszk filmekben. Ilyen ez a csúnya gonosz elektromosság, meg a wattok, meg a többi.
A patkányosjáték új része (ami holnapután jön), meg a Gotham Knights is 30fps lesz PS5-ön és XSX-en. Kezdődik...
Ebben a kérdéskörben már nincs szerepre annak, hogy a 4090, 3070, 6900xt, stb neveket cserélgetjük. A technológiai ipar a technológiai problémákra fog megoldást adni, nem a geopolitikaiakra. Az egy másik fórum.Botond írta:Én ennél egyszerűbb ember vagyok, jobban hiszek abban, hogy kapásból ne a problémagenerálás irányába menjünk el, akkor is, ha azokra a problémákra aztán vannak fasza megoldásaink. Rövidtávon. Tanulságos lesz ez a tél ebből a szempontból is, hogy valóban ennyi múlik e a mennyi áramot fogyasztok, hogy mennyire van pénzem, vagy esetleg az élet és a valóság nem egy végtelenített excel.
Hogy most mást ne mondjak a leolvadás is olyan, hogy nézed a skálát, van egy pont ahol leolvad a gecibe. Előtte van egy elég széles rész, ahol nem olvad le, onnan vehetsz 1 millió mintát, és mindig azt látod, hogy nem olvad le, szóval akár meg is győzheted magad, hogy á, soseolvadezle, mert hát egymillió minta nem tévedhet, aztán rácsavarsz még 0,0000001 ampert és paff, leolvadt a gecibe, még a vezeték is kiégett a falból, ahogy a börleszk filmekben. Ilyen ez a csúnya gonosz elektromosság, meg a wattok, meg a többi.
Patkányos preload folyamatban. A 6900xt-re.Moby írta:A patkányosjáték új része (ami holnapután jön), meg a Gotham Knights is 30fps lesz PS5-ön és XSX-en. Kezdődik...
Nem abu irta?Moby írta:És ebben a gépben egy 750W-os SFX táp van. És akkor vegyük elő az insider híreket arról, hogy a 4090Ti-t nem lehet megcsinálni, mert szétolvad a szomszéd utca is, és kacagjunk együtt.
Az gondolom azért megvan hogy a ventillátor nem csak továbbítja a meleg levegőt hanem hűti is?Botond írta:É
És ez a gond a sok wattal, hogy abból biza hő lesz, az egy jó kezdőlépés, hogy nem pont a szilikonon magán, de attól az még ottan vanik vhol. És igen, ezt is írtam már, hogy a víz jobb, mert egyenletesebben engedi ki a szobába, mint egy léghűtés, de akkor is végül ottan köt ki az arcodban. Ez télen fun, nyáron kevésbé.
Btw ma felkerült az HBO maxra az Uncsi film. Igazi kis fanservice, voltak a játékokból koppintott részek, meg volt új cselekmény is. Ilyen limonádéval egynek elmegy vasárnap délután, semmi kiemelkedő, de azért indokolatlan volt a sok bántás is amit kapott.
Nyolcvankét utalás a folytatásra bátor, nem tudom lesz e belőle vmi.
Nyolcvankét utalás a folytatásra bátor, nem tudom lesz e belőle vmi.
Semmitől sem volt távolabb. Ez az átlag marvelszarokat zabáló közönséghez szóló rágógumi film volt, ami leköpte a fanokat. Nem biztos, hogy ettől egyátalán többet érdemel az Uncharted, de hogy lehetne egy igazán baszó filmes franchise is belőle, az biztos. Mithogy az is, hogy minimálefforttal lehetett volna ez sokkal, de sokkal jobb is, de a sonynál már nincs semmi törekvés a jóra, csak a haszonszerzés az egyetlen vezérlőelv mindenben. Egyébként pont olyan lett film, amilyenné a játékaik váltak.Botond írta:Igazi kis fanservice
Nekem összesen annyi bajom volt, hogy Elena kimaradt, pedig egy csöcsös szőke jó csajra lett volna igény, de ugye úgy már nem lett volna elég duverzifikáns és píszí a film.Moby írta:Semmitől sem volt távolabb. Ez az átlag marvelszarokat zabáló közönséghez szóló rágógumi film volt, ami leköpte a fanokat. Nem biztos, hogy ettől egyátalán többet érdemel az Uncharted, de hogy lehetne egy igazán baszó filmes franchise is belőle, az biztos. Mithogy az is, hogy minimálefforttal lehetett volna ez sokkal, de sokkal jobb is, de a sonynál már nincs semmi törekvés a jóra, csak a haszonszerzés az egyetlen vezérlőelv mindenben. Egyébként pont olyan lett film, amilyenné a játékaik váltak.
De amúgy valóban lehet jobb lett volna ezt is sorozatnak megcsinalni, mint a lasszófaszt, hogy szépen, kb a játék tempójában végig tudjanak menni a sztorin, és ne csak 2 órányi kikacsintgatást kapjunk, hogy emlékeztek, ugye?Moby írta:Semmitől sem volt távolabb. Ez az átlag marvelszarokat zabáló közönséghez szóló rágógumi film volt, ami leköpte a fanokat. Nem biztos, hogy ettől egyátalán többet érdemel az Uncharted, de hogy lehetne egy igazán baszó filmes franchise is belőle, az biztos. Mithogy az is, hogy minimálefforttal lehetett volna ez sokkal, de sokkal jobb is, de a sonynál már nincs semmi törekvés a jóra, csak a haszonszerzés az egyetlen vezérlőelv mindenben. Egyébként pont olyan lett film, amilyenné a játékaik váltak.
Annak valóban milliószor több értelme lett volna. Négy-öt évadnyi alapanyag ott is van készen.
Cserébe itt a sárkányok háza, ami egy lassított felvétel kimerevített állóképekkel. Remélem lesz belőle játék, mert pont tökre alkalmas lenne natív4k és dlss3.0 tartalmat összenézni, hogy hogyan is nézne ki a mozgás az állóképeken.
Botond írta:Patkányos preload folyamatban. A 6900xt-re.
Sok köszönet nem lesz benne bár a játék gyönyörű a shotok alapján de mocsokszarul (értsd nincs meg a 60 fps) fut mindenen ha 4k-t akar az ember, és csak DLSS van benne, FSR nincs.
Én is húzom majd be hétvégén mert elsőt csipáztam, de még a Kingdom Come végére kell érjek mert így modokkal mindennel megérett a kitolásra 4k koxon.
12 giga+ day1 patchel is szar? Na majd holnap megnézem.Castle82 írta:Sok köszönet nem lesz benne bár a játék gyönyörű a shotok alapján de mocsokszarul (értsd nincs meg a 60 fps) fut mindenen ha 4k-t akar az ember, és csak DLSS van benne, FSR nincs.
Én is húzom majd be hétvégén mert elsőt csipáztam, de még a Kingdom Come végére kell érjek mert így modokkal mindennel megérett a kitolásra 4k koxon.
Hát...megint szoptunk :DBotond írta:12 giga+ day1 patchel is szar? Na majd holnap megnézem.
Fölösleges a DLSS úgyis megvan eröböl is a 4K.Moby írta:Hát...megint szoptunk :D
Kéne a radeonokra is ilyen options vagy setup vagy vmi a játékokba, ahol nem az AI rontaná a képminőséget, hanem az emberek saját maguk lejjebb tudnák venni azt amit gondolnak, és nem csak a veryhighultra lenne ott és a nem 60 frém.Zóanagyvarázsló írta:Fölösleges a DLSS úgyis megvan eröböl is a 4K.
Ha erre képes lenne egy AMD kártya az akkora forradalmi előny lenne dlss-el szemben, hogy hihetetlen, nem egy AI szabná meg előre hol romlik a kép minőség, hanem az ember szabadon választhatna.
Tudom, bulibe lóg a kezem, csak az úton útfélen implementált dlss3.0 marad minden játékban, options sose lesz, az túl bonyolult lenne, túl komplex, túl sok változós.
Ja igen, az elméleti DLSS3.0 kémcsövet véletlenül fellökte valaki, és beleborult ebbe is :DBotond írta:Kéne a radeonokra is ilyen options vagy setup vagy vmi a játékokba, ahol nem az AI rontaná a képminőséget, hanem az emberek saját maguk lejjebb tudnák venni azt amit gondolnak, és nem csak a veryhighultra lenne ott és a nem 60 frém.
Ha erre képes lenne egy AMD kártya az akkora forradalmi előny lenne dlss-el szemben, hogy hihetetlen, nem egy AI szabná meg előre hol romlik a kép minőség, hanem az ember szabadon választhatna.
Tudom, bulibe lóg a kezem, csak az úton útfélen implementált dlss3.0 marad minden játékban, options sose lesz, az túl bonyolult lenne, túl komplex, túl sok változós.
Ha már options nincs és kézzel nem állítható semmi, akkor legalább ez megmenti a szerencsés usereket!Moby írta:Ja igen, az elméleti DLSS3.0 kémcsövet véletlenül fellökte valaki, és beleborult ebbe is :D
te figyu, nem akarnál valami vidiáslogót avatárnak? én kevesebbért is felvállaltam az áemdét :DMoby írta:A linkelt, azonnal fix1-re vett hír arról szólt, hogy a 4090Ti azért nem készül el, mert leolvad a kártya, és a minféle táp is. Namost én továbbra is csupán annyit kérdeznék, hogy mennyire vehetőek ezek a hírek komolyan a valós TÉNYEK ismeretében? mert ugye a 4090 megjelenése előtt is ment a népek riogatása az 1000W-os tápokról, saztán ehhez képest ugye...Naszal az ada lovelace-el kapcsolatban a fogyasztásról, tápígényről, melegedésről, problémákról szóló képzelgések és a gyakorlati tapasztalatok igen-igen messze kerütek egymástól. Ilyenformán én minden hírt, cikket, szakértést megmondást cinikus kuncogással kezelek. A komfortról szóló részével nehéz bármit kezdenem. Igen, a gépek melegszenek, nyáron meg meleg van, ha a kettőt összeadom, az nem jó, de külön-külön sem, dehát tudjuk, hogy ezekre a problémákra van megoldás. Praktikusan csak annyival tudom kommentálni, hogy sajnos nem engedhetem meg magamnak, hogy egymilliórt vegyek vga-t, mert elképesztő luxusnak tartom, emellett klímám azért mégis van, és még a vellanyszámlát is ki tudom utána fizetni, akkor is, ha kerget a rezsidémon, mert a meleget gép nélkül sem viselem jól. Aki egymillióért vesz vga-t, de izzad tőle a melegben, az egy állat, de ez nyilvánvalóan az ő választása, nem valamiféle kényszer, amibe a fogyasztás vagy a technológia terszi bele.
nyilván az 500watt sehogyan, semmiféle módon nem gond, sőt fasza, hiszen dlss akkor is kihúzza a szarból, ha a 600watt se elég, de az amd 150wattos cpuja már agyhalál, mert van mód elhajtani kilencvenfokig, éshát az borzalomvilágvégenullainnováció!!!!4 szarni rá, hogy egyébként általában elvan 60 fokon...... meg 100w alatt. rohadjanak meg, akkor lesz jóvilág, ha végleg eltűnnek és csak 10700k kerülhet minden gépbe, ami nem fogyaszt és hűvös, ezért is vetted meg, cpuból a hideget szereted, na. mondhatni, a piacvezetőtől elvárható innovációt tartalmazza és az a lényeg :D :D :D (bocs, ha megsértettelek és valójában 11700-ad van! az már tényleg innovált!)
a 4090 egy vicc és a kurvaszar irány legkurvaszarabbik variánsa (ÖTSZÁZWATTTTTTTT MOST, EZERWATT 5xxx-RE? WTF?). +reméljük feltámadnak a bányák is, újra, az illene ehez a koncepcióhoz.
A hozzászólást 1 alkalommal szerkesztették, utoljára arty 2022.10.18. 09:37-kor.
bárki is mondta kreténségnek a 4xxx sokwattját, respekt. függetlenül attól, hogy leolvad-e vagy sem :)Micsu írta:Nem abu irta?
Mondjuk mázli is. Ugye az egyetlen kártya ami ezt tudja az a 4090es ahol nélküle is megvan a 60 frém, szóval ez megoldás az olyan usereknek akiknek olyan 4090esük van ami valójában nem 4090es, mert ha 4090esed van akkor úgyis 60 frém, de ha nem 60 frém akkor 4090es kell a dlss3.0hoz, amiben van, de azzal anélkül is megvan, szóval…Moby írta:Ja igen, az elméleti DLSS3.0 kémcsövet véletlenül fellökte valaki, és beleborult ebbe is :D
Na mindegy, dlss3.0 hatékonyan kiszolgálja az üreshalmaz igényeit!
Nah, jólvan, a 600 wattos őrületből lassan azért eljutottunk az 500W-os őrületbe :D Még pár hét, ée talán elrünk a valósághoz, ami 450W. Ennyi a 4090TDP-je. Pont annyi, mint a 3090Ti-é.arty írta:te figyu, nem akarnál valami vidiáslogót avatárnak? én kevesebbért is felvállaltam az áemdét :D
nyilván az 500watt sehogyan, semmiféle módon nem gond, sőt fasza, hiszen dlss akkor is kihúzza a szarból, ha a 600watt se elég, de az amd 150wattos cpuja már agyhalál, mert van mód elhajtani kilencvenfokig, éshát az borzalomvilágvégenullainnováció!!!!4 szarni rá, hogy egyébként általában elvan 60 fokon...... meg 100w alatt. rohadjanak meg, akkor lesz jóvilág, ha végleg eltűnnek és csak 10700k kerülhet minden gépbe, ami nem fogyaszt és hűvös, ezért is vetted meg, cpuból a hideget szereted, na. mondhatni, a piacvezetőtől elvárható innovációt tartalmazza és az a lényeg :D :D :D (bocs, ha megsértettelek és valójában 11700-ad van! az már tényleg innovált!)
a 4090 egy vicc és a kurvaszar irány legkurvaszarabbik variánsa (ÖTSZÁZWATTTTTTTT MOST, EZERWATT 5xxx-RE? WTF?). +reméljük feltámadnak a bányák is, újra, az illene ehez a koncepcióhoz.
De, hogy aktuálisak, és praktikusak legyünk, ábrázolhatjuk így is a minden kurvaszar irány legkurvaszarabbikát (mármint a táblázaton a lefelét :DDD )
Én annak örülnék ott az alsó régiókban, hogy a gecik nem csűrték rá a frémgenerátort a legfelsőre, mert akkor ott most lenne vagy 180.
És a vicc az, hogy ha bárki rárepült VOLNA az ajánlatomra, akkor még forint/frémben is kegyetlenül porba lett volna fingva mindenki. De nem éltetek vele, szóval már csak a szájkarate marad, meg a szokásos szerecsenmosdatás
Igen, teljesen más a 12 frém egy 3060-ason vagy egy 6700ason ha 108 frémmel megy a 4090es, meg akkor is ha 180 frémmel megy a 4090es. Más, na.Moby írta:Én annak örülnék ott az alsó régiókban, hogy a gecik nem csűrték rá a frémgenerátort a legfelsőre, mert akkor ott most lenne vagy 180.
Én nem tudom mitől, de te biztos!
Azoktól mondjuk már sokkal jobb az XSX verza is. Sőt, ismerve az egyéb számokat, tulajdonképpen teljesen jó ahogy azon megy. De tonképp jó lenyomata a jelenlegi helyzetnek: két év telt el a currgenből, és most először jön olyan játék, ami már egészen nextgen szerűen próbákl kinézni, és nem valami prevgen szökevényremaszter, és rögtön be is térdel tőle minden :D Az mondjuk jelen esetben nem túl szertencsés együttállás, hogy mindez pont nvidia bőröndök társaságában történik, de alapvetően azt lehet mondani, hogy talán nem is baj, hogy nem készül lófasz sem. Ha készülne, inkább csak a baj lenne belőle, legalábbis azoknak, akik elhitték, hogy mostantól tényleg minden minden más lesz a konzolokkal :D Bár erről már kaptunk ízelítőt az UE5 mátrix demóval is.Botond írta:Igen, teljesen más a 12 frém egy 3060-ason vagy egy 6700ason ha 108 frémmel megy a 4090es, meg akkor is ha 180 frémmel megy a 4090es. Más, na.
Én nem tudom mitől, de te biztos!
Na mindegy, de ennek az egész chartosdinak amit ide bedobtál, hogy van a 4090 meg a sub60 frémes kártyák köre az alábbi tanulságai vannak számomra:Moby írta:Azoktól mondjuk már sokkal jobb az XSX verza is. Sőt, ismerve az egyéb számokat, tulajdonképpen teljesen jó ahogy azon megy. De tonképp jó lenyomata a jelenlegi helyzetnek: két év telt el a currgenből, és most először jön olyan játék, ami már egészen nextgen szerűen próbákl kinézni, és nem valami prevgen szökevényremaszter, és rögtön be is térdel tőle minden :D Az mondjuk jelen esetben nem túl szertencsés együttállás, hogy mindez pont nvidia bőröndök társaságában történik, de alapvetően azt lehet mondani, hogy talán nem is baj, hogy nem készül lófasz sem. Ha készülne, inkább csak a baj lenne belőle, legalábbis azoknak, akik elhitték, hogy mostantól tényleg minden minden más lesz a konzolokkal :D Bár erről már kaptunk ízelítőt az UE5 mátrix demóval is.
- 4090esbe full felesleges a dlss3.0, mert anélkül is 60+ a minden is, ami bármi máson betérdel, a többi kártya amiben elérhető a dlss3.0, hát nos azok meg nem léteznek ugye.
- persze ott a dlss2.0 (sőt már 2.3.4 vagy mi), amiről a totál outsider, a témában talán még nálam is kevésbé jártas NVIDIA corp nevű gittegylet szerint is 7%ot lehet nyerni frémben minőség romlás nélkül. Hetet. Nem héccázat, hetet. Onnan kezdve már ugyanaz a hatása van, mintha Radeonon leveszed a shadowst az optionsben ultráról akármi kisebbre és jé, nő a frémszám. Dekurvajó, meg kigondolta.
- a fentiekből következően már látszik az amit korábban előrevetítettem, hogy ez az 1520p-re rámondjuk a dynamic4k-t, meg a többi fogyatékosság el fog terjedni, és egyszerűen fel fog nőni mind user, mind fejlesztői oldalon egy réteg, egy egyre szélesedő réteg, aki egyszerűen képtelen optimalizálni, bármit állítani az optionsben, megnézni, hogy úgy hatvan e már fixen, mert már számolni se tud, meg semmit se, az AI állítsa be faszára. Az ilyeneknek mondjuk nem tudom minek pc, erre ott a konzol.
Én nem látom, hogy miért kellene ünnepelni azt, hogy Zó be tudta állítani a gtx750en a far cry3at fix60ra, én be tudom állítani az anno1800at a 6900xt-n fix60ra (csak sima ultra minden esetén belenéz az 54be is!), de a patkányok kettő esetén már ne kelljen belépni az optionsbe, majd a dlss beállítja. Mondjuk a dlss is az optionsben van, szóval még ezt se nyerjük meg vele, hogy nem kell ott piszkálni semmit.
Fostalicska forza horizon5 esetén is voltak ilyen tweak guideok, hogy felhőt leveszed ultráról veryhighra az tökugyanaz és plusz 3% frém, de gow esetén is van YouTubeon csillió plusz egy videó, hogy dlss nélkül kicsit tekersz ezen azon amazon, és screenshoton 800szoros zoommal lehet keresni a különbséget és több a frém.
Dlss2.0 az az options túrás, meg a tv által amúgy is odarakott élelmosás egybe csomagolva, a 3.0 pedig ez megtuningolva köztes képekkel, ami ugyanazon köztes szín értékes logika továbbfejlesztése, amivel a tv elmossa az éleket a saját eljárásával, amit szintén AInek mondanak.
A 4090es nem ettől nagy dobás, hanem hogy 108at tud ahol a 6900xt az 50et se. Dlss nélkül. A többi bohócság.
Nem kell kompjúteres Nídforszpíd, itt élőben is ez van.
(Miami)
(Miami)
Ez melyik nfs?
Amelyik az UE5ös endzsájnnal készült. :)Micsu írta:Ez melyik nfs?
Kirándulni vagy ott, vagy melózni?DanielT írta:Nem kell kompjúteres Nídforszpíd, itt élőben is ez van.
Totális kirándulás, 10 éve nem voltam kb szabin. Mondjuk azért mert nem érdekel úgy általában az a szint, ami elérhető lenne. Na mondom egyszer azért kijövök ide és hát... Kapom az arcba rendesen a csodát. Most épp indulás, de majd teszek olyan képet ami érdekes lesz nektek is.Moby írta:Kirándulni vagy ott, vagy melózni?
Nekem minden/bármi érdekes, ami ott van. Kurvára kimennék egyszer így kirándulni, de ebben az életben ez már nem fog összejönni. Majd egy következőben, talán.DanielT írta:Totális kirándulás, 10 éve nem voltam kb szabin. Mondjuk azért mert nem érdekel úgy általában az a szint, ami elérhető lenne. Na mondom egyszer azért kijövök ide és hát... Kapom az arcba rendesen a csodát. Most épp indulás, de majd teszek olyan képet ami érdekes lesz nektek is.
arty írta:a 4090 egy vicc és a kurvaszar irány legkurvaszarabbik variánsa (ÖTSZÁZWATTTTTTTT MOST, EZERWATT 5xxx-RE? WTF?). +reméljük feltámadnak a bányák is, újra, az illene ehez a koncepcióhoz.
Annyira szar irány hogy performance/watt kérdésben gyakorlatilag jelenleg a legjobb kártya a piacon, és míg lehúzod a fogyasztását "csak" az amd csúcskártyájának szintjére akkor is agyba főbe veri azt kvázi kétszer.
Gyakorlatilag alsóhangon 30%-al jobb még alap fogyasztáson is bármelyik AMD kártyánál az energiahatékonysága. Jó szar irány.
Ez egy fokkal jobb. De azé a minden irány legszarabbika ismét rendesen odaszart az asztalra :)
DanielT írta:Nem kell kompjúteres Nídforszpíd, itt élőben is ez van.
(Miami)
Fasza! Tolj egy airboatot everglades-en, menjel nasaba, nekem floridaban azok voltak a legjobb elmenyeim, keywest sztem skip . Igaz, összessegeben a nyugati part nekem 100x jobban bejött, ott 5000 km-t autoztunk sivatagon, sziklakon, fenyoerdokon keresztul, sirtam az oromtol :] Jovore yellowstone van tervben, remelem osszejon.
Tök jó játék, ez az Alien Isolation, de a figyelmem egy perce nem köti le. Ittvan ez a patkányosizé, ez technikailag is eléggé ott van, de kurvára nem érdekel. Bármit indítok el, csak a pillanatot várom, hogy kiléphessek belőle. Eléggé a végét járja ez a géming dolog nálam, ismét, sokadszorra, egyre mélyebben. Nem is tudnék olyan címet mondani, amit szívesen megnéznék, vagy isten ne adja, még játszanám is örömmel. Lehet, hogy nem kéne ez nekem már erőltetni sem, elmúlna szépen magától a nosztalgia is.
Na sikerült a dlss3.0át működésre bírni a 6900xt-n. Beléptem a patkányok kettőbe, options, vsync on, resolution scale 1.0, graphic settings high (és nem ultra), és szög 60. Holnap még fejlesztek a dlss-en, lehet ha a vidia előtt kifejlesztem a 3.1et, akkor van amiből elbírja az ultrát is szög 60 mellett. Tényleg kurvajó ez a dlss!
Ühüm, hát hogyne. 0.7-es res scalen high-on úgy belenyal a 30-ba is, mint a SZAR. Nyomjad csak kicsit tovább...Botond írta:Na sikerült a dlss3.0át működésre bírni a 6900xt-n. Beléptem a patkányok kettőbe, options, vsync on, resolution scale 1.0, graphic settings high (és nem ultra), és szög 60. Holnap még fejlesztek a dlss-en, lehet ha a vidia előtt kifejlesztem a 3.1et, akkor van amiből elbírja az ultrát is szög 60 mellett. Tényleg kurvajó ez a dlss!
FULL LOW, és 48 az FPS :D
Na ennyit a levesszük az égtextúrát című népi rigmus. Éshát szépek a textúrákok, főleg a távolban. Ja, nem kell az AI. megoldjuk Setupból!
Na ennyit a levesszük az égtextúrát című népi rigmus. Éshát szépek a textúrákok, főleg a távolban. Ja, nem kell az AI. megoldjuk Setupból!
0,7 res scale-en elfogadhatóan fut, high-on. A 60fps-től távol vagyunk, de az 50 körült tudja tartani+freesync. Dehát kb ugyanezt mutatta a csart is. High meg ultra...faszt nem számít. LOW-on is 99%-on van kiakadva a GPU, szal nem procilimit van, meg ilyenek. Megbaszódik az áemdéj. FSR-re jobb minőség lenne, mint a beépített RSR-el, de az ugye nincs.
Próbáltad már fordítva berakni a 6900asod? Meg nem az alaplapra folyatni a vizet, hanem a procit hűteni vele?Moby írta:0,7 res scale-en elfogadhatóan fut, high-on. A 60fps-től távol vagyunk, de az 50 körült tudja tartani+freesync. Dehát kb ugyanezt mutatta a csart is. High meg ultra...faszt nem számít. LOW-on is 99%-on van kiakadva a GPU, szal nem procilimit van, meg ilyenek. Megbaszódik az áemdéj. FSR-re jobb minőség lenne, mint a beépített RSR-el, de az ugye nincs.
Amúgy a venti üvegen megy, az eredeti ps5ön lemezes recsitezés óta nem hallottam ilyet az biztos.
Ezt az uncsi 4-et mennyire csinosították fel a PS4-es verzához képest?Moby írta:Ez egy fokkal jobb. De azé a minden irány legszarabbika ismét rendesen odaszart az asztalra :)
Mert egy eredetileg HD7850 + jaguárra írt cuccnál ezeknek a számoknak fosport szaga van.
Ha az első PC-men az előző Patkány Művek lett volna az első játék, akkor szerintem már addig sem lettem volna gamer (bármi is az), hogy valaha megtaláljam a leáldot. Jó választás lehet ez is a leszoktatáshoz, és van még egy s más a ganépassz tarsolyában!Moby írta:Tök jó játék, ez az Alien Isolation, de a figyelmem egy perce nem köti le. Ittvan ez a patkányosizé, ez technikailag is eléggé ott van, de kurvára nem érdekel. Bármit indítok el, csak a pillanatot várom, hogy kiléphessek belőle. Eléggé a végét járja ez a géming dolog nálam, ismét, sokadszorra, egyre mélyebben. Nem is tudnék olyan címet mondani, amit szívesen megnéznék, vagy isten ne adja, még játszanám is örömmel. Lehet, hogy nem kéne ez nekem már erőltetni sem, elmúlna szépen magától a nosztalgia is.
Azért ki fogom próbálni, talán végig is megy, de nem tudom, hogy mikor lesz rá időm/kedvem.
Everglades airboat pipa, ahogy a NASA is. Holnap reggel indulás Los Angelesbe, hát az is lerak majd rendesen gondolom.Greyfox írta:Fasza! Tolj egy airboatot everglades-en, menjel nasaba, nekem floridaban azok voltak a legjobb elmenyeim, keywest sztem skip . Igaz, összessegeben a nyugati part nekem 100x jobban bejött, ott 5000 km-t autoztunk sivatagon, sziklakon, fenyoerdokon keresztul, sirtam az oromtol :] Jovore yellowstone van tervben, remelem osszejon.
Az első nekem tetszett, a másodikat vártam, tetszik is ránézésre, csak már nem érdekel. Semmi ami géming.Zóanagyvarázsló írta:Ha az első PC-men az előző Patkány Művek lett volna az első játék, akkor szerintem már addig sem lettem volna gamer (bármi is az), hogy valaha megtaláljam a leáldot. Jó választás lehet ez is a leszoktatáshoz, és van még egy s más a ganépassz tarsolyában!
Azért ki fogom próbálni, talán végig is megy, de nem tudom, hogy mikor lesz rá időm/kedvem.
Elég komoly uborkaszezon van azért, ami már jó 3-4-5 éve tart, minimális megtörésekkel, aki nem baszott el az életéből 14-15 évet mmo-zni, hogy addig gyűljön a backlog, az bajban lehet valóban.Moby írta:Az első nekem tetszett, a másodikat vártam, tetszik is ránézésre, csak már nem érdekel. Semmi ami géming.
Szerintem én az elmúlt 3-5 év felhozatával is böven ellennék. Például taktikai játéknak elég ígéretes a Hard West 2, a King Arthur, a Chaos Gate: Daemonhunters is csak frissebbek közül, van King's Bounty 2, új Disciples, jön a Homicidal All-Stars, új Fireaxis-cucc, reményteljes a JA3. Plusz itt az RPG-sebb Dungeons of Nihelbeuk, feltámadtak a Commandos-klónok, rendszeresen jön a Total War meg rengeteg rétegcucc, jö felújított Tactics Ogre, taktikai RPG-re váltott a Yakuza stb. Ja, és te éppen tegnap írtad, mennyire rá vagy gerjedve a nyuszismáriókettöre. 15 éve egy Solastáért ölni tudtunk volna, most másodvonalnak tünik. Point 'n' click kalandok is jönnek rendesen.Botond írta:Elég komoly uborkaszezon van azért, ami már jó 3-4-5 éve tart, minimális megtörésekkel, aki nem baszott el az életéből 14-15 évet mmo-zni, hogy addig gyűljön a backlog, az bajban lehet valóban.
Elhiszem, hogy az AAA szuperségekben rosszabb a helyzet, de ha választanom kell, inkább ez legyen a helyzet, mint fordítva. Azt megnem tudom, hogy bezzeg 5 éve mi volt, persze a Nintendo akkor épp odacseszett. Mobynál viszont amúgy is kiemelten hangulatfüggö a rákattanás.
Persze innovációban, dömpingben és gyermeki lelkesedésünkben a 90-es évekkel nem lehet versengeni, de számomra a jelen a közelmúlthoz képest akkor tünne lejtmenetnek, ha sonyidióta, xbot vagy csö-FPS-rajongó lennék. Ennél sötétebb korokat is megéltünk mi itt együtt. Persze én is szeretnék csábító Sony-exkluzívokat, de ellavírozok nélkülük, és azért jön egy újGoW, illetve öntik PC-re nekem a backlogot, de az ár-élmény arány nem tünik az igazinak, számomra sokadrangú kiadó jelenleg a Sony, de ök jól megélnek belöle.
Daninak a Niagarát ajánlanám a kanadai oldalról, de gondolom arra már nem mégy.
Úristen a yakuza...na ha ez lenne ami megmenti a géimget, akkor boldogam baszom a sarokba az egészet :D A többit nem ismerem.Zóanagyvarázsló írta:Szerintem én az elmúlt 3-5 év felhozatával is böven ellennék. Például taktikai játéknak elég ígéretes a Hard West 2, a King Arthur, a Chaos Gate: Daemonhunters is csak frissebbek közül, van King's Bounty 2, új Disciples, jön a Homicidal All-Stars, új Fireaxis-cucc, reményteljes a JA3. Plusz itt az RPG-sebb Dungeons of Nihelbeuk, feltámadtak a Commandos-klónok, rendszeresen jön a Total War meg rengeteg rétegcucc, jö felújított Tactics Ogre, taktikai RPG-re váltott a Yakuza stb. Ja, és te éppen tegnap írtad, mennyire rá vagy gerjedve a nyuszismáriókettöre. 15 éve egy Solastáért ölni tudtunk volna, most másodvonalnak tünik. Point 'n' click kalandok is jönnek rendesen.
Elhiszem, hogy az AAA szuperségekben rosszabb a helyzet, de ha választanom kell, inkább ez legyen a helyzet, mint fordítva. Azt megnem tudom, hogy bezzeg 5 éve mi volt, persze a Nintendo akkor épp odacseszett. Mobynál viszont amúgy is kiemelten hangulatfüggö a rákattanás.
Persze innovációban, dömpingben és gyermeki lelkesedésünkben a 90-es évekkel nem lehet versengeni, de számomra a jelen a közelmúlthoz képest akkor tünne lejtmenetnek, ha sonyidióta, xbot vagy csö-FPS-rajongó lennék. Ennél sötétebb korokat is megéltünk mi itt együtt. Persze én is szeretnék csábító Sony-exkluzívokat, de ellavírozok nélkülük, és azért jön egy újGoW, illetve öntik PC-re nekem a backlogot, de az ár-élmény arány nem tünik az igazinak, számomra sokadrangú kiadó jelenleg a Sony, de ök jól megélnek belöle.
/bár tonképp ez már megtörtént. Sőt odáig jutott, hogy tegnap este a szabad egy órámból még arra is szívesebben áldoztam géming helyett, hogy szarvasmarhák patkolását nézzem inkább a The Hoof GP csatornán, mert ezt dobtam fel a YT. És tök érdekes volt :D
Nem csak én!Zóanagyvarázsló írta:Ja, és te éppen tegnap írtad, mennyire rá vagy gerjedve a nyuszismáriókettöre.
phpBB [media]
Nyuszismáriókettő az holnap lesz, de már DF review van, patkányok2 már napok óta kint, videó sehol. Ubibérencek!
Amikor feljött a bloober logo, felröhögtem. Na ez sem fog visszarángatni :Dbenőmenő írta:Silent Hill 2 Remake
[video]https://youtu.be/DGqict_j0C8[/video
Gotham Knights:
GameSpot 4/10
IGN: 5/10
plusz 45 fps-re is beesik 4090-en, ray tracing nélkül:
https://www.dsogaming.com/articles/goth ... ues-on-pc/
GameSpot 4/10
IGN: 5/10
plusz 45 fps-re is beesik 4090-en, ray tracing nélkül:
https://www.dsogaming.com/articles/goth ... ues-on-pc/
Ezért kell a dlss3.0. Mert ez a technológia nem fog azzal járni, hogy büntetlenül terjedhet a fakézség, dehogy. Nem lesz olyan, hogy szarjunk rá, majd a dlss kisimítja. Meg mire jön a lowbie kártyákhoz is a dlss3.0, addigra nem csak ilyen csumpi lowbie kártyák lesznek, mint a 4090es, hanem lesznek kraftos cuccok is.neoreg írta:Gotham Knights:
GameSpot 4/10
IGN: 5/10
plusz 45 fps-re is beesik 4090-en, ray tracing nélkül:
https://www.dsogaming.com/articles/goth ... ues-on-pc/
Jóvan, na akkor ez is hamar kiderült, hogy lázálmokat vizuáltam. A patkányos2 és ez is annyira nextgen grafika, hogy igenis a 4090esnek be kell tőle térdelni, de majd a 6090 vagy a 7090, esetleg 11090! És a dlss nyóc!
Igen-igen, ezek a DLSS3.0-tól lettek ilyenek. Évekkel ezelőtt, amikor ezekenek lerakták az alapjait már tudták, hogy lesz, és belekalkulálták! Amellett hogy fakezűek ezek, gecijó időgépük is lehet :D Egyébként meg a hülyeségek terjedéséhez sosem kellett technológia. Elég csak az ilyen posztokat elolvasni ehhez :DBotond írta:Ezért kell a dlss3.0. Mert ez a technológia nem fog azzal járni, hogy büntetlenül terjedhet a fakézség, dehogy. Nem lesz olyan, hogy szarjunk rá, majd a dlss kisimítja. Meg mire jön a lowbie kártyákhoz is a dlss3.0, addigra nem csak ilyen csumpi lowbie kártyák lesznek, mint a 4090es, hanem lesznek kraftos cuccok is.
Jóvan, na akkor ez is hamar kiderült, hogy lázálmokat vizuáltam. A patkányos2 és ez is annyira nextgen grafika, hogy igenis a 4090esnek be kell tőle térdelni, de majd a 6090 vagy a 7090, esetleg 11090! És a dlss nyóc!
Igen, ez az egész tegnap kezdődött, nem már a dlss1.0val évekkel ezelőtt, hanem tegnap.Moby írta:Igen-igen, ezek a DLSS3.0-tól lettek ilyenek. Évekkel ezelőtt, amikor ezekenek lerakták az alapjait már tudták, hogy lesz, és belekalkulálták! Amellett hogy fakezűek ezek, gecijó időgépük is lehet :D Egyébként meg a hülyeségek terjedéséhez sosem kellett technológia. Elég csak az ilyen posztokat elolvasni ehhez :D
De eddig az volt, hogy azért hülyeség a DLSS, mert senki nem készít rá játékot, meg amúgy is minden konzolkra készül! Mostmeg 1 hét alatt kettőt is tönkretesz? Ezek a betonstabil elméletek legalább a harmadik reggelüket megérhetnék, hogy legalább azt tudjuk mire kell a jövőhéten készülni!Botond írta:Igen, ez az egész tegnap kezdődött, nem már a dlss1.0val évekkel ezelőtt, hanem tegnap.
2006ban hany jatek 8800gtxen nem ment rendesen aminel akkor jobb nem volt, akkor meg ugye a borond nem erte oda, 1bites fanboyoknak mindenre van magyarazatMoby írta:Igen-igen, ezek a DLSS3.0-tól lettek ilyenek. Évekkel ezelőtt, amikor ezekenek lerakták az alapjait már tudták, hogy lesz, és belekalkulálták! Amellett hogy fakezűek ezek, gecijó időgépük is lehet :D Egyébként meg a hülyeségek terjedéséhez sosem kellett technológia. Elég csak az ilyen posztokat elolvasni ehhez :D
Megnéztem az áncsárdited pécén. Ez e tisztességes munka, 4K@ultrán kicsapja a 60-at a 6900XT. Viszont ez tényleg kizárólag annak jó, akinek sosem volt PS-e. Semmit nem tesz hozzá a konzolos verzióhoz, de hát mit is tudna...
Mint említettem, sajnos írásban nem lehet hatékonyan harcolni az analfabétizmus ellen harcolni.Moby írta:De eddig az volt, hogy azért hülyeség a DLSS, mert senki nem készít rá játékot, meg amúgy is minden konzolkra készül! Mostmeg 1 hét alatt kettőt is tönkretesz? Ezek a betonstabil elméletek legalább a harmadik reggelüket megérhetnék, hogy legalább azt tudjuk mire kell a jövőhéten készülni!
Az hogy nem érted, hogy nincs benne semmiben szinte (ez egy megszámolható dolog), meg az, hogy a technológia amúgy rászoktatja a fejlesztőket, hogy inkább legyen benne, és akkor nem kell baszakodni az optimalizálással az meg egy folyamat, és így a kettő tud egyszerre létezni az a te bajod. Ennek a folyamatnak aztán aztán lehet az az eredménye, hogy az első megállapítás már holnap nem lesz igaz. És engem ez aggaszt, hogy ez a fos mindenbe bekerül, elhisszük, hogy optimalizálni felesleges, majd az AI és akkor a 4090esen a FHD 45 fps lesz a sztenderd. RT nélkül!
És ha ez szerinted jó irány, akkor tényleg ez a legjobb amit tehettél, hogy géming helyett csak gépet építesz.
A gow meg control meg a további négy dlss2.0ás cím azért tud olyan jól kinézni dlss-el is, mert van 4K részletességű textúra. Amikor nem lesz, mert úgyis FHD lesz felnyolcszorozva, akkor nem fog olyan jól kinézni.
Ha harminc éve jelent volna meg ez a technológia, akkor az octopath traveller lenne a grafika csúcsa.
Mindegy, örüljünk, a 4090es volt a sztár napokig, és ennyi, már FHDhoz is kevés. 500 wattból.
Ja, amúgy pont most láttam egy videót, hogy hamarosan életbe lép vmi uniós szabály, ami energiahatékonyság alapján besorolja a tv-ket és ami nem hatékony azt nem lehet forgalmazni az EU-ban.
77-83 colos oled kuka, 8k anblock kuka, 65 colos qd-oled kuka (amiről a mai videót raktam be), stb.
Szóval hamarosan más irányt vesz ez az egész csak a watt beszélgetés, ha vki rájön, hogy más IT eszközökre is ki lehetne terjeszteni ezt a teóriát, hogy legyen minden energiahatékony, és a nem optimalizálás is új fénybe fog kerülni.
Áhám. Szerintem meg CPU-n kéne 3D-t számolni! A nyomorultak a GPU-tól csak leszoktak az optimalizálásról, és mamár minden jöttment 3D-t készít, amihez aztán a népek meg vásárolhatják a jó drága viodeókártyákat! VIDEÓKÁRTYA! Hát micsoda hülyeség ez? Hardverrel gyorsítani, hogy ne kelljen szoftvereket irogatni? :( Elkurvul már az egész világ.Botond írta:meg az, hogy a technológia amúgy rászoktatja a fejlesztőket, hogy inkább legyen benne, és akkor nem kell baszakodni az optimalizálással
Az a szomorkás hír ezzel kapcsolatban, hogy az elmúlt harminc év ezen technológiában másról sem szólt, csak arról, és szinte minden fejlesztés arról szólt, hogy miként lehessen megspórólni a számítást. Ugyanis az a helyzet van ezzel, hogy nincs végtelen számítási kapacitás abban a 16.6666667milliszekundumban, Ezért lett a gourraud-phong shading, ezért lett a mipmapping, ezért lett az antialising, ezért lett a frustrum calling, ezért lett a shading úgy kompletten, tehát nagyjából azért jött létre a raszterizáció, mert nincs végtelen számítási kapacitás, hogy lemodellezzük a valóságot. Minden technológia erről szólt az emúlt 30 évben, és erről fog a következő 30 évben. Olyan dolgokról írsz, amiról ilyen alapszintű információd sicnsenek, ami az optimalizáció szót valamiféle értelmezhető tartalommal töltené meg. Egyszerűen nem tudod mit jelent ez a szó, nem tudod elhelyezni a kontextusában sem. Ha értenéd, akkor nem fordítottan használnád olyan technológiákra, ami időt, erőforrást, energiát, szilíciumot spórolnak meg. Lehet fogalmatlanul fasságokat irogatni, a leáldban elfér, de tanulni sosem késő elkezddeni. ha érdekel a technológia, ingyen annyi forrás elérhető, hogy beszarsz.Botond írta:Ha harminc éve jelent volna meg ez a technológia, akkor az octopath traveller lenne a grafika csúcsa.
Ja, meg HBD Cloudnak, bár már nem jár errefelé.
Mondom, ha harminc éve jött volna a dlss, akkor megragadtunk volna az octopath traveller grafikai szintjén, mert a több képpont csak élsimításra lenne felhasználva. Miénk lenne a legszebb, letisztultabb 16 bites grafika, a lehető legkevesebb számítással.Moby írta:Az a szomorkás hír ezzel kapcsolatban, hogy az elmúlt harminc év ezen technológiában másról sem szólt, csak arról, és szinte minden fejlesztés arról szólt, hogy miként lehessen megspórólni a számítást. Ugyanis az a helyzet van ezzel, hogy nincs végtelen számítási kapacitás abban a 16.6666667milliszekundumban, Ezért lett a gourraud-phong shading, ezért lett a mipmapping, ezért lett az antialising, ezért lett a frustrum calling, ezért lett a shading úgy kompletten, tehát nagyjából azért jött létre a raszterizáció, mert nincs végtelen számítási kapacitás, hogy lemodellezzük a valóságot. Minden technológia erről szólt az emúlt 30 évben, és erről fog a következő 30 évben. Olyan dolgokról írsz, amiról ilyen alapszintű információd sicnsenek, ami az optimalizáció szót valamiféle értelmezhető tartalommal töltené meg. Egyszerűen nem tudod mit jelent ez a szó, nem tudod elhelyezni a kontextusában sem. Ha értenéd, akkor nem fordítottan használnád olyan technológiákra, ami időt, erőforrást, energiát, szilíciumot spórolnak meg. Lehet fogalmatlanul fasságokat irogatni, a leáldban elfér, de tanulni sosem késő elkezddeni. ha érdekel a technológia, ingyen annyi forrás elérhető, hogy beszarsz.
Ezt fejlődésnek beállítani, szemben azzal ahova eljutottunk valójában, hát jó.
Végülis utána amikor bedobod, hogy nem csak fejlődés, hanem spórolás is az energiával, mert csak 500 wattot eszik, az egy ezzel összemérhető komolyságú állítás.
Mondanám, hogy ne told fullba, de ezt csinálod kb két hete. Az 500W és a DLSS3.0 milyen relációban van azon a féltekén, ahol a fanboyságot mixelik az őrülettel? :D DLSS3.0 nemhivatalosan már futhat a 150W-os kártyán is. Sőt, a technológiához szükséges szilíciumra bár nincsenek mérések, de mivel ma már usb-n is elérhetőek némileg kisebb kapacitáson, olyan 20W-ra tippelem.Botond írta:Mondom, ha harminc éve jött volna a dlss, akkor megragadtunk volna az octopath traveller grafikai szintjén, mert a több képpont csak élsimításra lenne felhasználva. Miénk lenne a legszebb, letisztultabb 16 bites grafika, a lehető legkevesebb számítással.
Ezt fejlődésnek beállítani, szemben azzal ahova eljutottunk valójában, hát jó.
Végülis utána amikor bedobod, hogy nem csak fejlődés, hanem spórolás is az energiával, mert csak 500 wattot eszik, az egy ezzel összemérhető komolyságú állítás.
Hogy jön ide az 500W? :D
Vagy inkább kérdezek máshogy: ha 4090 bekapja a 450W TDPjét DLSS3.0 nélkül is, majd errre közel rádupláz fps-ben a frame generator, akkor az vajon mennyi energiát eszik? Szal erről így mi az elképzelés? Mit dob a matek? :D