Ilmselt Super refreshiga tulevad selle aasta lõpus 3GB mälukividega kaardid. Kui Nvidia seda üldse vajalikuks peab.
kõigepealt peavad samsung ja/või micron need suuremad mälukivid ära tootma ja piisavas koguses...
kui need kõlakad-uudised gddr7 teemal siin kuskil kevadel või suve alguses liikusid, siis nii micronil kui samsungil olid ainult 2gb kivid tootmises. 3gb ja edasi on olemas specis ja roadmapil aga vähemalt siis keegi neid veel ei tootnud (ja toodete planeerimine on selline pool aastat ette niikuinii). _________________ - londiste
...aga mina ei saa kunagi suureks!
Lootsin, et tuleb lõpuks midagi kompaktsemat, aga sõidame ikka sama moodi edasi...varsti on videokaart sama suur kui arvuti või veel suuremgi.
Need on kaks eri asja. Kompaktsus ei tähenda automaatselt väiksemat kaarti. Nvidia reference 5090 oli hea näide. Üli kompaktne PCB koos kiviga aga jahutus on ikkagi sama suur. AIB samamoodi, neil on lihtsam taaskasutada eelmise seeria tootmise malle. Kui võtaks ja paneks kõrvuti, siis ma ei üllatuks, kui coolerite mõõtmed on jälle samad. Mingit tootjad kasutasid isegi täpselt samu jahuteid va veidi uuem pealmine disain. Eesmärk on neil siiski hästi head jahutuse numbrid testides saada.
Kompaktsus on pigem APU teema või mobiilid/laptop. Need ajad on möödas, kus desktop mid ja high-end kaardid olid kompaktsed. _________________ Sõim ja räuskamine läheb SIIA
Xx70 seeria kaardile tuleb 16GB? See oleks ju ok. UE5 mängudel hetkel automaatne mäluhaldus nagunii 8GB peale krutitud...
DLSS 4 on täitsa uus algoritm, see ka ok ju. Vb algul tahab rohkem "treenimist"
Fake 1 kaadrit oleks nagu hea viis pildi silumiseks, aga milleks 3e vaja? Sellest ma ei saa aru. Input lagist ~55ms, sellest ma saan aru.
Kas monitoride realaotus käib ikka ühest nurgast teise? Ega vist, muidu oleks küll ekstra kaadrite vahele surumine artifakte jne vähendanud.
Hetke Gsync+ OLED 1ms reaalne värskendus peaks kuidas 2 lisakaadrist kasu saama?
Fake 1 kaadrit oleks nagu hea viis pildi silumiseks, aga milleks 3e vaja? Sellest ma ei saa aru. Input lagist ~55ms, sellest ma saan aru.
Selle jaoks, et müügijutuga ära lollitada
Sa ei vaadanud siis, et 4090 perfi saab nüüd 5070 hinna ja kaardiga
Üsna lihtne on müüa uusi seeriaid, kui lihtsalt öeldakse, et näe fps on suurem nüüd. Eks me saame peale päris teste teada, mis või kui palju on selle tagajärel miskit lõivu maksnud. Samamoodi nagu varasemad seeriad tekitasid artifakte, kuskilt tuleb lõivu maksta. Real frame ei ole sama mis fake seni veel. Isegi vist nvidia enda promos võrreldi uut tehnoloogiat ja väideti on vähem artefakte kui oli enne. Süvatestimine tuleb kindlasti HUB poolt. _________________ Sõim ja räuskamine läheb SIIA
Ennustan et DLSS4.5 toob viivituse kompenseerimiseks kaamera liigutuse võltsingu input antilag. Kaamera hakkab liikuma varem kui uus kaader koos võltskaadritega on valmis genereeritud.
FPS mängudes saab flick shot-id ära teha, hiljem selgub mis tegelikult pildil oli.
input antilag võimaldab mängudes kaadrisagedust veelgi alandada, kasvõi 5fps peale. MFG ja input antilag kompenseerib puudujäägid.
Lootsin, et tuleb lõpuks midagi kompaktsemat, aga sõidame ikka sama moodi edasi...varsti on videokaart sama suur kui arvuti või veel suuremgi.
Kuidas need kompaktsemaks peaksid muutuma, kui voolutarvet pidevalt tõstetakse?
Nvidia FE on kõige kompaktsem, aga AIB'd ei viitsi investeerida nii keerulisse disaini. Neil on lihtsam lajatada sinna pealt kolme või neljaslotine jahuti viie vendiga, mis on tegelikult eelmise jahuti kergelt muudetud versioon.
sirius4k kirjutas:
Millal viimati 90 SKU kahe-slotine oli?
See pole eriti hea võrdlus, kuna 90 seeria kaarte meil kolm tükki ongi olnud kokku. Seni.
Kui mitte arvestada mineviku Dual-GPU lahendusi.
80 Ti oli pikalt dual-slot k.a 1080 Ti ja 2080 Ti. Need olid 250W kaardid. Isegi 3080 Ti @ 350W oli tegelikult dual-slot.
degreal kirjutas:
Ennustan et DLSS4.5 toob viivituse kompenseerimiseks kaamera liigutuse võltsingu input antilag. Kaamera hakkab liikuma varem kui uus kaader koos võltskaadritega on valmis genereeritud.
FPS mängudes saab flick shot-id ära teha, hiljem selgub mis tegelikult pildil oli.
input antilag võimaldab mängudes kaadrisagedust veelgi alandada, kasvõi 5fps peale. MFG ja input antilag kompenseerib puudujäägid.
Ennustan et DLSS 10 puhul annad 1 pildi ette ja 20 tunnine arvutimäng genereeritakse valmis
Just, kogu see AI töötab raudselt selle põhjal, et nad on kogu mängu sisu suutnud ära virtualiseerida kuniks kõige tõenäolisema mängija sisendini igal ajahetkel välja. _________________ Slow is smooth and smooth is fast
Mul on palve nendele 30% jõudlust 1999$ eest piltide postitajatele. Ma võtaks 0 $ maksvaid 4090-neid kohe 3 tükki. Tulen ise järele.
Mõistlik oleks ilmselt ka vaadata palju viimaste põlvkondadega jõudlust juurde on tulnud. Ma ei näinud kedagi seda 30% juttu 7900 XTX kohta rääkimas.
Rääkisin ka r5 5600x väljatulekul, et AMD müüb nüüdsest "olen parim" hinnalisaga.
Eks cheateritel elu parem nüüd, keegi ei hakka enam vahet tegema kas AI draiveris või kusagil mujam "hiirt" juhib...
Aga noh interpoleerimine käis juba id Tech 3 mängumootoris, halva FPS/pingiga tundub nagu veaks hiirt sopas aga töö tegi ära
Point ei ole palju raha mingi asi maksab, vaid reaalne võimsuse kasv on 30% mitte 300+% mida üritatakse müügijuttudega rääkida
Seega kui Nvidia müüb 300% teooriat on paha , aga kui sina müüd mulle 0$ maskvaid 4090 teooriat on kõik korras ?
Ja kas seda peab siin iga 5 posti tagant spammima? See on vähemalt 3-s kord kui seda pilti videot siia postitatakse.
Ma saan aru , et see peab ikka mingi eriti tõsine põhjus olema kui 1-st korrast ei aidanud. Kui see nii tõsine teema on , siis hakkame sellest pikemalt rääkima.
addres999 kirjutas:
Ei saagi aru, mida selle eelmise gen võrdlusega siin mõeldud on, et kas hea või halb siis? IMO täiesti vale, sisutühi ja mõttetu võrdlus.
Point on selles, et 30% jõudluse kasvu põlvkonnaga on täiesti tavaline. Teine point on Nvidia kasutatud reklaam on ka täiesti tavaline reklaami praktika. Kõik tootjad teevad seda.
Kui kõik seda teevad ja kui numbrid on tavalised, siis miks see seekord on nii suur probleem, et seda peab siia spammima ?
Fake 1 kaadrit oleks nagu hea viis pildi silumiseks, aga milleks 3e vaja? Sellest ma ei saa aru. Input lagist ~55ms, sellest ma saan aru.
Selle jaoks, et müügijutuga ära lollitada
Sa ei vaadanud siis, et 4090 perfi saab nüüd 5070 hinna ja kaardiga
Üsna lihtne on müüa uusi seeriaid, kui lihtsalt öeldakse, et näe fps on suurem nüüd. Eks me saame peale päris teste teada, mis või kui palju on selle tagajärel miskit lõivu maksnud. Samamoodi nagu varasemad seeriad tekitasid artifakte, kuskilt tuleb lõivu maksta. Real frame ei ole sama mis fake seni veel. Isegi vist nvidia enda promos võrreldi uut tehnoloogiat ja väideti on vähem artefakte kui oli enne. Süvatestimine tuleb kindlasti HUB poolt.
Nagu just ühes teises kohas kirjutasin siis see "fake frame" on mõneti ülepakutud halvustav ütlemine. Tuletaks meelde, et ajal kui igasugu fäänsi tehnoloogiaid polnud oleme me seoses kaadritega igasugu tsirkust näinud. Võtame näiteks tearing - mis on tearing? Tearing on see kui sa näed korraga ekraanil mitut vana ja uut kaadrit korraga, sest kaart söödab neid mollile kiiresti ette. Okei, siis tehti v-sync, et poleks tearingut ja näidataks ainult täiskaadrit. Sellega jälle häda - kui kaart ei suuda piisavalt kiiresti järgmist täiskaadrit mollile ette sööta siis juhtub mis - juhtub see, et viimast täiskaadrit näidatakse uuesti niimitu korda kuni uus täiskaader näitamiseks kohale jõuab. Rääkimata siis sellest, et andmaks aega järgmist täiskaadert renderdada kukub sagedus kas siis 120 pealt 60 peale või 60 pealt 30 peale. Liigne vist on öelda, et see on rõve nõkutamine. G-sync muidugi kaotas selle probleemi ära, sest tänu g-syncile võis kaardi saadetu kaaderr ja molli refresh töötada mistahes sagedusega sünkroonselt ehk siis näiteks kukkudes alla 60 kaadri võis nüüd ka freim olla näiteks 49 või 55 kaadrit mitte ei kuku põmmdi 30 peale.
Nüüd võikski öelda, et FG on mõneti sarnane sellele kus viimast kaadrit näidatakse kaks korda - ainult selle vahega, et AI üritab ikkagi välja raalida lähima vaste sellele mis see päris järgmine kaader saab olema mitte ei näita tuimalt täpselt samat. Samuti ei näidata lisakaadrit "hädapärast" ja kaootiliselt vaid süstitakse süsteemselt ja nimme teiste kaadrite vahele jätmaks üleüldist sujuvamat muljet. Muidugi kõiki neid elulisi muresi saab vältida seeläbi, et osta lihtsalt ülikallis ja võimas high end kaart mis brute force'ga asju veab ja gimmickud saab OFF'i panna aga üldjuhul ju valdaval ernamusel ei ole sellist finantsi. Samuti pole see FG mõeldud ju olukorda kus sul kaart jooksutab asja niikuinii miski 150fps aga sa tahad lihtsalt rohkem, sest SAAB ja monitore on nüüd juba ka 500+Hz olemas. Küll aga on ju tore kui mängid mingit Baldurs Gate 3 laadset asja entry level kaardiga, ei taha kõiki settinguid very low peale panna kuna on kole aga ilusate sätetega on fps 25. Nüüd FG'ga saad tekstuuride ilu säilitada ja samas kaadrisageduse talutavaks. Jah see lisaperf ei ole ideaalne - on glitche ja artifacte keeruliste tekstuuridega jne. aga AI'l võtabki õppimine aega ja mingid miinused kindlasti ka jäävad kui norida tahta.
Nagu sa näed siis siin on palju ilkumist ja juttu stiilis "mäng mängib end ise", "mäng ise vajutab klaviatuuril nuppu ja liigutab hiirt" jne. Tegelt see ju nii ei ole.
sa ei või postitada uusi teemasid siia foorumisse sa ei või vastata selle foorumi teemadele sa ei või muuta oma postitusi selles foorumis sa ei või kustutada oma postitusi selles foorumis sa ei või vastata küsitlustele selles foorumis sa ei saa lisada manuseid selles foorumis sa võid manuseid alla laadida selles foorumis
Hinnavaatlus ei vastuta foorumis tehtud postituste eest.