Cyberpunk 2077, ecco le specifiche del PC usato per il video gameplay

29 Agosto 2018 127

Il primo video gameplay di Cyberpunk 2077, svelato da CD Projekt RED appena un paio di giorni fa, girava su hardware assolutamente "normale", per quanto di fascia alta. La stessa software house ha svelato sul canale Discord ufficiale del gioco le specifiche tecniche del PC usato per la dimostrazione, che sono le seguenti:

  • Processore: Intel Core i7-8700K @3,70 GHz
  • GPU: Nvidia GeForce GTX 1080 Ti
  • Motherboard: ASUS ROG STRIX Z370-I
  • RAM: 32 GB (2x16 GB) G.Skill Ripjaws V CL15 @3.000 MHz
  • SSD: Samsung 960 Pro M.2 PCIe da 512 GB
  • Alimentatore: Corsair SF600 da 600W 80 Plus Gold

È bene osservare che 1) il gioco non è ancora completo e 2) le specifiche qui sopra non sono state in alcun modo definite né minime, né consigliate. Sembra comunque che, nonostante il debutto dell'ambizioso RPG in prima persona, sia ancora molto distante, non sarà necessario l'ultimissimo hardware per giocarci.

Tre fotocamere per il massimo divertimento ad un prezzo top? Huawei Mate 20 Pro, in offerta oggi da Gaming Pro a 419 euro oppure da Coop Online a 499 euro.

127

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Ale

Niente, ti ho risposto 2 volte e 2 volte il commento è sparito, senza che io inserisci contenuti proibiti, provo un'ultima volta, se sparisce pure questo amen.
assemblando oggi il pc per qualcuno che non vuole aspettare Turing, solo un pazzo prenderebbe una Vega guardando il rapporto prezzo-prestazioni e l'articolo che hai postato tu lascia il tempo che trova perché prendono delle vega e le ottimizzano in voltaggio e frequenza mettendole contro le peggiori versioni esistenti delle gtx, appunto le FE, senza risercare la stessa gentilezza alle gtx. Con afterburner infatti puoi modificare la curva d'azione del gpuboost ottimizzando frequenza e voltaggio delle gtx in maniera più precisa rispetto alla semplice barra da trascinare per il Power limit e gli offset del core e delle memorie, quindi questo giochetto lo si fa anche con le gtx volendo. E in più le gtx FE stock hanno una curva ventole penosa a livello termico perchè cercano di privilegiare l'acustica a discapito delle prestazioni, e questo fa andare in thermal throttling pesante la 1080 riducendo le prestazioni, e limita fortemente il gpuboost della 1070 e della 1070ti. Sarebbe più giusto confrontare i risultati delle Vega custom con settaggi aggiustati con le gtx custom anch'esse overclockate, allora i numeri tornano nuovamente al loro posto. Cercando sul web una Vega 56 costa più di una 1080 custom di quelle buone, andando meno. perché comunque la giri se prendi una custom 1080 e una Vega 56 con tutti i settaggi ottimizzati del mondo non ci arrivi alla 1080, specialmente se overclockata. Quindi se devo ad oggi stare sui 400/450€ prendo una 1070 o 1070ti, se devo stare sui 530€ di una Vega 56 risparmio e prendo la 1080, se devo spendere 630€ di Vega 64 ne attacco altri 70 e prendo una 1080ti che sta su un'altro livello. La realtà ad oggi è questa, quindi confermo quanto detto all'inizio. Dalla 1070 in su non esiste concorrenza.

Ale

Mining e Vega sono come acqua e olio, mi spiace ma il prezzo delle Vega non è influenzato dai miner, Vega per il Mining non è gran che.. sono buone solo in cryptonight e derivati, in tutti gli altri algoritmi come consumo/prodotto sono meglio le rx 570/580 e anche alcune gtx, senza contare che in Linux hanno ancora oggi tanti problemi nelle configurazioni con tante schede, mentre con Windows 10 non hanno di questi problemi, e il Mining serio (quindi le farm) non si fa certo windows. Qua si parlava di un acquisto in ottica futura quindi pascal non è saggio no, salvo trovare occasioni con prezzi particolari, o avere la necessità imperativo di assemblare oggi senza poter aspettare.

Di Turing si sa gran poco, e certamente non si potrà paragonare a queste VegaVegain termini di prestazioni, si dovrà aspettare navy.

Ale

Confondi l'aumento di prestazioni delle vecchie AMD con castrazione nvidia, se prendi un bench della 980ti quando era il suo tempo e ne prendi uno oggi vedrai che i risultati son quelli, mentre AMD ha migliorato le performance negli anni grazie alle poche modifiche apportate nel tempo all'architettura e ai vari chip riutilizzati nelle gen successive. Le gtx in legacy la sono e la restano, non evolvono e ricevono solo bigfixing per un tot di anni. In poche parole questi confronti che vedi non sono un demerito di nvidia, ma un merito di AMD. L'ottimizzazione specifica AMD cel'ha fino a che non cambia qualcosa di sostanziale nell'architettura, dopo di che addio (giustamente) che è comunque sempre meglio di nvidia sotto questo punto di vista, qua sta ai bisogni del consumatore, chi compra una scheda per tenersela il più possibile avrà amato la 290 (una fra tutte) che oggi permette ancora di giocare piuttosto bene se non si supera il fullhd, chi invece come me cambia gpu abbastanza spesso non è interessato al "fine wine" ossia quei piccoli incrementi nel tempo che poi sommati diventano una percentuale importante. Fermo restando che comunque chi ha una 1070 non è che la butta tra 2 anni eh.. volendo te la tieni per un sacco di tempo anche quella, ma non ti puoi aspettare miracolosi incrementi prestazionali. E comunque prendere delle gpu, e ottimizzare voltaggi e frequenze per dare il meglio in un bench sintetico (poi magari dopo qualche ora di gioco danno problemi per scarso voltaggio? Chi lo sa, non ci sono test su sessioni lunghe sotto stress) e confrontarle con altre gpu stock non ha il minimo senso, quanto meno avrebbero potuto fare la stessa cosa con le gtx in esame, modificando la curva del gpuboost e mettendo la ventolina del blower a manetta, quel tanto che basta per ridurre i consumi overclockando e evitando con la ventola il taglio delle frequenze Per throttling. In altre parole basta andare a vedersi le prestazioni delle gtx custom overclockate e prendere delle Vega custom ottimizzando anche li frequenze e voltsggi per pareggiare i conti. Spero che non torneremo più sull'argomento, perché alla luna stufa ripetere le stesse cose con la stessa persona per mesi.

Ma tornando ora alla parte centrale del discorso (ogni volta divaghiamo sempre sugli stessi argomenti :D ) ad oggi per me dalla 1070 in su non c'è concorrenza come prezzo-prestazioni. Cercando in rete in pochi secondi lo scenario è il seguente:

Vega 56 530€ - 538€
Vega 64 610€ - 624€

1070 396€ - 420€
1070ti 433€ - 451€
1080 476€ - 490€

A sinistra del trattino il prezzo più basso per un modello decente (quindi escluse reference e mini itx, minimo 2 ventole) a destra prezzo di modello un po più costoso ma che ha un dissipatore migliore (quello che sceglierei io in fase d'aquisto)

Con questi numeri ho dimostrato che dovendo assemblare un PC oggi solo un pazzo sceglierebbe Vega.

gino loreto

L'unica cosa su cui ti do ragione è che le vega costano troppo, almeno per ora finchè il mining non si esaurisce.
Tuttavia pascal è già una gpu "vecchia" secondo lo standard Nvidia, e comprarla adesso forse non è la scelta più saggia, come non è saggio comprare vega a prezzi fuori da ogni logica.
Bisognerà vedere i prezzi e le prestazioni finali di turing, e poi vedere come si evolverà il mercato.

Ale

Quello che hai descritto non è un decremento prestazionale delle gtx, quelle si sono fermate dato che son passate in legacy, sono le AMD che invece hanno aumentato le performance, cosa che è stata possibile perché non hanno fatto sostanziali stravolgimenti d'architettura, e quindi parte dei benefici dei driver per le nuove generazioni si riflettono sulle vecchie. quindi qua non è che le gtx vengono castrate, sono le AMD che dopo anni guadagnano punti percentuali, per carità.. cosa apprezzabilissima, ma avere un 5-8% di potenza in più dopo 2 anni a me non interessa gran che, dato che cambio spesso gpu, per altri magari è fondamentale, degustibus. da vedere però appena cambiano architettura se supporteranno la vecchia e se gli incrementi continueranno, infatti se noti queste disparità nel tempo ci sono solo nei chip resuscitati (ad eaempio la 380x che era una 285 se non ricordo male) ma su chip che sono andati a morire invece di essere riutilizzati gli incrementi sono risicati, che ripeto: sempre meglio di nulla. Nessuno discute questo, si discute il fatto che non sono le gtx a peggiorare ma le AMD a migliorare, quindi non è un'operazione scorretta di castrazione di nvidia ma un merito di AMD. Infatti una 980ti usata su un gioco del suo tempo, andava bene al lancio come va bene oggi sullo stesso gioco, sui nuovi ovviamente l'ottimizzazione è quella riservata alle legacy, ossia supporto e bugfixing ma niente di trascendentale.

Riguardo invece alla parte più importante, quella che era oggetto del discorso prima che divagassimo su altro, ossia l'articolo postato da te. Il problema resta, ossia c'è da guardare confronti con le gtx custom. Una Vega 56 settata ad hoc raggiunge una 1080 solo e soltanto perché il dissipatore blower fa schifo, prendi una AMP extreme, o una strix e guarda i risultati nei giochi, vedrai che la storia cambia. Se poi fai lo stesso giochetto con voltaggi e frequenze di una gtx puoi sorprenderti dei risultati che ottieni modificando la.curva su cui gpuboost agisce (possibile farlo da afterburner) nessuno lo fa perché a nessuno serve dato che le temperature delle gtx vanno bene così la maggior parte delle persone per risparmiare tempo alza semplicemente il Power limit e la frequenza del core e delle memorie. Confrontare delle Vega overclockate con delle gtx che non solo sono a frequenze standard ma sono pure founders e quindi limitate (le Vega le hanno undervoltate per ovviare la limitazione del blower) mi sembra una prova inutile. Tutto qua. Guarda i risultati delle 1070, 1070ti e 1080 overclockate e poi confrontali con i risultati dell'articolo scelto da te, dopo di che guarda nuovamente i prezzi delle 3 gtx e delle 2 Vega, e dimmi.. davvero Vega è appetibile? Perché questo era il punto iniziale, concorrenza in termini di prezzo e prestazioni.

Dal TP, evitando versioni reference e versioni mini itx, guardiamo solo buoni marchi con almeno 2 ventole tipo sapphire, Asus (per nvidia) gigabyte ecc

Vega 56 530€ (sapphire biventola)
Vega 64 610€ (gigabyte biventola)
Vega 64 630€ (sapphire triventola)

Gtx 1070 400€ (Asus dual)
Gtx 1070ti 430€ (gigabyte aorus)
Gtx 1080 490€ (Asus strix)

A fronte di questi numeri credo proprio di poter confermare la mia frase: "dalla 1070 in su non c'è alcun tipo di concorrenza"

solo un pazzo sceglierebbe una Vega, soprattutto una Vega 64, che costa 630€ il modello sapphire (che per 20€ in piu rispetto alla gigabyte offre un dissipatore migliore) con 70€ in più sempre sul TP ho trovato la 1080ti che è su un altro livello prestazionale.

gino loreto

Le schede usate nel confronto sono vega REFERENCE non le custom. Gli schemini con le frequenze sono relative al massimo oc e undervolt stabile che sono riusciti ad ottenere, non SONO le frequenze standard.
Nvidia ha fatto uscire sul mercato la 1070ti perchè la vega 56 va di più della 1070.
Techpowerup ti indica le percentuali sulla differenza prestazionale tra le varie schede reference considerando la media di oltre una ventina di giochi: tra la 1070 e la vega 56 c'è sempre differenza a favore della vega 56 a qualsiasi risoluzione.
Le gpu Nvidia hanno bisogno di una ottimizzazione driver specifica per dare il massimo.
Quando esce la serie nuova, Nvidia concentra le risorse solo sulla nuova.
Il blog di geforce ti da una buona idea di quante persone abbiano avuto un decremento prestazionale nei giochi con le schede vecchie, nell'atto di upgradare ad un driver nuovo, poco dopo l'uscita di una nuova serie.
Se tu non fossi ancora convinto, basta confrontare le percentuali sempre di techpowerup della 970 -980ti e confrontarle con la 390-fury x.
Al lancio, la gtx 970 era più veloce del 4% rispetto alla 390 in full hd. Due anni dopo la 970 era più lenta del 3% della 390 in full hd. Significa che in due anno la 970 ha perso il 7% di prestazioni complessive.
Stesso discorso con la 980ti, al lancio superava la fury x in tutte le risoluzioni, adesso invece se la giocano in full hd mentre alle altre risoluzioni la fury x è più veloce.
Che sia dovuto ai driver, o a qualsiasi altra ragione, le Nvidia perdono prestazioni complessive col trascorrere del tempo, è un dato di fatto.
Guarda ora la 780ti confrontata con la r9 290x, al lancio la 780ti spaccava, ora invece...
Se mi dici che è solo questione di giochi DX12 e vulkan che spostano l'ago della bilancia, ti rispondo col caso di Forza Motor Sport 7: uscito il gioco con i primi driver, le vega spaccavano tutte le pascal, Nvidia aveva detto in un primo tempo che le prestazioni erano quelle. Dopo qualche settimana uscì il driver specifico e le prestazioni furono allineate agli altri giochi.
Quando uscirano le turing, vedrai che le pascal si sogneranno una ottimizzazione specifica come hanno avuto finora.

Ale

Nel link che mi hai mandato prendono delle Vega custom, le undervoltano e le overclockano, e le confrontano con delle FOUNDERS EDITION... trova dei confronti con le custom nvidia dato che come dicevo sopra le FE limitano il gpuboost per via del dissipatore insulso, specialmente nel caso della 1080. Senza contare che quelle Vega reggono quel clock con quei voltaggi, ma per quanto tempo? Non vedo test di stabilità sul lungo periodo ma solo bench sintetici, e poi, se compro una Vega son sicuro che regga quei voltaggi? No ovviamente.. perché come per le CPU ogni chip è a se. In poche parole con questo link hai dimostrato quello che dicevo io sopra, che le Vega sono allineate alle FE. E meglio che non dica nulla anche su quanti e quali titoli son stati scelti nell'articolo.

Turing non c'entrava nel discorso, si confrontava Vega con pascal, ma sicuramente una 2070 sarà decisamente migliore di una 1070, non si sa ancora di quanto ma dubito sia solo un 5%, così come dubito che sia un 70%, così come anche i prezzi una volta superato il periodo lancio.

Poi apena mi parli di diminuzione prestazioni della vecchia gen come al solito cadono i cosiddetti. Le prestazioni della gen precedente (e tel'ho detto e dimostrato più di una volta molti mesi fa) è avvenuta sulle gtx 700 ed è stato archiviato come problema driver risolto nelle successive release driver.(poi che sia veramente stato un problema o che siano stati beccati e hanno fatto marcia indietro non lo si può dire, nessuno di noi utenti finali ha prove, solo supposizioni. fatto sta che è stato risolto.) Le gtx 900 dove sono state depotenziate e quando in favore delle gtx 1000 invece? Hai delle prove che possa smontare anche questa volta?

gino loreto

La vega 56 é più veloce della 1070 a qualsiasi risoluzione.
Sul capitolo consumi ti do ragione solo sulla vega 64, tuttavia se undervolti e overclokki la 56, ottieni prestazioni da 1080 con consumi da 1070.
Per i prezzi sì sono ancora alti, tuttavia bisognerà vedere:
1) le prestazioni vere delle turing.
2) il prezzo reale delle turing.
3) la eventuale diminuzione delle prestazioni delle pascal via driver, per far risaltare le turing.

Ale

Beh dipende, se AMD tira fuori qualcosa di competitivo come prestazioni/temperature allora può fare prezzi simili, altrimenti se tira fuori chip energivori e che non stanno al passo deve per forza di cose far guerra sul prezzo.

Concordo sul problema memorie, e riguardo l'ultima parte effettivamente sull'affermazione dell'articolo effettivamente avevo frainteso ciò che dicevi

Ale

Sì, in qualche titolo, è comunque con prezzi e consumi che le mettono già fuori mercato

Pussydestroyervodka
reft32

Già hanno fatto un capolavoro con The Witcher 3 , credo che possono fare solo meglio questo bravi sviluppatori.Personalmente adoro l'atmosfera cyberpunk

Maximus

Hai capito benissimo il senso...il moto g del 2013 è scarso, quegli emulatori girano anche su un tosta pane.

gino loreto

Le Vega vanno meglio delle Pascal di pari fascia. L'unica che non ha concorrenti è la 1080ti.

gino loreto

1080p....

DeeoK
nel corso del 2019 scenderanno

Assunzione molto ma molto pesante. Non riterrei così probabile un calo significativo ed AMD potrebbe optare per prezzi simili senza considerare che la produzione di memorie resta un problema.

Poi è ovvio che non mi riferissi ai requisiti del gioco in sé ma all'affermazione dell'articolo che non sta né in cielo né in terra.

Mr. Borghese
Maximus

Il mediacom w700 sarà una ciofeca ma costa 39€ ha windows 10 ed è più produttivo di quel posa cenere del moto g che già era scarso a livello hardware nel 2013 figurati adesso manco l'emulatore del gameboy ci gira ;)

Leon

Speriamo ;)

Ale

Sì ma sono prezzi lancio per spennare chi è impaziente e può permettersi la spesa, e non solo AMD non ha ancora proposto nulla per rivaleggiare, ma addirittura le attuali Vega non competono nemmeno con pascal.. dunque questi prezzi spropositati erano prevedibili, nel corso del 2019 scenderanno, soprattutto se AMD tirerà finalmente fuori qualcosa di buono in fascia alta. Senza contare che come dice l'articolo la 1080ti non è il requisito minimo, ci si può giocare anche senza rinunciare ad un rene

Desmond Hume

non lo so rick, sto gioco puzza quasi di next gen

Desmond Hume

i castori spaziali li trovi già ora sotto ogni recensione xiaomi in cui qualcuno fa notare delle mancanze.

Mr. Borghese

Il mio moto G 2013 ha intanto Android Pie grazie ad XDA e va benissimo ;) sempre a criticare eh trollone

Maximus

No tranquillo ho anche un desktop con ryzen 1700 con 16gb di ram ed una gtx 1080 almeno li dovrebbe girare.

Maximus

Non esageriamo il tuo moto g 2013 nel 2018 è solo un ferma carte.

Lindorrr Luka

Vedremo

DeeoK

Allora uno SLI di 2080Ti è d'obbligo.

DeeoK

Da quel che è emerso fino ad ora questo non cambia di una virgola.
Le nuove GPU Nvidia non sembrano avere un sostanziale incremento di prestazione a fronte di un prezzo simile.

Ale

Sì ma ora che esce il gioco ci saranno sul mercato le nuove generazioni nvidia e AMD

Lindorrr Luka

Mi accontento solo del meglio.

Ngamer

lo spero :)

Bau

ma basta una one X con 400€ (anche bianca) e risparmi soldi e nervosismi

Stech1987

Lontre marine!

DeeoK

Solo? Pfff...
Ci si accontenta di poco, vedo.

DeeoK

Oppure è un troll.

DeeoK

Ma chi l'ha scritto l'articolo ha mai visto i prezzi dei componenti presenti?
Perché è fascia enthusiast, la più alta...

AxeR

Fps, ok

MirkoHW

Ma a che risoluzione girava?

d4N

Puoi metterlo come sfondo al desktop, così forse alcune volte durante la giornata lo aggiorna

MR TORGUE

se una 1080ti non è nè "minima" nè "consigliata", che diavolo sarà?

d4N

Si l'installazione senza problemi, vorresti anche avviarlo poi? XD

hammyboy

io ho il raffreddamento ad aria, 2 schiavi con ventagli di piume di struzzo che fanno aria h24 sul pc... sto a 2 gradi meno di Noctua ma in tutta la stanza

Bruce Wayne

a 720p tutto al minimo con una MX150 ci riesco a fare i 20 frame?

Ambro

Non è un FPS.

Hammer

Ci gira su un Q6600, 4GB ram e radeon hd6950? :asd:

Paolo C.

PC da povery

Paolo C.

Deve ancora uscire

Zetec

Seriamente la gente sbava per questo gioco? A me non sembra nulla di che, un altro dei 500 FPS e anche a livello tecnico non mi sembra tutto questo miracolo. Mi aspettavo qualcosa di più originale sinceramente.

Bogdan Batura

Vai vai , fatti comprare il pc dalla mamma!!

Luca

Beh fino ad una settimana fa era il top. E la configurazione si riferisce a quella della demo E3 (giugno) quando era il top.

Recensione Nintendo Switch Lite: la console che mancava | Pregi e Difetti

Asus Rog Phone 2: tutto su accessori ed esperienza gaming | Video Recensione

Nintendo Switch Lite: le nostre prime impressioni | Video Anteprima

Recensione The Dark Pictures: Man of Medan; l'atmosfera horror c'è ma non basta