Non è solo un fatto di brand

 Console e PC, parte 2 visibile qui –

– Console e PC, parte 3 visibile qui

 

Il dibattito infinito: “è più potente un PC”, “è più potente una console”, “costa di più un PC”, “costa di più una console”, “è meglio un PC”, “è meglio una console”.

Ed è appunto infinito, ed infinito sarà per sempre, perché cerca di fare qualcosa che con un dibattito non è possibile fare: usare elementi astratti, a volte opinabili, non sempre pertinenti, spesso anche soggettivi, per dimostrare la realtà, una realtà che è però puntualmente diversa da quella… beh, reale. Insomma, è tecnicamente parlando il cozzare di due utopie fondate su pilastri, secondo me, tutt’altro che saldi.

La realtà è una sola, e cioè ci sono sia tantissimi giocatori su PC che tantissimi su console. Se le cose sono così c’è un motivo – anzi, tutta una lunga e complessa serie di motivi -, non è un caso, e cercare di dimostrare che una delle due parti sta “sbagliando” è non solo logicamente folle, ma terribilmente noncurante di una situazione meritevole di analisi ben più interessanti e competenti, che vengono oscurate da chi fa più chiasso degli altri perché vuole a tutti i costi avere ragione su qualcosa di preso per vero a priori. Sapete, su internet basta urlare un po’ e si è subito una personalità meritevole di attenzione, quindi non mi stupisco che in molti seguano questa strada.

 

Perché me ne esco con questo articolo?

Mi sono stancato di sentire persone con le conoscenze specifiche di un lemure ripetere sempre le stesse argomentazioni arrabattate e parziali senza neanche sapere cosa significano esattamente o perché dovrebbero stare in piedi. Internet alla lunga rende sterili tutte le discussioni, perché gli unici che hanno voglia di continuare a perpetrarle fino all’infinito sono i più fanatici, e statisticamente “fanatico” e “persona con un cervello” non vanno insieme.

Oggi vorrei provare a fare un esperimento nuovo. Vorrei che ci dimenticassimo di tutte le chiacchiere che è ormai impossibile evitare di leggere quasi ovunque, facessimo un bel respiro e guardassimo il quadro completo con occhi nuovi, di chi è lì per capire perché le cose succedono e perché succedono così, e non per cercare di dimostrare una tesi accettata come giusta a priori e sulla base di una visione limitata, spesso anche sbagliata, prendendo pezzettini di elementi più o meno pertinenti e incastrandoli insieme con la colla per costruire una “dimostrazione” che qualcuno ha “ragione” e qualcuno ha “torto” su una cosa che non si comprende mai in tutti i suoi aspetti.

 

Questo articolo coprirà tre grandi campi, uno tecnico, uno economico e uno sociologico (forse anche un po’ antropologico; in ogni caso, avete capito). Non voglio trattarli insieme, rischio solo di generare confusione, quindi ho deciso di dividerlo in tre pagine completamente separate.

Questa è la prima parte, in cui ragionerò su come PC e console eseguono i giochi, sul perché li eseguono così e sul senso che andrebbe dato alle loro specifiche nominali. La seconda parte coprirà come storicamente siamo arrivati al “duopolio” attuale e perché economicamente questo sistema perdura senza che le due parti si consumino a vicenda, e la terza perché parecchia gente ha deciso che invece le cose non vanno bene così come sono e che una delle due “fazioni” deve prevalere sull’altra.

So che questa pagina potrebbe sembrare un po’ “inutile” e in fondo staccata dal fulcro di quello di cui voglio parlare, ma penso che sia necessaria per fare un primo passo nella direzione giusta. Più avanti ragionerò sul senso delle discussioni informate e disinformate, e non “informare” io per primo mi sembrava particolarmente stupido. Se trovare questa pagina un po’ noiosa o complicata da seguire posso capirvi, e vi prometto che le prossime due, soprattutto la terza, saranno molto più ancorate alla vivo della discussione. Intanto portate pazienza e fatemi chiarire una cosa che credo vada chiarita prima di poter dire altro.

 

Cosa ci insegna il passato?

Penso che possiamo tutti essere d’accordo che, alla fine dei conti, quello che ci importa è come i giochi vengono eseguiti dalle varie piattaforme, e che solo una volta studiata la realtà della situazione potremo cercare di ragionare sul perché. Non si sta valutando la potenza teorica di due apparecchi, si sta ragionando su come ognuno esegue un preciso compito, un compito reale, tangibile e verificabile, ed è quel compito che ci interessa veramente.

Insomma, il problema in partenza è mal posto. La domanda non dovrebbe essere se “è più potente un PC o una console”, ma se “un gioco è eseguito meglio da una PC o da una console”.

 

Ciò detto, per adesso teniamo fuori PS4 e Xbox One; sono apparecchi ancora troppo nuovi, “instabili” e con pochi elementi analizzabili per offrire un quadro chiaro della situazione. Abbiamo però tante console alle nostre spalle, tutte affiancate al PC, di cui possiamo costruire dei post-mortem indicativi per il futuro.

 

PS1 e PC

Perché non partire da un caposaldo della storia dei videogiochi? Doom, 1993. Doom uscì su un’infinità di sistemi, tra cui la prima PlayStation. La differenza grafica con le versioni PC, anche con quella DOS ormai morente, è enorme. Ho preparato un video per illustrare meglio la situazione:

[youtube https://www.youtube.com/watch?v=WDgbJ0Zt2Xw]

 

Non c’è che dire: su PS1 il gioco è visivamente limitato in tutta una serie di modi e ha un frame rate terribile.

Ma i PC sono potenziabili all’infinito, ed entrambi quei filmati sono stati registrati con configurazioni più moderne del gioco stesso. Facciamo allora il ragionamento inverso: se quello su PS1 è il gioco che gira male, su che PC girerebbe, nominalmente, altrettanto male? Ovvero: quali sono i requisiti minimi per Doom?

Doom per DOS (minimi):
– processore compatibile IBM 386 (16 bit, 16-25 Mhz)
– 1-4 MB di RAM (alcuni siti riportano 4 MB minimi, ma in un disco demo vecchio come il mondo chiamato “Inferno” – che Dio solo sa perché ho in casa – contenente tutta una serie di FPS viene affermato che per Doom 1 è sufficiente 1 MB, mentre solo per Doom 2 servirebbero 4 MB. Non posso ovviamente fare la prova per scoprire chi ha ragione, ma riporto la cosa)

Doom per Windows 95 (minimi):
– processore compatibile IBM 486 (32 bit, 66 MHz)
– 8 MB di RAM

 

A rigor di logica, una PS1 dovrebbe montare specifiche comparabili con quelle che ho appena elencato, visto come esegue il gioco. E, curiosamente, è proprio così:

PlayStation 1 (1994):
– CPU a 32 bit da 33,8688 MHz (più una piccola unità integrata per l’estrazione di immagini e video)
– GPU a 32 bit da 33 MHz circa
– 2 MB di RAM della CPU, 1 MB per la GPU e 512 kB per l’unità audio

 

Guardando a Doom, la PS1 ha due processori che sommati fanno la potenza di quello richiesto su Windows 95 e meno RAM della minima necessaria per il sistema a 32 bit che monta (anche mettendo insieme quella di tutte le unità non si arriva neanche a metà). Tutto sembrerebbe tornare: in quanto sistema a 32 bit PS1 è appena sotto ai minimi per Doom, e così appunto il gioco va, al minimo e male.

Questo significa che giochi con requisiti più alti di questi non ci funzioneranno mai a dovere, e che la PS1 è un PC scarso persino per le prima metà degli anni ’90, cioè che è “nata vecchia”. Giusto?

Sbagliato:

[youtube https://www.youtube.com/watch?v=hb6s5ikwmm8]

 

Gli anni passano, l’hardware di PS1 rimane ovviamente sempre lo stesso, ma i giochi diventano palesemente sempre migliori dal punto di vista tecnico. Tenetelo bene a mente, tutti i filmati che avete appena visto girano ancora su quelle CPU, GPU e neanche 4 MB di RAM che faceva fatica ad eseguire un Doom a grafica bassa.

Dato che mi rendo conto che i PC degli anni ’90 non sono proprio un argomento alla mano, mi sono premurato di rintracciare i requisiti richiesti per giocare su computer ad un paio di questi stessi giochi che ho inserito nel video. Per Croc, su PC servono almeno un Pentium da 133 MHz e 16 MB di RAM, mentre per Metal Gear Solid addirittura un Pentium II da 266 MHz (solo 233 MHz con l’accelerazione 3D) e 32 MB di RAM. E, sottolineo, questi sono i minimi di entrambi, non i consigliati.

 

Ma com’è possibile? Come fa la PS1, pur partendo con pezzi nominalmente deboli e non cambiandoli mai, a vivere un’evoluzione grafica così evidente per così tanti anni? Come fanno due processori che sommati fanno meno di 1/3 della velocità e una RAM da 1/10 della grandezza ad eseguire lo stesso gioco (Metal Gear Solid) altrettanto bene solo perché sono montati su una console e non su un PC?

Ma una rondine non fa primavera, PS1 era una macchina strutturalmente insolita e stiamo parlando di hardware molto vecchio, il cui reale funzionamento potrebbe non coincidere automaticamente con un paio di dati per come li prendiamo oggi. Passiamo oltre.

 

PS2 e PC

Nel 1999 esce PlayStation 2, come tutti saprete. Queste sono le sue specifiche tecniche:

PlayStation 2 (1999):
– CPU (“Emotion Engine”) a 128 bit da 294,912 MHz con 32 MB di DRDRAM
– GPU da 147,456 MHz con 4 MB di DRAM
– Scheda audio con 2 MB di RAM
– Processore I/O equivalente alla CPU di PS1 (37 MHz circa e 2 MB di RAM)

– Totale potenza: 6,2 Gigaflops

 

Per l’epoca PS2 era una macchina piuttosto potente; l’Emotion Engine, la CPU, era una delle migliori sul mercato. Ci sono però degli evidenti colli di bottiglia, il primo e più ovvio nella RAM, che ammonta sommando quella di tutti i pezzi specifici ad appena 40 MB.

 

Nel 2004 esce su PS2 GTA: San Andreas, portato su PC l’anno successivo. I requisiti sono già esageratamente superiori a quello che nominalmente PS2 può fare:

GTA: San Andreas su PC (requisiti minimi PC):
– Pentium III (32 bit, 1 GHz)
– 256 MB di RAM
– GeForce 3 (da 175 MHz in su, 64 MB di RAM)
– 3,6 GB di spazio libero

– Totale potenza: circa 60 Gigaflop

 

Mi sono adoperato molto per ricostruire un valore in Gigaflop per questa configurazione PC, ma vi avviso che si tratta di un numero da prendere con cautela, per due ragioni. La prima è che per molti pezzi di quest’epoca non sono mai stati diffusi numeri ufficiali, quindi quelli che ho trovato sono poco verificabili, per quanto plausibili, e la seconda è che nel tempo le strutture delle GPU sono cambiate molto, e dato che per quello che so i flops vengono indicati generalmente come la quantità di calcoli eseguita dalle sole unità di shading non rappresentano una stima sufficientemente indicativa da sola; alcune schede di questi anni o di poco dopo di cui sono noti i flops “ufficiali” presentano numeri decisamente non in linea con le loro reali prestazioni.

Il ogni caso non siamo neanche vicini ai requisiti di una PS2, Gigaflop o meno. San Andreas su PS2 gira malino e con la grafica equivalente a quella minima per PC, quindi le specifiche da guardare per i PC sono appunto le minime, ma in nessun modo sulla carta una PS2 sarebbe capace di far andare il gioco PC neanche al minimissimo. Perché, riepiloghiamo, su di essa funziona con:

– CPU da 295 MHz (meno di 1/3 che su PC) con 32 MB di RAM (1/8 che su PC)
– GPU da 147 MHz (6/7 che su PC) con 4 MB di RAM (1/16 che su PC)
– 0 GB di installazione (rapporto infinito, scusate), perché su PS2 un hard disk non c’è neanche

– 6,2 Gigaflop nominali totali (1/10 che su PC)

 

Eppure San Andreas su PS2 funziona. Frame rate bassino, risoluzione bassina, ma funziona sempre e comunque, con una macchina potente sulla carta un decimo di quella minima che serve per la versione PC, senza un singolo pezzo nominalmente abbastanza potente da soddisfare i requisiti e con alcuni infinitamente peggiori.

 

L’incantesimo si è verificato di nuovo: un hardware console sembra “migliorare” col tempo senza bisogno di cambiare, mentre un PC richiede pezzi sempre più potenti e quelli peggiori restano irrimediabilmente indietro mese dopo mese.

La PS2 raggiunge i risultati grafici migliori negli ultimi anni di supporto massiccio. Un esempio perfetto è Black (2006), uno sparatutto considerato da diversi – e non senza fondamenti – il gioco graficamente più avanzato mai uscito sulla console:

[youtube https://www.youtube.com/watch?v=7VrT7FhRylg]

 

PS3, Xbox 360 e PC

Arriviamo al recente passato, cioè le console (tecnicamente più prestanti) di settima generazione. Quanto sono potenti una Xbox 360 e una PS3 rispetto ai PC?

Xbox 360 (2005):
– CPU (Xenon) con 3 core a 3,2 GHz (115 Gigaflops)
– GPU (Xenos) unificata con 48 unità a 500 MHz (240 Gigaflops)
– 512 MB di GDDR3 e 10 MB di eDRAM

– Totale potenza: 355 Gigaflops

PlayStation 3 (2006):
– CPU (Cell) con 1 core a 3,2 GHz ed 8 core ausiliari (230 Gigaflops)
– GPU (RSX) suddivisa in sotto-componenti specializzate a 550 MHz (400 Gigaflops)
– 256 MB di XDR DRAM e 256 MB di GDDR3

– Totale potenza: 630 Gigaflops

 

Possiamo metterci a ragionare se quando sono uscite Xbox 360 e PS3 erano più o meno potenti di un PC potente, ma non credo servirebbe poi a molto. Il fatto importante è che per far partire oggi su PC un gioco che su queste due console ancora gira serve una potenza nominale molto maggiore della loro.

Alcuni esempi:

Battlefield 4 (requisiti minimi PC):
– CPU Intel Core 2 Duo E6600 (2 core, 2,4 GHz) oppure AMD Athlon 64 X2 Dual Core 5600+ (2 core, 2,8 GHz)
– GPU Nvidia GeForce 8800 GT (336 Gigaflops, 512 MB) oppure AMD ATI Radeon HD 3870 (528 Gigaflops, 512 MB)
– 4 GB di RAM

Assassin’s Creed IV (requisiti minimi PC):
– CPU Intel Core 2 Quad Q8400 (4 core, 2,66 GHz) oppure AMD Athlon II X4 620 (4 core, 2,6 GHz)
– GPU NVIDIA GeForce GTX 260 (875 Gigaflops, 1 GB) oppure AMD Radeon HD 4870 (1’200 Gigaflops, 512 MB)
– 2 GB di RAM

Watch Dogs (requisiti minimi PC):
– CPU Intel Core 2 Quad Q8400 (2 core, 2,66 GHz) oppure AMD Phenom II X4 940 (4 core, 3 GHz)
– GPU Nvidia Geforce GTX 460 (1’360 Gigaflops, 1 GB) oppure AMD Radeon HD 5770 (1’360 Gigaflops, 1 GB)
– 6 GB di RAM

 

Mi sembra evidente che la tendenza non è cambiata: un PC con le specifiche equivalenti a quelle di una Xbox 360 non andrebbe neanche vicino ad eseguire titoli come Watch Dogs e Assassin’s Creed IV. Però su di essa girano (Watch Dogs in verità ci girerà, al momento in cui scrivo questo, ma il discorso non cambia).

 

Esattamente come è possibile tutto questo?

Le esatte ragioni tecniche sono complicate, e solo qualcuno che lavora in questo campo o lo ha studiato a fondo può spiegarvele nei dettagli. Il concetto di fondo però è chiaro e facilmente comprensibile: ottimizzazione.

Permettetemi di fare un esempio stupido ma che credo renda bene l’idea. Immaginate di avere una mandria di bufali e di doverli usare per spingere un grosso macigno. I bufali potrebbero essere talmente tanti che anche caricandolo a fiume, spintonandosi e scavalcandosi a vicenda produrrebbero tanta inerzia da smuoverlo. Oppure, con meno bufali a disposizione, potreste spezzettare il macigno in blocchetti, legarli ognuno ad un animale e poi farli avanzare ordinatamente in fila.

L’idea è che le stesse istruzioni, in base a come sono date, possono essere eseguite in modo più o meno efficiente. Per andare da A a B posso andare da A a B oppure posso passare per C, D, E, F e G. il risultato è lo stesso, e se nel secondo caso mi muovo molto più velocemente che nel primo potrei metterci lo stesso tempo, o anche meno.

 

E questo è il motivo per cui mettere solo due numeri uno di fianco all’altro non ha nessun senso: il modo in cui il gioco è programmato per due piattaforme permette di eseguirlo con risultati completamente diversi a parità di potenza nominale. Non lo dico io, lo dicono Croc, Metal Gear Solid, GTA: San Andreas, Assassin’s Creed IV è un’infinità di altri giochi che sono lì, e sul cui funzionamento o non funzionamento non c’è tanto da discutere, perché quello è ed è reale, come le specifiche tecniche di PC e console.

 

Perché le console sono ottimizzate meglio dei PC?

Il solo fatto che “un PC sia un PC” non rende impossibile, sulla carta, ottimizzarci un gioco tanto bene quanto su una console. Il punto è che non esiste “un PC”, ne esistono centinaia, per non dire migliaia, viste tutte le possibili combinazioni di pezzi. L’ottimizzazione si fa in base all’hardware, e questo genera enormi problemi nel momento in cui tanti hardware diversi devono eseguire lo stesso identico codice.

Quello che cerco di spiegare è che un gioco su PC non è ottimizzato peggio che su console perché i pezzi di quel singolo PC non si prestano ad ottimizzazione, ma perché la “versione PC” è una unica, gli sviluppatori devono creare un unico gioco, identico per tutti, che su tutti i PC riesca a funzionare: se devi accontentare tutti, non potrai accontentare meglio i singoli, perché non potrai sfruttarne le particolarità in quanto tali, o chi quelle particolarità non le possiede si troverà in difficoltà.

 

La varietà di PC è la ragione stessa per cui i giochi sono ottimizzati peggio per essi: il disco di installazione è uno solo per tutte le configurazioni, mentre ogni console (ovvero “configurazione”) ne ha uno personale. È sempre possibile ottimizzare un po’ meglio per ogni singola scheda, processore e così via, ma oltre a richiedere tempi e costi notevoli man mano che si scende sempre più in profondità non porterà comunque mai ad un risultato “pulito” come su console.

L’unico modo per migliorare davvero le cose è ridurre e rendere sempre più simili tutte le possibili componenti di un PC (un processo che è in corso da anni), e se ci fate caso l’estremo verso cui punta questa linea è… avere una console, cioè una macchina uguale in tutto e per tutto per tutti.

 

Quindi come andranno le cose in questa generazione di console?

Qui il discorso si fa leggermente più scivoloso, perché bisogna fare delle previsioni, e lo scenario odierno non è identico a quelli vecchi. Resta comunque molto simile.

 

PS4 e Xbox One sono molto più simili ai PC che nel passato. Starete tutti pensando all’architettura x86 (la stessa di Windows), ma io parlo soprattutto del bilanciamento interno della potenza delle componenti: da sempre le console usano CPU e GPU potenti per sopperire alla carenza di RAM, mentre entrambe le nuove console ne hanno di molto più “contenute” nell’economia generale della macchina a fronte di tanta RAM. Oltre ad essere una novità, è anche un passo verso la struttura dei PC.

Non è una scelta casuale. Significa che le versioni console e la versione PC dei nuovi giochi saranno più simili tra loro, perché almeno il concetto base di esecuzione (“scarica sulla RAM e pensa ad altro”, opposto a “carica e scarica continuamente”) rimarrà lo stesso su tutte le piattaforme. Questo serve a facilitare la vita a chi deve codificare un gioco per più piattaforme alla volta, cioè quasi tutti gli sviluppatori maggiori.

 

Anche l’architettura x86 in comune ovviamente aiuta, ma in modo completamente diverso, e qui apriamo una parentesi interessante. Qualcuno afferma che visto che le nuove console sono di fatto “dei PC pre-costruiti” nel tempo miglioreranno molto meno che le console del passato. C’è un fondo di verità in questa affermazione, ma posta così è molto fuorviante.

Il senso è che molte console in passato usavano architetture di sistema inedite e che di per sé impiegavano un po’ di tempo prima di essere capite a dovere dagli sviluppatori. In sostanza, da sùbito non solo l’hardware non era ottimizzato minutamente, ma si doveva anche adattare la struttura base del gioco alle particolarità di un sistema sconosciuto o quasi. Parte del “miglioramento” nella qualità dei giochi console nel tempo, quindi, era dovuto al fatto che anche solo si capiva come programmare bene per quell’architettura.

La crepa nel ragionamento è che questo è un processo parallelo e completamente scollegato dall’ottimizzazione hardware, che come dicevo prima dipende dall’avere un solo disco per una sola configurazione, e non da cosa ci sia in quella configurazione. È probabilmente vero che vedremo meno miglioramenti nel tempo… ma solo perché li stiamo già vedendo fin dal primo giorno: siamo “partiti meglio”, per così dire, e gli sviluppatori stanno già sfruttando delle console nuove meglio di quanto avveniva in passato, soprattutto per i titoli multipiattaforma.

L’hardware verrà ottimizzato tanto quanto lo è stato in passato (o di più, visto che partiamo su un terreno conosciuto?), perché non è il fatto che una console sia x86 o qualcos’altro a determinare la possibilità di ottimizzazione, ma l’assoluta coincidenza dell’hardware per cui il codice di un gioco è stato pensato e dell’hardware che andrà ad eseguirlo, e questa cosa non è cambiata: vendono ancora un disco per PS4, uno per Xbox One e uno per Wii U, mentre quello per PC è ancora unico per tutti.

 

In altre parole, il rapporto “potenza nominale della console/miglioramento nel tempo rispetto allo stesso hardware su PC” sul lungo termine non dovrebbe cambiare tanto rispetto al passato, anzi, potrebbe essere favorito dalla similitudine strutturale dei due ambienti. Forse sarà meno evidente quello “primi giochi/ultimi giochi”, ma i risultati che stiamo già vedendo su alcuni titoli (pensate ad esempio a Infamous: Second Son e il prossimo The Order: 1886) dimostrano che non è volto ad abbassare il punto d’arrivo finale, ma ad innalzare quello di partenza.

 

Ok, ma dove vuoi andare a parare esattamente?

È questo il fatto: non voglio “andare a parare” da nessuna parte.

Se vi aspettavate che questo discorso servisse per poter dire “le console sono migliori dei PC perché sfruttano meglio i loro pezzi” devo deludervi, perché come dicevo all’inizio “migliori” è un termine inutilizzabile, almeno così com’è. Bisognerebbe prima di tutto definirlo.

 

“Migliore per eseguire i giochi”, ovvero per avere un’esperienza di gioco effettiva migliore? Non è stabilibile in assoluto, perché i PC sono un sistema aperto, e “il PC” non è automaticamente né migliore né peggiore, dipende da cosa c’è dentro.

Possiamo dire probabilmente che “il miglior PC costruibile è sempre meglio di una console”, ma qui andiamo a toccare un’altra sfumatura di “migliore”: il rapporto qualità-prezzo. Quanto bisogna spendere per avere un PC che è effettivamente migliore di una console?  E questa è solo la cifra iniziale, perché, come ho già ampiamente dimostrato, dopo 6-12 mesi una PS4/Xbox One sfrutterà meglio il proprio hardware che 6-12 mesi prima, un PC no, quindi a quel punto lo stesso PC che prima era “alla pari” non lo sarà più, e bisognerà spendere dei soldi per potenziarlo.

 

Un discorso molto simile è stato fatto da Digital Foundry, che ha dimostrato che di fatto non è possibile costruire un PC di prezzo equivalente a quello di una PS4 e ottenere risultati chiaramente sempre e comunque migliori. Vi riporto un piccolo estratto:

(…) l’élite del PC che si aspettava un colpo da ko contro le console – in particolare PS4 – potrebbe rimanere delusa dai nostri risultati. La quantità di potenza che si ha in una scatola di piccole dimensioni – completa con un ecosistema di sostegno sostanziale – offre semplicemente un valore fenomenale. E tutti i giochi testati sono sforzi di prima generazione [su console]; chiaramente miglioreranno. La sola domanda è se le future ottimizzazioni per console miglioreranno l’esperienza PC, o se ci avvarremo della forza bruta del PC per mantenere la supremazia, come è successo la scorsa generazione.

 

Questo, allo stesso tempo, non nega che su un PC di fascia altissima i giochi già oggi girino meglio che su console, e che alcune cose (4k, 120 fps) su queste console non saranno mai possibili e basta, mentre su PC lo sono già oggi.

 

Insomma, la questione è molto più sfumata e complessa di come di solito la si cerca di porre. Sto però già sforando di campo, perché questa prima parte dell’articolo aveva come unico scopo quello di dare un minimo di background tecnico sulla situazione.

Quello che mi interessava fare qui era porre le basi per poter dire che console e PC, in termini di esecuzione di giochi, sono semplicemente diversi, e che mettere due numeri uno di fianco all’altro, tantopiù senza conoscenze più approfondite delle tecnologie specifiche in ogni macchina, non è in nessun modo un metodo predittivo valido, e che quindi bisognerebbe smettere e basta di usarlo.

Ovviamente c’è molto, molto altro da dire. Ma quello arriverà prossimamente, non temete.

 

 Console e PC, parte 2 visibile qui –

– Console e PC, parte 3 visibile qui –

Lorenzo Forini
Sono nato a Bologna nel 1993, videogioco da sempre, e da sempre mi ha affascinato l'idea di andare oltre al solo giocare, di cercare di capire cosa c'è nascosto in ogni titolo dietro al sipario più immediato da cogliere. Se i videogiochi sono una forma d'arte, forse è il caso di iniziare a studiarli davvero come tali.

5 Responses to “Console e PC, parte 1: differenze tecniche tra i due sistemi”

  1. Giuseppe Antico ha detto:

    Ma non è del tutto vero questo discorso… le console esendo architetture molto limitate inferiori rispetto a un pc per farci girare un gioco decentemente e per copetere con un pc si ottimizza solo il gioco per console e di solito il porting è fatto male tanto si sa che i pc non hanno problemi a reggere il confronto…

    se si sprecasse tempo a ottimizzare il gioco per pc mon avrebbero senso le console d’esistere. il loro unico scopo è quello di limitare i giochi su pc…

  2. […] provato che le console nel tempo migliorano il proprio rapporto hardware/prestazioni (eppure ho dovuto mettermi io a darne un esempio argomentato), ma non se ne può parlare, e se ne parli sei chiaramente un fanboy ignorante: PS4 e Xbox One sono […]

  3. […] – Console e PC, parte 1 visibile qui – […]

Lascia un commento