30 VS 60 FPS - Qualità o Gameplay?
I grandi progressi in termini di hardware hanno permesso alle console di sostenere giochi con una grafica impegnativa ma allo stesso tempo molto appagante, capace di ammaliare gli occhi del videogiocatore con effetti grafici sbalorditivi. Ultimamente, però, stanno affiorando tantissime discussioni che mettono in risalto i framerate in un videogioco piuttosto che il videogioco stesso. Spesso il titolo della discussione è: sono meglio 30 oppure 60 fps? Ognuno fornisce certamente la propria opinione, ma spesso basandosi su argomenti falsi o incongruenti. E' ora di fare un po' di chiarezza su questo tema.
Innanzi tutto: cosa è il framerate? E' la quantità di immagini che in un secondo vengono processate e messe a video, disponibile per essere visualizzate dall'utente. Nel cinema lo standard è 24 (il minimo per vedere l'immagine fluida e contenere le dimensioni delle pellicole), nei cartoni animati è circa 12, mentre nei videogiochi è 30. Non bisogna assolutamente confondersi con il refresh rate di un monitor, anche se i valori sembrano combaciare; esso indica quante volte al secondo viene aggiornata l'effettiva immagine che andrà visualizzata sullo scheremo. Se il refresh rate del monitor è maggiore dei frame per secondo non si avranno problemi, ma se tale valore è minore allora ci sarà un problema di sincronizzazione che non permetterà di visualizzare correttamente l'immagine. Ad oggi fortunatamente esiste il V-Sync che consente di ovviare al problema (anche se a volte lo risolve solo parzialmente).
Spesso i 30fps bastano e avanzano nei film, dove è presente un Motion Blur naturale che sfoca le immagini, o negli anime, a volte bastano anche in alcuni videogiochi generalmente statici, come punta e clicca. La maggior parte dei videogiochi però sono completamente diversi dai film (anche se spesso tentano di avvicinarcisi) e l'esperienza aumenta con l'aumentare dei frame per secondo (come negli sparatutto o nei simulatori di corsa). Oltre ad avere un impatto visivo più "fluido" e più piacevole per alcuni, un alto livello di framerate rende i comandi molto più reattivi, consentendo di compiere azioni molto più velocemente e precisamente, a patto di aver una macchina abbastanza potente (in questo caso si parla di input e output lag).
Tuttavia la questione dei framerate non è così semplice come sembra. Sviluppare un videogioco con un elevato numero di frame è molto impegnativo, poichè richiede un ambiente di sviluppo molto diverso e più complesso. I framerate innanzi tutto devono essere stabili e non oscillare tra valori molto diversi tra loro (in questo caso un gioco si dice ottimizzato male); poi bisogna far sì che esso sia compatibile con la piattaforma per cui è destinato. Non ultimo è il problema della grafica, che subisce pesanti cambiamenti per adattarsi al livello medio degli hardware (specie nel caso delle console). E' per questo che la quantità dei framerate supportati va decisa prima dello sviluppo, così da evitare gravi problemi, sia a livello di programmazione che di utilizzo.
Esiste poi una leggenda metropolitana secondo la quale l'occhio umano non percepisce oltre i 30 frame al secondo. In realtà essa è un'affermazione totalmente falsa, in quanto l'occhio umano ha una struttura molto complessa che non si può paragonare ai frame di un video, con una sensibilità altissima e complessi metodi di misurazione. Tra l'altro sono stati fatti vari esperimenti con piloti di aeronautica (aventi riflessi molto più sviluppati) che hanno dimostrato come l'occhio umano riesca a distinguere immagini proiettate a 1/220 di secondo (quindi 220fps); ciò dimostra come l'occhio umano abbia grandi potenzialità. Altro punto a favore è il fatto che i videogiocatori professionisti (come quelli di Starcraft e Counter Strike) giocano con un framerate di 120 o anche 240 per garantire ampia possibilità ai riflessi e minimo ritardo nella trasmissione di dati, dando più peso all'abilità fisica e ai riflessi di un giocatore.
Dunque sono meglio i 60 fps dei 30? Forse non sempre, in quanto non risultano sempre indispensabili alla fine dell'esperienza videoludica e a volte non vengono nemmeno graditi dai videogiocatori. Di fatti a volte si sente dagli sviluppatori che i 30fps rendono l'esperienza più cinematografica non stanno totalmente dicendo una bufala, perchè visivamente essa si avvicina di più agli standard del cinema (poi con i filtri visivi, ecc... a volte sembra davvero di star guardando un film interattivo).
Certo è che se si guarda ad un livello decisamente più competitivo del videogioco non si può di certo risparmiare sulla quantità dei frame. La differenza c'è e si fa sempre più netta con l'abitudine; basta chiederlo a chi lo fa di mestiere.
Innanzi tutto: cosa è il framerate? E' la quantità di immagini che in un secondo vengono processate e messe a video, disponibile per essere visualizzate dall'utente. Nel cinema lo standard è 24 (il minimo per vedere l'immagine fluida e contenere le dimensioni delle pellicole), nei cartoni animati è circa 12, mentre nei videogiochi è 30. Non bisogna assolutamente confondersi con il refresh rate di un monitor, anche se i valori sembrano combaciare; esso indica quante volte al secondo viene aggiornata l'effettiva immagine che andrà visualizzata sullo scheremo. Se il refresh rate del monitor è maggiore dei frame per secondo non si avranno problemi, ma se tale valore è minore allora ci sarà un problema di sincronizzazione che non permetterà di visualizzare correttamente l'immagine. Ad oggi fortunatamente esiste il V-Sync che consente di ovviare al problema (anche se a volte lo risolve solo parzialmente).
Spesso i 30fps bastano e avanzano nei film, dove è presente un Motion Blur naturale che sfoca le immagini, o negli anime, a volte bastano anche in alcuni videogiochi generalmente statici, come punta e clicca. La maggior parte dei videogiochi però sono completamente diversi dai film (anche se spesso tentano di avvicinarcisi) e l'esperienza aumenta con l'aumentare dei frame per secondo (come negli sparatutto o nei simulatori di corsa). Oltre ad avere un impatto visivo più "fluido" e più piacevole per alcuni, un alto livello di framerate rende i comandi molto più reattivi, consentendo di compiere azioni molto più velocemente e precisamente, a patto di aver una macchina abbastanza potente (in questo caso si parla di input e output lag).
Tuttavia la questione dei framerate non è così semplice come sembra. Sviluppare un videogioco con un elevato numero di frame è molto impegnativo, poichè richiede un ambiente di sviluppo molto diverso e più complesso. I framerate innanzi tutto devono essere stabili e non oscillare tra valori molto diversi tra loro (in questo caso un gioco si dice ottimizzato male); poi bisogna far sì che esso sia compatibile con la piattaforma per cui è destinato. Non ultimo è il problema della grafica, che subisce pesanti cambiamenti per adattarsi al livello medio degli hardware (specie nel caso delle console). E' per questo che la quantità dei framerate supportati va decisa prima dello sviluppo, così da evitare gravi problemi, sia a livello di programmazione che di utilizzo.
Esiste poi una leggenda metropolitana secondo la quale l'occhio umano non percepisce oltre i 30 frame al secondo. In realtà essa è un'affermazione totalmente falsa, in quanto l'occhio umano ha una struttura molto complessa che non si può paragonare ai frame di un video, con una sensibilità altissima e complessi metodi di misurazione. Tra l'altro sono stati fatti vari esperimenti con piloti di aeronautica (aventi riflessi molto più sviluppati) che hanno dimostrato come l'occhio umano riesca a distinguere immagini proiettate a 1/220 di secondo (quindi 220fps); ciò dimostra come l'occhio umano abbia grandi potenzialità. Altro punto a favore è il fatto che i videogiocatori professionisti (come quelli di Starcraft e Counter Strike) giocano con un framerate di 120 o anche 240 per garantire ampia possibilità ai riflessi e minimo ritardo nella trasmissione di dati, dando più peso all'abilità fisica e ai riflessi di un giocatore.
Dunque sono meglio i 60 fps dei 30? Forse non sempre, in quanto non risultano sempre indispensabili alla fine dell'esperienza videoludica e a volte non vengono nemmeno graditi dai videogiocatori. Di fatti a volte si sente dagli sviluppatori che i 30fps rendono l'esperienza più cinematografica non stanno totalmente dicendo una bufala, perchè visivamente essa si avvicina di più agli standard del cinema (poi con i filtri visivi, ecc... a volte sembra davvero di star guardando un film interattivo).
Certo è che se si guarda ad un livello decisamente più competitivo del videogioco non si può di certo risparmiare sulla quantità dei frame. La differenza c'è e si fa sempre più netta con l'abitudine; basta chiederlo a chi lo fa di mestiere.