Jump to content

Problema gpu boost gtx 680 sli


xXTzunamiXx

Recommended Posts

:asd:

Dai aspetto buone novelle O0

cmq vai tranquillo per le temp, per noi appassionati è difficile da mandar giù, ma queste GPU possono andare senza troppi problemi ad 80° :)

PIU TEMPO PER PREPARARE LA CHIAVETTA CHE PER FARE TUTTO PORCO DINCI DELLA MONTAGNA.......cmq grazie ancora se si sbriga sta caxo di chiavetta in 3 minuti ti faccio sapere di che morte sono morto:AAAAH:

Link to comment
Share on other sites



Attnzione TzunamiX, ho letto cose contrastanti sulle intenzioni di flashare un bios, POTREBBE invalidarti la garanzia.......diciamo se va tutto a buon fine non dovrebbero nemmeno accorgersene però si rischia di offrirgli il coltello dalla parte del manico!

Link to comment
Share on other sites

[h=2]Turbo boost all'opera[/h]Una delle caratteristiche architetturali della famiglia di GPU NVIDIA Kepler è la presenza della tecnologia GPU Boost: abbina elementi

hardware

icon1.png

e software che operano in background, regolando dinamicamente la frequenza di funzionamento della GPU in base alle condizioni operative. Di fatto quindi GPU Boost opera un overclock dinamico del chip video, che viene spinto oltre le impostazioni di default così da assicurare superiori prestazioni velocistiche

La tecnologia GPU Boost, supportata in modo nativo da GeForce GTX 680, opera in modo completamente autonomo e non necessita di appositi profili per i videogiochi o di alcun intervento attivo da parte dell'utente. Viene fornita nella scheda ed è attiva di default: non può essere disattivata. La scheda opera, durante il calcolo di scene 3D, ad una frequenza di clock lato GPU, valore identificato come "base clock": con questo viene identificata la frequenza operativa minima cui opererà la

scheda video

icon1.png

, una sorta di frequenza operativa garantita.

Quello che viene invece definito come "boost clock" rappresenta la frequenza di clock che la GPU può raggiungere qualora il TDP registrato sia lontano dal valore massimo. Questo valore viene indicato, dalla documentazione tecnica di NVIDIA, come il valore medio di variazione di clock che la GPU è in grado di garantire in un normale scenario di impiego. Nel caso della reference board

GeForce

icon1.png

GTX 680 il "boost clock" identificato è di 1058 MHz. In molti scenari la GPU avrà però a disposizione molte risorse da poter ancora sfruttare: GPU Boost spingerà allora la frequenza di funzionamento della GPU anche oltre il boost clock, permettendo di ottenere un ulteriore incremento prestazionale.

Il principio di funzionamento su cui si basa GPU Boost è piuttosto semplice e parte da una analisi, ogni 100ms, dei consumi della scheda. Un elemento magari non noto a tutti è che, a seconda del gioco che il sistema si trova ad affrontare i consumi sono differenti; titoli differenti fanno quindi registrare un utilizzo del sistema diverso ed è qui che interviene GPU Boost. Quando la scheda video fa registrare un TDP inferiore da quello prefissato, la tecnologia aumenta le frequenze di funzionamento, nel tentativo di fornire il massimo livello prestazionale.

gpu_z_default.gif

GPU-Z conferma come la scheda

Gigabyte

icon1.png

sia stata programmata per una frequenza di boost clock che raggiunge i 1.202 MHz, partendo da un valore di default di 1.137 MHz. Lo scostamento tra frequenza di boost clock e frequenza di clock effettivamente rilevata durante il funzionamento con applicazioni 3D è funzione del carico di lavoro generato dalla specifica applicazione sulla scheda video, dal raffreddamento della GPU e dai margini messi a disposizione dal sistema di raffreddamento.

Per valutare in che misura la tecnologia Turbo Boost intervenga durante il funzionamento abbiamo monitorato, attraverso l'utility GPU-Z, la frequenza di clock della GPU durante l'esecuzione in loop di 3 istanze del benchmark con il gioco Alien Vs Predator, mettendo a confronto la scheda Gigabyte con la reference board NVIDIA caratterizzata da una frequenza di clock di default di 1.006 MHz e di boost clock pari a 1.058 MHz.

Link to comment
Share on other sites

Turbo boost all'opera

 

Una delle caratteristiche architetturali della famiglia di GPU NVIDIA Kepler è la presenza della tecnologia GPU Boost: abbina elementi

hardware

icon1.png

e software che operano in background, regolando dinamicamente la frequenza di funzionamento della GPU in base alle condizioni operative. Di fatto quindi GPU Boost opera un overclock dinamico del chip video, che viene spinto oltre le impostazioni di default così da assicurare superiori prestazioni velocistiche

La tecnologia GPU Boost, supportata in modo nativo da GeForce GTX 680, opera in modo completamente autonomo e non necessita di appositi profili per i videogiochi o di alcun intervento attivo da parte dell'utente. Viene fornita nella scheda ed è attiva di default: non può essere disattivata. La scheda opera, durante il calcolo di scene 3D, ad una frequenza di clock lato GPU, valore identificato come "base clock": con questo viene identificata la frequenza operativa minima cui opererà la

scheda video

icon1.png

, una sorta di frequenza operativa garantita.

Quello che viene invece definito come "boost clock" rappresenta la frequenza di clock che la GPU può raggiungere qualora il TDP registrato sia lontano dal valore massimo. Questo valore viene indicato, dalla documentazione tecnica di NVIDIA, come il valore medio di variazione di clock che la GPU è in grado di garantire in un normale scenario di impiego. Nel caso della reference board

GeForce

icon1.png

GTX 680 il "boost clock" identificato è di 1058 MHz. In molti scenari la GPU avrà però a disposizione molte risorse da poter ancora sfruttare: GPU Boost spingerà allora la frequenza di funzionamento della GPU anche oltre il boost clock, permettendo di ottenere un ulteriore incremento prestazionale.

Il principio di funzionamento su cui si basa GPU Boost è piuttosto semplice e parte da una analisi, ogni 100ms, dei consumi della scheda. Un elemento magari non noto a tutti è che, a seconda del gioco che il sistema si trova ad affrontare i consumi sono differenti; titoli differenti fanno quindi registrare un utilizzo del sistema diverso ed è qui che interviene GPU Boost. Quando la scheda video fa registrare un TDP inferiore da quello prefissato, la tecnologia aumenta le frequenze di funzionamento, nel tentativo di fornire il massimo livello prestazionale.

gpu_z_default.gif

GPU-Z conferma come la scheda

Gigabyte

icon1.png

sia stata programmata per una frequenza di boost clock che raggiunge i 1.202 MHz, partendo da un valore di default di 1.137 MHz. Lo scostamento tra frequenza di boost clock e frequenza di clock effettivamente rilevata durante il funzionamento con applicazioni 3D è funzione del carico di lavoro generato dalla specifica applicazione sulla scheda video, dal raffreddamento della GPU e dai margini messi a disposizione dal sistema di raffreddamento.

Per valutare in che misura la tecnologia Turbo Boost intervenga durante il funzionamento abbiamo monitorato, attraverso l'utility GPU-Z, la frequenza di clock della GPU durante l'esecuzione in loop di 3 istanze del benchmark con il gioco Alien Vs Predator, mettendo a confronto la scheda Gigabyte con la reference board NVIDIA caratterizzata da una frequenza di clock di default di 1.006 MHz e di boost clock pari a 1.058 MHz.

 

Ottima delucitazione Giu.....grazie....ma questo io lo so quello che non capisco e' come si fa a fare questo punteggio e temperature,oltre che in game il pc va benissimo....e avere una scheda dove non funziona la dinamicita' del clock.Poi ho notato dopo decine di test che anche l'altra gpu in sli non oscilla piu come prima ma e stabile a quanto la clokki tu.......e le due schede viaggiano con temperature moltosimili ma quella sotto viene usata al 98% quasi sempre e fa 3 gradi in meno ovviamente della vecchia scheda su che pero viene usata solo al 90 % di media......secondo me aveva ragione Tom sulla limitazione fatta sul pcb ho quasi letto tutto il bios e non parla di power limit over da nessuna parte,o cose simili.

Da sola la scheda ugualmente fa ottimi risultati come la sorella sopra senza OC diciamo 300 punti in meno in tutto ma sempre con clock bloccato a 1071....

Sto pensando al rimborso o sostituzione ma perche dico poi vendere una che da ottime garanzie e sembra essere la sorella adatta la devo cambiare con chi sa cosa mi capita? Visto anche che un oc in sli e piu controproducente che benefico

Bhe queste sono tutte le mie idee e dubbi oltre che certezze ,se avete consigli ve ne sarei grato.

 

SOTTO UN BENCK :D

Link to comment
Share on other sites

ECCOMI ALLA DECISIONE:

 

Dopo lunghi test,prove,gaming,vari posizionamenti delle gpu,flash bios ecc...ecc... deduco che il non funzionare il boost non e un problema di malfunzionamenti ma di limitazione fatta sul pcb da gigabyte per evitare danni fatti chis sa da quanti utenti alla stessa....1071 e una frequenza ottima ,stabile e tiene la scheda molto fresca...i risultati di tutti i test mi dicono che ha la stessa potenza della sorella e non ha alcunissimo malfunzionamento o instabilita' le temp sono ottime e i benck ottimi credo.

Tanto gia so che presto le vendero' entrambe per la nuova serie se ne vale la pena....ora voglio godermi questa creatura e giocare oltre che lavorare ;)....farsi troppi crucci per un problema inutile non vale la pena.....aspetto vostri consigli per la decisione finale

Faro' un breve video gaming per farvi capire un po il tutto meglio. Piu' dei giochi quali test dovrebbe superareO0

Link to comment
Share on other sites

Ma anche a te appare nella finestrella "boost" 1202 mhz?

Cmq , appunto, la scheda utilizzerà da sola il boost al momento del bisogno e addirittura pare che non con tutti i programmi questi sia sollecitato, poi certo è possibile che ci sia una limitazione da parte della casa assemblatrice per proteggerle da eventuali danni.

Il tuo punteggio è eccezionale se il paragone con il mio di circa un'anno fa è corretto, io facevo 17000 circa con lo SLI ma non ricordo i settaggi e poi ancora forse per driver acerbi il mio punteggio non saliva.

 

Io le mie schede non le ho in OC. Le mie GTX590 fanno parte della prima serie, ricordo che Nvidia sconsigliava VIVAMENTE di produrre OC con queste schede il rischio, ovvio, era di bruciarle, poi sempre all'inizio i driver non erano nemmeno ottimizzati, ricordo del problema ventole al 100%, ad un certo punto le ventole di raffreddamento sembravano decollare, poi con i successivi driver tutto si sistemò.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...