Jump to content

Aspettando Fermi ......


Achille GForce

Recommended Posts

Non ho detto che è bello. Ho detto solo che il vecchio prodotto te lo vendono a prezzo più basso e frequenza alterata più altri accorgimenti di solito, non sarà un cambiamento radicale ma mica sono bidonate, i prezzi erano riorganizzati in base all'indice prestazionale. secondo te la GT 250 non era competitiva contro la 4850 ? le GTX 260-275 non sono competitive con le 5770 e 5830 ? Che ATI sia tecnologicamente superiore lo sò ma nessuno costringe nessuno a comprare Nvidia.

 

Lo so che la politica di ATI è migliore sotto questo punto di vista.

 

dipende; l'inferiorità tecnologica non si è tradotta in pesante inferiorità prestazionale solo per la politica attuata da nVidia presso le swhouse. Se, passando alle dx10, si fosse fatto ricorso anche ad alcune ottimizzazioni dx10.1 (magari con specifiche path), le prestazioni delle ATi avrebbero beneficiato di incrementi notevoli (anche dell'ordine del 20-25%) e questo sarebbe andato a tutto vantaggio degli utenti ATi senza danneggiare quelli nVidia (che non avrebbero avuto cali prestazionali).

 

Guarda cosa succede attivando il MSAA 4x in HAWX con path dx10.1 per le ATi

Sapphire Radeon HD 4890 1GB Review - Page 20

 

Situazione analoga si sarebbe avuta per tutti i giochi in cui si fosse fatto ricorso a questo tipo di ottimizzazioni (ad esempio con engine tipo UE3, ossia di tipo deferred e MSAA 4x le ATi guadagnano il 22-23% in dx10.1 rispetto alle dx10).

Link to comment
Share on other sites



  • Replies 2.3k
  • Created
  • Last Reply

Top Posters In This Topic

Ma perchè posizionare la precedente fascia alta in una fascia indietro ogni volta non va bene ? è come se ATI usasse le 4850 e 4870 e 4890 come fasce basse, medio-basse e medie, ovvio non c'è il vantaggio del nuovo processo produttivo delle nuova generazione ma come prestazioni siamo lì e a volte anche sopra, poi bisogna vedere i prezzi.

 

Perché appunto una scheda destinata alla fascia bassa si presuppone che debba poter funzionare con un alimentatore di fascia bassa e quindi è giusto che sia derivata dalla nuova architettura con nuovo processo produttivo

Link to comment
Share on other sites

Perché appunto una scheda destinata alla fascia bassa si presuppone che debba poter funzionare con un alimentatore di fascia bassa e quindi è giusto che sia derivata dalla nuova architettura con nuovo processo produttivo

questo lo quoto come oro colato!

Link to comment
Share on other sites

si sono d'accordo, infatti ATi è migliore sotto questo punto di vista ma penso però che gli interessi solo la raffigurazione prestazionale ai verdi, comunque dovrebbero esserci el GT2x0 a 40nm per le fasce basse. Ovvio che ad esempio GT200 anche se rebrandizzati e scalati non finiranno nella fino alla fascia bassa con quel layout, ovvio che lì il discorso consumo fa la differenza.

Link to comment
Share on other sites

si sono d'accordo, infatti ATi è migliore sotto questo punto di vista ma penso però che gli interessi solo la raffigurazione prestazionale ai verdi, comunque dovrebbero esserci el GT2x0 a 40nm per le fasce basse. Ovvio che ad esempio GT200 anche se rebrandizzati e scalati non finiranno nella fino alla fascia bassa con quel layout, ovvio che lì il discorso consumo fa la differenza.

 

GT200 nn andrà nemmeno nella media, se fino ad oggi Nvidia ha potuto sfruttare GT200 solo con + di 192SP funzionanti proprio oggi che si trova in mano un'architettura molto più scalabile (a detta loro) nn farà proseguire il rebrand anche con questo. Per il discorso G92 (chip ben più semplice di G80 e GT200) sicuramente lo vedremo in giro ancora per qualche anno (salvo molto probabili misure dell'antitrust) e sicuramente se nn lui direttamente una sua versione più semplificata passerà a 28nm per testare il PP (a meno che Nvidia nn voglia ripetere le esperienze di Fermi e NV30 per la terza volta)

Link to comment
Share on other sites

GT200 nn andrà nemmeno nella media, se fino ad oggi Nvidia ha potuto sfruttare GT200 solo con + di 192SP funzionanti proprio oggi che si trova in mano un'architettura molto più scalabile (a detta loro) nn farà proseguire il rebrand anche con questo. Per il discorso G92 (chip ben più semplice di G80 e GT200) sicuramente lo vedremo in giro ancora per qualche anno (salvo molto probabili misure dell'antitrust) e sicuramente se nn lui direttamente una sua versione più semplificata passerà a 28nm per testare il PP (a meno che Nvidia nn voglia ripetere le esperienze di Fermi e NV30 per la terza volta)

 

LOL il più grande investimento di Nvidia :asd::asd::asd:

Link to comment
Share on other sites

Ma a Las Vegas il sample usato non aveva un connettore da 6 e uno da 8 pin?

 

jazzman-albums-jazz_s_photos-picture204-gtx470_03.jpg

 

e i 512 Cuda core????

 

jazzman-albums-jazz_s_photos-picture205-gtx470d.png

 

Siccome le chiacchiere non fan farina, aspetto di vedere qualche test "serio", però da quello che si legge in giro le premesse non sono buone. E se tuona da qualche parte piove di sicuro!!!

Link to comment
Share on other sites

insomma il prezzo diminuiva sempre e la scheda per la fascia che aveva era la migliore fino ad ora. La GTs 250 era migliore della 4850 perciò tanto incul@ta non son sicuro, chiedilo a drimarcus :asd:

 

Allora parlando delle versioni con 128sp:

 

  • 8800 GTS 512: prima scheda con G92 a 65nm, prezzo in italia dopo i primi mesi sui 300€
  • 9800 GTX : seconda scheda con G92 sempre a 65nm, presso al lancio superiore a quello della 8800GTS 512
  • 9800 GTX +: terza scheda con G92 a 55nm (finalmente); prezzo identico a quello della GTX
  • GTS250: quarta incarnazione della VGA con G92 a 55nm. Prezzo umano di circa 150€

Le date di uscita sono state:

 

  • 11 dicembre 2007, quindi concorrenza ATI NULLA
  • 1 Aprile 2008, quindi ATI aveva sola la 3870x2
  • luglio 2008, ATI aveva la serie 4000 che andava meglio della GTX + visto quanto si svalutò la 4870 512
  • 3 marzo 2009: allo stesso prezzo della GTS250 c'era di molto meglio

A ciò ovviamente si aggiunge che l'unica ad essere a 55nm è stata la GTX + visto che alcune GTS250, a causa delle scorte o di Nvidia o degli OEM, hanno avuto chip a 65nm

 

Per cui tirando le somme: Nvidia ha rinomato la VGA quando nn c'era bisogno per fregare gli utenti, poi l'ha rifatto ne passaggio ai 55nm ma ATI proponeva di meglio (sempre allo stesso prezzo intendo) e successivamente l'ha rifatto per la terza volta con la GTS quando ATI sempre proponeva soluzioni molto più interessanti. Il più interessante per me vuol dire maggiori Frame a parità di spesa. Physx nn lo valuto un valore aggiunto, ad oggi ci sono 4 game in croce che hanno effetti in più con Nvidia figuriamoci a marzo 2009 e prima ;) Idem Cuda, l'unico software per uso domestico che può valere la scelta ATI Nvidia a parità di prezzo è Badaboom, ma nel passaggio 8800GTS 512 a 5850 nn ne ho sensito la mancaze. Certo converto mp4 più lentamente ma nn devo salvare il mondo, se al posto di 2 min ce nemetto 4 ti assicuro che vivo comunque (infatti sono qui adesso :asd:)

 

Detto ciò: Ricordo solo io la svalutazione della 4870 512MB? Ricordo solo io quello che si poteva prendere con ATI a Marzo 2009 al prezzo della GTS 250? Pertanto Nvidia con questa mossa ha sempre voluto fregare l'utenza e creare confusione. A tutto questo si aggiungono i casi di 8800GT, della divisione mobile (se la si può chiamare così visto quello che offre), di alcuni tutt'altro che chiari accaduti con GT200 e di tutta la fascia media e bassa.

 

Poi uno può interpretare la storia come meglio crede ma i fatti dicono altro e soprattutto nn sono solo io a dirlo ;)

Link to comment
Share on other sites

 

A parte quello che dice il link ritengo che per Nvidia sia une bella sfida questa x2 ed anche che se riuscisse nell'impresa dimostrerebbe sicuramente qualcosa nn da poco, cioè a livello ingegneristico sarebbe qualcosa oltre il dimostrare "chi l'hai più duro" ;)

Cmq come ha detto yoss sarà molto rimaneggiata

Link to comment
Share on other sites

A parte quello che dice il link ritengo che per Nvidia sia une bella sfida questa x2 ed anche che se riuscisse nell'impresa dimostrerebbe sicuramente qualcosa nn da poco, cioè a livello ingegneristico sarebbe qualcosa oltre il dimostrare "chi l'hai più duro" ;)

Cmq come ha detto yoss sarà molto rimaneggiata

 

si potrebbe essere una bella sfida a seconda del chip che intenderanno usare.

nessuno ha detto che questa debba rimanere entro la soglia dei 300W :asd:

Link to comment
Share on other sites

A parte quello che dice il link ritengo che per Nvidia sia une bella sfida questa x2 ed anche che se riuscisse nell'impresa dimostrerebbe sicuramente qualcosa nn da poco, cioè a livello ingegneristico sarebbe qualcosa oltre il dimostrare "chi l'hai più duro" ;)

Cmq come ha detto yoss sarà molto rimaneggiata

 

Secondo me sarà parecchio rimaneggiata... e se sarà x2 sarà di 470 e non di 480! inoltre cosa non da poco sarà la dimensione della vga... gia la 480 sembra grossa, la x2 anche se in configurazione a panino e non single pbc sarà proprio grossa!!!!! Dopo aver visto quanto è grossa una 5970 però non mi stupisco piu di nulla!!!

 

si potrebbe essere una bella sfida a seconda del chip che intenderanno usare.

nessuno ha detto che questa debba rimanere entro la soglia dei 300W :asd:

 

Bisogna vedere, gli standard pci-e dovrebbero essere quelli, poi magari tirano fuori qualche soluzione alternativa, magari sfrutteranno 2 pci-e alla sli maniera ma avende sempre una sola scheda... da nvidia mi aspetto di tutto....

Sulle gtx470 e 480 non mi pronuncio, voglio proprio vedere qualche bella review prima di dire quanto valgono... e poi sempre in attesa di prezzi ufficiali!!!!

Link to comment
Share on other sites

Unigine 2.0 in arrivo....:asd:

 

the short story is that Heaven 2.0 is more of the same, with many of the lessons learned from 1.0 and early DX11 hardware rolled in. It has more scenes, more art assets, and a lot more tessellation. The idea was to look forward to both near future and 'next generation' cards. One way to do that is to put in a new 'extreme' mode, since that usually buys a benchmark a card generation or two.

 

http://www.semiaccurate.com/2010/03/...ark-shown-gdc/

Link to comment
Share on other sites

la scheda esce il 26, ma l'NDA scende il 27 Marzo ( alla fine è come dire 29 in quanto bisogna aspettare il lunedì ).

 

Se la vga esce il 26 le redazioni riceveranno una ratifica sulla data di pubblicazione anticipandola al 26. Se l'NDA scadesse il 27 fidati che il 27 le maggiori testate avranno la recensione pubblicata

 

si è la 470

 

Bho questa storia di mettere la 4X0 mi sa di pagliacciata, a che pro? Cmq se fosse una 470 sarebbe ottimo in caso di 480 :muro:

Cmq nn capisco perchè testare sulla 470 quando da che mondo è mondo si è sempre fatto sulle versioni top?

Link to comment
Share on other sites

Guest
This topic is now closed to further replies.

×
×
  • Create New...