Jump to content

yossarian

Members
  • Posts

    77
  • Joined

  • Last visited

Everything posted by yossarian

  1. non so di cosa si tratti, ma di certo non è possibile far andare in dx11 le vga della serie gt200. Non sono riusciti a implemetare neppure le dx10.1 ma hanno dovuto far ricorso a tecniche dx10 per aggirare il problema delle carenze in dx10.1 di g8x e gt200.
  2. mi associo, anche perchè, vorrei ricordare, si parla sempre di schede video ed è stupido trascendere
  3. che ci fosse maretta era già trapelato XFX rimane ancora un partner stretto di NVIDIA - Hardware Upgrade - Il sito italiano sulla tecnologia - www.hwupgrade.it che sia il preludio ad un clamoroso divorzio?
  4. stavolta è stato piuttosto semplice, visto che erano quattro in croce
  5. pare confermata dal fatto che sul sito xfx non compare nulla che faccia riferimento a fermi ancora una volta il marketing nVidia ha fatto centro: ha creato tanto di quell'hype da spingere all'acquisto a scatola chiusa. Grazie a siti come fudzilla che invitava a prenotare le vga prima del loro esaurimento, ha venduto tutto in pre order e, anzi, ha accumulato più richieste di quante vga avesse a disposizione (veramente poche)
  6. sarà interessamte soprattutto vedere come si comporteranno le 2 GB alle alte risoluzioni e con i filtri
  7. al momento, sull'home page di xfx, non compaiono vga con fermi, né tra i prodotti né tra i banner pubblicitari XFX Europe XFX è una divisione di pine technology e neppure li, al momento, si parla di fermi Pine Per confronto, questa è l'home page di gainward Gainward
  8. la 470 infatti non eguaglia la 5870; mediamente sta un 8-10% sotto tranne in quei pochi giochi o test pro nVidia. Nei giochi vecchi (quelli con centinaia di fps) pare si avvantaggi l'architettura nVidia, tra l'altro e questo dimostra che il livello di ottimizzazione raggiunto, anche a livello di driver, è già piuttosto buono (di solito sui giochi datati, paradossalmente e soprattutto alle basse risoluzioni, ovvero quelle che risultano cpu limited, le gpu meno complesse rendono un po' di più mentre qui è il contrario). Infine, io facevo rifrimento alla situazione che si prospettava con le tesla per cui si sa che le frequenze saranno comprese tra 1200 e 1400 MHz e gli shader saranno 448. Fai due conti: 480 shader a 1400 Mhz stanno un 12% sopra, 448 shader a 1200 MHz stanno un 10% sotto; questo significa che 448 shader a frequenza comprese tra i 1250 e i 1400 MHz (magari più prossime ai 1400 Mhz) avrebbero avuto prestazioni allineate con quelle della 5870. D'altra parte, se nVidia avesse mantenuto l'architettura di gt200, con il nuovo rapporto tra MADD esistente tra 480 e cypress, la prima avrebbe avuto un vantaggio oscillante tra il 5 e il 10%; metti le ottimizzazioni fatte sui calcoli geometrici e sulle rop's (le prestazioni con MSAA da 4x in su di GT200 erano scandalose), metti il quantitativo superiore di memoria e la maggior banda passante ed ecco ottenuto il vantaggio del 10-12% circa delle review che hanno testato più giochi. Certo, poi ci sono anche casi in cui la 5870 va molto di più di fermi ed altri in cui le prende sonoramente, ma tenderei ad escludere questi casi limite che denotano una eccessiva ottimizzazione in un verso o nell'altro. La 512 al momento è un'utopia; non c'è un solo sample funzionante con 512 alu e l'uso di 512 shader con frequenze addirittura superiori alle attuali richiederebbe, con ogni probabilità, un aumento della Vdd con consumi e calore che schizzerebbero alle stelle.
  9. io direi anche le prestazioni, visto che si è parlato più volte di un 10-15% massimo di scarto e, in effetti, lo scarto medio tra 480 e 5870 è sul 10-12%. Ovviamente non va tenuto conto delle situazioni in cui la concorrenza è fb limited. La 480 è tirata al massimo, cosa prevedibile. Ora sarà chiaro il motivo del ritardo e il perchè fino all'ultimo non si è saputo nulla delle frequenze. Il fatto è che neppure nVIDIA aveva dati certi sulle frequenze e, da gennaio, sta lavorando per cercare un compromesso tra prestazioni, consumi, yield, per poter lanciare un prodotto "presentabile" e in linea con la filosofia di santa clara. Chi pensa che presto si vedrà una 512 con 750 MHz è solo un illuso. Al momento e con questo step, questo è il meglio che si poteva fare. In quanto all'architettura, ribadisco quanto detto tempo fa: sicuramente interessante in prospettiva futura. Sulle prestazioni, al momento, non mi pronuncio; mi limito a dire che la geforce sono sotto in tutto, ma hanno un buon margine di vantaggio sui calcoli geometrici, probabilmente grazie alla miglior efficienza dell'input assembler modulare. Il CSAA 32x è simile al 24x di ATi, con 8 sample reali e, rispettivamente, 24 e 16 ricavati da una coverage mask. La qualità non è comparabile a quella di un 24x o di un 32x veri, ma è superiore all'8x MSAA classico con un hit prestazionale, tutto sommato, contenuto.
  10. da notare soprattutto questo passaggio People have expected single GPU Geforce GTX 480 to end up at close to $600 or €600 in Europe after tax but it turns out that the amount Nvidia wants for its new high end card should be closer to €450. Questo è sempre fudzilla il 5 marzo If you have been waiting for Fermi, Geforce GTX 480 and GTX 470 and you really want to spend some 600€ / $600 for a high end graphics card, you better be ready to buy it on March 26th. Fudzilla - Nvidia to have sufficient GTX 480 at launch Ovvero, la gente si aspettava di dover spendere 600 € per fermi? Invece pare lo prezzeranno a 450 €. Forse la gente si aspettava di dover spendere 600 € perchè un certo fuad abazovic, non più tardi di una settimana fa, andava in giro dicendo che, da fonti vocine a nVidia, risultava che fermi sarebbe costato tanto ed esortava anche a precipitarsi ad ordinarlo perchè nonostante la grande disponibilità dei chip (Despite the fact that Nvidia will have a massive volume launch with thousands of cards available in Europe and USA, they might easily sell out in matter of hours.) gli stessi sarebbero teminati in brevissimo tempo. Che aggiungere di più?
  11. dipende; l'inferiorità tecnologica non si è tradotta in pesante inferiorità prestazionale solo per la politica attuata da nVidia presso le swhouse. Se, passando alle dx10, si fosse fatto ricorso anche ad alcune ottimizzazioni dx10.1 (magari con specifiche path), le prestazioni delle ATi avrebbero beneficiato di incrementi notevoli (anche dell'ordine del 20-25%) e questo sarebbe andato a tutto vantaggio degli utenti ATi senza danneggiare quelli nVidia (che non avrebbero avuto cali prestazionali). Guarda cosa succede attivando il MSAA 4x in HAWX con path dx10.1 per le ATi Sapphire Radeon HD 4890 1GB Review - Page 20 Situazione analoga si sarebbe avuta per tutti i giochi in cui si fosse fatto ricorso a questo tipo di ottimizzazioni (ad esempio con engine tipo UE3, ossia di tipo deferred e MSAA 4x le ATi guadagnano il 22-23% in dx10.1 rispetto alle dx10).
  12. mi linki dove avrei detto, anzi assicurato, che sarà un flop?
  13. da cosa deduci, basandosi su 4 chiacchiere in croce, che sarà un flop oppure un mostro?
  14. abbiamo ridisegnato GF100 da zero per ottenere le migliori prestazioni in DX11. Questo significa aggiungere motori hardware dedicati nella nostra gpu per accelerare caratteristiche chiave come la tessellation.Abbiamo anche apportato cambiamenti sul piano computazionale che saranno specificatamente di beneficio per i giocatori, come il ray tracing interattivo e migliori performance nella fisica, grazie al supporto di cose come l'uso di più kernel concorrenti. Sfortunatamente tutti questi questi cambiamenti hanno poreso più tempo di quello che avevamo originariamente preventivato ed è per questo che siamo in ritardo. Ci auguriamo di avere GF100 oggi? Si. Comunque sulla base di tutti i cambiamenti fatti, GF100 sarà la migliore gpu per il gaming mai costruita. Assolutamente
  15. non faccio l'indovino ma mi baso sui fatti. Tra gf100 a 1450 MHz di shader core e rv870 il rapporto tra le rispettive potenze di calcolo in MADD è pressochè identico a quello tra GT200b (versione 285 gtx) e RV790. In compenso, peggiora, dal punto di vista di nVIDIA, il rapporto tra operazioni di texturing e il pixel fillrate relativo (il che significa che gt200 faceva meglo, relativamente a rv790, di quanto fermi non faccia, in questi due campi, rispetto a rv870). La differenza tra gt200b e rv790 non supera il 10-14% se si fa una media dei vari titoli. Fermi (in versione 512 alu) sicuramente non fa meglio. Poi, i fatti dicano anche che: sono state ridimensionate le specifiche sulle tesla (non più 512 alu, almeno per ora, il che fa perdere a nVIDIA il vantaggio nei calcoli in DP). Pare siano state ridimensionate le specifiche sulle frequenze delle geforce (si parlava di 1700 MHz di shader core e si è scesi a 1450, almeno a giudicare dalle voci). Il chip non è ancora entrato in produzione (dovrebbe accadere entro febbraio). In questo contesto, non c'è ancora un risultato attendibile di un qualunque test. Se, poi, vogliamo dar retta alle chiacchiere fatte, allora fermi era già in produzione a settembre (the yields are fine), poi lo era a novembre, poi al ces. Poi fermi sarà più veloce del 50% rispetto alla 5870, poi fermi supererà dell'8% la 5970, e poi ci si sveglia tutti sudati
  16. dal CES sono passate solo 3 settimane e nel frattempo non ci sono stati altri tapeout di fermi.
  17. i rumors possono dire ciò che vogliono; un sample downclockato che ha bisogno di raffreddamento a liquido è la più grossa che abbia mai sentito. Per la versione a frequenze standard si utilizza l'azoto?
  18. su un gioco in cui le ATi non brillano il 12%, ma nella media complessiva la percentuale scende non poco. Il 960 cpu limited a 1920 con AA4x e AF 16x in FC2; non credo proprio (altra sparata di nVIDIA) In quanto ai driver alpha di cui parli, vedremo. I risultati, ammesso che siano relativi ad un test realmente eseguito, sono stati ottenuti in "regime controllato". Il che darebbe loro un valore di poco superiore a quello di una techdemo
  19. come previsto e sicuramente le frequenze sono quelle definitive Quindi, al momento, una 380 è circa il 7-10% più veloce di una 5870 in FC2.
  20. a giudicare da quanto visto al ces, direi più un tostapane
  21. se per la fine del 2010 ci sarà un refresh di fermi, non sarà di sicuro a 28 nm. Per nVIDIA i 28 nm potrebbero arrivare non prima della fine del Q2 2011 (e se è così le va di lusso).
  22. a rigor di logica potrei risponderti: perchè era un test della tecnologie eyefinity e non ha senso farlo su crossfire (visto che si tratta proprio di dimostrare come una singola vga possa pilotare fino a 6 monitor). Oppure potrei dirti che me lo hanno riferito alcuni amici in AMD e in Crytek. O, magari, semplicemente, che lo si può trovare scritto in alcune review della 5870 dove si trova, testualmente: We have seen Eyefinity demos of CryEngine 3 running and they are extremely impressive…and running at more than 5 frames per second. Era la prima dimostrazione della tecnologia eyefinity fatta durante la presentazione della 5870 alla stampa specializzata (la 5970 non esisteva ancora) e di impressive ci sarebbe stato ben poco se avesse girato su un triple crossfire
  23. singola hd5870. Inoltre hanno mostrato effetti come spari ed esplosioni e, soprattutto, l'acqua, il cui shader è uno dei più pesanti in assoluto. :perfido:
  24. i 28 nm non sono un semplice shrink ottico dei 40 ma un nuovo pp. Se poi pensi ai 32 nm, allora..........auguri
×
×
  • Create New...