[Considerazioni] NVIDIA GeForce GTX 280...

Visualizzazione dei risultati da 1 a 9 su 9
  1. #1
    La Leggenda L'avatar di VisioN
    Registrato
    Mar 2007
    Località
    Bibione(VE)\Padova(PD)
    Età
    36
    Messaggi
    3,202
    configurazione

    Predefinito [Considerazioni] NVIDIA GeForce GTX 280...

    Eccomi qua, dopo un intensa giornata di studio (dalle 9.00 alle 22.00) non potevo mancare...

    Oggi è stato il gran giorno, dopo una lunga attesa NVIDIA ha rilasciato la sua nuova nata...

    Ho letto tutte le recensioni dei più noti siti italiani e 8 recensioni estere, con tutti i commenti degli utenti...

    Che dire?

    C'è chi afferma che questa nuova nata, tanto nuova poi non sia, altri dicono che è rivoluzionaria e che ha confermato le aspettative, altri l'hanno definita semplicemente come "FLOP as 5800"...

    Ora vi darò la mia opinione...

    Nella storia siamo sempre stati abituati ad avere due grandi aziende, NVIDIA e ATi, che a colpi di vga si sono fatte concorrenza, creando una sorta di sali e scendi, in cui a grandi flop di una corrispondevano grandi vga dell'avversaria...

    Tutti ricordiamo i tempi della tanto famosa quanto disastrosa GeForce FX5800 Ultra, una scheda preannunciata e decantata in tutto il web, che poi si rivelò essere non solo meno prestante della controparte ATi (ed NVIDIA stessa), ma consumava di piu', era più rumorosa, oltre al problema di gestione delle dx9...insomma un completo disastro...

    Con la serie 6 e 7 le cose sono tornate circa alla normalità, con le due aziende che continuarono a farsi lotta, con nuove vga e prezzi sempre più competitivi...

    Arriviamo a novembre 2006, NVIDIA dopo aver presentato il suo primo modello di GX2 (7950GX2), con stupore da parte di tutti, presentò una nuova scheda fuori dagli attuali canoni, dx10 e shader unificati, dimensioni fuori dal comune, consumo, rumorosità, dimensione della gpu, quantitativo di ram...

    In relatà sotto sotto si sapeva da circa 5 anni della collaborazione tra NVIDIA e Microsoft per lo studio di questa gpu e delle dx10...

    La cosa sconcertante fu che il g80, era superiore anche alla 7950GX2, nonostante la prima fosse dotata di due gpu e i driver acerbi della serie 8, oltre ad essere nettamente superiore a tutte le altre vga in commercio, sia in configurazione singola che multi-gpu...

    Sicuri del traguardo raggiunto e avvantaggiati dai problemi di AMD/ATi dopo l'acquisizione e quindi privi di concorrenza, gli ingegneri della NVIDIA hanno avuto circa 2 anni per sviluppare una degna erede al trono...

    Dopo aggiornamenti e revisioni del g80 con g92, g92b e altri, rinominati in mille maniere ma le cui radici erano le medesime, siamo giunti al 16/06/2008...

    Premetto che, se IO fossi a capo di un azienda quale la NVIDIA, saprei che la prima impressione, quindi la lettura della prima recensione, è quella che resterà marchiata più a lungo nella mente dei fan e non, quindi cercherei di ridurre il numero di problemi a 0, in modo che il mio prodotto risulti più brillante possibile.

    Detto questo, non sto qui a fare troppi riassunti per indicare in quali bench è superiore, in quale inferiore ecc ecc, ma gia da queste parole si può capire che qualcosa non va...

    Al tempo del g80, non si parlava di bench in cui quest'ultimo era superiore o inferiore, in quanto era superiore a tutto in tutto.

    Questo fatto, marchiato nella mente di tutti, ha fatto sì che tutti si aspettassero (giustamente) dopo due anni di attesa, una rivale che non solo fosse superiore in TUTTO, ma anche con vere novità.

    Vorrei ricordare che la Intel ha pagato caro a suo tempo i tentativi di aggiungere forza bruta a cpu la cui architettura di base era ormai agli sgoccioli (Prescott)...ma forse alla NVIDIA se ne sono dimenticati.

    =========================================================

    CONSIDERAZIONI :

    Io da consumatore, pago e pretendo, anzi, pretendo anche troppo.

    • Hanno avuto due anni per questa gpu, non gli permetto scusanti quali "driver acerbi". Loro devono vendere, e se vogliono vendere devono mettersi nelle condizioni per cui il loro prodotto renda il meglio possibile.

    • Dx10, nessuna innovazione architetturale, su una delle recensioni è stato ben indicato come alla NVIDIA abbiano solo pensato a "raddoppiare" il numero delle singole parti interne alla gpu.

    • GDDR3, che per quanto selezionate e per quanto prestanti, più di quello non vanno.

    Io avrei preferito Dx10.1, che si sa, non cambia nulla rispetto alle Dx10, ma gia il fatto di saperle compatibili, per gli utenti, è un problema in meno.

    GDDR4, tutti dicono che siano un flop come memorie, è vero, ma sono sicuramente superiori alle GDDR3, a parità di consumo permettono margini di frequenze superiori, anche se non ai limiliti che ci si aspettava, e da quel che ho letto, i costi non sono neanche così superiori (8$ in più al chip). Il solo costo per NVIDIA di un singolo GT200 dicono che sia di circa 100$ presso TMSC, cosa che mi pare impossibile visto che la scheda completa costa 565euro e si sa che la cosa più costosa in una vga è la gpu, quindi considerando il cambio 100$ = 100euro segue che :

    565-100 = 495, ora spiegatemi dove li mettono 495 in un pcb.

    Per me questa gpu è un mezzo flop, me la aspettavo come minimo superiore in tutti i bench a tutte le altre vga in commercio (per essere degna erede del g80), con buone % di vantaggio, invece da tutte le recensioni lette si nota come questi margini di vantaggio siano netti se paragonata alla 9800gtx, mentre a confronto con una 9800gx2 in certi bench risulta addirittura inferiore (cosa che con il g80 non accadde).

    Sono soddisfatto dei consumi, minori e contenuti nonostante le dimensioni della gpu (650mmq ca), anche se mi sarebbe piaciuto qualcosa di veramente innovativo al posto di abbassare semplicemente le frequenze di core, sp e ram quando si è in ambiente 2D. Mi avrebbe fatto piacere leggere che al posto di abbassare le frequenze, certi blocchi della gpu si spegnevano (un po come nel prototipo di Intel a 80core).

    La rumorosità è un fattore facoltativo e ai test fatti non ci credo, ci sono troppe variabili da considerare e come test non li ritengo affidabili.

    Ho visto i margini di overclock, che direi essere ottimi grazie ai 65nm (Zotac propone la versione Amp! a 700mhz sul core al posto dei 602 reference) ma è evidente che i margini delle memorie siano molto limitati...

    Hanno sbagliato ad adottare ora i 65nm per poi passare a fine estate ai 55nm, oltre a creare dissenso tra gli utenti in quanto non sanno se è meglio comprare ora o aspettare, si sono dimostrati indietro rispetto ad ATi (forte dell'esperienza AMD), e dico che optando direttamente per i 55nm avrebbero risparmiato quei $ sul core per magari spenderli in GDDR4; molti dicono che non sono pronti per i 55nm, ma non sono di certo due mesi che permettono un processo produttivo rispetto ad un altro : alla domanda "E te che ne sai?" rispondo che ci sono gia i sample a 55nm

    Dopotutto dovevamo aspettarcelo...

    Il salto prestazionale brutale con il g80, è dovuto al fatto che era una gpu completamente diversa dalle precenti, mentre questo gt200 è si "nuovo", ma le redici sono vecchie, solamente raddoppiate.

    L'abbiamo visto anche con Intel, i C2D con la loro nuova rchitettura hanno permesso a Intel di tornare in vetta da due anni ormai...e ora, dopo aver capito che spingere troppo sulla stessa architettura non porta a nulla, hanno optato per passare a Nehalem...

    ATi la prossima settimana presenterà la serie 4800 e NVIDIA presenterà i driver con le implementazioni CUDA...staremo a vedere...

    Una cosa è certa : le prestazioni delle 4800 non saranno di molto inferiori, quindi entrambe faranno lotta sui prezzi, tutto a vantaggio di noi consumatori...

    ...finchè una delle due non presenterà un qualcosa di completamente nuovo, come al tempo del g80...

    E' un ciclo, chi vivrà vedrà...










    [PS : Vi state chiedendo cosa farò io? Spesi 670euro per il g80, fui criticato come tanti da molti, ora posso dire che li spesi bene e ne vado fiero, nella storia è stato l'unica gpu in vetta per due anni.

    Questo GT200 non li merita ora 565euro, aspetto l'uscita della controparte ATi e la stabilizzazione dei prezzi, vale a dire fine luglio, e poi...

    ...ovviamente comprerò questa GeForce GTX280^^ (NVIDIA FOREVER)]



    [VisioN]

  2. #2
    L'avatar di Marco9650
    Registrato
    May 2008
    Località
    Milano!!! ^^
    Età
    35
    Messaggi
    617
    configurazione

    Predefinito

    Ti quoto in tutto e x tutto...hai scritto preciso qll ke ho pensato d qst skeda video...ovviamente te 6 stato + tecnico

  3. #3
    Super Moderatore L'avatar di frakka
    Registrato
    May 2001
    Località
    Casalecchio di Reno (Bo)
    Età
    44
    Messaggi
    23,415
    configurazione

    Predefinito

    Ok, lo ammetto. Mi hai stupito.

    Mi aspettavo un post da fanboy sfegato e, indipendentemente dal fatto che possa essere in accordo o meno con quello che hai scritto, sono contento di essere stato smentito.


    Tornando in topic, onestamente ho dato solo una scorsa rapida alle recensioni ed ai bench che ho visto in giro. Ormai difficilmente mi fermo leggere le comparative a colpi di 2fps tra un prodotto e l'altro perchè non mi interessano più.
    Qui la differenza è molto superiore ai 2 fps, siamo d'accordo. Ma tanto le reali potenzialità di queste schede saranno espresse solo tra qualche rilascio di driver, parecchi rilasci per le funzionalità più innovative e molto tempo perchè siano implementate in maniera decente su larga scala.

    Mi interessa cercare di capire l'approccio alle nuove tecnologie e cercare di capire se stanno creando qualcosa di veramente innovativo oppure se è la solita minestra moltiplicata e riscaldata. Sotto questo aspetto sembra che qualcosina si stia muovendo, dalla recensione di betaxp che c'è sul portale alcune novità interessanti ci sono anche in materia di risparmio energetico.
    Soprattutto spero nell'implementazione di CUDA o di tecnologie equivalenti che permattano di sfruttare la vpu per il general purpose su larghissima scala perchè l'architettura x68 e x86_64 (secondo il mio modesto parere di appassionato e non di tecnico esperto in materia) sono molto vicine alla frutta.

    E' necessario un cambiamento radicale nel modo di funzionare di quello che mettiamo nei nostri case perchè possiamo sperare di vedere ancora qualche novità che sia davvero interessante.

    Questa è la storia di 4 persone chiamate Ognuno, Qualcuno, Ciascuno e Nessuno. C'era un lavoro importante da fare e Ognuno era sicuro che Qualcuno lo avrebbe fatto. Ciascuno poteva farlo, ma Nessuno lo fece, Qualcuno si arrabbiò perché era il lavoro di Ognuno. Ognuno pensò che Ciascuno potesse farlo, ma Ognuno capì che Nessuno l'avrebbe fatto. Finì che Ognuno incolpò Qualcuno perché Nessuno fece ciò che Ciascuno avrebbe potuto fare.

  4. #4
    Ghost Fighter L'avatar di frenc
    Registrato
    Jan 2001
    Messaggi
    24,668
    configurazione

    Predefinito

    ottima analisi vision. come ha detto frakka... mi hai stupito .

  5. #5
    gibibyte L'avatar di bender0101
    Registrato
    May 2006
    Località
    pisano
    Età
    49
    Messaggi
    969
    configurazione

    Predefinito

    si hai stupito ma poi infondo hai ribadito di voler comunque comprare questa scheda anche se ad un prezzo minore.
    più che una critica mi sembra uno sfogo contro una l'azienda amata che ti ha deluso e che nasconde un pensiero del tipo: e se Ati fa una scheda migliore?
    se sei veramente critico verso nvidia dovresti prendere in considerazione anche di poter acquistare una scheda ati se risultasse migliore come rapporto prezzo/prestazioni. (difficile che accada)
    io sono "simpatizzante" (che non vuol dire fanboy) sia AMD che ATI, ne ho avuti molti sia di cpu che schede video ma adesso ho un core duo e una geforce.

    per quanto riguarda la scheda ci sono recensioni contrastanti ma generalmente non sembra convincere molto sta scheda
    e poi ancora con i 65nm...
    personalmente la ritengo una spesa inutile come tutte le schede di fascia alta di qualsiasi marca, specialmente se il modello del debutto, sicuramente meno ottimizzato e con consumi più alti delle revision successive
    niente in contrario per chi spende 600€ o più per una vga ma non condivido
    "Nove volte sette, pensò Shuman con profonda soddisfazione, fa sessantatrè, e non ho bisogno che me lo dica nessun computer. Il computer ce l'ho nella testa. Era stupefacente il senso di potere che gli dava quel pensiero."



  6. #6
    La Leggenda L'avatar di VisioN
    Registrato
    Mar 2007
    Località
    Bibione(VE)\Padova(PD)
    Età
    36
    Messaggi
    3,202
    configurazione

    Predefinito

    Originariamente inviato da bender0101
    si hai stupito ma poi infondo hai ribadito di voler comunque comprare questa scheda anche se ad un prezzo minore.
    più che una critica mi sembra uno sfogo contro una l'azienda amata che ti ha deluso e che nasconde un pensiero del tipo: e se Ati fa una scheda migliore?
    se sei veramente critico verso nvidia dovresti prendere in considerazione anche di poter acquistare una scheda ati se risultasse migliore come rapporto prezzo/prestazioni.
    Ti ricordo che stai parlando con una persona che a quei tempi, contrariamente a quanto fecero il 99% delle persone, acquistò una FX5800

    Non mi ritengo un semplice fanboy, è passato quel tempo, ho scelto quell'azienda per la sua politica e per come lavora, per il suo pensiero di fondo, e darle supporto nel mio piccolo significa anche questo.

    Se credo in quel che fa, la supporto come posso.

    E poi che sia chiaro, non stiamo parlando di una ciofeca di scheda eh, prestazionalmente parlando ha un +137% rispetto a una 9800GTX, quindi è una mezza bomba questa gpu, il problema è il confronto con la GX2...

    Il fatto è qesto : o NVIDIA vuole continuare a tirarsi zappate sui piedi con le serie GX2, che in ogni caso sono riservate a un mercato più ristretto anche della fascia alta, oppure deve decidere di eliminare tutta la sezione Quad-SLI...

    Mi spiego meglio : il g92b, figlio del g80, nella serie 9800GX2 è stato ottimizzato al massimo, infatti questa scheda oltre ad aver segnato risultati evidenti a tutti, si è lasciata alle spalle quasi tutti i problemi riscontrati con la prima serie GX2 (7950GX2).

    Il fatto che al tempo del g80 le sue prestazioni risultarono superiori anche della 7950GX2, è dovuto al fatto, come ho detto sopra, che la sua struttura e tutto il concetto di gpu era stravolto, era una cosa completamente nuova...

    Ora NVIDIA, purtroppo, ha fatto male i conti, e cioè ha prima presentato una 9800GX2 ottimizzata al meglio, e dotata di driver affidabili, e poi ha presentato il tanto acclamato erede del g80, il GT200, senza contare che anche quest'ultimo abbia sotto sotto, le stesse radici del g92b montato sulla 9800GX2, e per quanto pompato al massimo e con strutture raddoppiate, questo GT200 non potrà mai e poi mai segnare un nuovo traguardo prestazionale, netto, come al tempo del g80.

    Per capirci, due g92b in SLI su una 9800GX2, in linea teoria e a livello di puro hardware, non hanno molto in meno del nuovo GT200. Per questo i risultati sono altalenanti...

    Se il GT200 fosse stato completamente nuovo, ci sarebbe stato un divario netto con la GX2, e quindi sarebbe stato un degno erede del g80...

    La cosa migliore e più semplice, visto che per un progetto di nuova gpu di vogliono dai 3 ai 5 anni, sarebbe stato produrre questo GT200 subito a 55nm, in modo da avere consumi totali inferiori rispetto alle attuali vga, alzare la frequenza del core a 750mhz come reference (con i 65nm attuali la Zotac propone la versione Amp! a 700mhz), e puntare sulle GDDR4 con i soldi risparmiati grazie al processo produttivo inferiore, in modo da avere ram che a frequenza lievemente superiori consumano uguale o poco meno...

    Tutto questo, avrebbe mascherato un po il fatto che questo GT200 non è altro che un g92b raddoppiato su un unico chip, ma così si avrebbero almeno avuto prestazioni nettamente superiori...

    Si potrebbe anche pensare, come è logico che sia, visto che alla NVIDIA non sanno come andrà questo nuovo R700 di ATi, hanno optato per proporre una prima versione di questo GT200 in attesa di vedere la controparte, per poi presentare una versione più ufficiale del GT200 a 55nm e con frquenza variate a fine estate, in modo da sembrare sempre un passo avanti...

    Il fatto è che a me, scusate il termine, questo ragionamendo sta sui coglioni.

    Io sono per la botta secca tutta e subito, senza ripensamenti, quel che sarà sarà, e non per il fasciarsi la testa prima di rompersela. Così si sono solo tirati una zappata sui piedi e una martellata sulle palle.

    Non è, secondo me, l'erede del g80...per questo non me la sento di spendere 600euro ora, aspetterò fine luglio quando si troverà attorno ai 490euro, o forse aspetterò la revision a 55nm...

  7. #7
    gibibyte L'avatar di bender0101
    Registrato
    May 2006
    Località
    pisano
    Età
    49
    Messaggi
    969
    configurazione

    Predefinito

    non fraintendermi, la tua analisi è sicuramente critica e non è certo da fanboy
    quello che intendevo dire è che anche se ami una marca, per i motivi che voui te, se ti delude o non ti piace più che politica che fa puoi anche decidere di non prenderla a questo giro o aspettare un prodotto migliore
    poi lo sai meglio di me come va il mercato sulla fascia alta delle vga, si fa a uscire prima degli altri sparando il risultato più alto, senza magari ottimizzare il processo produttivo, i consumi e via dicendo, aggiustando poi il tutto con revision successive
    tanto poi il mercato lo fa la fascia media o giù di lì certo trainato dai risultati della fascia alta
    è per questo che non spendo 600e per una vga, il suo valore cala ancora più velocemente delle cpu mentre con una fascia media o medio-alto giochi bene ugualmente e spendi la metà
    ovviamente sto parlando per un utente medio che non vuole raggiungere determinati risultati con il pc e in overclock

    poi che dire, anche io mi sarei aspettato il processo produttivo a 55nm e le ddr4 sulla scheda di punta

    sicuramente la scheda non è una ciofeca ma neanche una rivoluzione, è il continuo del lavoro precedente e senza neppure un cambio di processo produttivo
    "Nove volte sette, pensò Shuman con profonda soddisfazione, fa sessantatrè, e non ho bisogno che me lo dica nessun computer. Il computer ce l'ho nella testa. Era stupefacente il senso di potere che gli dava quel pensiero."



  8. #8
    Nexthardware Staff L'avatar di Chicco85
    Registrato
    Oct 2005
    Località
    Verona
    Età
    39
    Messaggi
    7,546
    configurazione

    Predefinito

    Finalmente una discussione come piace a me... Spero solo di riuscire a seguirla in modo decente visto che ultimamente il tempo per me latita. Ad ogni modo, ottima analisi, prendo alcuni spunti per alimentare la discussione...

    Originariamente inviato da VisioN
    CONSIDERAZIONI :

    Io da consumatore, pago e pretendo, anzi, pretendo anche troppo.
    • Hanno avuto due anni per questa gpu, non gli permetto scusanti quali "driver acerbi". Loro devono vendere, e se vogliono vendere devono mettersi nelle condizioni per cui il loro prodotto renda il meglio possibile.
    [VisioN]
    Con GT200 i driver incideranno molto di meno che con G80 al lancio. Proprio perchè sono architetture molto simili infatti, questo si trasforma in un medaglione a due facce. Da un lato l'ottimizzazione è già stata fatta a monte con G80 e derivati. Qui si può ottimizzare ancora qualcosa ma non quanto in passato in percentuale.
    Dall'altro lato, architetture simili, driver pressochè maturi, uguale prestazioni molto buone già al lancio.

    Originariamente inviato da VisioN
    • Dx10, nessuna innovazione architetturale, su una delle recensioni è stato ben indicato come alla NVIDIA abbiano solo pensato a "raddoppiare" il numero delle singole parti interne alla gpu.
    [VisioN]
    Dal mio modesto punto di vista è vero, nessuna innovazione, ma il fatto di raddoppiare il tutto è già un mezzo miracolo per via della gpu che ne è venuta fuori in termini di dimensioni su die monolitico. Quanto alle innovazioni, siamo davvero sicuri che ora servano veramente?
    Il salto dall'approccio dx9 a quello dx10 è potenzialmente abissale. Diamo il tempo ai programmatori e, soprattutto, al mercato di uniformarsi allo standard e poi potremmo chiedere ed ottenere qualcosa di nuovo. Finchè le software house continueranno lo sviluppo di motori dx9-dx10 ibridi, non si potranno sbilanciare verso le dx10 più di tanto, e quindi non le sfrutteranno mai a fondo. Il problema è che ora come ora, sono obbligate a farlo.

    Originariamente inviato da VisioN
    GDDR3, che per quanto selezionate e per quanto prestanti, più di quello non vanno.
    Qui si parla di 140 GB/s di bandwith, nonostante le GDDR3. Prima pensiamo a saturare bene quella banda, e poi passiamo allo step successivo.

    Originariamente inviato da VisioN
    Io avrei preferito Dx10.1, che si sa, non cambia nulla rispetto alle Dx10, ma gia il fatto di saperle compatibili, per gli utenti, è un problema in meno.
    [VisioN]
    Qui il problema è duplice. E' pur vero che non ci sono differenze notevoli tra le due librerie, tuttavia le 10.1 richiedono un'unità che G80 e derivati non hanno, ovvero la tessellation unit programmabile. Probabile che per esigenze di spazio e di riorganizzazione gpu non l'abbiano voluta appositamente integrare.

    Originariamente inviato da VisioN
    GDDR4, tutti dicono che siano un flop come memorie, è vero, ma sono sicuramente superiori alle GDDR3, a parità di consumo permettono margini di frequenze superiori, anche se non ai limiliti che ci si aspettava, e da quel che ho letto, i costi non sono neanche così superiori (8$ in più al chip). Il solo costo per NVIDIA di un singolo GT200 dicono che sia di circa 100$ presso TMSC, cosa che mi pare impossibile visto che la scheda completa costa 565euro e si sa che la cosa più costosa in una vga è la gpu, quindi considerando il cambio 100$ = 100euro segue che :

    565-100 = 495, ora spiegatemi dove li mettono 495 in un pcb.

    [VisioN]
    Qui bisogna vedere quanto costano a nvidia le GDDR3 rispetto alle GDDR4, cosa comporta a livello del tipico memory controller crossbarr switch nvidia l'adozione dell'uno o dell'altro chip di memoria.
    Per come la vedo io, innanzitutto a nvidia sicuramente costano meno le GDDR3 (8 dollari a chip sono un'enormità...). In secondo luogo sono disponibili in volumi molto più ampi delle GDDR4. In terzo luogo, il fatto di avere un blocco di stream processor collegato ad una rop's che a sua volta ha un canale di memoria dedicato, comporta che tutto questo sistema benefici delle latenze minori delle GDDR3 piuttosto che delle pure frequenze delle GDDR4. Nel caso di AMD, con il controller ring bus, le cose si capovolgono.
    La produzione di GT200 costa tantissimo a nvidia, c'è poco da fare. Di GT200 su wafer da 300mm ce ne stanno davvero pochi. 100 $ potrebbe essere un prezzo veritiero, poi conta tutti gli altri componenti, assemblaggio, distribuzione, tasse varie ecc... Ciò non toglie che sono d'accordo con te che costi molto.

    Originariamente inviato da VisioN

    Per me questa gpu è un mezzo flop, me la aspettavo come minimo superiore in tutti i bench a tutte le altre vga in commercio (per essere degna erede del g80), con buone % di vantaggio, invece da tutte le recensioni lette si nota come questi margini di vantaggio siano netti se paragonata alla 9800gtx, mentre a confronto con una 9800gx2 in certi bench risulta addirittura inferiore (cosa che con il g80 non accadde).

    [VisioN]
    Oddio, a me sembra azzardato parlare di flop. E' pur sempre la singola gpu più potente in commercio. Certo, la scelta di fare un padellone la penalizza in termini di scalabilità di frequenze degli stream processor, però non mi sembra affatto male.

    Originariamente inviato da VisioN
    Sono soddisfatto dei consumi, minori e contenuti nonostante le dimensioni della gpu (650mmq ca), anche se mi sarebbe piaciuto qualcosa di veramente innovativo al posto di abbassare semplicemente le frequenze di core, sp e ram quando si è in ambiente 2D. Mi avrebbe fatto piacere leggere che al posto di abbassare le frequenze, certi blocchi della gpu si spegnevano (un po come nel prototipo di Intel a 80core).

    [VisioN]
    Per l'aspetto consumi secondo me hanno fatto un mezzo miracolo. Data l'entità del guadagno, non c'è solo una diminuzione di frequenza, ma almeno anche di voltaggio (sottolineo almeno...).

    Originariamente inviato da VisioN
    Hanno sbagliato ad adottare ora i 65nm per poi passare a fine estate ai 55nm, oltre a creare dissenso tra gli utenti in quanto non sanno se è meglio comprare ora o aspettare, si sono dimostrati indietro rispetto ad ATi (forte dell'esperienza AMD), e dico che optando direttamente per i 55nm avrebbero risparmiato quei $ sul core per magari spenderli in GDDR4; molti dicono che non sono pronti per i 55nm, ma non sono di certo due mesi che permettono un processo produttivo rispetto ad un altro : alla domanda "E te che ne sai?" rispondo che ci sono gia i sample a 55nm

    [VisioN]
    Qui bisogna vedere le rese produttive dei wafer a 55nm vs 65nm. Per me la resa a 55nm era ancora troppo bassa per essere adottata. Altrimenti nvidia sicuramente avrebbe shiftato la produzione verso la linea che più le conveniva. AMD non deve certo produrre patacche da 1,4 miliardi di transistor, per cui per forza di cose qui è avanti.

    Originariamente inviato da VisioN
    Dopotutto dovevamo aspettarcelo...

    Il salto prestazionale brutale con il g80, è dovuto al fatto che era una gpu completamente diversa dalle precenti, mentre questo gt200 è si "nuovo", ma le redici sono vecchie, solamente raddoppiate.

    [VisioN]
    Le radici erano ottime, per cui lasciamo crescere ancora un pò l'albero prima di tirarlo giù e piantarne un altro.

    Originariamente inviato da VisioN
    L'abbiamo visto anche con Intel, i C2D con la loro nuova rchitettura hanno permesso a Intel di tornare in vetta da due anni ormai...e ora, dopo aver capito che spingere troppo sulla stessa architettura non porta a nulla, hanno optato per passare a Nehalem...

    [VisioN]
    Qui è diverso. Intel s'è prefissa una roadmap precisa e quasi metronomica. E la sta rispettando alla grande. Inoltre il mondo cpu a mio avviso, deve ancora subire sferzate simili a quelle che si sono viste con le gpu. Per cui non confronterei direttamente i due terreni di sviluppo.

    Originariamente inviato da VisioN
    ...finchè una delle due non presenterà un qualcosa di completamente nuovo, come al tempo del g80...

    E' un ciclo, chi vivrà vedrà...
    [VisioN]
    Il nuovo arriverà, ma non adesso. Come ti dicevo prima, per ora non c'è bisogno di qualcosa di innovativo. Almeno secodo me.


  9. #9
    La Leggenda L'avatar di VisioN
    Registrato
    Mar 2007
    Località
    Bibione(VE)\Padova(PD)
    Età
    36
    Messaggi
    3,202
    configurazione

    Predefinito

    Originariamente inviato da Chicco85
    Con GT200 i driver incideranno molto di meno che con G80 al lancio. Proprio perchè sono architetture molto simili infatti, questo si trasforma in un medaglione a due facce. Da un lato l'ottimizzazione è già stata fatta a monte con G80 e derivati. Qui si può ottimizzare ancora qualcosa ma non quanto in passato in percentuale.
    Dall'altro lato, architetture simili, driver pressochè maturi, uguale prestazioni molto buone già al lancio.
    Sono perfettamente daccordo con te, il problema è che proprio per questo motivo, non vedremo stravolgimenti nelle prestazioni di questa gpu. Le prestazioni secondo me miglioreranno massimo di un 10%, e poi qualche ottimizzazione particolare per le specifiche applicazioni e/o giochi, ma questa è e questa rimane.

    Originariamente inviato da Chicco85
    Dal mio modesto punto di vista è vero, nessuna innovazione, ma il fatto di raddoppiare il tutto è già un mezzo miracolo per via della gpu che ne è venuta fuori in termini di dimensioni su die monolitico. Quanto alle innovazioni, siamo davvero sicuri che ora servano veramente?
    Il salto dall'approccio dx9 a quello dx10 è potenzialmente abissale. Diamo il tempo ai programmatori e, soprattutto, al mercato di uniformarsi allo standard e poi potremmo chiedere ed ottenere qualcosa di nuovo. Finchè le software house continueranno lo sviluppo di motori dx9-dx10 ibridi, non si potranno sbilanciare verso le dx10 più di tanto, e quindi non le sfrutteranno mai a fondo. Il problema è che ora come ora, sono obbligate a farlo.
    Quello che intendevo io è che un azienda, leader mondiale insieme alla concorrente, deve soddisfare le esigenze e le necessità degli utenti...

    Attualmente, si vedono giochi come Crysis sviluppati completamente in dx9 e successivamente riadattati, quindi assai pesanti, solo con qualche animazione in dx10, e perfettamente riconoscibile rispetto al resto...

    Quindi ovviamente ora non c'è bisogno di nulla di più delle dx10, il problema è visto che la diretta avversaria certifica le proprie soluzioni gia dx10.1, non avendo questa certificazione NVIDIA perde punti agli occhi degli appassionati, indipendentemente dal fatto che poi le dx10.1 siano utilizzate o meno dagli sviluppatori...

    Originariamente inviato da Chicco85
    Qui si parla di 140 GB/s di bandwith, nonostante le GDDR3. Prima pensiamo a saturare bene quella banda, e poi passiamo allo step successivo.
    Visto che i test per una gpu di questo livello si effettuano a risoluzioni assai elevate, quella banda la saturi completamente, soprattutto con filtri attivi. Pensa a quanto avrebbero reso soprattutto in oc legddr4 rispetto alle gddr3...

    Originariamente inviato da Chicco85
    Qui il problema è duplice. E' pur vero che non ci sono differenze notevoli tra le due librerie, tuttavia le 10.1 richiedono un'unità che G80 e derivati non hanno, ovvero la tessellation unit programmabile. Probabile che per esigenze di spazio e di riorganizzazione gpu non l'abbiano voluta appositamente integrare.
    Ripeto, hanno avuto 2 anni, parlavano dell'erede del g80, qualcosa di veramente importante, invece hanno semplicemente raddioppiato il g92b in un unico die, a grandi linee...

    Avrei preferito aspettare un mese in più, visto che attualmente non si sentiva il bisogno di questa nuova gpu, per vedere poi 55nm, frequenze superiori e gddr4 con i $ risparmiati sulla gpu...

    Originariamente inviato da Chicco85
    Qui bisogna vedere quanto costano a nvidia le GDDR3 rispetto alle GDDR4, cosa comporta a livello del tipico memory controller crossbarr switch nvidia l'adozione dell'uno o dell'altro chip di memoria.
    Per come la vedo io, innanzitutto a nvidia sicuramente costano meno le GDDR3 (8 dollari a chip sono un'enormità...). In secondo luogo sono disponibili in volumi molto più ampi delle GDDR4. In terzo luogo, il fatto di avere un blocco di stream processor collegato ad una rop's che a sua volta ha un canale di memoria dedicato, comporta che tutto questo sistema benefici delle latenze minori delle GDDR3 piuttosto che delle pure frequenze delle GDDR4. Nel caso di AMD, con il controller ring bus, le cose si capovolgono.
    La produzione di GT200 costa tantissimo a nvidia, c'è poco da fare. Di GT200 su wafer da 300mm ce ne stanno davvero pochi. 100 $ potrebbe essere un prezzo veritiero, poi conta tutti gli altri componenti, assemblaggio, distribuzione, tasse varie ecc... Ciò non toglie che sono d'accordo con te che costi molto.
    Credo che a livello di memory controller cambi veramente poco, ma parlo da ignorante qui, quindi non ne sono sicuro...

    Vero che le gddr3 sono disponibili in volumi più alti, ma se ci pensi le GTX 280 saranno per una fascia ristretta di mercato, quindi non necessitano di volumi come per la fascia media...io avrei optato per gddr4 su il 280, gddr3 su tutti gli altri modelli...in modo anche da differenziare di più i modelli...

    Originariamente inviato da Chicco85
    Oddio, a me sembra azzardato parlare di flop. E' pur sempre la singola gpu più potente in commercio. Certo, la scelta di fare un padellone la penalizza in termini di scalabilità di frequenze degli stream processor, però non mi sembra affatto male.
    Non ho detto che sia un flop, bensì un mezzo flop. E' sicuramente la gpu singola più potente al mondo, ma ha deluso le aspettative, e fra un mesetto vista la politica di AMD, non si guarderà alla signola gpu più prestante, ma alla scheda nel suo insieme...

    Quindi sarà una strategia vincente optare per una fascia alta dotata di due gpu su un unico pcb, sia in termini di costi di sviluppo e produzione, sia di costo finale per i consumatori...

    Originariamente inviato da Chicco85
    Per l'aspetto consumi secondo me hanno fatto un mezzo miracolo. Data l'entità del guadagno, non c'è solo una diminuzione di frequenza, ma almeno anche di voltaggio (sottolineo almeno...).
    Non è un mezzo miracolo se ci pensi bene. C'è stato un salto dai 90 ai 65nm, e hanno solo pensato di far crollare le frequenze quando non necessarie...ti pare innovazione? Stiamo parlando della "nuova gpu" dopo 2 anni di attesa...

    Ripeto, dovrebbero prendere spunto da cosa sta facendo Intel con il prototipo a 80 core visto che anche i costi di produzioni non sono assurdi ma del tutto nella norma...

    Originariamente inviato da Chicco85
    Qui bisogna vedere le rese produttive dei wafer a 55nm vs 65nm. Per me la resa a 55nm era ancora troppo bassa per essere adottata. Altrimenti nvidia sicuramente avrebbe shiftato la produzione verso la linea che più le conveniva. AMD non deve certo produrre patacche da 1,4 miliardi di transistor, per cui per forza di cose qui è avanti.
    Secondo me non è così, hanno solo preferito aspettare per vedere tutte le caratteristiche delle nuove schede ATi, e per poi proporre una revision a 55nm tirata al massimo, con consumi ancor più bassi e frequenze al limite...

    In ogni caso, non sono i 55nm e le frequenza alzate che faranno volare questa gpu...serve qualcosa di nuovo e ormai credo che bisogni aspettare il cambio generazzionale di dx, quindi le dx11...

    Originariamente inviato da Chicco85
    Le radici erano ottime, per cui lasciamo crescere ancora un pò l'albero prima di tirarlo giù e piantarne un altro.
    Veramente ottime, ma anche sfruttate alla grande...o si inventano qualcosa di nuovo, ma continuando a raddoppiare l'interno della gpu non vedremo vere prestazioni...c'è un motivo se Crysis ancora non va...

    Ricordo che al tempo del g80, il Crysis di allora era Oblivion...nessuna gpu lo digeriva a dettagli massimi, con il g80 e la sua nuova architettura andava che era un piacere e senza problemi...

    Originariamente inviato da Chicco85
    Qui è diverso. Intel s'è prefissa una roadmap precisa e quasi metronomica. E la sta rispettando alla grande. Inoltre il mondo cpu a mio avviso, deve ancora subire sferzate simili a quelle che si sono viste con le gpu. Per cui non confronterei direttamente i due terreni di sviluppo.
    E' la prima regola che insegnano agli ingegneri. Programmare tutto con gran anticipo, aver sempre un progetto salva chiappe, e diminuire al massimo la % di errori...e purtroppo mi sa che NVIDIA sta volta ha sorvolato un po...

    Originariamente inviato da Chicco85
    Il nuovo arriverà, ma non adesso. Come ti dicevo prima, per ora non c'è bisogno di qualcosa di innovativo. Almeno secodo me.
    Vedrai a settembre con Crysis Warhead...le nuove serie di NVIDIA e ATi farano una figuraccia...

Informazioni Thread

Users Browsing this Thread

Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)

Discussioni simili

  1. Vendo Evga e-GeForce GTX 280 SC
    By amd4ever in forum -= Vendite : Hardware - Software =-
    Risposte: 6
    Ultimo messaggio: 14-01-2009, 13:19
  2. Nvidia GeForce GTX 280 Watercooled - [NEWS]
    By stoner in forum -= Schede video e acceleratori =-
    Risposte: 3
    Ultimo messaggio: 27-11-2008, 18:06
  3. NVIDIA GeForce GTX 280 - [FOCUS]
    By betaxp86 in forum -= Schede video e acceleratori =-
    Risposte: 16
    Ultimo messaggio: 22-06-2008, 21:12
  4. EVGA GeForce GTX 280 Hydro Copper 16 e PNY GeForce GTX 280 - [NEWS]
    By stoner in forum -= Schede video e acceleratori =-
    Risposte: 6
    Ultimo messaggio: 20-06-2008, 22:54

Tags

Regole d'invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
nexthardware.com - © 2002-2022