Beratung Geforce 9800 GT oder 9800 GTX ?

Dieses Thema im Forum "Hardware" wurde erstellt von Thug309, 27. Nov. 2008.

  1. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Naja, wie willst du mit einem PCIe Stecker eine Karte versorgen, die einen 8-Pin PCIe Stecker und einen 6-Pin PCIe Stecker braucht? Und Adapter sind da keine gute Lösung..

    Das hier hätte auch vollkommen ausgereicht: "Enermax PRO82+ 525W" Höchstwahrscheinlich sogar die 425W Variante, aber man muss ja nicht gleich übertreiben..


    Sorry, aber dein altes Netzteil war einfach nicht gut, da kommt es auf die Watt Anzahl nicht an. Ich hoffe, dein neues Netzteil ist ein ordentliches!

    Hier wäre was zum Lesen zwecks Netzteilen: Klick
     
  2. M@rco

    M@rco Neues Mitglied

    Registriert seit:
    13. Jan. 2007
    Beiträge:
    122
    Zustimmungen:
    3
  3. Willmaster

    Willmaster VIP Mitglied

    Registriert seit:
    13. Dez. 2007
    Beiträge:
    4.596
    Zustimmungen:
    13
    naja....schrott....wird vlt. 600W bringen...sollte aber reichen.
     
  4. thr3es1xty

    thr3es1xty Neues Mitglied

    Registriert seit:
    16. Aug. 2008
    Beiträge:
    206
    Zustimmungen:
    0
    "die 9800gt ist eine 8800gt und da 1gb ram ?"

    is nich dein ernst oder?? lol xD
    nein ist so falsch!
    die 9800gt hat zwar den chip wie die 8800
    aber die 8800 gibs auch mit 1gb ram UND die 880 hat mehr leistung (also die schlanke, die fette nich...)
     
  5. M@rco

    M@rco Neues Mitglied

    Registriert seit:
    13. Jan. 2007
    Beiträge:
    122
    Zustimmungen:
    3
  6. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Warum sparen soviele Leute eigentlich nur am Netzteil (und damit an der falschen Stelle..)?

    Wow.. :kuckst du:

    Also wenn sowas schon aufgeführt werden muss.. :eek:


    @ thr3es1xty:

    Die 9800GTs sind 8800GTs. Lediglich (bei manchen) die HypridPower Fähigkeit ist neu hinzu gekommen. Allerdings gibt es die 8800GTs mit 256MB/512MB und 1GB VRAM und die 9800GTs nur mit 512MB/1GB VRAM. Aber der VRAM ändert ja nix an Grafikchip..
     
  7. Herbynator

    Herbynator Neues Mitglied

    Registriert seit:
    3. Mai 2008
    Beiträge:
    26
    Zustimmungen:
    0
    @ Xam4:
    Die Karten sind NICHT gleich. Von der Leistung vielleicht ungefähr identisch aber von der Architektur her völlig anders. Die 8800GT setzt auf den G92 Chip während die 9800GT auf den G92b. Die unterscheiden sich zwar nicht in viel voneinander, aber nvidia hat hier genügend details geändert.

    @Thread:
    Weder noch ;-) hol dir eine nette ATI. Preis Leistungstechnis besser. Vor allem Leistungstechnisch ist ATI im Moment weit vor nVidia
     
  8. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Das stimmt eben nicht!! Nahezu alle 9800GTs haben noch den G92 und noch nicht den G92b!!

    (Außerdem was heißt völlig anders? G92 => G92b = 65nm => 55nm..)



    Und deine 2. Aussage stimmt mal so rein gar nicht.. Weder der erste Teil noch der zweite..
     
  9. Herbynator

    Herbynator Neues Mitglied

    Registriert seit:
    3. Mai 2008
    Beiträge:
    26
    Zustimmungen:
    0
    Doch stimmt aber sowas von.
    Warum entlässt nvidia dann am laufenden Band Boardpartner? denen fehlen die einnahmen. Die ATI 4870 x2 liegt um einiges vor einer nvidia gtx 280. Hier ist natürlich die 4870 x2 wirklich nicht gerade billig aber mein gott wer so eine karte braucht...der muss den preis akzeptieren.
    Desweiteren hat ATI momentan die bessere Technik. Bei Ati wird bereits GDDR 5 eingesetzt und die nächste Generation wird vorraussichtlich schon auf 45nm ausgeliefert also hör bitte auf mich zurecht zu weisen. Ich arbeite in diesem Sektor...

    Zitat:
    Und deine 2. Aussage stimmt mal so rein gar nicht.. Weder der erste Teil noch der zweite..


    Dann nimm dir einfach mal einen Taschenrechner, eine Preisliste von ATI und nVidia, eine Leistungstabelle in GFlops und eine Tabelle mit den Leistungsaufnahmen, und sei auf das Ergebnis gespannt.

    Und wenn ich kleine Änderungen sage dann gehe ich nicht ins Detail weil ich hier keine große Diskussion und erklärungen zum Thema fertigungsprozesse, Die Shrinks und sonstiges auslösen will. Aber bitte das können wir gerne austragen....

    Ach ja ein Die Shrink ist im übrigen der vorgang, wo die fertigungsbreite eines chips verkleinert wird ohne die eigentliche architektur zu ändern um z.B. Hitzeprobleme zu beseitigen (Xbox 360) oder die Leistungsaufnahme zu reduzieren.
     
    #49 Herbynator, 27. Dez. 2008
    Zuletzt bearbeitet: 27. Dez. 2008
  10. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Du weißt aber noch, was du in deinem Post oben geschrieben hast?

    Und wer bei den Einnahmen gewinnt, müßtest du ja auch wissen, wenn du in der Branche arbeitest.. Da putzt Nvidia ATi immernoch weg..

    Und warum nicht von Boardpartnern trennen, wenn man sie nicht braucht? Gewinnt ATi denn so viele hinzu, dass man das mit den Einnahmen vergleichen kann? Die Antwort kann ich dir auch geben: Nein.

    Und die nächste Generation hat nicht viel mit den jetzigen Karten zu tun, oder? Oder soll ich jetzt damit anfangen, dass die 6800er Serie von Nvidia ja auch "viel moderner" war als die X8x0er Serie?

    Und die Tests kennt du ja sicherlich auch, oder?

    Grafikkarten Rangliste

    Wobei du dir aber z.B. im Klaren sein solltest, dass die schnellste ATi Single-Chip Karte (4870) langsamer ist als die zweitbeste von Nvidia (GTX260).. => Klick

    Wobei hier die GTX260 auch im Verbrauch klar gegen die 4870 gewinnt, allerdings auch (berechtigterweise) etwas teurer ist.


    Und was ein DIE Schrink ist, ist mir bestens bekannt. Auch ist mir bekannt, dass ATi inzwischen GDDR5 nutzt und Nvidia "nur" GDDR3, wobei hier der Sinn in Frage steht.. Kannst du gerne u.a. hier nachlesen. ATi hat sich mit GDDR4 ja auch mehr oder weniger selber ins Knie geschossen, weil vollkommen unnütz im Vergleich zu GDDR3.


    Nebenbei: Es bleibt dabei, dass das Blödsinn ist, warum gehst du nicht mal darauf ein?


    Und arbeitest du zufällig irgendwie für ATi? Anders kann man deine Aussagen eigentlich nicht verstehen... Selbst Fanboys haben ja meist zumindest noch ein wenig Verständnis dafür, was nun gut und was nicht ist..
     
  11. Herbynator

    Herbynator Neues Mitglied

    Registriert seit:
    3. Mai 2008
    Beiträge:
    26
    Zustimmungen:
    0
    Wo ich arbeite tut nichts zur sache ;-) auf jedenfall in der Branche.
    Das Ranking ist zwar ganz nett, aber leider fehlen selbst dort die GFlop Leistung. Ich glaub das Ranking dort beruht auf Ingame Tests oder auf Benchmarks wie 3D Mark.
    Ich selbst nutze zum beispiel ne nvidia karte weil die zu der zeit wo ich meinen rechner gebaut habt schlicht und ergreifend die besten karten hatten. Heute jedoch ist vom aufbau des Rechenwerkes her ATI weit vorn. die Karte kann im vergleich zur Chipgröße und durchsatzleistung der rohdaten mehr verarbeiten. weitere faktoren wie z.b busbreite können die leistung des chips entweder drosseln oder steigern. Egal wie auch immer....
    Jedenfalls hat nvidia immernoch keine große revolution in sachen chip design geschafft seid dem g80. nvidia hat eigentlich immer nur die fertigungsbreite verringert und weitere transistoren dabei gepackt. Deswegen hat nvidia auch immernoch ein kleines problem mit der hitzeentwicklung. ati dagegen entwickeln ihre chips kontinuirlich weiter. is schwer zu erklären. vielleicht so:
    nvidia: gleiche oder ähnliche architektur bei sinkender fertigungsbreite und steigender transistorenzahl

    ati: wenig ähnlichkeiten im aufbau des rechenwerkes, sinkende fertigungsbreite bei ungefähr gleichbleibender transistorenzahl.

    chiparchitektur is ein verdammt kompliziertes thema.

    was außerdem dabei kommt ist, das nvidia auf einem etwas zu hohen tron gesessen haben. Die haben sicht für nicht angreifbar gehalten. dann hat ati losgelegt mit der 38er chipreihe der zwar keine wirkliche konkurrenz zu nvidia darstellte, bei ati jedoch ein gewaltiger sprung in der technik darstellte. Dann sind von AMD einige chipdesigner nach ati gewechselt die die entwicklung weiter angetrieben haben. heraus kam die 48er reihe. im aufbau sind nur noch ein paar ähnlichkeiten im rechenwerk zu finden. die 48er unterstützt gddr 5 der (keine ahnung ob das genau stimmt) weniger strom ziehen soll als gddr 3. gddr 4 war wirklich ein schuss in den ofen das ist wohl war.
    da der 48er chip von seiner fläche in cm² kleiner ist als der konkurrent von nvidia kann dieser evtl unter nicht optimalen bedingungen weniger verarbeiten. weiterhin wurde bei ati in der entwicklung auf stromsparen geachtet. man hat den chip so konstruiert, bei maximaler leistung so wenig strom wie möglich zu fressen. daher fressen die atis weniger und werden logischerweise nicht so warm. der genaue strombedarf kann leider nie genau ermittelt werden da immer nur die maximale aufnahme unter volllast angegeben wird. fakt ist, das nvidia im durchschnitt mehr strom verbraucht. als beispiel nehme man 2 fiktive grafikkarten um das kurz zu erklären: beide grafikkarten haben eine maximale tdp von sagen wir 100 watt. karte a von ati benötigt im schnitt 50 watt also 50% der maximalen tdp. karte b von nvidia zieht im schnitt 75 watt also 75% der maximalen tdp. daraus resultiert ein logisch höhere temperatur bei nvidia. das soll nicht heißen dass das ein problem darfstellen könnte die chips halten diese temperaturen locker aus. bei nvidia wird bei 127 grad celsius die taktung gedrosselt. bei nvidia wird es also dringend zeit für einen großen wurf wie seiner zeit der g80. dieser hatte zwar auch mit problemen zu kämpfen was temperatur anging, war aber in sachen leistung nicht zu schlagen.

    Es muss abgewägt werden welche Option man nehmen möchte:

    Eine eventuelle Mehrleistung zum Preis von hohen Temperaturen und höheren Stromverbrauch welcher in zeiten von Green IT immer mehr in den vordergrund rückt.

    oder

    eine ebenfalls hohe rechenleistung bei akzeptabelen Temperaturen und einem Mittelwertigen Stromverbrauch.

    Bei mir fällt der Tip eindeutig zu Ati. Da diese aufgrund ihres beinahe "revolutionären" Chipdesigns aus ihrem Schatten des ewigen zweiten heraustreten und in den offenen Technikkampf zu nvidia treten. Nvidia schraubt momentan noch an einer neuen GTX 200irgendwas die die 4870x 2 von ihrem tron stoßen soll. aber hier gilt bei nvidia: setze auf altbewährte technik, steigere die leistung zulasten der temperatur und des verbrauchs. Das ist relativ schade denn ich warte noch auf den nächsten großen wurf seitens nvidia. Ich wiederhole mich aber egal: Ati bleibt bei seiner strategie und setzt fortwährend auf weiter- bzw neuentwicklung seiner verwendeten techniken und chipdesigns. ich hoffe damit ist erklärt worden warum ich zu ati tendiere und diese Leistungs sowie Preis- Leistungstechnisch vor nvidia sehe.

    noch kurz zum thema boardpartner: nvidia hat, soweit ich mich erinnere im letzten quartal ein umsatzminus von 14% zugunsten ATIs gemacht. Nvidia braucht diese Boardpartner sehr wohl, kann sie jedoch nicht mehr halten da sie sonst noch mehr minus einfahren würden. leider läuft nvidia im moment auf einem sehr schmalen grad: sie sind gezwungen zu handeln, das tun sie mit der demnächst erscheinenden gtx 285=??? hab den namen gerade nich im kopf. aber ob die karte ein erfolg wird bleibt abzuwarten da sie wie ihre vorgänger der gtx200 reihe wieder auf dem gleichen chip beruht.

    Und noch um das Thema Fanboy abzuhandeln:
    Nein ich bin keiner, ich gehe an diese Themen völlig vorurteilslos heran und entscheide objektiv nach aspekten wie:
    Preis
    Leistung
    Preis/Leistung
    verwendete Technik
    evtl. Probleme wie hitze

    Und nach zusammenrechnen dieser Punkte komme ich für mich persönlich auf ein deutlichen Gewinner mit den Namen AMD/ATI.

    Diese ganzen Erklärungen gehen eigentlich völlig am Thema vorbei. Um zurück zum Thema zu kommen:
    Ich empfehle aufgrund der eben dargelegten Argumente zur Wahl von ATI Grafikkarten.
     
    #51 Herbynator, 27. Dez. 2008
    Zuletzt bearbeitet: 27. Dez. 2008
  12. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    :crazy:

    Und was bringen dir die vollkommen theoretischen GFlops, wenn Nvidia mit weniger GFlops mehr FPS auf den Bildschirm zaubert?

    Vorallem im Moment, wo man mit Nvidia und CUDA einen klaren Vorteil gegenüber ATi und OpenCL hat, weil man es auch nutzen kann mit z.B. CS4 oder BOINC..

    Nebenbei ist bei Nvidia dafür die Pixelfüllrate und Texelfüllrate wesentlich höher, was ja ATi Karten desöfteren etwas ausbremst..

    :crazy:

    Der G200 ist eine vollkommende Neuentwicklung von Nvidia (zuvor G92, welcher auf dem G80 beruht) im Gegensatz zu ATis RV770 (HD 48x0), welcher eine Weiterentwicklung des RV670 (HD 38x0) ist, welcher eine Weiterentwicklung des R600 (HD 2900) ist.. Der R600 war aber was neues..

    :crazy:

    Die HD 48x0 ist alle wesentlich wärmer als die GTX2x0.. => Klick

    Könnte daran liegen, ich nehme mal 2 reale Grafikkarten, nämlich die 4870 und die GTX260, dass die GTX260 in idle und unter last weniger Strom zieht als die 4870..


    Außerdem sterben im Moment häufiger ATi Karten mit digitalen Spannungswandlern..


    Wozu? Es ist doch nahezu vollkommen egal, ob es nun 73 versch. Versionen der GTX260 gibt oder nur 48.. Ob nun Zotac GTX260, ASUS GTX260 oder Gainward GTX260.. Vollkommen egal..


    Und zum Preis-Leistungs-Verhältnis sage ich nur das: Klick



    Also ich weiß ja nicht, wo du deine Informationen her hast, aber bitte überdenke diese noch mal..
     
    #52 H3rby, 28. Dez. 2008
    Zuletzt bearbeitet: 28. Dez. 2008
  13. Willmaster

    Willmaster VIP Mitglied

    Registriert seit:
    13. Dez. 2007
    Beiträge:
    4.596
    Zustimmungen:
    13
    naja, ne 4870 X2 schlägt ne GTX280 - LOCKER.

    Cuda ist in spielen nutzlos, kein Game nutzt sowas...
    die ATI hat leider Doppelten Framebuffer, wenn sie das abgeschaffen hätten würde die 4870 X2 auf LANGE zeit alles schlagen.
     
  14. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Locker? Klar, 2 GPUs sollten es einen schon mal zeigen. Dafür geht der Stromverbrauch einfach nur in die Höhe und Microruckler kommen ins Haus..

    In Spielen nutzt PhysX aber was und das hat wiederrum Nvidia..

    Und dass eine Grafikkarte mit 2 Kernen eine SingleCore schlägt, sollte man annehmen.. Aber wehe, man läßt die 4870 X2 gegen 2 GTX260 antreten, da liegt dieses Gespann wiederum vorne, weil SLI immernoch besser skaliert als Crossfire..


    Ob das dann aber sehr wirtschaftlich ist, mag ich sehr bezweifeln. Und CUDA ist ja auch nicht für's Gamen gedacht, sondern für das, was ich oben schon geschrieben habe.. :alright:

    Und die 4870 X2 wird von der GTX295 locker überholt, da brauchst du dir mal keine Sorgen machen: Und die kommt auch noch Anfang 2009 raus, also nix mit für lange Zeit..

    Fazit einer Seite, die die GTX295 vorab testen durfte: Die Benchmarks sprechen eine deutliche Sprache: Die bislang schnellste Grafikkarte Radeon HD 4870 X2 muss ihren Titel an die Geforce GTX 295 abgeben.


    Wobei für mich keine dieser Karten ins Haus kommt, da der Stromverbrauch unter aller Sau ist und mir beim ersten Versuch damit die Microruckler komplett den Spaß daran verdorben haben..
     
    #54 H3rby, 28. Dez. 2008
    Zuletzt bearbeitet: 28. Dez. 2008
  15. Willmaster

    Willmaster VIP Mitglied

    Registriert seit:
    13. Dez. 2007
    Beiträge:
    4.596
    Zustimmungen:
    13
    stimmt, aber die GTX295 wird wiederrum von 2 4870 X2 2Gb im CFX niedergemacht;)

    es wird immer so weitergehen, Interresant wirds dann wenn 2 GTX295 im SLI funktionieren
    - mal sehen, leider kann mein Mac Pro kein SLI oder CF, muss dazu noch auf den 1,5er warten mit 2 Core i7 und 4 x PCIe 16x - und ATI/Nvidia endlich was erfinden um 4 Grakas mit jeweils 2 kernen zu nutzen
    4 x GTX295 - DAS geht dann ab:D
     
  16. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
  17. Willmaster

    Willmaster VIP Mitglied

    Registriert seit:
    13. Dez. 2007
    Beiträge:
    4.596
    Zustimmungen:
    13
    ich meinte 2 4870 X2 schlagen EINE GTX295.

    und 4 Karten mit je 2 Kernen sind derzeit weder bei ATI noch bei Nvidia nutzbar.
     
  18. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Und 3 GTX280 schlagen eine 4870 X2 und eine 3870 im CrossfireX..


    Und was sagt uns das?
     
  19. Willmaster

    Willmaster VIP Mitglied

    Registriert seit:
    13. Dez. 2007
    Beiträge:
    4.596
    Zustimmungen:
    13
    das 3 GTX280 in keinem spiel gehen und ziemlich jeden PC abstürzen lassen wegen der miesen Tripple SLI treiber;)
     
  20. H3rby

    H3rby Neues Mitglied

    Registriert seit:
    23. Okt. 2008
    Beiträge:
    56
    Zustimmungen:
    0
    Genau.. :crazy:

    Langsam reicht mir das Halbwissen hier..

    Bring mal Quellen oder lass es sein, solche Unwahrheiten zu verbreiten..
     
Die Seite wird geladen...