Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
30.09.09, 18:05
|
#1
|
Guest
|
Bericht: Nvidias GT300 wird ein wahres Monster
Zitat:
Noch in diesem Jahr will Nvidia eine neue Grafikkarten-Generation in den Handel bringen. Sie hört auf den Codename "GT300". Jetzt tauchte ein verschleiertes Architektur-Diagramm im Forum von 'Beyond3d.com' auf, das die Gerüchte ins Rollen brachte.
Offenbar will man sich leistungsmäßig deutlich von AMD absetzen. Dafür sollen mehr als drei Milliarden Transistoren sowie bis zu sechs Gigabyte GDDR5-Speicher sorgen. Dies ist dank der 40-Nanometer-Fertigung von TSMC möglich. Im alten Verfahren hätte dies zu einem riesigen Grafikchip mit einem sehr großen Energiehunger geführt.
Sechs 64Bit-Speichercontroller sollen ein 384 Bit breites Speicherinterface realisieren. Damit kann der GDDR5-Speicher angesteuert werden. Je nach Modell werden davon 1,5, 3,0 oder sogar 6,0 Gigabyte verbaut. Zudem hat Nvidia die Anzahl der Shader mit 512 Einheiten mehr als verdoppelt, verglichen mit den aktuellen Spitzenmodellen der 200er-Serie.
Ob diese Gerüchte der Wahrheit entsprechend, wird sich womöglich schon in Kürze herausstellen. Laut einem Bericht der Webseite 'Fudzilla' will der Nvidia-Chef Jen-Hsun Huang bereits heute im Rahmen seiner Keynote auf der GPU Technology Conference die neue Grafikkarte vorführen.
|
Quelle: [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Na dann bin ich jetzt mal auf das Geschreibe der "Fanboys" gespannt!
|
|
|
30.09.09, 20:24
|
#2
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Wtf wieviel wird das kosten ? Werde maybe zu nvidia wechseln. Aber das ist echtn monster hoffe das es noch in mein case passt. =)
|
|
|
30.09.09, 20:31
|
#3
|
Guest
|
lol
Ich wusste dass Du Dich da wieder melden würdest. Wo es doch letzte Woche erst nach hieß, dass Du Dir die 5870 holen wirst.
Herrlich ....
Und Preisprognosen ... ich würde mal sagen mind. 500€!
|
|
|
30.09.09, 20:35
|
#4
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Diesmal werde ich warten da ich das geld noch nicht zamhab. 500 euro soll dasn gag sein? Wollte gleich 2 aufeinmal kaufen. Da heist es wohl sparen und arbeiten
|
|
|
30.09.09, 20:45
|
#5
|
Banned
Registriert seit: May 2009
Ort: Dresden
Beiträge: 528
Bedankt: 92
|
Yeah, Crysis 2 mit 100 Frames.^^
Sollten die Daten wirklich stimmen, frage ich mich ernsthaft wer das Teil kaufen soll...für Spieler genügt die HD5000er-Reihe und Entwickler haben ihr Workstations.
Diese Karte wäre aber definitiv für die nächsten Jahre gerüstet.
Vielleicht is' das aber auch der nächste Schritt um der CPU die Vorherrschaft im PC streitig zu machen, denn in Verbindung mit der Nvidia-CUDA-Technologie könnte man allerhand Berechnungen mit einem Geschwindigkeitsabstand zu den Prozessoren durchführen, wie er bisher noch nie gegeben war.
Und darin liegt ja auch ein langfristiges Ziel von Nvidia, den Prozessor als wichtigste Recheneinheit durch die grafische Recheneinheit abzulösen und die Leistung dieser innerhalb der kommenden Jahre zu verfünfhundertfachen...da muss man natürlich große Schritte machen.
|
|
|
30.09.09, 20:53
|
#6
|
Guest
|
Zitat:
Zitat von dragonmind
500 euro soll dasn gag sein? Wollte gleich 2 aufeinmal kaufen. Da heist es wohl sparen und arbeiten
|
Nö kein Gag. NVIDIA ist ja auch dafür bekannt, den Preis gerne mal etwas hoch zu drehen. Vielleicht sind auch gleich 1.000€ drinnen.
Aber ehrm .. 2 wolltest Du Dir holen? LOL?
Wozu das denn? Du hast ein Crossfire-Board ... NIX SLI!!! LOOL
|
|
|
30.09.09, 21:16
|
#7
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
ACH SHIT HATTE ICH VERGESSEN. Habe ja crossfire fuck!!!!!. Toll und jetzt brauch ich nen neues motherboard. Ich hol mir dann erstmal eins.
@ just a s*****
Nvidia behauptet seit jahren dass die gpu die wichtigste einheit beim pc ist. Und viele arbeiten von der cpu lösen kann. Das ist der erste schritt dafür. Dass nvidia dass ernst meint.
Man soll ich noch warten ob amd/ati eine graka auf ähnlichen niveu rausbringt oder auf nvidia umsteigen.
|
|
|
30.09.09, 21:23
|
#8
|
Guest
|
LOL?
Dein Board ist nicht einmal 1 Monat alt, wenn ich nicht irre ... und nun willst Du Dir extra für NVIDIA ein neues Board holen?
Also sorry, Du hast irgendwie eine Vollmeise ... oder zuviel Geld ... obwohl, anscheinend ja nicht. Dann bleibt nur noch C. Du laberst Müll!!
|
|
|
30.09.09, 21:26
|
#9
|
Ist öfter hier
Registriert seit: Sep 2009
Beiträge: 270
Bedankt: 137
|
Allein für erste Bilder einer GT300 Karte wär ich schon dankbar!
Bin so dermassen heiss auf die neue Nvidia Serie!
__________________
Peace!!
|
|
|
30.09.09, 21:30
|
#10
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Zitat:
Zitat von Prince Porn
LOL?
Dein Board ist nicht einmal 1 Monat alt, wenn ich nicht irre ... und nun willst Du Dir extra für NVIDIA ein neues Board holen?
Also sorry, Du hast irgendwie eine Vollmeise ... oder zuviel Geld ... obwohl, anscheinend ja nicht. Dann bleibt nur noch C. Du laberst Müll!!
|
Nicht direkt werde mir eins holen wenn die leistung zu schwach ist dann hole ich mirn neues board. Geld hatte ich mal genug aber wegen der beschi**** finanzkrise muss man sparen. =)
|
|
|
30.09.09, 21:33
|
#11
|
We are one
Registriert seit: Nov 2008
Beiträge: 615
Bedankt: 1.083
|
Leute für was soll das Ding gut sein?
Ich mein mit ner guten gt 2** kann man fast jedes Spiel mit guten FPS zahlen spielen...
Unnötig!
Gruß Eck0
|
|
|
30.09.09, 21:36
|
#12
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Ich Bin Neuheiten Süchtig Ich Brauche Alles =) =)=)=)=)=)=)=)=)=)=)
|
|
|
30.09.09, 21:44
|
#13
|
Banned
Registriert seit: May 2009
Ort: Dresden
Beiträge: 528
Bedankt: 92
|
Zitat:
Zitat von dragonmind
@ just a s*****
Nvidia behauptet seit jahren dass die gpu die wichtigste einheit beim pc ist. Und viele arbeiten von der cpu lösen kann. Das ist der erste schritt dafür. Dass nvidia dass ernst meint.
Man soll ich noch warten ob amd/ati eine graka auf ähnlichen niveu rausbringt oder auf nvidia umsteigen.
|
Noch is' die GPU es nicht aber lange wird es nichtmehr dauern, selbst die aktuellen Versuche der CPU-Hersteller dagegen zu steuern werden das nicht verhindern können.
Nvidia hat den ersten Schritt bereits mit der CUDA-Entwicklung getan, heute nutzen bereits eine Vielzahl an Programmen die GPU für ihre Berechnungen.
|
|
|
30.09.09, 21:56
|
#14
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Zitat:
Zitat von Just a S*****
Noch is' die GPU es nicht aber lange wird es nichtmehr dauern, selbst die aktuellen Versuche Intels dagegen zu steuern werden das nicht verhindern können.
Nvidia hat den ersten Schritt bereits mit der CUDA-Entwicklung getan, heute nutzen bereits eine Vielzahl an Programmen die GPU für ihre Berechnungen.
|
Lol justi hat die droge nachgelassen nach diesen zum teil sinnlosen threads schreibst du wieder normal super !!! =)
@ back 2 topic
Intel versucht dass ja jetzt auszugleichen indem sie einen eigenen grafikchip entwickeln. Den larabee. Der soll ja auch die leistungsstärkste graka werden und laut einer nicht sehr glaubwürdigen quelle soll dieser grafikchip als cpu fungieren dh intel hört auf cpus zu produzieren und benutzt larabee als graka und cpu gleichermassen.
|
|
|
30.09.09, 21:58
|
#15
|
Banned
Registriert seit: May 2009
Ort: Dresden
Beiträge: 528
Bedankt: 92
|
Zitat:
Zitat von dragonmind
Lol justi hat die droge nachgelassen nach diesen zum teil sinnlosen threads schreibst du wieder normal super !!! =)
|
Ich wurde in den heiligen Hallen des  entsperrt und kann mich dort wieder meinen humoristischen Ausschweifungen widmen.
Zitat:
Zitat von dragonmind
Intel versucht dass ja jetzt auszugleichen indem sie einen eigenen grafikchip entwickeln. Den larabee. Der soll ja auch die leistungsstärkste graka werden und laut einer nicht sehr glaubwürdigen quelle soll dieser grafikchip als cpu fungieren dh intel hört auf cpus zu produzieren und benutzt larabee als graka und cpu gleichermassen.
|
Bin ich mir jetzt garnicht mal so sicher...die letzte Meldung die ich gelesen habe handelte von dem Plan, die eigens entwickelte GPU an die CPU anzubinden, könnte sogar der Larrabee gewesen sein.
€: Hab' nochmal nachgeguckt, der Larrabee is' im Grunde genommen nur eine Multi- CPU die in der Lage is' grafische Berechnungen durchzuführen.
Basieren tut das ganze auf einem Pentium-Prozessor...womit Intel seine CPU-Sparte vor der Machtübernahme der GPUs gesichert hätte.
|
|
|
30.09.09, 22:01
|
#16
|
Newbie
Registriert seit: Jul 2009
Beiträge: 58
Bedankt: 8
|
Pornöse Grafikkarte... :O !!!
|
|
|
30.09.09, 22:15
|
#17
|
Der drache der nie schläf
Registriert seit: Aug 2009
Ort: muenchen
Beiträge: 895
Bedankt: 146
|
Zitat:
Zitat von Just a S*****
Bin ich mir jetzt garnicht mal so sicher...die letzte Meldung die ich gelesen habe handelte von dem Plan, die eigens entwickelte GPU an die CPU anzubinden, könnte sogar der Larrabee gewesen sein.
€: Hab' nochmal nachgeguckt, der Larrabee is' im Grunde genommen nur eine Multi-CPU die in der Lage is' grafische Berechnungen durchzuführen.
Basieren tut das ganze auf einem Pentium-Prozessor...womit Intel seine CPU-Sparte vor der Machtübernahme der GPUs gesichert hätte.
|
Ich habs im hinterkopf dass intel mit auf den grafikkarten markt einsteigen will. Aber so hab ichs noch nie gehört =). Bei einer messe hatte intel eine graka vorgestellt mit dem larabee. Also so eine wie nvidia und ati. Die einstiegsmodelle sollen in die cpu integriert sein und die leistungs intensiveren per pci-e.
|
|
|
01.10.09, 00:11
|
#18
|
Banned
Registriert seit: Sep 2009
Beiträge: 103
Bedankt: 10
|
Also 500€ wäre mal Günstig.
Habe Anno 2006 für eine GF 7950 GT 577€ bezahlt. Und ich habe gleich 2 davon genommen -SLI rulz ^^
|
|
|
01.10.09, 04:16
|
#19
|
Banned
Registriert seit: May 2009
Ort: Dresden
Beiträge: 528
Bedankt: 92
|
Auf [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] gibt es mittlerweile genauere Informationen, die Angaben scheinen sich zu bestätigen und die Performanceunterschiede zwischen der GT200- und der Fermi-Architektur sind nahezu astronomisch.
|
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 08:02 Uhr.
().
|