Autor Thema: Neue Grafikkarten von AMD und Nvidia  (Gelesen 25556 mal)

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
ATI Radeon HD 5870 X2 Ende 2009
« Antwort #90 am: 02 September, 2009, 21:13 »
Die Dual-GPU-Variante der neuen DirectX-11-Grafikkarten von ATI wird vermutlich etwas später erscheinen als die restlichen Karten. Die X2-Karte soll den Codenamen »Hemlock« tragen und wird wahrscheinlich als Radeon HD 5870 X2 verkauft.

Die technischen Daten will AMD erst kurz vor dem Erscheinungstermin festlegen, einzig 2 GByte GDDR5-Grafikspeicher scheinen relativ gesichert. Damit wird AMD nach bisherigen Informationen fünf verschiedene DirectX-11-Karten anbieten, von denen die X2-Karte das Top-Modell darstellt.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Neue AMD-Grafikkarten mit ausgefeilter Multi-Display-Technik
« Antwort #91 am: 11 September, 2009, 12:06 »
AMDs Grafiktochter ATI rüstet ihre neue Radeon HD 5800-Serie mit einer neuen Technologie namens Eyefinity aus, mit der eine einzelne Grafikkarte mit bis zu sechs DisplayPort-Anschlüssen versehen werden kann. Auf diese Weise kann man bis zu sechs Displays an einer Karte betreiben.

Mit Eyefinity lassen sich die sechs Ausgänge auch mit einem einzigen großen Bild ansprechen, das, die entsprechende Leistung der Grafikkarten vorausgesetzt, bis zu 8192 x 8192 Pixel haben kann. Mit aktuellen Grafikchips lassen sich sechs Displays mit einer Auflösung von 2560 x 1600 Pixeln zu einem Paket verschnüren, das dann eine Auflösung von 7680 x 3200 Pixeln bietet.


Eyefinity ist modular aufgebaut, der Anwender kann also die einzelnen Displays nach Bedarf unterschiedlich anordnen, um zum Beispiel mit einer einzelnen Grafikkarte drei Displays nebeneinander mit einem durchgehenden Bild zu versorgen, oder drei über einander angeordnete Displays mit einem Bild im Porträt-Modus anzusteuern.

AMD/ATI sieht das Hauptanwendungsgebiet von Eyefinity im professionellen Bereich, doch auch für Spiele soll die Technik nutzbar sein. Ein Spieler könnte so entweder ein großes Panorama-Bild nutzen, oder einfach nur extrem viele Details anzeigen lassen. Die jetzt von ATI gezeigten Karten konnten bereits die meisten Spiele ohne nennenswerte Detail- oder Geschwindigkeitsverluste per Eyefinity auf mehrere Displays verteilt anzeigen.

Der Displayhersteller Samsung arbeitet derzeit bereits an LCDs, die für den Eyefinity-Betrieb vorbereitet sind. AMD wird die ATI Radeon HD 5850 und 5870 wahrscheinlich noch in diesem Monat offiziell vorstellen und auf den Markt bringen. Die neue Grafikkartenserie soll das obere Ende von ATIs Produktportfolio bilden.

Quelle : http://winfuture.de
« Letzte Änderung: 11 September, 2009, 12:24 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
ATI - DirectX-11-Flaggschiff verzögert sich
« Antwort #92 am: 12 September, 2009, 19:55 »
Wie Fudzilla meldet, soll das Flaggschiff der neuen DirectX-11-Grafikkarten von ATI erst Ende Oktober auf den Markt kommen. Während die Markteinführung der neuen Generation für den 22. und 23. September geplant ist, verzögert sich die X2-Version anscheinend aufgrund von Treiberproblemen und Problemen mit der Platine.

Die Verzögerung soll aber nichts mit den Grafikchips der Radeon HD 5870 X2 zu tun haben. Ebenfalls im Oktober sollen kleinere Karten wie die Radeon HD 5770 und 5750 erscheinen.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
ATI Radeon HD 5700 in Kürze, 5870 X2 im November
« Antwort #93 am: 15 September, 2009, 10:21 »
AMDs Grafiktochter ATI bereitet derzeit die Einführung ihrer neuen Radeon HD 5000-Serie vor. Anfangs kommen die High-End-Modelle ATI Radeon HD 5850 und 5870 auf den Markt, später sollen dann diverse weitere Karten folgen.

Die offizielle Vorstellung der Modelle der oberen Preisklasse erfolgt nach Angaben des taiwanischen Branchendienstes 'DigiTimes' am 22. September 2009. Im Oktober ist die Einführung der Radeon HD 5700-Reihe geplant, die dann in den Varianten 5750 und 5770 auf den Markt kommen sollen.

Im November will AMD dann im Endspurt des Weihnachtsgeschäfts noch einmal auftrumpfen und wird die ATI Radeon HD 5870 X2 auf den Markt bringen, bei der zwei Grafikprozessoren verbaut sind. Zusätzlich will AMD auch eine ATI Mobility Radeon HD 5000-Reihe einführen.

Diese wird angeblich aus den Serien 5400, 5600, 5700 und 5800 bestehen, die jeweils die gesamte Bandbreite von Einsteiger-Notebooks bis hin zu High-End Desktop-Ersatz-Geräten abdecken sollen. AMD wird die neuen Grafikkarten auch in sein neues "Vision"-Stufensystem aufnehmen, das den Kunden die Wahl eines für sie passenden Rechners erleichtern soll.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia offenbar mit großen Problemen bei DirectX 11 Grafikkarten
« Antwort #94 am: 16 September, 2009, 13:20 »
Nvidia arbeitet derzeit mit Hochdruck an der Entwicklung des neuen GT300-Grafikchips. Dieser soll in den kommenden DirectX-11-Grafikkarten des Unternehmens zum Einsatz kommen. Doch die Markteinführung könnte sich erheblich verzögern.

So hat Nvidia die ersten Exemplare des neuen Chips fertigen lassen. Diese erste Testreihe soll dazu dienen, Fehler zu entdecken und anschließend zu beheben. Normalerweise sind rund 50 Prozent der produzierten Hardware für diese Tests brauchbar - es können jedoch auch 20 Prozent sein, vor allem wenn man auf ein neues Fertigungsverfahren setzt, wie es Nvidia derzeit tut.

Doch die Zahlen, die von der Webseite 'SemiAccurate' gemeldet werden, sind alles andere als gut. Demnach hat man aus den ersten vier Wafern zusammen 416 Chips produzieren lassen. Darunter sollen sich lediglich sieben brauchbare Exemplare befinden. Die Ausbeute würde also lediglich 1,7 Prozent betragen.

Ob Nvidia mit so wenigen Exemplaren überhaupt Tests und Fehlerbereinigungen im notwendigen Umfang durchführen kann, wird in Frage gestellt. Dies würde zur Folge haben, dass sich die Markteinführung der DirectX-11-Grafikkarten deutlich nach hinten verschiebt.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 5800: Die ersten DirectX-11-Grafikkarten sind da
« Antwort #95 am: 23 September, 2009, 08:25 »
AMD stellt die Radeon-HD-5800-Serie offiziell vor und lüftet damit das Geheimnis der ersten zu DirectX 11 kompatiblen Grafikkarten. Die rund 350 Euro teure Radeon HD 5870 ist doppelt so schnell wie die Vorgängerkarte Radeon HD 4870, deutlich sparsamer im Desktop-Betrieb und kann in der sogenannten Eyefinity-Spezialversion bis zu sechs Displays parallel ansteuern. 100 Euro billiger ist die rund 10 Prozent langsamere Radeon HD 5850, die ebenfalls Ende September in den Händlerregalen stehen soll.


In den Spielen Crysis und Stalker Clear Sky ist die Radeon HD 5870 bis zu 60 Prozent flotter als Nvidias GeForce GTX 285 – die bis dato schnellste Single-GPU-Grafikkarte. Doch der Vorsprung der Radeon HD 5870 ist auch abhängig vom jeweiligen Spiel: In World in Conflict beträgt er beispielsweise lediglich 10 Prozent. Bei der Arcade-Flugsimulation HAWX, die besser auf GeForce-Grafikkarten läuft, ist die GTX 285 bei vierfachem Antialiasing und sechzehnfachem anisotropen Filter bis zur Auflösung 1920 × 1080 etwas schneller. An Nvidias Dual-GPU-Grafikkarte GeForce GTX 295 kommt die Radeon HD 5870 jedoch nur selten heran. Ausführliche Benchmarks finden sich in c’t 21/09.


In der theoretischen Rechenleistung ist die Radeon HD 5870 mit 2,7 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit und 544 GFlops bei doppelter Genauigkeit mehr als doppelt so leistungsfähig wie eine Radeon HD 4870 (1,2 TFlops/240 GFlops) und überflügelt hier selbst bisherige Dual-GPU-Grafikkarten mit Leichtigkeit. Dafür sorgt der neue RV870-Grafikchip (40 nm), der aus 2,15 Milliarden Transistoren besteht und in dem insgesamt 1600 Shader-Rechenkerne arbeiten. Diese sind in 20 SIMD-Einheiten zu je 16 Recheneinheiten à fünf Kernen angeordnet. Am SIMD-Layout hat AMD im Vergleich zur HD-4800er-Serie prinzipiell also nichts geändert, sondern lediglich die Anzahl der Einheiten verdoppelt. Die Shader-Rechenkerne arbeiten bei einigen Rechenoperationen effizienter als ihre Vorgänger und beherrschen auch die von der DirectX-11-Spezifikation geforderten bitweisen Operationen wie count, insert und extract, die beispielsweise bei Videobearbeitung und Kryptographie häufig vorkommen. Summen absoluter Differenzen sollen sich nun bis zu zwölfmal schneller berechnen lassen. Die billigere Radeon HD 5850 ist um zwei SIMD-Einheiten beschnitten und besitzt damit 160 Shader-Kerne und 8 Textureinheiten weniger. Auch Grafikchip und -Speicher laufen mit 725 beziehungsweise 1000 MHz etwas langsamer als bei der Radeon HD 5870 (850/1200 MHz).

Bei der Radeon HD 5870 ist an jede SIMD-Einheit wie schon bei der Radeon HD 4870 ein Cluster mit vier Textureinheiten (TMUs) gekoppelt, sodass insgesamt 80 davon zur Verfügung stehen. Texturen werden nun bis zu einer Kantenlänge von 16384 Pixeln unterstützt. Massiv verbessert hat AMD die anisotrope Texturfilterung: Diese arbeitet nun winkelunabhängig, liefert daher eine bessere Bildqualität und soll trotzdem so schnell sein wie der AF-Algorithmus der Vorgängerversion. Auch die Zahl der beispielsweise für die Kantenglättung wichtigen Rasterendstufen (ROPs) hat sich bei der Radeon HD 5870 auf 32 verdoppelt, sodass sich pro Takt nun 32 Pixel berechnen lassen. Durch einen zusätzlichen Readback-Pfad können die Textureinheiten nun direkt komprimierte Antialiasing-Farbwerte auslesen, was die Leistung beim Custom-Filter-Antialiasing laut AMD erhöhen soll. Im Treiber stellt AMD nun auch einen Schalter für Supersampling-Antialiasing zur Verfügung.


Der GDDR5-Speicher fasst im Referenzdesign 1 GByte an Daten und ist weiterhin über vier Speichercontroller mit insgesamt 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 1200 MHz erreicht die Radeon HD 5870 einen rund ein Drittel höheren Datendurchsatz (153,6 GByte/s) im Vergleich zur Radeon HD 4870. Jeder Speichercontroller ist mit einem L2-Cache verbunden, dessen Kapazität auf je 128 KByte verdoppelt wurde. Die fest verdrahtete Tessellation-Einheit erfüllt in ihrer sechsten Generation die DirectX-11-Anforderungen. Mit ihr lassen sich die geometrischen Details von 3D-Objekten automatisch und ohne große Leistungseinbußen verfeinern. Dadurch steigt die Detailqualität bei Spielen, die dieses Feature unterstützen, enorm. Bei der Wiedergabe von Blu-ray-Videos entlastet die verbesserte UVD2-Videoeinheit weiterhin den Hauptprozessor und dekodiert bis zu zwei Videoströme für die Bild-in-Bild-Funktion. Neu ist nun, dass der zweite Strom auch im HD-Format 1080p vorliegen kann. Hinzugekommen ist laut AMD außerdem die Möglichkeit, TrueHD und DTS-HD als Bitstream auszugeben.


Beeindruckend ist die vergleichsweise geringe Leistungsaufnahme der neuen High-End-Grafikkarten. AMD spricht von rund 27 Watt im Leerlauf, was für beide vorgestellten Modelle gelten soll. Unser Testexemplar der Radeon HD 5870 verbrauchte gar nur 19 Watt – und damit nur rund ein Drittel einer Radeon HD 4870 und auch weniger als Nvidias GeForce GTX 285 (rund 30 Watt). Auch die Geräuschentwicklung ist mit 0,6 Sone gut. Beim Spielen zieht die Radeon HD 5870 durchschnittlich 119 Watt. Die Höchstbelastung lag in unseren Messungen bei 198 Watt; 10 Watt mehr als AMD als TDP-Wert angibt. Der mit zirka 2000 U/min drehende Lüfter ist dann mit 1,2 Sone auch aus dem geschlossenen Gehäuse noch wahrnehmbar. Nach einem längeren Furmark-Stabilitätstest kletterte der Wert sogar auf sehr störende 3,2 Sone. In der Praxis kommt das jedoch eher selten vor. Der Grafikchip erreichte während all unserer Tests nie mehr als 80 °C. Die 28 Zentimeter lange Karte wird durch zwei sechspolige Stromanschlüsse versorgt und belegt durch das umfangreiche Kühlsystem zwei Gehäusesteckplätze.


Bisher konnten Single-GPU-Grafikkarten zumeist nur zwei Bildschirme gleichzeitig ansteuern, auch wenn teilweise viel mehr Anschlüsse an der Slotblende verfügbar waren. Die Radeon HD 5870 bindet nun bis zu drei Displays mit maximal je 2560 × 1600 Bildpunkten an, die Eyefinity-Spezialversion sogar bis zu sechs via DisplayPort. Dabei kann man den Desktopinhalt auf die jeweiligen Monitore erweitern oder auch duplizieren. Was auf welchem Display ausgegeben wird, konfiguriert man im Catalyst-Treiber. So lassen sich auch Spiele in extrem hohen Auflösungen wie 5760 × 2160 darstellen. Rund 80 Titel zählt AMD auf, die zur Eyefinity-Technik kompatibel sind, unter anderem Call of Juarez 2, Fallout 3 und den Microsoft Flight Simulator X.

Mit Stalker: Call of Pripyat und Dirt 2 sollen noch in diesem Jahr Spiele erscheinen, die optionale DirectX-11-Effekte bieten. Das bereits erhältliche Echtzeit-Strategiespiel Battleforge zieht über ein offizielles Update Vorteile aus DirectX 11 und soll etwas schneller laufen. Mit Alien vs. Predator kündigt sich noch ein Top-Titel mit hochdetaillierten Charaktermodellen zum Anfang des nächsten Jahres an. Ob das Spiel auch in Deutschland verkauft wird, ist wegen der Gewaltdarstellung noch unklar. Der im kommenden Jahr erwartete Teil der Battlefield-Serie unterstützt DirectX 11 von Haus aus. Auch Dungeons and Dragons Online (Eberron Unlimited) sowie Lord of the Rings Online bringen einen DirectX-11-Renderpfad mit.


Die Radeon HD 5870 und 5850 sollen ab Ende September für 350 beziehungsweise 250 Euro erhältlich sein. Bereits im Oktober werden auch die ersten Mittelklassegrafikkarten (Radeon HD 5770) erwartet, die wohl für um die 150 Euro über die Ladentheken gehen. Auch ein High-End-Modell mit zwei Grafikchips, die Radeon HD 5870 X2, ist laut AMD in Planung und soll noch in diesem Jahr erscheinen. Vom Konkurrenten Nvidia ist zumindest in den nächsten Monaten keinerlei DirectX-11-fähige Grafik-Hardware zu erwarten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 5850 ab 200 Euro gelistet
« Antwort #96 am: 25 September, 2009, 07:19 »
Die gestern vorgestellten DirectX-11-Grafikkarten Radeon HD 5870 und Radeon HD 5850 lassen wohl noch etwas auf sich warten. Während AMD von einer Verfügbarkeit ab Ende September sprach, rechnen die Boardpartner hinsichtlich der Radeon HD 5870 nicht vor Anfang Oktober mit im Handel befindlichen Karten. Und die Radeon HD 5850 dürfte wohl nicht vor Mitte Oktober in großen Stückzahlen zu sehen sein.

In den Preissuchmaschinen finden sich derzeit unter anderem die Modelle von Asus, Club3D, Gigabyte, MSI, Powercolor, Sapphire und XFX. Dabei sind HD-5850-Modelle ab 200 Euro und die Radeon HD 5870 ab rund 290 Euro gelistet. Letztere ist damit ungefähr so teuer wie die in manchen Spielen deutlich langsamere GeForce GTX 285. Nvidia müsste demnach die Preise der GeForce-Topmodelle kräftig senken, um hinsichtlich des Preis-Leistungs-Faktors konkurrenzfähig zu bleiben. Eine Radeon HD 5870 ist ungefähr doppelt so schnell wie die Vorgängerkarte Radeon HD 4870 und steuert in der sogenannten Eyefinity-Version bis zu sechs Displays parallel an.

Die nachfolgenden fünf Videos wurden während der offiziellen Präsentation der HD-5000-Serie aufgenommen und zeigen unter anderem einige der mit DirectX 11 möglichen Effekte wie Tessellation und Depth of Field. Crytek präsentierte zudem die PC-Version der Cryengine 3, die über drei Monitore verteilt ruckelfrei lief. AMD führte schließlich vor, wie sich der Windows-Desktop an sechs über eine HD-5870-Grafikkarte angeschlossene Monitore zuweisen lässt.

Quelle und Videos : http://www.heise.de/newsticker/Radeon-HD-5850-ab-200-Euro-gelistet--/meldung/145857

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 5870 X2 - Konkurrenz für Geforce GTX-295
« Antwort #97 am: 27 September, 2009, 15:49 »
Für Ende 2009 sind laut einer chinesischen Website Radeon-HD-5870-X2-Grafikkarten mit zwei Grafikchips zu erwarten. Während einer DirectX-11-Veranstaltung soll AMD ein erstes Muster in Aktion gezeigt haben.

Bereits mit der Radeon HD 5870 kann AMD alle bisherigen Single-GPU-Lösungen übertrumpfen, wie unter anderem der 5870-Test von Golem.de gezeigt hat. Zudem handelt es sich um die ersten DirectX-11-kompatiblen Grafikkarten.

Um den Doppel-GPU-Grafikkarten mit Nvidia Geforce GTX-295 etwas entgegen setzen zu können, wird AMD laut Enet zum Jahresende noch eine X2-Variante mit zwei RV870-Grafikchips ("Cypress") auf einer Platine auf den Markt bringen - mit zusätzlicher Stromversorgung über das PC-Netzteil, wie es auch bei den X2-Karten der 3000er und 4000er Serien der Fall ist.

Auf einer DirectX11-Veranstaltung zeigte AMD Enet zu Folge erstmals eine Radeon HD 5870 X2 in Aktion. Eine mit 1.920 x 1.200 Bildpunkten ohne Kantenglättung laufende aufwendige Cryengine-3-Techdemo soll sehr flüssig gelaufen sein.

Die Radeon HD 5870 X2 trägt den Codenamen Hemlock und soll im vierten Quartal 2009 für unter 500 US-Dollar auf den Markt kommen, zitiert Enet aus einer AMD-Roadmap. Enet hat Fotos von der 5870 X2 veröffentlicht.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GTC: Nvidias enthüllt die Architektur der nächsten GPU-Generation
« Antwort #98 am: 30 September, 2009, 22:25 »
Auf der ab heute in San Jose tagenden dreitägigen GPU Tech Conference stellt Nvidia die neue G(F)300-Architektur für DirecX11, OpenGl 3.1, OpenCl 1.1 und Cuda 3.0 vor. Es soll ein gigantischer 3-Milliarden-Transistor-Chip werden (TSMC 40 nm), der die 2,15 Milliarden von AMD/ATI (und die 2,05 Milliarden von Intel Tukwila) allein schon bezüglich Transistormenge in den Schatten stellt.

Anders als Konkurrent AMD/ATI hat Nvidia nicht nur die Zahl der Recheneinheiten mehr als verdoppelt, sondern auch die Architektur komplett umgekrempelt. Insbesondere für den Betrieb als Numbercruncher im High Performance Computing brachte Nvidia zahlreiche Verbesserungen ein. Der Tesla-Nachfolger wird unter dem Namen Fermi mit einer Gleitkommaperformance (FMA: GleitkommaMultiplikation and Addition ) für doppeltgenaue Berechnungen (DP) aufwarten, die bei gleichem Takt um mehr als Faktor acht höher ist. Statt einer DP-Einheit pro Stream-Multiprocessor (SM) sind es nun derer vier, wobei die Hardware von zwei mit Single Precision rechnenden Cores (ehemals Streaming Processor genannt) zusammengeschaltet werden. Ein Fermi-Chip enthält 16 SMs (zuvor 30), aber jede SM enthält nun 32 Cores (früher waren es 8 SPs), sodass die Zahl der skalaren SP-Recheneinheiten auf 512 steigt (von 240 zuvor). Konkurrent ATI hat demgegenüber in der neuen RV8xx-Architektur 1600 einzelne SP-Recheneinheiten, die zu fünft zu 320 SIMD-Einheiten zusammengeschaltet sind. Bezogen auf doppeltgenaue FMA-Einheiten sind es jetzt bei Fermi 256 (Tesla: 30) gegenüber AMD/ATI mit 320.

Bei gleichem Takt wie die Tesla C1060 müsste die theoretische Spitzenleistung (FMA) bei 2 Teraflop/s (SP) und 630 GFlop/s (DP) liegen, gegenüber 933 GFlop/s (SP) und 75 GFlop/s (DP) der C1060 und 2,7 Teraflop/s (SP) sowie 544 GFlops/s (DP ) bei AMDs Radeon HD5870. Das sind aber zum Teil reichlich schöngerechnete theroretische Werte (mit drei Flops/SP/Takt bei Nvidia SP, inklusive der Special Function Units), die echte erzielbare SGEMM/DGEMM-Leistung liegt zumeist deutlich darunter.

Wichtiger aber noch als die pure Anzahl von Recheneinheiten ist indes die Fähigkeit, möglichst schnell an die benötigten Daten zu kommen. Dafür bieten die GPUs mehrstufige Konzepte mit Caches, kleinen lokalen gemeinsamen Speichern, schnellen GDDRx-Kartenspeichern über viele Speicherkanäle und mit DMA-Transfer-Einheiten hin zum Hauptspeicher. Hier hat sich bei Nvidia viel geändert.

In der Nvidia-Vorgängerarchitektur G(T)-200 waren drei SMs zu einem Thread-Cluster zusammengeschaltet, der einen kleinen Write-Though-Cache von 24 KByte besaß. Jede SM hatte zudem noch einen gemeinsamen lokalen Speicher von 16 KByte. Nun jedoch teilen sich die SMs einen 768 KByte großen L2-Cache (Write-Back). Jede der 16 SMs enthält Instruktions-Cache, Dekoder, Scheduler, Dispatcher und Registersatz für zwei Pipelines, die die 32 Recheneinheiten, sowie vier Special Function Units (SFU) versorgen. Die SFUs kümmern sich um Inversion-, Inverse-Wurzel-, Logarithmus-, Exponentiation-, Sinus- und Cosinus-Funktionen die weitgehend über Tabellen und quadratische Interpolation voll pipelined berechnet werden.

Hinzu kommt pro SM ein gemeinsamer lokaler Speicher von 64 KByte, der sich ganz oder teilweise auch als L1-Cache konfigurieren lässt, zum Beispiel 48 KByte als gemeinsamer Speicher und 16 KByte als L1-Cache. In dieser Konfiguration soll Radix Sort um Faktor 4,7 schneller laufen als zuvor auf Tesla.

Der Speicher ist über sechs GDDR5-Speicherkanäle (zwei mehr als bei ATI RV8xx) angekoppelt. Satt einer DMA-Engine verfügt die neue Architektur über zwei, die überlappend arbeiten können. Das Adressiermodell wurde von 32 Bit auf 64 Bit (theoretisch, faktisch derzeit auf 40 physische und virtuelle Bits beschränkt) aufgebohrt, um mehr als 4 GByte Speicher ansprechen zu können. Mehr Speicherkapazität war vor allem ein Wunsch aus der HPC-Welt. Ebenso der fehlerkorrigierende ECC-Schutz, um die Zuverlässigkeit des Rechenbeschleunigers zu erhöhen. Nvidia hat für den Speicher, aber auch für die internen Busse und Caches ECC vorgesehen, wird das aber vermutlich nur für die Fermi- aber nicht für die GeForce-Linie nutzen, denn ECC erfordert nicht nur mehr Speicher sondern kostet auch etwas Performance.

Wichtig für die Performance im Rechenbetrieb ist zudem, dass, wie von DirectCompute und OpenCl für Multithreading-Betrieb gefordert, nun auch einzelne Rechenprozeduren (sogenannte Kernels) parallel ausgeführt werden können, wenn ein Kernel nur einen Teil der Hardware-Ressourcen ausnutzt. Ein SM muss immer den gleichen Code ausführen, so dass maximal 16 Kernels gleichzeitig auf Fermi laufen können. Bei ATI ist in den Unterlagen dazu nichts zu finden, aber AMD/ATIs technische Marketing-Leiterin fürs High Performance Computing versicherte gegenüber heise online, dass auch die RV800 mit parallel laufenden Kernels arbeiten kann. Bislang mussten diese hier wie dort einzeln nacheinander ausgeführt werden. Sie werden dabei auf größere Thread-Bündel verteilt (Warps mit 32 Threads bei Nvidia, Wavefronts mit 64 Threads bei ATI). Im Grafikbetrieb sind die Kernels typischerweise groß genug, um die ganze Hardware auszulasten. Nvidias "GigaThread-3.0-Engine" arbeitet zudem mit zwei Warp Schedulers und kann zehnmal schneller den Kontext wechseln als die GT200.

Nvidia änderte auch die Integer-Einheiten, die jetzt volle 32 Bit (zuvor nur 24 Bit) aufweisen. Daher dürften ältere Programme nur bedingt und mit Performanceverlust lauffähig sein, sie sollten mit der neuen CUDA-3.0-Version samt ptx-Assembler neu kompiliert werden. CUDA-3.0 unterstützt jetzt auch C++ (mit kleineren Ausnahmen) mit Objekten und Exception-Handling. Fortran, Java und Python für CUDA sind in Arbeit. Die Hardware kann jetzt auch mit Breakpoints arbeiten, was das Debugging erheblich erleichtert. Ob der neue Debugger Nexus, der sich in Microsofts Visual Studio 2005/8 einklinken kann, auch Disassemblieren soll, wird bei Nvidia derzeit noch diskutiert.

Der Haupt-Unterschied zum Konkurrenten AMD/ATI ist jedoch, dass dieser rechtzeitig zum Windows-7-Start mit DirectX11-fähigen Grafikkarten aufwarten kann, während Nvidia nach eigenen Aussagen mindestens noch bis Jahresende braucht, bis erste Karten verfügbar sind. Wahrscheinlich wird es noch erheblich länger dauern, denn Tapeout des gigantischen Chips war gemäß semiaccurate.com erst Mitte Juli und erfahrungsgemäß dauert es dann meist länger als ein halbes Jahr, bis ausgereifte Produkte auf den Markt kommen können. Da hat AMD/ATI also ein großes Zeitfenster.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GTC: Nvidia-Chef zeigt erste Fermi-Grafikkarte
« Antwort #99 am: 01 Oktober, 2009, 10:30 »
Nvidia-Chef Jen-Hsung Huang hat die GPU Technology Conference im kalifornischen San Jose mit einer knapp zweistündigen Keynote eröffnet, die in HD und 3D-Stereo live ins Netz gestreamt wurde. Dabei stellte Huang unter anderem die Architektur der kommenden Grafikkarten-Generation mit Fermi-Grafikchips vor und präsentierte schließlich auch eine erste Grafikkarte. Zwar kommt Nvidia mit verbesserter Dual-Precision-Leistung und ECC-Schutz bei kommenden Tesla-Grafikkarten besonders den Wünschen der HPC-Welt nach, jedoch sollen auch die GeForce-Abkömmlinge eine deutlich höhere Grafikleistung als die vor kurzem vorgestellten DirectX-11-Grafikkarten der Radeon-HD-4800-Serie von AMD besitzen.

Nvidias Konkurrent punktete bei der Radeon HD 5870 besonders mit einer niedrigen Leistungsaufnahme im Leerlauf. Auf die Frage, wie diese bei Grafikkarten mit dem aus drei Milliarden Transistoren bestehenden Fermi-Chip sei, entgegnete Jen-Hsung Huang, dass deren Leistungsaufnahme ähnlich oder gar geringer als die der derzeiten GeForce-Serie ausfalle. Zur Erinnerung: Eine GeForce GTX 285 benötigt rund 30 Watt im Leerlauf. Für den HPC-Bereich soll es sogar passiv gekühlte Tesla-Modelle geben. Unter Vollast dürften Nvidias kommende GeForce-Grafikkarten jedoch etwas mehr ziehen als die derzeitigen High-End-Modelle der GT200-Serie. Die von Huang präsentierte Karte besitzt immerhin je einen sechs- und einen achtpoligen Stromanschluss, so dass High-End-Fermi-Karten je nach Spezifikation bis zu 300 Watt verheizen könnten.


Nvidia will den Fermi-Chip vom Low-end- bis ins High-End-Segment einsetzen. Weitere Details zur GeForce-Serie wie beispielsweise finale Taktraten gab der Nvidia-Chef nicht preis. Bis zum Erscheinen der ersten Karten dürften noch "einige kurze Monate" vergehen, zumindest handele es sich um einen Dienstag, scherzte Huang.

Der Nvidia-Chef betonte zudem die Wichtigkeit von Grafikkarten und ihrer im Vergleich zu CPUs gigantischen Rechenleistung, die beispielsweise für die Bereiche der Medizin (etwa der Brustkrebsfrüherkennung) und der Klimaforschung enorme Fortschritte versprechen. Der Nvidia-Chef stellte bereits in zehn Jahren Grafikchips mit einer Rechenleistung von einem Petaflops in Aussicht – soviel wie IBMs Supercomputer Roadrunner, der derzeit die Weltspitze in der Rechenleistung darstellt. Bereits die Fermi-GPU sei ein "Supercomputer mit der Seele eines Grafikchips". In nicht allzu ferner Zukunft erwartet Huang auf Grafikchips basierende Supercomputer, die eine Rechenleistung von 20 Petaflops erreichen können.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia - Gezeigte Fermi-Karte war ein Fake
« Antwort #100 am: 03 Oktober, 2009, 11:37 »
SemiAccurate schreibt, dass es eindeutige Belege dafür gibt, dass Nvidia auf seiner GPU-Konferenz nur einen Dummy in die Kameras gehalten hat, aber keine funktionierende Grafikkarte. Eine Großaufnahme des einzeln präsentierten Fermi-Grafikchips zeigt den Datumscode 0935. Der Chip wurde also zwischen dem 28. August und 5. September 2009 hergestellt.

Zusätzlich trägt der Chip neben dem Nvidia-Logo eine handgeschriebene 7. Sowohl das Datum als auch die Zahl Sieben passen exakt zu den Behauptungen, die SemiAccurate im September aufgestellt hat: Nvidia habe eben erst vier Wafer mit den Chips herstellen lassen und von den 416 möglichen Chips gerade einmal sieben brauchbare Exemplare erhalten.

Die Karte selbst zeigte unter anderem Schrauben und Anschlüsse an Stellen, an denen keine sein dürften und der 6-Pin-Stromanschluss sei schlicht aufgeklebt. Inzwischen hat Nvidia gegenüber Fudzilla zugegeben, dass auf der GPU-Konferenz keine echte Karte gezeigt wurde. Der echte Prototyp sehe aus wie ein Tintenfisch, weil überall Kabel heraushingen und das habe man den Nvidia-CEO nicht für eine Präsentation in die Hände geben wollen. Dies bedeutet aber auch, dass Nvidia noch recht weit von verkaufsfähigen Karten entfernt sein muss.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia - »Fermi noch in diesem Jahr«
« Antwort #101 am: 03 Oktober, 2009, 13:51 »
Trotz der Tatsache, dass Nvidia auf der GPU-Konferenz keine lauffähige Karte in die Kameras halten konnte, erklärt Luciano Alibrandi, ein Sprecher von Nvidia, dass die Fermi-Demo jedoch tatsächlich auf einem echten Fermi-Grafikchip gelaufen sei. Dies würden auch die Leistungsdaten belegen, die fünf Mal so hoch seien wie bei einem aktuellen Tesla-Chip, so Alibrandi gegenüber XbitLabs. Man zeige einigen Presseleuten sogar eine lauffähige Karte.

Der Sprecher betont auch, dass an den Behauptungen, die ersten Fermi-Produkte würden erst im 1. Quartal 2010 erscheinen, nichts dran sei. Man erwarte die Veröffentlichung der ersten Fermi-Chips zum Ende des Jahres. Doch auch XbitLabs hat Zweifel am Optimismus von Nvidia, denn Nvidia habe nur einen Chip in der ersten Revision A1 präsentiert, der normalerweise nicht für die Produktion genutzt wird.

Üblicherweise werde dafür auf Revision A2 oder gar A3 gewartet. Jede neue Revision benötige Monate. So hatte ATI seinen Grafikchip für die Radeon HD 5870 bereits Anfang Juni vorführen können, erste Produkte gab es aber erst Ende September, eine Laufzeit von fast vier Monaten.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia Fermi: Angeblich drei Grafikkarten zum Start
« Antwort #102 am: 05 Oktober, 2009, 12:50 »
Nachdem Nvidia in der letzten Woche seinen neuen Grafikchip "Fermi" der Weltöffentlichkeit präsentierte, gelangen nun immer weitere Informationen an das Tageslicht. Laut einer Meldung von 'Fudzilla' sind zum Start drei Modelle geplant.

So wird es eine High-End-Variante mit einem Chip geben, die schneller arbeiten soll als die Radeon HD 5870 aus dem Hause AMD. Zudem soll sich eine GX2-Variante dazugesellen, also eine Grafikkarte mit zwei Chips. Für das von Nvidia als Performance-Bereich bezeichnete Segment wird es ebenfalls ein Modell geben. Derzeit wird es beispielsweise von der GeForce GTS250 besetzt.

Wie sich diese Modelle konkret unterscheiden werden, ist derzeit noch nicht bekannt. Laut Gerüchten sollen die Grafikkarten auf Basis des Fermi-Chips noch in diesem Jahr in den Handel kommen. Für Nvidia wäre dies wichtig, schließlich hat AMD bereits die ersten DirectX-11-Grafikkarten in den Läden. Allerdings hängt dies auch von der Produktionsausbeute ab.

Der Fermi-Chip wird im modernen 40-Nanometer-Verfahren gefertigt. Er kann auf insgesamt 512 Shadereinheiten zurückgreifen. Zudem setzt das Unternehmen erstmals auf GDDR5-Speicher, von dem bis zu sechs Gigabyte verbaut werden können. Er ist mit 384 Bit angebunden.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia - Sieht sich als Retter des Spiele-PCs
« Antwort #103 am: 06 Oktober, 2009, 12:54 »
Ashu Rege, der bei Nvidia mit Spiele-Entwicklern zusammenarbeitet, hat laut bit-tech.net erklärt, dass PC-Spiele ohne die Arbeit seines Teams ständig weniger und schließlich sogar »sterben« würden. In seinem Team seien 50 Entwickler, die rund um die Uhr »verdammt hart« mit Spiele-Entwicklern zusammenarbeiten würden, um PC-Spiele zu verbessern.

Wenn man beispielsweise nichts hinsichtlich des Spiels Batman: Arkham Asylum, bei dem sich AMD benachteiligt fühlt, unternommen hätte, hätte dies nur zum Ende der PC-Spiele beigetragen. »Spiele-Entwickler lieben den PC und arbeiten auch gerne darauf, aber die Wirklichkeit sieht so aus, dass man mit Konsolen das Geld verdient«, so Rege.

Ohne die Arbeit von Nvidia, die PC-Spiele verbessern soll, seien die meisten Spiele nur noch direkte Konvertierungen von Konsolen auf den PC. Und da der PC für Gelegenheitsspieler etwas schwieriger zu verstehen sei als eine Konsole, würden mehr und mehr Menschen einfach eine Konsole kaufen und zum Ende der PC-Spiele beitragen.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Snoop

  • Premium-Cubie
  • ****
  • Beiträge: 795
Re: Neue High-End-Grafikkarten von AMD und Nvidia
« Antwort #104 am: 07 Oktober, 2009, 16:43 »
Starker Tobak ... folgende zwei Meldungen bei Gamestar:

Zitat
AMD
Radeon HD 57x0 ab 120 Euro gelistet
AMD AMD Die ersten Händler haben die neuen AMD-DirectX-11-Grafikkarten Radeon HD 5750 und HD 5770 bereits gelistet und wie erwartet liegen die Preise recht niedrig.

Die Radeon HD 5750, deren Grafikchip 1.120 Stream-Prozessoren besitzt und mit 725 MHz getaktet ist, soll mit 1 GByte GDDR5-Speicher mit 1.150 MHz und einem 128-Bit-Speicherinterface gerade einmal knapp 120 Euro kosten. Die Radeon HD 5770 ist bis auf den höheren GPU-Takt von 825 MHz ansonsten identisch und wird von den Händlern für knapp 150 Euro aufgeführt.

Lieferbar sind die Karten allerdings momentan noch nicht. Angeblich soll dies jedoch bereits in den nächsten Tagen der Fall sein. Das neue AMD-Flaggschiff Radeon HD 5870 hingegen ist inzwischen auf 306 Euro gesunken, leidet jedoch ebenfalls an Lieferproblemen.

Zitat
Notbremse: Geforce GTX eingestellt?
Nvidia Nvidia Laut einer Meldung von SemiAccurate wird Nvidia aus finanziellen Gründen, die angeblich keinerlei Gewinne mehr erlauben, die Geforce GTX 260, Geforce GTX 275 und Geforce GTX 285 einstellen. Entsprechende »End of Life«-Mitteilungen sollen die Partner von Nvidia bereits erhalten haben.

Die Geforce GTX 285 wäre demnach bereits eingestellt, die Geforce GTX 260 soll im November oder Dezember folgen und die Geforce GTX 275 habe gerade noch zwei Wochen bis zur Einstellung. Einzig die Geforce GTX 295 würde noch überleben, allerdings vermutlich auch nicht für längere Zeit.

Nvidia habe nur die Wahl, seine aktuellen Grafikchips herzustellen und mit Verlust zu verkaufen, oder den Verkauf einzustellen und so weniger Verluste zu machen. Wirklich konkurrenzfähige Karten von Nvidia sollen laut SemiAccurate nicht vor Sommer 2010 erscheinen können. Aber selbst ein halbierter Fermi-Chip sei noch zu teuer im Vergleich zu AMDs aktuellen Karten.

Sollte die Meldung von SemiAccurate stimmen, überlässt Nvidia vorerst auf fast allen Feldern dem Konkurrenten AMD und dessen Grafikkarten um die Radeon HD 5870 das Feld. Schlimmer noch, sollte sich kein »Weißer Ritter« (ein finanzkräftiger Investor) oder Käufer finden, sieht SemiAccurate sogar das Ende für Nvidia nahen.

Quelle: Gamestar


Ich glaube, ich kenne mindestens zwei interessierte Käufer :D
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4