Autor Thema: Neue Grafikkarten von AMD und Nvidia  (Gelesen 25608 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
nVidia: GTX 590 stirbt bei OC durch Treiberfehler
« Antwort #225 am: 26 März, 2011, 18:55 »
Scheinbar musste es kurz vor der Veröffentlichung der Karte schnell gehen. Die Testmuster wurden mit einem Treiber ausgeliefert, der die Stromschutzfunktion der Karte nicht unterstützt. Einige der Testkarten sind bereits bei moderaten OC-Versuchen zerstört worden. Ein Video vom Defekt einer GTX 590-Testkarte bei der schwedischen Seite SweClockers gibt es bei YouTube.

Noch nicht einmal zwei Tage ist es her, seit Marktführer nVidia sein neues Dual-GPU-Monster GTX 590 veröffentlichte. Unter Verwendung von zwei selektierten GF110-Chips und insgesamt 3GB Grafikspeicher erreicht die Karte eine Grafikleistung, die sehr nahe bei AMDs Konkurrenzprodukt HD 6990 liegt. AMD bietet dank Dual-Bios-Chip auf seinen Karten eine OC Einstellung, an bei der die beiden Grafikchips auf vollem HD 6970-Takt von 880 MHz statt der sonst für eine HD 6990 üblichen 800 MHz arbeiten. Nach offiziellen Angaben von AMD erlischt dabei die Garantie, was von einigen Rechtsexperten jedoch bezweifelt wird, da es sich bei dem AUSUM-Mode (Antilles Unlocking Switch for Uber Mode) um eine beworbene Produkteigenschaft handelt. Einige Boardpartner wie zum Beispiel XFX gehen derweil eigene Wege und sichern volle Garantie zu, auch wenn der OC Modus benutzt wird, bei dem die Leistungsaufnahme von 375 Watt unter extremer Belastung auf 450 Watt ansteigt. Von Defekten der HD 6990 liest man bisher auch unter Verwendung des OC-Bios glücklicherweise nichts.

Doch zurück zum grünen Lager. nVidia musste seine beiden Grafikchips handselektieren, damit diese mit niedrigen Spannungen von 0,91-0,96 Volt auf immerhin 608 MHz arbeiten können. Mit diesen Werten braucht die Karte schon 365 Watt unter extremer Last. Da die Karte für den Enthusiasten-Markt ist, haben einige Review-Seiten natürlich auch getestet, was passiert, wenn man die beiden GF110-Chips mit den vollen Settings einer GTX 580 - also 1,025 Volt und 772 MHz - betreibt. Das Ergebnis ist reproduzierbar: ein Verbrauch, der auf ca 480 Watt ansteigt, und der kurzfristige Defekt der Karte. Wie in einem Video von SweClockers zu sehen ist, spielt die 10-Phasen-GPU-Spannungsversorgung der Karte bei den Settings nicht mehr mit. Eigentlich sollte eine in den Treiber integrierte Schutzfunktion die Karte bei sehr hoher Belastung herunterregeln, um einen Defekt zu verhindern. Das passierte jedoch bei den Testkarten nicht.


Schuld ist laut nVidia der mitgelieferte GeForce 267.52-Treiber, der scheinbar die Sicherheitsfunktionen noch nicht implementiert hatte. Wer also eine GTX 590 kaufen will, sollte auf keinen Fall den mitgelieferten Treiber nutzen. Auch in einigen bereits ausgelieferten Retail-Verpackungen findet sich scheinbar eine CD mit dem 267.52 Treiber. Es wird also dringend dazu geraten, den neuesten Treiber von der nVidia-Homepage zu verwenden, auch wenn die Karte bei Standardsettings scheinbar auch ohne ihre Schutzfunktion keine Probleme verursacht. Spätestens wenn man plant, die Karte zu übertakten, solte man also sehr vorsichtig sein. Ab der version GeForce 267.71 ist das Problem behoben, so dass die Karte sich bei einem extrem ansteigenden Verbrauch ausserhalb der Spezifikation selbst heruntertaktet und somit keinen Schaden nimmt. nVidia selbst empfiehlt für OC die Verwendung eines Wasserkühlers. Selbst dann sollen Kunden, um die Spannungsversorgung nicht zu überlasten, die vGPU-Spannung der Karte maximal um 25 mV erhöhen. Boardpartner könnten diesem Problem jedoch mit eigenen Designs und einer stärkeren Umsetzung der Spannungsversorgung für die GPU entgegenwirken und so das Limit möglicherweise etwas erhöhen.

Quelle: www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia bringt GeForce GTX 560 ohne "Ti"
« Antwort #226 am: 29 März, 2011, 14:06 »
Wie mehrere Quellen gegenüber heise online hinter vorgehaltener Hand bestätigten, will Nvidia in wenigen Wochen eine abgespeckte Variante der GeForce GTX 560 Ti herausbringen. Die neue Grafikkarte wird schlicht ohne das Kürzel "Ti" im Namen als GeForce GTX 560 laufen und wohl der direkte Nachfolger der seit Juli 2010 verfügbaren GeForce GTX 460 werden. Zu den technischen Daten gibt es noch keine genauen, bestätigten Informationen. Wahrscheinlich ist allerdings, dass sich die kommende GTX 560 hauptsächlich aufgrund ihrer Taktfrequenzen von ihrem GTX-460-Vorgänger (1024-MByte-Version) abhebt.

Die Zahl der Funktionseinheiten dürfte also bei 336 Shader-ALUs, 56 Textureinheiten und 32 Rasterendstufen bleiben, der Grafikchip allerdings schneller als 675 MHz laufen – beispielsweise mit mehr als 800 MHz. Dann wäre die kommende GeForce GTX 560 nicht viel mehr als eine beschleunigte GTX 460, deren Leistung in etwa auf dem Niveau der Radeon HD 6870 liegen könnte, die zurzeit für rund 170 Euro erhältlich ist.

Genau in dieser Performance-Klasse hat Nvidia bis auf die wegen ihrer hohen Leistungsaufnahme unattraktive GeForce GTX 470 nichts zu bieten, die überdies aufgrund des Fermi-Grafikchips der ersten Generation für Nvidia teuer zu produzieren ist. Entsprechend könnte sich der Preis der GeForce GTX 560 bei etwa 170 bis 180 Euro bewegen, die derzeitige Performance-Lücke stopfen und Nvidias GeForce-500-Portfolio ergänzen. Nvidia wird die Grafikkarte nach uns vorliegenden Informationen zwischen Mitte April und Anfang Mai vorstellen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD bringt Radeon HD 6790
« Antwort #227 am: 05 April, 2011, 06:17 »
Vor gut einem Monat flüsterten der Redaktion auf der CeBIT bereits einige gute Kontakte, dass AMD nach dem Marktstart der GeForce GTX 550 Ti eine Konkurrenzkarte auf den Markt werfen wird, nun ist es so weit: AMD präsentiert die Radeon HD 6790, auf der ein abgespeckter Barts-Grafikchip mit 800 Shader-Rechenkernen sitzt. Wie auch die 40 Textureinheiten laufen sie mit 840 MHz.

Im Vergleich zu den auf der Radeon HD 6850 sitzenden Barts-Chips reduziert AMD auch die Anzahl der für die Katenglättungsleistung wichtigen Rasterendstufen auf 16 Stück – und damit auf die Hälfte. An Speicherbandbreite wiederum mangelt es der Radeon HD 6790 nicht, denn der 1 GByte große GDDR5-Speicher ist mit 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 2100 MHz erreicht die Radeon HD 6790 also eine Datentransferrate von gut 134 GByte/s, was auch für hohe Auflösungen mitsamt Kantenglättung ausreicht. Zum Vergleich: Nvidias GeForce GTX 550 Ti liegt mit knapp 100 GByte/s deutlich zurück und ist auch in Spielen langsamer.

Die 3D-Performance der Radeon HD 6790 liegt zwischen der einer Radeon HD 5770 und Radeon HD 6850. Das Echtzeitstrategiespiel Anno 1404 läuft selbst mit achtfacher Kantenglättung mit 37 fps in Full HD, auch Battlefield Bad Company 2 oder Dirt 2 machen bei 1920×1080 Pixeln Spaß. Im 3DMark Vantage erreicht die Radeon HD 6790 in der Extreme-Voreinstellung 6039 Punkte; im Tessellation-Benchmark Unigine Heaven 19,4 fps (OpenGL 4: 9,1 fps), eine HD 6850 schafft 22,8 fps.


Im Leerlauf verheizte das Referenz-Testexemplar von AMD 18 Watt (0,4 Sone), mit zwei Displays waren es bereits 45 Watt (0,5 Sone). Beim Spielen nahm die Radeon HD 6790 durchschnittlich 91 Watt auf, maximal maßen wir 132 Watt. Der Lüfter nervte unter Last mit 1,6 Sone. Allerdings sind die Geräuschmesswerte mit Vorsicht zu genießen, da AMDs Referenzdesign nicht von den Boardpartnern angeboten werden wird – sie offerieren ihre Modelle mit selbstentwickelten Kühlsystemen für rund 130 Euro. Allerdings bieten diesmal offenbar nicht alle Boardpartner die Karte feil, darunter Asus.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 6450: Einsteigerkarte mit UVD3-Videoeinheit
« Antwort #228 am: 07 April, 2011, 09:21 »
AMD stellt mit der Radeon HD 6450 die erste Low-End-Grafikkarte der HD-6000-Serie vor, die dank UVD3-Videoeinheit sogar stereoskopische 3D-Blu-rays darstellt – und das via HDMI 1.4 auch auf HD-Fernsehgeräten. Auf der Low-Profile-Platine sitzt ein zu DirectX 11 kompatibler Grafikchip (Caicos), der 160 Shader-Rechenkerne hat und damit doppelt soviele wie der Chip der Vorgängerkarte Radeon HD 5450. Überdies beherbergt er 8 Textureinheiten und 4 Rasterendstufen.

Um aktuelle Spiele in Full-HD-Auflösung flüssig darzustellen, reicht die 3D-Performance der Karte nicht aus. Im 3DMark Vantage erreicht die Radeon HD 6450 2811 Punkte in der Performance-Voreinstellung und ist damit immerhin rund 30 Prozent flinker als Intels schnellster Prozessor-Grafikkern (HD 3000: 2157 Punkte). Die Vorgängerkarte Radeon HD 5450 schaffte 1291 Punkte, Intels HD-2000-Prozessorgrafik 1008.

Allerdings saß auf der uns von AMD zur Verfügung gestellten HD-6450-Referenzkarte auch GDDR5-Speicher (512 MByte), der mit 1800 MHz lief und über 64 Datenleitungen an den Grafikchip angebunden war (28,8 GByte/s). Im Handel soll es auch Varianten mit langsameren DDR3-Speicherbausteinen geben, durch die sich die Speicherbandbreite je nach Taktfrequenz laut AMD nur zwischen 8,5 und 12,8 GByte/s bewegen soll. Das würde die 3D-Performance noch weiter reduzieren.

Die Leistungsaufnahme der Radeon HD 6450 ist mit gemessenen 8 Watt im Leerlauf sehr niedrig, die Vorgängerkarte mit halb soviel Shader-Rechenkernen verheizte 2 Watt weniger. Mit zwei oder drei Displays waren es bereits 15 Watt (HD 5450: 9 Watt), unter Volllast bis zu 32 Watt (15 Watt). Aufgrund der geringen Leistungsaufnahme wird es im Handel auch lüfterlose Varianten geben, die um die 50 Euro kosten dürften. Ab 19. April sollen erste Exemplare der Radeon HD 6450 auf den Markt kommen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline spoke1

  • Alle angenehmen Dinge des Lebens sind entweder illegal, unmoralisch, teuer oder machen dick!
  • Premium-Cubie
  • ****
  • Beiträge: 2718
  • kaffeine Fan
    • skynetR32 Mod HP
GeForce GT 520: Fermi für Einsteiger
« Antwort #229 am: 10 April, 2011, 21:52 »
Nvidia komplettiert seine aktuelle DirectX-11-Produktfamilie mit der Low-End-Grafikkarte GeForce GT 520. Ihr zu DirectX 11 kompatibler Fermi-Grafikchip (GF119, 810 MHz) beherbergt 48 Shader-Kerne und 8 Textureinheiten. Damit ist sie für aktuelle Spiele zu langsam, aber durch ihre PureVideo-HD-Einheit gut geeignet für die Wiedergabe von hochaufgelöstem Filmmaterial – selbst Blu-rays mit stereoskopischen Inhalten soll die Karte via HDMI 1.4a an entsprechende 3D-Fernsehgeräte ausgeben können.

Standardmäßig sitzt auf der Low-Profile-Platine 1 GByte Speicher, der über 64 Datenleitungen angebunden ist. Die Datentransferrate liegt daher auf einem für Einsteigerkarten üblichen Niveau (14,4 GByte/s). Laut Nvidia soll die Grafikkarte maximal 29 Watt verheizen. Dank der geringen Leistungsaufnahme können Asus und Gainward auch lüfterlose GT-520-Varianten anbieten.


Mit aktiviertem GPU-PhysX soll die GT 520 ungefähr so
schnell sein wie eine alte GeForce 9500 GT.
Maximal zwei Displays lassen sich gleichzeitig an einer GeForce GT 520 betreiben. Die meisten Herstellerkarten bieten dafür einen Dual-Link-DVI- und HDMI-Anschluss sowie eine VGA-Buchse. Dank ihrer geringen Bauhöhe passt die Karte auch in sehr flache Gehäuse.

Laut einer Nvidia-Grafik soll die GeForce GT 520 mit aktivierter GPU-PhysX-Beschleunigung zirka 2500 Punkte im 3DMark Vantage (Voreinstellung: Performance) erreichen, die kürzlich vorgestellte Radeon HD 6450 von AMD schaffte in unserer Messung rund 2811 Punkte. Die GeForce GT 520 wird ab sofort für rund 60 Euro von Nvidias Boardpartnern erhältlich sein.

Quelle : www.heise.de
Produktiv:
ASRock K8S8X, Athlon64 3000+, 1GB Infineon Ram, WinFast A340 8X AGP, Samsung HD160 GB SATA2,
Technisat SkyStar 2, Stab HH100 Rotor und 5° & 19,2° Ost fest
BS: Mandriva-Linux (mdv) 2010.2 PP, kde 3.5.12, kaffeine 0.8.8, skynetR32

Bastelsrechner:
ASRock N570 SLI, Athlon64 X2 6000+ 4GB Geil Ram, EVGA GeForce G 210 Passiv (1GB DDR3, VGA, DVI, HDMI), Samsung HD 500GB SATA2, TT-budget S2-3200 PCI
BS: immer nur Pinguin freundliche

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD präsentiert Radeon HD 6570 und 6670
« Antwort #230 am: 19 April, 2011, 06:35 »
AMD stellt gleich zwei neue Mittelklasse-Grafikkarten vor: die Radeon HD 6570 und HD 6670. Beide Modelle geben dank der UVD3-Videoeinheit auch Blu-rays mit stereoskopischen Inhalten wieder. Die Leistung ihrer zu DirectX 11 kompatiblen Grafikchips ist für Gelegenheitsspieler ausreichend, die auf Full-HD-Auflösung und hohe Detailstufen verzichten können. Im 3DMark Vantage erreicht die Radeon HD 6670 8430 Punkte und ist dabei somit rund ein Drittel flinker als die Vorgängerkarte Radeon HD 5670 (6293 Punkte).

480 Shader-Rechenkerne, 24 Textureinheiten und 8 Rasterendstufen beherbergt die 800 MHz schnelle GPU der Radeon HD 6670. Die je nach Hersteller 512 MByte oder 1 GByte fassenden GDDR5-Speicherbausteine sind über 128 Datenleitungen angebunden und laufen mit 2000 MHz (64 GByte/s). Laut AMD soll die Radeon HD 6670 im Leerlauf 12 Watt schlucken, unter Last maximal 66 Watt. Unsere Messungen mit der AMD-Referenzkarte zeigten sogar nur 11 Watt im Leerlauf und maximal 63 Watt unter Volllast. Im Leerlauf-Multimonitorbetrieb verheizte die Grafikkarte 22 Watt.

Auf der Radeon HD 6570 kann sowohl GDDR5- als auch langsamer DDR3-Speicher zum Einsatz kommen. Bei letzterem halbiert sich die Datentransferrate, was die 3D-Performance im Vergleich zur HD 6670 mindert. Wie bei der Radeon HD 6670 sitzen im Grafikchip 480 Shader-Rechenkerne, die allerdings wesentlich langsamer arbeiten (650 MHz). Dadurch reduziert sich auch die Leistungsaufnahme leicht auf von AMD angegebene 11 Watt im Leerlauf und 60 Watt unter Last. Modelle mit DDR3-Speicher sind etwas genügsamer und sollen mit 10 beziehungsweise 44 Watt auskommen. Leider hatten wir noch kein Testexemplar der Radeon HD 6570, um die angegebenen Werte überprüfen zu können.

Die Radeon HD 6670 steuert bis zu 4 Displays an und soll rund 90 Euro kosten, die Radeon HD 6570 kommt mit bis zu 3 Displays zurecht und soll für zirka 75 Euro über die Ladentheken gehen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GeForce GTX 560: Aus Alt mach Neu
« Antwort #231 am: 17 Mai, 2011, 17:00 »
Nun ist es soweit: Nvidia stellt die GeForce GTX 560 vor, über die schon seit Ende März spekuliert wurde. Die Performance-Grafikkarte ist eine abgespeckte Variante der GeForce GTX 560 Ti und besitzt einen GF114-Grafikchip mit 336 statt 384 Shader-Rechenkernen, der mit 810 MHz läuft. Der 1 GByte fassende GDDR5-Speicher arbeitet mit 2004 MHz.

Die Bezeichnung "560" suggeriert, dass es sich um den direkten Nachfolger der seit Juli 2010 verfügbaren GeForce GTX 460 handelt. Wer allerdings technische Fortschritte erwartet, wird enttäuscht sein. Denn die GeForce GTX 560 hebt sich vor allem durch ihre etwas höheren Taktfrequenzen vom Vorgänger ab, dessen Chip und GDDR5-Speicher mit lediglich 675 MHz beziehungsweise 1800 MHz liefen.

Allerdings waren die GF104-Chips der GTX-460-Karten sehr taktfreudig – die meisten rechneten nach wenigen Klicks auch mit 810 MHz stabil. Das bewarb Nvidia sogar explizit: "GTX 460 is an overclocker's dream", hieß es damals auf den Präsentationsfolien. Nvidia betont allerdings, dass es – wie bei der GeForce GTX 560 Ti – auch einige Veränderungen auf Transistorebene gegeben habe, die die Performance pro Watt verbessern sollten.

Alle Boardpartner Nvidias haben vor allem übertaktete Modelle der GeForce GTX 560 im Angebot, um den höheren Preis zur älteren GeForce GTX 460 zu rechtfertigen. Die Hersteller betreiben die Grafikchips ihrer Karten mit bis zu 950 MHz (Zotac GeForce GTX 560 AMP!), den GDDR5-Speicher mit bis zu 2244 MHz Read-Write-Clock (Sparkle GeForce GTX 560 Calibre).


Mit den Referenztaktfrequenzen ist die GeForce GTX 560 im 3DMark Vantage knapp 20 Prozent schneller (Extreme-Preset: 8231 Punkte) als die GeForce GTX 460, im 3DMark 11 sind es sogar 24 Prozent (Performance-Preset: 4088 Punkte). Bei letzterem Test ist der Abstand zur GeForce GTX 560 Ti (4250 Punkte) nicht groß. In Spielen reicht die Performance der GeForce GTX 560 aus, um auch die anspruchsvollsten 3D-Shooter in Full HD flüssig darzustellen. So sind selbst bei Metro 2033 noch 30 fps im höchsten DirectX-11-Modus drin. Das Rennspiel Colin McRae Dirt 2 läuft sogar bei 2560×1600 Pixeln mit 45 fps.

Die Leistungsaufnahme pendelt sich bei rund 15 Watt im Leerlauf ein, bei manchen OC-Karten sind es allerdings sogar über 20 Watt (Gigabyte GV-N56GSO-1GI). Beim Spielen sind die Karten aber deutlich schluckfreudiger und kommen im Durchschnitt auf knapp 150 Watt – hier war sogar das Referenzmodell von Nvidias GeForce GTX 560 Ti sparsamer (135 Watt). Da die kurzzeitigen Spitzen deutlich höher liegen, sitzen an den GTX-560-Varianten zwei sechspolige Stromstecker.

Die GeForce GTX 560 soll knapp 170 Euro kosten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia vervollständigt die GeForce-500-Serie
« Antwort #232 am: 21 Mai, 2011, 15:07 »
Nvidia erweitert die GeForce-500-Serie nach der GeForce GT 520 und GeForce GTX 560 um zwei preiswerte DirectX-11-Grafikkarten. Die GeForce GT 530 und GT 545 wird es vorerst aber nur in Komplett-PCs geben, da Nvidia die Karten lediglich an OEM-Herstellern liefert. Auf der GeForce GT 530 sitzt ein in 40 nm Strukturgröße gefertigter GF118-Chip (700 MHz) mit 96 Shader-Kernen (1400 MHz). Der 1 oder 2 GByte große DDR3-Grafikspeicher ist über 128 Datenleitungen an die GPU angebunden und wird mit 898 MHz angesteuert. Die technischen Daten sind mit denen der Vorgängerkarte GeForce GT 430 identisch.

Die GeForce GT 545 offeriert Nvidia in zwei Versionen mit DDR3- oder GDDR5-Speicher. Beiden Varianten gemein ist der GF116-Chip (40 nm), von dessen 192 Shader-Kernen aber nur 144 aktiv sind. Die Grafikkarten unterscheiden sich hinsichtlich der Taktfrequenzen und der Speicheranbindung: Bei der DDR3-Version arbeiten GPU und Shader mit 720 MHz beziehungsweise 1440 MHz. Der Speicher (900 MHz) kommuniziert über 192 Datenleitungen mit einer Transferrate von 43 GByte/s mit dem Grafikchip. Die GDDR5-Version kommt trotz eines 128-Bit-Speicherinterface auf 64 GByte/s, da die GDDR5-Chips mit 2 GHz deutlich schneller takten. Chip und Shader-Kerne laufen ebenfalls etwas flotter (870/1740 MHz).


Die GeForce GT 530 und die DDR3-Variante der GT 545 kommen ohne 6-poligen Stromanschluss aus, da ihre Thermal Design Power mit 50 und 70 Watt unterhalb der 75-Watt-Marke liegen, die der PEG-Slot des Mainboards liefert. Die maximale Leistungsaufnahme der GeForce 545 mit GDDR5-Speicher gibt Nvidia mit 105 Watt an.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GeForce GTX 560 Ti für Komplett-Systeme langsamer und stromhungriger
« Antwort #233 am: 06 Juni, 2011, 17:29 »
Nvidia hat auf seiner Firmen-Webseite eine weitere Variante der Performance-Grafikkarte GeForce GTX 560 Ti vorgestellt, die allerdings nur in Komplett-Systemen verbaut wird. Der Grafikchip dieser OEM-Version besitzt im Vergleich zur einzeln erwerbbaren Karte 352 anstelle von 384 Shader-Rechenkernen, die überdies nur mit 732 statt mit 822 MHz laufen.

Beim GDDR5-Speicher bekommt die GeForce GTX 560 Ti OEM etwas mehr ab: 1,25 oder 2,5 GByte sind laut Nvidia möglich, die mit 1900 MHz laufen und über 320 Datenleitungen angesteuert werden. Das ergibt eine Datentransferrate von 152 GByte/s. Zum Vergleich: die herkömmliche GTX 560 Ti kommt mit 1 GByte Speicher daher, der zwar etwa schneller läuft (2004 MHz), allerdings nur über 256 Leitungen kommuniziert (128 GByte/s). Für den Retailmarkt außerdem erhältlich ist seit Mitte Mai noch die GeForce GTX 560 "ohne Ti" , die wiederum nur 336 Shader-Kerne beherbergt.

Die OEM-Variante der GeForce GTX 560 Ti ist allerdings nicht nur langsamer, sondern auch stromhungriger als die herkömmliche GeForce GTX 560 Ti. So gibt Nvidia die maximale Leistungsaufnahme mit 210 Watt an – das sind satte 40 Watt mehr. Dafür verantwortlich ist der GF110-Grafikchip, den Nvidia auf der OEM-Variante verbaut. Das lässt vermuten, dass auch die Leerlauf-Leistungsaufnahme deutlich über den sehr guten 15 Watt einer herkömmlichen GTX 560 Ti liegen wird. Nvidia macht dazu auf der Webseite keine Angaben.

Die GPU-Architektur des GF110 unterscheidet sich stark von der des GF114, welcher auf den bereits erhältichen GTX-560-Karten sitzt. Dadurch hat die OEM-Variante auch weniger Textureinheiten (44 statt 64) und folglich eine viel geringere Texturierungsleistung. Im direkten Vergleich ähnelt die GeForce GTX 560 Ti OEM stark einer beschnittenen GeForce GTX 570, bei der nur 11 statt 15 Streaming-Multiprozessoren, von denen jeder 32 Shader-Rechenkerne enthält, funktionieren.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia bestätigt: Kepler kommt erst 2012
« Antwort #234 am: 06 August, 2011, 11:15 »
Die nächste Generation der Nvidia-Grafikchips (Codename: Kepler) wird erst im kommenden Jahr in Massenproduktion gehen. Das bestätigte ein Unternehmenssprecher gegenüber XBit Labs. Wann genau erste Grafikkarten mit Kepler-GPUs tatsächlich in den Handel kommen sollen, ist unbekannt. Die Chips sollen bereits mit Preemption- und Virtual-Memory-Funktionen ausgestattet sein.

Erst im Juni wurden Gerüchten zufolge die Designs der ersten Kepler-GPUs zum Auftragsfertiger TSMC gesandt (Tape-Out). Da solche Erstentwürfe komplexer Grafikchips üblicherweise noch einiges an Nachbesserung erfordern, vergehen normalerweise vom ersten Tape-Out bis zur finalen Produktion zwischen sechs und zwölf Monate. Da Nvidia bei Kepler ein neues beziehungsweise überarbeitetes Design mit einem neuen Fertigungsverfahren kombiniert, könnte es durchaus zwischen neun und zwölf Monaten dauern.

Dass der Hersteller seine für wichtige Ankündigungen dienende GPU Technology Conference auf Mitte Mai 2012 verschoben hat, könnte also durchaus mit der Kepler-Verspätung zu tun haben. Eines ist sicher: Nvidia hat bis zum Kepler-Marktstart noch eine lange Durststrecke zu überwinden.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Grafikgerüchte: Radeon 7970 kommt mit XDR2-Speicher und 2.048 Rechenwerken
« Antwort #235 am: 06 September, 2011, 13:04 »
Rambus-Speicher für Grafikkarten kehrt zurück - wenn man den inoffiziellen Daten zu AMDs nächster Radeon-Serie glauben will. Neben XDR2-DRAM sollen in der GPU "Tahiti" bis zu 2.048 Rechenwerke für Tempo sorgen.

Die asiatische Site Expreview hat recht detaillierte Daten zu AMDs nächster GPU-Generation veröffentlicht. Wenig überraschend sind dabei die Modellnummern: Radeon HD 7950 und 7970 sollen im üblichen Namensschema die schnellsten Single-GPU-Karten darstellen. Ihre Codenamen, die ebenfalls schon bekannt waren, lauten Tahiti und Tahiti Pro. Als "New Zealand" soll eine Dual-GPU-Karte als Radeon HD 7990 erscheinen.


Bei diesen drei Grafikkarten will AMD den unbestätigten Angaben zufolge erstmals bei hochwertigen Spielebeschleunigern auf XDR2-Speicher von Rambus setzen. 2 GByte je GPU sind vorgesehen. Bei der schnelleren 7970 soll so eine theoretische Speicherbandbreite von 256 GByte/s erreicht werden. Das wären gut 45 Prozent mehr als die 176 GByte/s des Vorgängers Radeon HD 6970.

Eine so hohe Steigerung der Speicherbandbreite gab es selten von einer GPU-Generation zur nächsten, und offenbar will AMD damit die Radeon-Chips auch interessanter für Rechenanwendungen machen. Beim GPU-Computing ist die Speicherbandbreite besonders wichtig. Nvidias GTX 580 und ihre Tesla-Ableger sind hier mit 192,4 GByte/s schon jetzt etwas schneller als AMDs Radeons. Wie AMD aber den durch Cuda geschaffenen Vorteil bei der Software einholen will, bleibt noch abzuwarten. Erste Ansätze hat AMD bereits gemacht.

GCN-Architektur und 1.000 MHz

Durch den Umstieg auf 28 Nanometer breite Strukturen will AMD außerdem die Zahl der Rechenwerke bei den Tahiti-GPUs erhöhen. Statt bisher höchstens 1.536 Einheiten wie bei der Radeon HD 6970 sollen es 2.048 Rechenwerke werden. Diese sind in der neuen Architektur "graphics core next" (GCN) gestaltet. Das neue Design soll dabei unter anderem die Zahl der Rasterprozessoren (ROPs) von 32 auf 64 glatt verdoppeln. Auch der GPU-Takt soll sich von bisher höchstens 880 MHz bei der 6970 auf 1.000 MHz bei der 7970 steigern.

Die GCN-Architektur bleibt aber nur der Serie 7900 vorbehalten. Die kleineren Modelle 7870 und 7850 (Thames) sowie 7670 und 7650 (Lombok) sollen laut Expreview auf die VLIW4-Shader der Serie 6900 setzen. Der bisher verbaute GDDR5-Speicher bleibt bei diesen Grafikkarten ebenfalls erhalten.

Angaben zur Leistungsaufnahme gibt es auch schon, 190 Watt sollen es bei der Radeon HD 7970 sein, für die Dual-GPU-Karte 7990 gibt es noch keinen Wert. Diese Zahlen sind aber ohnehin bei High-End-Grafikkarten nicht mehr eindeutig zu bewerten, weil sowohl AMD als auch Nvidia die Leistungsaufnahme noch dynamischer als früher regeln. Bei AMD gibt es hier auch eine Einflussnahme durch den Anwender namens Powertune. Das sorgt bei der ebenfalls mit 190 Watt angegebenen Radeon HD 6970 auch nach AMDs eigenen Daten für bis zu 250 Watt. In der Spielepraxis wird dieser Wert jedoch kaum erreicht.

Die Quellen von Expreview lassen sich noch nicht zu einem möglichen Verkaufsstart für die Serie Radeon HD 7000 aus. Dabei hängt, wie bei GPUs fast immer, vieles davon ab, wann der Auftragshersteller TSMC seinen 28-Nanometer-Prozess bis zur Serienreife entwickelt hat. AMD hat sich dazu bisher noch nicht konkret geäußert, einzig, dass es noch im Jahr 2011 so weit sein soll, steht bisher im Raum.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Geforce GTX 580 mit 3 GByte, hoher Taktung und Entstaubung
« Antwort #236 am: 15 September, 2011, 16:26 »
MSIs neue Geforce-Grafikkarte GTX580 Lightning Xtreme Edition (XE) wird ausgeliefert. Sie bietet hohe Taktraten, 3 GByte Speicher und ein sich selbst reinigendes Lüftungssystem.

Die PCI-Express-Grafikarte MSI GTX580 Lightning Xtreme Edition verfügt über 3 GByte GDDR5-Speicher, der mit effektiv 4.200 MHz getaktet ist. Auch der Geforce-GTX-580-Grafikchip liegt mit 832 MHz Core- und 1.747 MHz Shader-Takt über dem Standardtakt. Etwas Luft zur Übertaktung gibt es laut Hersteller noch, dafür sollen hochwertige Elektronikbauteile, eine 16-phasige Stromversorgung und ein leise arbeitendes Lüftungssystem ("Twin Frozr III") sorgen. Die Stromversorgung erfolgt über zwei 8-polige EPS-Stecker.


Das Lüftungssystem nutzt zwei aktive Lüfter, acht 8-mm-Heatpipes und große Kühlkörper. Es bietet zudem zwei Besonderheiten: Nach dem Einschalten des Rechners saugen die Lüfter erst einmal 30 Sekunden Staub vom Kühlkörper, danach wird die Drehrichtung geändert und der Lüfter pustet wieder. Und bei freiem Blick in das PC-Gehäuse wechseln die beiden Rotoren des Lüftungssystems ab einer Temperatur von 45 Grad Celsius ihre Farbe von Blau zu Weiß.

Overclocker ermöglicht MSI die unabhängige Konfiguration von Core-, Memory- und Gesamtspannung in Echtzeit. Zudem lassen sich alle wichtigen Spannungen und Clock-Einstellungen beobachten. Über integrierte Temperaturchips können zudem alle wichtigen Temperaturen von GPU/Speicher und MOSFET getrennt ausgelesen werden. Leicht zugängliche Spannungsmesspunkte ("V-Check Points") ermöglichen es, die exakten Spannungswerte von GPU, Clock Gen und Speicher per Multimeter auszulesen.

Der Standardausbau von GTX580-Grafikkarten liegt bei 1,5 GByte, mehr Speicher bringt aber selbst mit aktuellen grafisch aufwendigen Spielen kaum Vorteile. Anders sieht das bei SLI-Konfigurationen aus zwei oder mehr Grafikkarten aus, die für sehr hohe Auflösungen und aktive Kantenglättung eingesetzt werden.

Die MSI N580GTX Lightning XE ist laut Hersteller ab sofort für einen empfohlenen Verkaufspreis von 555,- Euro lieferbar. Bei Händlern ist sie laut Preisvergleichsdiensten zwar noch nicht vorrätig, aber zumindest Alternate will sie binnen 48 Stunden für 549 Euro liefern können.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia: Quad-Core-Tegra Kal-El hat fünften "Stromsparkern"
« Antwort #237 am: 21 September, 2011, 16:34 »
Mit einem zusätzlichen Informationshäppchen will Nvidia das Interesse am kommenden Quad-Core-ARM-SoC Kal-El wachhalten, der noch vor dem Jahresende in Tablets zu kaufen sein soll. Der vermutlich als Tegra 3 erscheinende Kombiprozessor besitzt laut einem Blog-Eintrag und einem Whitepaper (PDF-Datei) nicht bloß vier Cortex-A9-Kerne, sondern gleich fünf. Der fünfte ist besonders sparsam und ausschließlich dann aktiv, wenn keiner der anderen Kerne läuft. Durch diesen Trick will Nvidia besonders lange Akkulaufzeiten erreichen.

Doch auch wenn alle vier Kal-El-Kerne mit 1 GHz Taktfrequenz laufen, sollen sie sparsamer sein als die beiden Kerne der Konkurrenten Texas Instruments OMAP4 oder Qualcomm MSM8660 – gleichzeitig verspricht Nvidia aber annähernd doppelte Rechenleistung im Coremark-Benchmark. Die komplette Leistungsaufnahme der ARM-SoCs inklusive ULP-GeForce-GPU und weiteren integrierten Prozessoren und Controllern verrät Nvidia dabei weiterhin nicht, sondern nur den Energiehunger der CPU-Teile: Dazu zieht Nvidia die Leistungsaufnahme unter Last von jener bei ruhendem System ab. Die vier Kal-El-Kerne schlucken demnach bei 1 GHz zusammen 1,261 Watt. Für die Dual-Core-Konkurrenten TI OMAP4 und Qualcomm MSM8660 hat Nvidia hingegen höhere Werte ermittelt, wobei letzterer etwas höher getaktet wurde, um einen vergleichbaren Coremark-Wert zu liefern. Der Coremark-Wert des Kal-El bei 1 GHz – möglicherweise kommen auch schnellere Versionen – liegt dabei sogar etwas höher als bei den ersten Angaben im Februar, vermutlich dank besserer Compiler-Optimierung.



Nvidia hat die Konkurrenten OMAP4 und MSM8660 nicht zufällig ausgewählt, sondern diese ARM-SoCs gehören zu den wenigen, die Microsoft für die Spezialversion von Windows 8 auserkoren hat. Mit der Kal-El-Folgeversion Kal-El+ will Nvidia sogar in den Notebook-Markt einsteigen. In einem weiteren Whitepaper erläutert Nvidia, weshalb sich Quad-Cores besonders gut für Mobilgeräte eignen.

Das Konzept mit dem fünften Kern hat sich Nvidia nach eigenen Angaben patentieren lassen. Den besonders sparsamen Kern baut Nvidia aus sparsameren Transistoren auf, die aber nicht so hohe Schaltfrequenzen erreichen können wie jene der vier schnellen Kerne. Der gesamte Chip wird wie sein Vorgänger Tegra 2 (Tegra 250) mit 40-Nanometer-Technik bei TSMC produziert. Mehrere Auftragsfertiger bieten separate Herstellungsprozesse für Low-Power- oder für High-Performance-Transistoren an. Auch AMD und Intel nutzen für ihre ARM-Konkurrenten C-50/Ontario, E-350/Zacate oder Atom-SoCs spezielle Low-Power-Fertigungsprozesse.

Die Angaben von Nvidia zur Leistungsaufnahme der Cortex-A9-Kerne decken sich grob mit Angaben, die ARM 2009 veröffentlicht hat. Demnach sollen zwei A9-Cores bei 2 GHz mit 1,9 Watt auskommen, ebenfalls bei 40-nm-Fertigung von TSMC. Leider lässt sich kaum abschätzen, wie hoch der Leistungsbedarf der restlichen Funktionseinheiten eines Kal-El liegt. Zum Vergleich: Für den Tablet-Atom Z670, den Intel unter Android als leistungsfähiger einschätzt als einen Tegra 250, nennt der Hersteller 3,75 Watt TDP im Verbund mit dem Ein-Chip-"Chipsatz" SM35.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Zotac Geforce GT 520 PCI bringt alten PCs DirectX 11 bei
« Antwort #238 am: 29 September, 2011, 15:50 »
Zotac hat eine neue Grafikkarte für den aussterbenden PCI-Steckplatz angekündigt. Die Zotac Geforce GT 520 PCI ist für alte Rechner, Kompakt-PCs und Heimkino-PCs (HTPC) gedacht.

Zotac hat zwei neue Varianten der Zotac Geforce GT 520 angekündigt: eine mit PCI-Schnittstelle und eine für PCI Express x1 (PCIe x1). Beide sollen für Besitzer älterer PCs, Kleinst-PCs oder HTPCs interessant sein. Dazu tragen auch die niedrige Bauform (Low-Profile Design) und die passive Kühlung der Single-Slot-Karte bei.

Der DirectX-11-fähige Geforce-GT-520-Grafikprozessor wird mit 810 MHz getaktet und verfügt über 48 Shadereinheiten (1.620 MHz). 512 MByte DDR3-Speicher (1.333 MHz) sind über ein 64-Bit-Speicherinterface an die GPU angebunden.


Die Grafikkarten bieten je einen HDMI-Ausgang, einen DVI-I-Ausgang und einen VGA-Ausgang. Mit einem beiliegenden DVI-nach-VGA-Adapter kann auch ein zweiter analoger Monitor angeschlossen werden. Eine Ausgabe auf zwei Bildschirmen gleichzeitig (Dual-Monitor-Betrieb) wird unterstützt. Über die HDMI-Schnittstelle kann die Grafikkarte auch 8-Kanal-Ton ausgegeben.

Die Grafikkarten sind von Zotac nur für Windows 7 zertifiziert. Sie dürften aber auch problemlos mit Windows XP oder Vista funktionieren, da Nvidia hierfür noch Treiber anbietet.

Preise und Verfügbarkeiten für die Zotac Geforce GT 520 PCI und die Zotac Geforce GT 520 PCIe x1 hat der Hersteller noch nicht angegeben.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD Radeon HD 7000 - Wohl definitiv nicht mehr in diesem Jahr
« Antwort #239 am: 02 Oktober, 2011, 16:04 »
Bereits Mitte September hab es Gerüchte, laut denen AMD die neue Grafikkarten-Serie Radeon HD 7000 auf Anfang 2012 verschoben hätte. Damals wurde als Hauptgrund die starke Nachfrage nach den AMD Radeon HD 6000-Grafikkarten genannt, wegen der keine Eile notwendig sei, einen Nachfolger einzuführen. Außerdem gäbe es schon bei diesen Modellen Probleme, alle Bestellungen aufgrund von Kapazitätsproblemen bei der Herstellung zu bedienen.

Laut Fudzilla sieht die Lage allerdings etwas anders aus. Zwar heißt es auch hier, dass vor dem 1. Quartal 2012 nicht mit den neuen Radeon HD 7000-Grafikkarten zu rechnen ist, doch der Grund sei die schlechte Ausbeute bei der problematischen Herstellung mit 28-nm-Strukturen bei TSMC und Globalfoundries.

Zwar sei es theoretisch denkbar, dass AMD dennoch Ende 2011 die neuen Modelle vorstellt, im Handel dürften sie aber laut Fudzilla dann noch einige Zeit nicht zu finden sein. Dieser Schritt seitens AMD wäre aber unlogisch, da sich nach der Vorstellung neuer Modelle die älteren Grafikkarten schlagartig schlechter verkaufen würden.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )