Autor Thema: Neue Grafikkarten von AMD und Nvidia  (Gelesen 25576 mal)

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD präsentiert Radeon HD 6950 und HD 6970
« Antwort #210 am: 15 Dezember, 2010, 07:12 »

Die Radeon HD 6970 kommt mit sechs- und
achtpoligem Stromanschluss und belegt
zwei Steckplätze.
AMD präsentiert gut drei Wochen nach dem ursprünglich anberaumten Termin die Radeon HD 6950 und 6970. Beide High-End-Grafikkarten bringen 2 GByte schnellen GDDR5-Speicher mit. Die Radeon HD 6950 soll es laut AMD ab rund 270 Euro geben, die HD 6970 werde ab 340 Euro erhältlich sein. Ihre 3D-Performance reicht auch für moderne DirectX-11-Spiele aus. Filmfreunde freut die Videoeinheit UVD3, die sich auch für Blu-ray-Filme mit stereoskopischen Inhalten eignet. Zudem beherrscht sie MPEG4-Part 2 für die beschleunigte Wiedergabe von DivX- und Xvid-Videos.

Beide Grafikkarten setzen auf den Cayman-Grafikchip, der im Unterschied zu seinen Vorgängern eine effizientere Shader-Architektur (VLIW4 ohne Special Function Unit) bietet und von zwei Graphics Engines und somit zwei Tessellation-Einheiten angetrieben wird. Somit lassen sich die Shader-Rechenkerne besser auslasten – die neuen Cayman-Grafikchips erzielen dadurch eine höhere 3D-Leistung, auch wenn sie insgesamt weniger Shader-ALUs als die Vorgänger haben. Die reine Tessellation-Leistung soll im Vergleich zur Radeon HD 5870 deutlich steigen (bis Faktor 3).



Die 1536 Shader-Rechenkerne der Radeon HD
6970 sind in 24 SIMD-Einheiten organisiert.
Cayman-GPUs werden im 40-Nanometer-Verfahren gefertigt und bestehen aus 2,64 Milliarden Transistoren. Auf der Platine der Radeon HD 6950 sitzt eine Variante mit 1408 Shader-Prozessoren, welche mit 800 MHz rechen und somit theoretisch bis zu 2,25 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit erreichen können (DP: 563 TFlops). 88 Textureinheiten und 32 (verbesserte) Rasterendstufen stehen den Shader-Kernen zur Seite. Über 256 Datenleitungen ist der 2500 MHz (Read/Write-Clock) flinke GDDR5-Speicher angebunden. Beim Chip der Radeon HD 6970 legt AMD noch einige Einheiten drauf: 1536 Shader-Kerne (24 SIMD-Engines) und 96 Textureinheiten hat er insgesamt, die Zahl der Rasterendstufen bleibt bei 32. Außerdem laufen die Grafikeinheiten 10 Prozent schneller (880 MHz) als bei der Radeon HD 6950 – der Speicher arbeitet sogar mit 2750 MHz.


EQAA erweitert bereits aktives Multisampling
Antialiasing um einige Speicherplatz sparende
Coverage-Samples.
Neben dem bereits von den HD-6800-Karten bekannten Morphological Antialiasing spendiert AMD der HD-6900-Serie einen weiteren Kantenglättungsmodus: Enhanced Quality Antialiasing (EQAA) ist über das Catalyst Control Center aktivierbar und funktioniert im Ansatz ähnlich wie Nvidias Coverage Sampling (CSAA). EQAA erweitert bereits aktives Multisampling Antialiasing um einige Speicherplatz sparende Coverage-Samples, mit denen die störenden Treppeneffekte an Polygonkanten noch besser und mit nur einem geringen Plus an Rechenaufwand geglättet werden sollen.

Hinsichtlich der Bildqualität des anisotropen Filters hat AMD im Vergleich zur HD-6800-Serie nichts geändert und bestätigte dies auch auf Nachfrage. Übergänge zwischen verschiedenen Filterstufen kaschiert der Algorithmus gut. Jedoch kommt es in seltenen Fällen zu wahrnehmbarem Texturflimmern. Gegenüber heise online erklärte das Unternehmen, AMDs Treiberteam arbeite derzeit an einer treiberseitigen Lösung. Vor Mitte Januar erwartet man aber keine Resultate.


Die Radeon HD 6950 ist 27,5 Zentimeter lang
und arbeitet im Leerlauf sehr leise.
Wer in 3D-Spielen auf einen kräftigen Leistungsschub im Vergleich zur Vorgängergeneration gehofft hat, wird enttäuscht sein. In anspruchsvollen Spielen ist die Radeon HD 6950 oft nur geringfügig schneller als die bereits seit über einem Jahr erhältliche Radeon HD 5870. Im DirectX-11-Spiel Battlefield Bad Company 2 rechnen die genannten Karten gleichschnell und stellen bei maximaler Detailstufe in der Full-HD-Auflösung (1920×1080) 55 Bilder/s (fps) bei vierfacher Kantenglättung und sechzehnfachem anisotropen Filter dar. Eine Radeon HD 6970 kommt bei gleichen Einstellungen auf 60 fps, Nvidias GeForce GTX 570 (66 fps) und GTX 580 (76 fps) sind dabei deutlich schneller. Bei Metro 2033 ist die Radeon HD 6950 um bis zu 15 Prozent flotter als die HD 5870, das ist jedoch die Ausnahme. Die Radeon HD 6970 ist in Spielen gut 10 Prozent fixer als die HD 6950. Im Vergleich zu Nvidias GTX 570 ist sie je nach Anwendung mal geringfügig schneller (Metro 2033, Crysis), mal langsamer (Dirt 2).

Im Leerlauf ist die Leistungsaufnahme der Radeon HD 6950 und HD 6970 mit 20 beziehungsweise 22 Watt vergleichsweise gering. Durchschnittlich 113 Watt (Peak: 195 Watt) verbrauchte unser Testexemplar der HD 6950 beim Spielen, die HD 6970 verheizte durchschnittlich sogar 157 Watt (Peak: 248 Watt). Zum Vergleich: Eine Radeon HD 5870 gibt sich mit rund 120 Watt zufrieden. Die Lüfter beider Referenzkarten arbeiten dann dank reduzierter Taktfrequenzen und Spannungen von Grafikchip und Speicher auch sehr leise (0,3 Sone), im 3D-Betrieb jedoch waren sie aber klar wahrnehmbar (1,4/2,2 Sone).

Mithilfe von PowerTune will AMD die Grafikkarten-Leistungsaufnahme bei Stresstests in Grenzen halten.

Für die 6900er-Serie führt AMD außerdem eine auf PowerTune getaufte Technik ein, welche die maximale Leistungsaufnahme des Grafikchips künstlich begrenzt. Übersteigt etwa die Leistungsaufnahme den hinterlegten Maximalwert, reduziert PowerTune automatisch die Taktfrequenz des Grafikchips. Im Normalfall schreitet Powertune bei einer Leistungsaufnahme von 250 Watt (HD 6970) beziehungsweise 200 Watt (HD 6950) ein, die Grenze lässt sich über den AMD-Treiber aber noch um 20 Prozent nach oben verschieben – wichtig für Übertakter. PowerTune limitiert vor allem bei synthetischen Stresstests, etwa beim Perlin-Noise-Test von 3DMark Vantage. In unseren Tests kam es mit der Radeon HD 6970 aber auch beim DirectX-11-Spiel Metro 2033 bei 2560×1600 Bildpunkten und maximaler Bildqualität zu kurzzeitigen Drossellungen, die sich aber nur im Nachkommabereich auf die Bildrate auswirkten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
DirectX-11-Grafikkarte für PCI-Steckplatz
« Antwort #211 am: 23 Dezember, 2010, 17:44 »
Ist zwar keine High-End Karte aber Leute mit alten Rechnern oder als Zweitkarte vielleicht ganz interessant ....




HIS bietet die erste DirectX-11-fähige Grafikkarte
für den alten PCI-Steckplatz an.
Für den altehrwürdigen PCI-Steckplatz bietet Hersteller HIS eine zu DirectX 11 kompatible Radeon HD 5450 an. Auf der Platine der Low-End-Grafikkarte sitzt ein Cedar-Grafikchip (650 MHz) mit 80 Shader-Rechenkernen und einer UVD-2-Videoeinheit, die auch bestimmte HD-Formate dekodieren kann. Der 1000 MHz schnelle und 512 MByte große DDR3-Speicher ist mit 64 Datenleitungen angebunden. Durch die geringe Leistungsaufnahme kommt die Grafikkarte ohne Lüfter aus und passt dank ihres Low-Profile-Bauformates auch in sehr kleine Gehäuse. Zwei Slotblenden sind im Lieferumfang enthalten.

Neben einem Dual-Link-DVI- und VGA-Anschluss sitzt auch eine HDMI-Buchse am Slotblech. Damit lässt sich beispielsweise eine Verbindung mit einem HD-Fernseher herstellen. Maximal zwei Displays lassen sich gleichzeitig nutzen. Bislang ist die Karte noch nicht in Deutschland erhältlich. In den USA ist sie für rund 95 US-Dollar gelistet, in einem norwegischen Internet-Shop für umgerechnet 96 Euro auf Lager. Herkömmliche PCI-Express-Varianten der Radeon HD 5450 gibt es bereits ab 30 Euro.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: DirectX-11-Grafikkarte für PCI-Steckplatz
« Antwort #212 am: 24 Dezember, 2010, 01:09 »
Die könnte ich als AGP brauchen...
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline Dippes

  • VIP-Cubie
  • *****
  • Beiträge: 1277
  • Öfters mal da
Re: DirectX-11-Grafikkarte für PCI-Steckplatz
« Antwort #213 am: 24 Dezember, 2010, 08:12 »
schade das sowas nicht als nvidiakarte gibt
Mein Rechner

Win7 Ultimate,GeForce GT g40,Gigabyte GA-EP43-UD3L ,CPU Typ   DualCore,Intel Core 2 Duo E6750, 2666 MHz (8 x 333),Arbeitsspeicher 4096 Mb,

Festplatten: SAMSUNG SP2004C (186 GB),SAMSUNG SP1614C (149 GB),SAMSUNG HD501LJ (465 GB)

Soundkarte: PCIe Sound Blaster X-Fi Xtreme Audio


Mein VDR

Wohnzimmer VDR: Testing yavdr 0.5.0 | Origen 16V | Cine S2 v6.2 + DuoFlexS2| ASRock H81M-HDS | 4 Gig Ram | Intel Celeron G1820 | GT 630 Zotac 1 Gig DD3 | X 10 Medion + Harmony 300 | SanDisk SDSSDP-064G-G25 64GB | Harddisk 3,0 TB | Panasonic TX-P46S20E
Schlafzimmer VDR: yavdr 0.5.0 |HTPC-DE02 |Nova HD S2 | Asus F2A55-M | 4 Gig Ram | AMD FM2 A6-5400K (3 ghz) | GT 630 Zotac 1 Gig DD3 | X 10 Medion | Intel SSD 320 40 GB | Harddisk 3,0 TB | Philips 4000 serie 26"

Pogoplug Pro

1 x Sundtek SkyTV IV für Netzwerk Streaming

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 6950 lässt sich zur HD 6970 machen
« Antwort #214 am: 27 Dezember, 2010, 12:33 »
Vor einigen Wochen hat AMD seine neuen Grafikkarten Radeon HD 6950 und 9670 in den Handel gebracht. Wie seit einigen Jahren üblich, sind die beiden Modelle baugleich, jedoch werden für das kleinere und günstigere Modell Funktionen deaktiviert. Dieser Vorgang lässt sich rückgängig machen.

Beim Hersteller wird in den meisten Fällen nach der Platzierung der GPU entschieden, welches Modell am Ende entstehen soll. AMD verwendet zwei Methoden, um die Deaktivierung diverser Funktionen zu realisieren. Entweder wird das VGA BIOS entsprechend eingestellt, oder es wird eine spezielle Sicherung in der Hardware verbaut. Letztere Variante lässt sich nicht einfach entfernen. Der Austausch des BIOS dagegen ist relativ einfach.


Auf der Grafik kann man den Aufbau der GPU erkennen. Der rot eingerahmte Bereich markiert die Shader, die bei einer Radeon HD 9650 deaktiviert sind. Wie 'Techpowerup' herausgefunden hat, sind alle Modelle der Radeon HD 9650, die derzeit verkauft werden, über ein neues BIOS in eine Radeon HD 9670 umwandelbar. Normalerweise ist dies lediglich bei Vorserienmodellen möglich, die zu Testzwecken verteilt werden.

Techpowerup stellt eine Anleitung bereit, die erklärt, wie man das VGA BIOS austauscht. Zudem werden verschiedene BIOS-Varianten zum Download bereitgestellt. Man sollte jedoch beachten, dass man durch Fehler beim Flashen des BIOS dafür sorgen kann, dass die Grafikkarte unbrauchbar wird. Zudem verliert man sämtliche Gewährleistungsansprüche.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
KFA2 GeForce GTX460 WHDI: Drahtlose Grafikkarte
« Antwort #215 am: 14 Januar, 2011, 16:29 »
Die europäische Premiummarke KFA2 des Grafikkartenherstellers Galaxy hat mit der KFA2 GeForce GTX460 WHDI 1024MB PCIe 2.0 die erste Grafikkarte für Desktop-PCs vorgestellt, die das Bild per WLAN auf mehrere Displays bringt.

Im Grunde genommen handelt es sich um eine normale Nvidia GeForce GTX460 Grafikkarte, deren Prozessor mit 675 Megahertz taktet. Die Shadereinheiten arbeiten mit 1350 MHz, während der Speicher mit 900 MHz läuft. Die Karte hat 1024 Megabyte Speicher, der über eine 256-Bit-Interface angebunden ist.

Die Besonderheit ist die Möglichkeit, die Bildschirminalte mit Hilfe der WHDI-Technologie der Firma AMIMOMS drahtlos an entsprechende Display zu übertragen. Dazu ist die Grafikkarte mit immerhin fünf Antennen ausgestattet. Es soll damit möglich sein, Full-HD-Video über einen Abstand von bis zu 30 Metern auf ein hochauflösendes Display zu bringen, wobei HDCP-Unterstützung gegeben ist.


KFA2 liefert die GTX460 WHDI Grafikkarte zusammen mit einem WHDI-Empfänger aus, der an das jeweilige Display angeschlossen wird. Neben der WHDI-Übertragung ist auch der kabelgebundene Anschluss mehrerer Monitore per DVI-, HDMI- oder Mini-USB-Ausgang möglich.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Gainward: Geforce GTX 580 mit 3 GByte Grafikspeicher
« Antwort #216 am: 21 Januar, 2011, 12:17 »
Gainward will in Kürze eine Geforce-GTX-580-Grafikkarte mit 3 GByte Grafikspeicher anbieten. Das entspricht einer Verdopplung des Arbeitsspeichers, was durch ein eigenes Boardlayout möglich ist.

Gainwards Geforce GTX 580 3072MB Phantom ist die laut Hersteller bisher einzige GTX-580-Grafikkarte mit 3 GByte Speicher, üblich sind 1,5 GByte. Vom größeren Speicher profitiert allerdings nur, wer bei sehr hohen Auflösungen - etwa 2.560 x 1.600 Pixel - mit maximalen Details, aufwendiger Kantenglättung und anisotrophischer Filterung spielt. Dann sollen die Vorteile des größeren Speichers aber umso deutlicher ausfallen.

Die über einen 384-Bit-Bus angebundenen 3 GByte GDDR5-Speicher taket Gainward mit 2.010 MHz. Die 512 CUDA-Kerne der Fermi-GPU GF110 werden mit 783 MHz und die Shader-Einheiten mit 1.566 MHz getaktet. Im Vergleich zu den Referenz-Grafikkarten liegen die Taktraten damit nur einen Hauch höher.


Im Vergleich zum Referenzdesign von Nvidia soll Gainwards Geforce GTX 580 3072MB Phantom leiser arbeiten. Dazu setzt Gainward auf ein Kühlsystem mit drei 8-cm-Lüftern, sechs Heatpipes und großem Kühlkörper. Im 2D-Modus soll die Geräuschemission damit bei 33,3 statt 39,6 dB liegen. Unter Last, also im 3D-Modus, scheint der Abstand nicht mehr so groß zu sein, hier macht Gainward keinen Lautstärkevergleich sondern spricht nur noch von einer deutlich besseren Kühlung und geringeren GPU-Betriebstemperaturen.

Es werden die üblichen Ausgänge geboten, zweimal Dual-Link-DVI-I, einmal Displayport und einmal HDMI. Ein DVI-zu-VGA-Adapter liegt der PCI-Express-2.0-Grafikkarte bei.

Laut Gainward Deutschland wird die Geforce GTX 580 3072MB Phantom ab Ende Januar/Anfang Februar 2011 ausgeliefert. Zum Preis wollte der Hersteller auf Nachfrage noch nichts sagen.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia enthüllt GeForce GTX 560 Ti
« Antwort #217 am: 25 Januar, 2011, 15:53 »
Nvidia bietet die GeForce GTX 560 Ti nun als dritten Vertreter der GeForce-500-Grafikkartenserie an. Die Referenzkarte ist 23 Zentimeter lang und belegt durch ihr Kühlsystem zwei Gehäusesteckplätze. Im Vergleich zur GeForce GTX 460 ist sie rasend schnell und konkurriert hinsichtlich der 3D-Performance sogar mit der Radeon HD 5870, die bis vor kurzem noch AMDs schnellste Single-GPU-Grafikkarte war.

Auf der GeForce GTX 560 Ti werkelt ein GF114-Grafikchip mit 384 Shader-Rechenkernen – also ein vollausgebauter GF104-Grafikchip der GTX-460-Serie. Außerdem laufen die Kerne mit 1644 MHz deutlich flinker als die 336 des GF104, sodass der GF114 eine theoretische Rechenleistung von 1,26 Milliarden Gleitkommaoperationen pro Sekunde erreicht. Außerdem beherbergt der Grafikchip unter anderem noch 64 Textureinheiten, die FP16-Texturen in einem Rutsch verarbeiten, und 32 Rasterendstufen. Zunächst wird die GeForce GTX 560 mit 1 GByte schnellem GDDR5-Videospeicher ausgeliefert, der über 256 Datenleitungen ausreichend flink mit dem Chip kommunizieren kann.

In aktuellen DirectX-Spielen ist die GeForce GTX 560 Ti zwischen 30 und 40 Prozent schneller als die 1-GByte-Variante der GeForce GTX 460 und bewegt sich im Vergleich mit der AMD-Konkurrenz in etwa auf dem Leistungsniveau der Radeon HD 5870. Die GeForce GTX 570 ist wiederum durchschnittlich 15 Prozent flinker als die GTX 560 Ti. In 3DMark 11 schafft eine GeForce GTX 560 Ti in der Performance-Voreinstellung rund 4250 Punkte, eine HD 5870 ein paar Punkte weniger, eine HD 6950 knapp 4900.

Nvidia hat die Leistungsaufnahme der GeForce GTX 560 Ti im Leerlauf gut in den Griff bekommen: lediglich 15 Watt verheizt sie im Windows-Betrieb – und ist mit dem Referenzkühlsystem bei 0,3 Sone kaum zu hören. Im Dual-Monitor-Betrieb waren es nur ein paar Watt mehr, sofern der zweite Bildschirm mit der gleichen Auflösung und Bildwiederholfrequenz angesteuert wird, sonst giert die GeForce nach 60 Watt. In Spielen verheizt sie mit durchschnittlich 135 Watt (0,6 Sone) noch mehr als die Radeon HD 5870 oder HD 6950.

Die GeForce GTX 560 Ti kostet rund 240 Euro und steuert bis zu zwei Displays gleichzeitig an, eine Radeon HD 5870 gibt es bereits für 20 Euro weniger.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD zeigt Dual-GPU-Karte Radeon HD 6990 "Antilles"
« Antwort #218 am: 27 Januar, 2011, 15:02 »
In Japan hat AMD auf einer Veranstaltung erstmals den letzten noch erwarteten Vertreter der Serie Radeon 6000 gezeigt. Die Grafikkarte mit zwei GPUs ist sehr groß ausgefallen, dürfte aber die Spezifikationen gerade noch erfüllen.

Wie auf den von 4Gamer.net veröffentlichten Bildern der Radeon HD 6990 zu sehen ist, kommt AMDs nächste High-End-Karte mit einer 6-poligen und einer 8-poligen PCIe-Buchse aus. Zusammen mit dem Slot kann sie so maximal 300 Watt Leistung aufnehmen, was die Spezifikationen auch vorschreiben.

Die halten inzwischen aber andere Grafikkarten, allen voran die Asus Ares, ohnehin nicht mehr ein. Vermutlich hat AMD deshalb die beiden Stromports im Referenzdesign voneinander abgesetzt, um Grafikkartenherstellern mit eigenen Entwicklungen noch Spielraum zu lassen.

Ob die bisher auch unter dem Codenamen "Antilles" geführte Karte noch in aktuelle Gaming-Gehäuse passt, ist noch nicht abzusehen - Vergleichsmaßstäbe zur Länge gibt es nicht. Schon die 5970, AMDs letzte Dual-GPU-Karte, ist mit knapp 31 Zentimetern für viele Rechner zu lang. Erkennbar ist aber immerhin die Bestückung mit Displayschnittstellen: einmal DVI und viermal Mini-Displayport hat AMD verbaut. Wie viele sich davon parallel nutzen lassen, ist noch nicht bekannt.

Konkrete technische Daten zur "Antilles" nannte AMD auch bei der Vorstellung der Grafikkarte in Japan nicht. Da schon eine Radeon 6970 mit einer GPU bis zu 250 Watt aufnehmen darf, müssen die Taktfrequenzen der baugleichen Grafikprozessoren auf der 6990 deutlich unter den 880 MHz der 6970 liegen. Wann das neue High-End-Monster auf den Markt kommt, steht noch nicht genau fest. AMD hatte den Termin dafür vom vierten Quartal 2010 auf das erste Quartal 2011 verschoben.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia: Hinweise auf Geforce GTX 550 und GTX 590 mit Dual-GPU
« Antwort #219 am: 17 Februar, 2011, 12:49 »
In Betatreibern von Nvidia finden sich Einträge für zwei neue, noch nicht angekündigte Grafikkarten. Besonders interessant ist die GTX 590, mit der Nvidia angeblich AMD den Marktstart der Radeon 6990 vermiesen will.

In einem bei Nvidia nicht veröffentlichten Treiber mit der Versionsnummer 266.7x hat VR-Zone Einträge für die Grafikkarten "GTX 550 Ti" und "GTX 590" gefunden. Solche Betatreiber enthalten oft die Produktbezeichnungen künftiger Modelle sowie deren Device-ID, weil diese Treiber unter anderem für den Test von noch nicht vorgestellten Geräten vorgesehen sind.

In Nvidias aktuellem Namensschema der Serie GTX 500 würde das Modell 550 Ti eine langsamere und vermutlich günstigere Grafikkarte darstellen, über die GTX 590 darf frei spekuliert werden. VR-Zone geht, auch anhand kurz von EVGA gezeigter Prototypen, von einer Karte mit zwei GF110-GPUs aus. Sie soll mit 3 GByte und zwei 8-poligen Strombuchsen versehen sein und damit die PCIe-Spezifikationen überschreiten, da sie über 300 Watt elektrischer Leistung aufnehmen kann. Das ist mittlerweile nicht mehr unüblich, solche Grafikkarten hat unter anderem Asus bereits auf den Markt gebracht.

Bereits seit längerem gibt es zudem unter anderem von Nordichardware verbreitete Gerüchte, dass Nvidia an einer GTX 590 mit zwei GPUs arbeitet. Diese soll so lange zurückgehalten werden, bis AMD seine verschobene Radeon HD 6990 mit zwei Grafikprozessoren vorstellt. Der Nvidia-Konkurrent gibt dafür bisher nur einen nicht genauer festgelegten Termin im ersten Quartal 2011 an.

GTX 590 kurz vor der Radeon HD 6990?

Schon bei der GTX 580 hatte Nvidia die Grafikkarte äußerst kurzfristig angekündigt, um dem Marktstart von AMDs Serie Radeon HD 6900 zuvorzukommen. Das Unternehmen gab damals selbst an, die Karte sei als "Überraschung" geplant gewesen. Das könnte nach den Nvidia-Traditionen auch mit der GTX 590 so ablaufen.

Schon seit Jahren baut Nvidia nämlich Dual-GPU-Karten nur im Notfall, wenn AMD gerade die schnellste Grafikkarte der Welt stellt. Die GTX-295 war der letzte solche Fall, als AMD mit der 4870 X2 vorne lag. AMD ist hier berechenbarer und führt seit vier Generationen Dual-GPU-Karten als Standardprodukte in seinen Roadmaps. Daneben gibt es aber immer wieder Eigenentwicklungen der Grafikkartenanbieter, die auch ohne den Segen der Chiphersteller zwei GPUs auf einer Karte vereinen.

Für beide Anbieter gilt: Die Dual-GPU-Karten sind mehr Prestigeprodukt für Presse und kompromisslose Hardwarefans als wesentlicher Umsatzträger. Zwar sind die Margen hoch, die Stückzahlen aber im Vergleich zu Mittelklassekarten verschwindend gering, wie immer wieder von Kartenherstellern zu hören ist.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Radeon HD 6990: Leistung um jeden Preis
« Antwort #220 am: 08 März, 2011, 12:46 »
AMD stellt die Radeon HD 6990 als derzeit schnellste Dual-GPU-Grafikkarte vor. Auf ihrer Platine sitzen zwei Cayman-Grafikchips mit jeweils 1536 Shader-Rechenkernen, die mit 830 MHz (1,12 V) um 50 MHz langsamer laufen als auf der Radeon HD 6970. Beide GPUs zusammen bieten eine theoretische Rechenleistung von 5,1 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher beziehungsweise 1,27 TFlops bei doppelter Genauigkeit. Jedem Grafikchip stehen 96 Textureinheiten und 64 Rasterendstufen zur Seite. 2-mal 2 GByte GDDR5-Speicher sind je über 256 Datenleitungen angebunden und arbeiten mit 2250 MHz (Read/Write-Clock). Laut AMD soll die Grafikkarte durchschnittlich 67 Prozent schneller sein als Nvidias Single-GPU-Grafikkarte GeForce GTX 580.

Wahrlich gigantisch ist die Leistungsaufnahme der Grafikkarte: Über zwei achtpolige Stromstecker darf sie bis zu 375 Watt aufnehmen, laut AMD sind es in der Praxis 350 Watt. Doch auch die Radeon HD 6990 besitzt wie ihre Single-GPU-Pendants einen kleinen Schalter an der Kartenseite, über den sich bei der Dual-GPU-Grafikkarte jedoch ab Werk ein Overclocking-BIOS (GPU: 880 MHz, 1,175 V) aktivieren lässt. Dann zieht die Grafikkarte laut AMD beim Spielen rund 415 Watt, der Treiber begrenzt die HD 6990 bei 450 Watt – sie läuft dann aber so oder so deutlich über der PCIe-Spezifikation. AMD unterstreicht daher, dass mit dem Umlegen des Schalters die Garantie verlorengeht.

Im Leerlauf zieht die Radeon HD 6990 nach AMD-Angaben 37 Watt. Bis zu fünf Displays gleichzeitig steuert die Grafikkarte über 4 Mini-DisplayPort- und einen Dual-Link-DVI-Anschluss an. Die Karten werden mit zwei passiven MiniDP-Adaptern für DVI und HDMI sowie einem aktiven Adapter zu Single-Link-DVI ausgeliefert. Die Radeon HD 6990 soll rund 550 Euro kosten. Nvidias Konkurrenzkarte, die GeForce GTX 590 mit zwei GF110-GPUs, dürfte noch etwas auf sich warten lassen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidias Mittelklasse: GeForce GTX 550 Ti
« Antwort #221 am: 15 März, 2011, 14:22 »
Nvidia enthüllt heute die GeForce GTX 550 Ti als Nachfolger der erst rund 6 Monate alten GeForce GTS 450. Die neue Mittelklasse-Grafikkarte ist zu DirectX 11 kompatibel und setzt auf einen GF116-Grafikchip mit 192 Shader-Rechenkernen, die mit 1800 Mhz laufen – die GF116-GPU mitsamt ihrer 32 Textureinheiten und 24 Rasterendstufen werkelt mit 900 MHz. Laut Nvidia soll der Grafikchip zudem sehr übertaktungsfreudig sein. Zum Vergleich: Der GF106-Chip der GTS 450 läuft mit 783 MHz und besitzt 8 Rasterendstufen weniger.

Insgesamt 1 GByte Speicher (2050 MHz) bindet Nvidia über 192 Datenleitungen an, bei der GTS 450 sind es 128. Entsprechend höher fällt die Datentransferrate aus, mit der Grafikchip und Speicher miteinander kommunizieren: schaffte eine GTS 450 noch 57,6 GByte (1800 MHz), sind es bei der GTX 550 Ti fast schon 100 GByte/s.

116 Watt elektrische Leistung soll die Grafikkarte unter Last aufnehmen und ist daher auch auf einen zusätzlichen, sechspoligen PCIe-Stromstecker angewiesen. Nvidia empfiehlt zum Betrieb der Karte mindestens ein 400-Watt-Netzteil. Die GeForce GTX 550 Ti wird etwa von Asus, EVGA, Gainward, Galaxy, Gigabyte, KFA2, Palit, PNY und Zotac angeboten. All jene belegen durch ihre Kühlsysteme insgesamt zwei Gehäusesteckplätze.

In Spielen soll die GeForce GTX 550 Ti zumeist etwas schneller sein als die Konkurrenzkarte Radeon HD 5770 von AMD. Allerdings ist letztere bereits ab 100 Euro zu haben, während die GeForce GTX 550 Ti in Abhängigkeit des Boardpartners mindestens 140 Euro kosten soll. Im Preisvergleich sind bereits erste Karten gelistet. AMD plant anscheinend bereits in Kürze die Radeon HD 6790 als Konkurrenzkarte zu veröffentlichen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia Geforce GTX 590 - Vorstellung auf den 24. März verschoben?
« Antwort #222 am: 19 März, 2011, 16:43 »
Die Vorstellung der Nvidia Geforce GTX 590 soll verschoben worden sein.

Die Vorstellung der neuen Nvidia Geforce GTX 590 wird allgemein für den 22. März erwartet, soll nun jedoch kurzfristig auf den 24. März verschoben worden sein. Ursprung dieser Mitteilung ist die asiatische Webseite Xfastest, die sich dabei auf »Branchenquellen« bezieht. Einen Grund für die vermeintliche Verschiebung um zwei Tage kann aber auch Xfastest nicht nennen.

Die Nvidia Geforce GTX 590 soll gegen das AMD-Flaggschiff Radeon HD 6990 antreten. Laut inoffiziellen Informationen ist die Geforce GTX 590 mit zwei GF110-Grafikchips mit insgesamt 1.024 Shader-Einheiten ausgestattet. Die Taktrate der GPUs soll etwas über 600 MHz liegen, die Shader dürften damit über 1.200 MHz schnell sein.

Der insgesamt 3.072 MByte große GDDR5-Videospeicher ist über zwei 384-Bit-Interfaces angeschlossen und wird laut Gerüchten mit effektiv 3.400 MHz betrieben. Die Stromversorgung übernehmen zwei 8-Pin-Anschlüsse, der maximale Stromverbrauch soll bei 375 Watt liegen.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GeForce GTX 590: Nvidias Watt-Monster für 640 Euro
« Antwort #223 am: 24 März, 2011, 15:58 »
Nvidia präsentiert mit der GeForce GTX 590 ihre bislang schnellste Grafikkarte. Auf ihrer Platine sitzen zwei vollausgebaute GF110-Chips mit je 512 Shader-Rechenkernen, die allerdings im Vergleich zu ihren Verwandten auf der GeForce GTX 580 mit niedrigerer Taktfrequenz und Spannung arbeiten, um die Leistungsaufnahme noch im technisch möglichen Bereich zu halten.

Beide GF110-Chips mitsamt ihrer 64 Textureinheiten laufen mit 607 MHz, die Shader-Rechenkerne entsprechend mit der doppelten Taktfrequenz. Jede GPU kann auf jeweils 1536 MByte GDDR5-Speicher zugreifen, der mit 1707 MHz rund 300 MHz langsamer läuft als jener auf der GTX 580. Der Speicher ist mit 384 Datenleitungen angebunden – die hohe Datentransferrate von knapp 164 GByte/s für jede GPU reicht auch für sehr hohe Auflösungen mitsamt fordernder Kantenglättungseinstellungen aus. Für die Kommunikation der GPUs untereinander sorgt ein NF200-PCIe-Switch von Nvidia.


Das frisch erschienene Crysis 2 läuft auf der GTX 590 selbst bei 2560×1600 Pixeln mit 60 fps.


Nvidias GeForce GTX 590 steht in direkter Konkurrenz zur vor Kurzem vorgestellten Radeon HD 6990 von AMD, auf der zwei Cayman-Grafikchips arbeiten. Allerdings ist Letztere in wichtigen Disziplinen weiterhin schneller als die neue Nvidia-Karte. In den DirectX-11-Spielen Battlefield Bad Company 2 und Metro 2033 produziert die Radeon HD 6990 je nach Auflösung um 5 bis 8 Prozent höhere Bildraten. Bei 2560 × 1600 Bildpunkten wird die Nvidia-Karte in Metro 2033 allerdings deutlich um knapp 20 Prozent abgehängt (36 : 43 fps). Beim Rennspiel Dirt 2 ist wiederum die GeForce flinker. In 3DMark Vantage (Voreinstellung: Extreme) erreicht die GTX 590 in unseren Tests 19134 Punkte, die HD 6990 18266. Bei 3DMark 11 wendet sich das Blatt, hier schafft die HD 6990 3257 Punkte, die GTX 590 nur 2666 (Voreinstellung: Extreme), eine GTX 580 noch 1937 Punkte.

Mit Hilfe ihrer beiden 8-poligen Stromstecker darf die GeForce GTX 590 bis zu 375 Watt verheizen, Nvidia veranschlagt die TDP der Karte bei 365 Watt. Im Spielbetrieb maßen wir durchschnittlich 324 Watt – und damit sogar mehr als bei der Radeon HD 6990. Dafür macht der Nvidia-Lüfter mit 2 Sone weniger Krach. Im anspruchsvollen Perlin-Noise-Test von 3DMark06 verheizte die Karte durchschnittlich gar 394 Watt und wurde mit 4 Sone auch sehr laut. Die während unserer Tests höchste, kurzzeitig gemessene Spitzenleistungsaufnahme lag bei 502 Watt – Rekord. Im Leerlauf (0,6 Sone) maßen wir 55 Watt, bei zwei angeschlossenen Displays sogar über 100 Watt. Nvidia empfiehlt für den Betrieb der Grafikkarte ein 700-Watt-Netzteil.

Die GeForce GTX 590 wird von Nvidias Boardpartnern für rund 640 Euro erhältlich sein.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
AMD - Streit um »die schnellste Grafikkarte der Welt«
« Antwort #224 am: 26 März, 2011, 11:45 »
Als AMD seine Radeon HD 6990 vorstellte, bezeichnete die Presseerklärung die neue Dual-GPU-Radeon »die schnellste Grafikkarte der Welt«. Genau das Gleiche hat nun Nvidia bei der Vorstellung seiner neuen Geforce GTX 590 gemacht. AMD hat nun in einem Blog-Beitrag dazu Stellung genommen.

Während man selbst Belege für die Behauptung, die Radeon HD 6990 sei die schnellste Grafikkarte der Welt, vorgebracht habe, könne man bei Nvidia dafür keinerlei Grundlage entdecken. Auch Vergleiche mit Standard-Benchmarks wie 3DMark 11 fehlten.

Doch die Behauptung, die Geforce GTX 590 sei nun die schnellste Grafikkarte der Welt, widerspreche vielen Tests der Grafikkarte von bekannten Webseiten wie HardOCP, Hexus und anderen. Daher fordert Dave Erskine, der Senior PR-Manager für den Grafikbereich bei AMD, Nvidia dazu auf, die Aussagen nicht nur zu machen, sondern auch zu belegen.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )