Autor Thema: Neue Grafikkarten von AMD und Nvidia  (Gelesen 25570 mal)

0 Mitglieder und 3 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GeForce GTX 690: Nvidia lässt Kepler-Flaggschiff vom Stapel
« Antwort #270 am: 30 April, 2012, 16:55 »
Nvidia hat am Wochenende mit der Ankündigung des neuen Grafikkarten-Flaggschiffs GeForce GTX 690 überrascht, auf der zwei Kepler-Chips sitzen. Die insgesamt 3072 Shader-Kerne arbeiten mit 915 MHz etwas langsamer als bei der Single-Chip-Karte GeForce GTX 680 (1006 MHz). Per Boost-Funktion können sie dynamisch auf bis zu 1019 MHz hochtakten. Den GK104-GPUs stehen jeweils 2 GByte GDDR5-Speicher zur Seite, der über 256 Datenleitungen an die Chips angebunden ist. Die Speichertaktfrequenz der GeForce GTX 690 belässt Nvidia auf dem Niveau der GTX 680 von knapp über 3 GHz.

Nach Herstellerangaben beträgt die Thermal Design Power der PCIe-3.0-Grafikkarte 300 Watt. Über den PEG-Slot und die beiden 8-poligen Stromstecker kann sie bis zu 375 Watt elektrische Leistung beziehen. Entsprechend groß ist das Kühlsystem dimensioniert: Auf den GPUs sitzen zwei Vapor-Chamber-Kühler, die die Abwärme zu den Kühllamellen transportieren. Zwischen die Lamellenpakete platziert Nvida einen Axiallüfter.

Monitore lassen sich an drei Dual-Link-DVI-Buchsen und per Mini-DisplayPort (Version 1.2) anschließen. Für die momentan leistungsfähigste Grafikkarte muss man tief ins Portmonee greifen. Die GeForce GTX 690 kostet rund 900 Euro, soll in kleinen Dosen ab 3. Mai und wenige Tage später auch in größeren Stückzahlen erhältlich sein. Konkurrent AMD wird wohl in Kürze nachziehen und die Grafikkartenserie Radeon HD 7000 um das Dual-GPU-Modell Radeon HD 7990 erweitern.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nach der Ankündigung und Präsentation der extrem teuren Dual-GPU-Karte GeForce GTX 690 für knapp 1000 US-Dollar und dem kurz bevorstehenden Start der GeForce 670 in den nächsten Wochen gibt es Berichte, dass sich die für Gamer interessanten Modelle der GeForce-GTX-660-Serie bis ins dritte Quartal verzögern werden.

So soll nVidias neue Mid-Range-Grafikkarte GeForce 660Ti als Nachfolgemodell der sehr erfolgreichen GeForce 560Ti erst in circa einem halben Jahr, also sogar am Ende des dritten Quartals, erhältlich sein. Viel Zeit also für AMD, mit der Radeon-HD-7800-Serie Geld zu verdienen. nVidia reagiert vorerst wohl nur mit vorsichtigen Preissenkungen für die auslaufenden GeForce-GTX-500-Modelle. Diese sind im Handel bereits zu sehen. So ist der Preis für eine Geforce GTX 580 bereits auf circa 360 Euro gefallen. Eine GTX 570 kostet aktuell noch circa 230 Euro. Das ist in etwa die Preisregion, die später von der neuen GeForce GTX 660 Ti angepeilt wird.

Als relativ sicher gilt, dass auf der GeForce GTX 660Ti ein teildeaktivierter GK104-Grafikchip zum Einsatz kommen wird. Während nVidia das High-End-Segment also mit der GeForce GTX 670, GeForce GTX 680 und der Dual-GPU-Karte GeForce GTX 690 bald mit insgesamt drei neuen Modellen versorgen kann und der OEM-Markt bereits mit günstigen neuen Karten versorgt wurde, fehlen in der neuen Produktpalette vorerst alle Angebote für den wichtigen mittleren Preisbereich zwichen 100 und 300 Euro. Informationen zur GeForce-GTX-650-Serie und einer GTX 660 ohne Ti-Kürzel sind zudem bisher sehr dünn gesäht; ein weiteres Zeichen, dass ein Release wohl noch länger auf sich warten lassen wird.

Die wahrscheinlichen technischen Daten einer GeForce 660 Ti:

    CUDA-Cores: 1152
    TMUs: 96
    ROPs: 24
    Basis-Takt: 1006 MHz
    Speicher-Takt: 6008 MHz effektiv
    Speicher: 1536 MB GDDR5
    Speicher-Interface: 192-bit
    Single-Precision Computing power: 2.35 TFLOPS
    TDP: circa 150 W
    Geschätzter Einführungspreis: $249

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia GeForce GTX 670: Pixel-Geschoss für Spieler
« Antwort #272 am: 10 Mai, 2012, 19:00 »
Nvidia präsentiert mit der zu DirectX 11.1 kompatiblen GeForce GTX 670 die kleine Schwester seines im März vorgestellten und rund 10 Prozent schnelleren Single-GPU-Flaggschiffs GeForce GTX 680. Auch die GTX 670 setzt auf eine im 28-Nanometer-Verfahren gefertigte GK104-GPU, bei der allerdings nur sieben statt acht SMX-Rechenblöcke aktiv sind. Insgesamt enthält sie also 1344 Shader-Rechenkerne und 112 Textureinheiten, um die 3D-Engines moderner Spiele zu beschleunigen. Sie laufen mit 915 MHz und dürfen sich laut Spezifikation auf bis zu 980 MHz übertakten, sofern die von Nvidia vorgegebene Leistungsaufnahmegrenze nicht überschritten wird. Unsere Referenzkarte erreichte in manchen Spielen sogar bis zu 1045 MHz Turbo-Takt.

Anbindung und Taktfrequenz des 2 GByte fassenden GDDR5-Speichers belässt Nvidia auf GTX-680-Niveau. Er läuft mit 3004 MHz, kommuniziert über 256 Datenleitungen mit der GPU und erreicht somit eine Datentransferrate von 192 GByte/s. Das genügt für sämtliche modernen Spiele und Einschirmauflösungen. Und selbst im Multimonitorbetrieb, den die Karte in Spielen mit bis zu drei Full-HD-Displays gleichzeitig beherrscht, geht sie erst im Zusammenspiel mit Supersampling-Kantenglättung in die Knie.

In 3DMark 11 erreicht die GeForce GTX 670 knapp 8100 Punkte, eine GeForce GTX 680 noch fast 10 Prozent mehr. AMDs Radeon HD 7950 liegt abgeschlagen bei 6651 Punkten und selbst die HD 7970 kommt nicht an dieses Ergebnis heran (7639). In Spielen muss sich eine Radeon HD 7950 zwar ebenfalls geschlagen geben, liegt aber meist nicht so weit zurück, wie es der 3DMark vermuten ließe. Bei den Anno-Titeln 1404 und 2070, Dirt 3 sowie Metro 2033 ist die GTX 670 in Full HD rund 10 Prozent schneller als eine HD 7950. Bei noch höheren Auflösungen nähern sich beide Karten an. Bei den derzeitigen Top-Titeln Batman Arkham City und Battlefield 3 zeigt Nvidia, was in ihrem Treiberteam steckt – hier erreicht die GTX 670 zwischen 20 und 30 Prozent höhere Bildraten als die 7950. Dann muss sich meist sogar AMDs Topmodell Radeon HD 7970 geschlagen geben.

Die Leistungsaufnahme ist für die gebotene Performance dank der 28-Nanometer-Chips und der effizienten Kepler-Architektur vergleichsweise gering. Im Leerlauf schluckt die GeForce GTX 670 15 Watt und säuselt mit 0,3 Sone, bei Spielen verheizt sie durchschnittlich 141 Watt. Der Radiallüfter ist dann hörbar (1,5 Sone), stört aber nicht. Im Vergleich mit einer Referenz-HD-7950 ist sie in Spielen ähnlich laut.

Die GeForce GTX 670 bringt auch die moderne MSDEC-3-Videoeinheit sowie den Hardware-Video-Transcoder NVENC für das H.264-Format mit. Sie wird unter anderen von den Herstellern ASUS, EVGA, Gainward, Gigabyte, MSI und Zotac für rund 400 Euro erhältlich sein.



Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10878
  • Ich liebe dieses Forum!

Kepler für Grafik und Rechenanwendungen
(Bild: Nico Ernst/Golem.de)
Zur Eröffnung der Konferenz GTC hat Nvidia-Chef Jen-Hsun Huang mit dem GK110 seine neue GPU vorgestellt. Der riesige Chip soll Supercomputer und Workstations mit bis zu 2.880 Rechenwerken beschleunigen - aber erst Ende 2012 als Tesla K20.

Eigentlich war sie mit besonderer Spannung erwartet worden: die Keynote-Ansprache von Nvidia-Mitbegründer und -Chef Jen-Hsun Huang. Schon im Vorfeld sickerte dann aber durch, dass Huang zur Eröffnung der dritten Ausgabe der GPU Technology Conference (GTC) den neuen Chip Kepler GK110 vorstellen werde, und dass dieser aus etwa 7 Milliarden Transistoren bestehe. Auch Nvidia selbst nannte die Zahl eher beiläufig in den vorab an Journalisten verteilten Unterlagen.

Was Huang dann aber auf der Bühne des San Jose Convention Center zeigte, hatte so kaum jemand erwartet - vor allem, weil die zahlreichen neuen Funktionen nicht für die nun erhältlichen Kepler-GPUs und die erste für Rechenanwendungen vorgesehene Karte Tesla K10 gelten, sondern nur für die GPU GK110, die erst im vierten Quartal 2012 auf den Markt kommen soll. GK110 basiert zwar auf der Kepler-Architektur, die auch für die Spielegrafikkarten verwendeten GK104 (Geforce GTX-670, 680, 690) haben mit der neuen GPU aber nur wenig zu tun.

GK110 ist nicht, wie bei früheren Nvidia-Chips, nur ein Ableger der Spiele-GPU mit mehr Rechenwerken, die bei Nvidia Cuda-Cores heißen. Vielmehr gibt es zwar mehr von diesen Einheiten - wie viele hat Nvidia noch nicht verraten -, aber vor allem drei neue Funktionen, die einige der größten Probleme bei GPU-Computing lösen sollen.

Die erste ist "Hyper-Q". So nennt Nvidia die Tatsache, dass der neue Kepler nun von 32 Threads der CPU gefüttert werden kann. Bisher waren GPUs immer dadurch limitiert, dass sie nur über einen Thread mit Befehlen und Daten versorgt werden konnten. Nun, so sagte Huang, könnten auch 32 physikalische Kerne einer CPU gleichzeitig eine einzelne Kepler-GPU ansteuern.


Die Tesla K20 wird die erste Karte mit den neuen Funktionen. (Fotos: Nico Ernst)

Zwar beherrschten die verschiedenen Schnittstellen, auch DirectX, schon die Verarbeitung von GPU-Befehlen mit mehreren Threads, die GPU selbst war aber immer auf die serielle Übergabe der parallel zu bearbeitenden Daten angewiesen. Diese Beschränkung wird nun aufgehoben, was dafür sorgen soll, dass die GPU immer so weit wie möglich ausgelastet werden kann.

Das klappt auch anders herum: Über eine Cuda-Schnittstelle kann eine CPU mehrere GPUs mit nur einem Thread ansprechen. Das funktioniert unter anderem durch "GPU Direct". Über das Netzwerk - Tesla-Karten stecken in der Regel in Servern - haben die GPUs direkten Zugriff auf den Speicher ihrer Kollegen. Bisher war dafür immer das Kopieren in den Hauptspeicher über die CPU nötig, was viel Zeit gekostet hat.

Als zweite Neuerung gibt es "Dynamic Parallelism". Damit kann die GPU mehr eigene Kernels und Threads in ihrem Speicher starten, um Verschachtelungen aufzulösen. Diese "nested loops" machten bisher immer wieder die Mithilfe der CPU nötig, zum Beispiel durch die Cuda-Treiber. Nested Loops lassen sich nicht immer vermeiden, etwa wenn gezielt mehrere Berechnungen von ihren Ergebnissen untereinander abhängig sind.

Die GPU kann das nun ohne Zutun der CPU erledigen und die Verschachtelungen selbst auflösen. Dabei muss sich aber, wie Nvidia später erklärte, der Programmierer selbst um den immer knappen GPU-Speicher kümmern. Die neuen Kernels und Threads, die dynamisch gestartet werden, können so weit anwachsen, dass die GPU Daten in den Hauptspeicher per PCIe auslagern muss - das System wird langsamer. Das gilt es zu erkennen und einzugreifen, von sich aus soll Cuda dabei keine Fehler melden, sondern weiterrechnen.


Bilderstrecke; Nested Loops kann die GPU nun wie rechts zu sehen selbst auflösen.

Als dritten, besonders wichtigen Baustein für GK110 nannte Jen-Hsun Huang die Streaming Multiprocessor, SM, wie Nvidia seine SIMD-Einheiten aus mehreren Cuda-Cores nennt. Bisher war ein SM bei Fermi aus 32 Rechenwerken aufgebaut, nun sind es 192. Das war dem Unternehmen gleich die neue Bezeichnung SMX wert. Im Endeffekt ist das aber auch schon bei den Spiele-Keplers so, hier sind ebenfalls mehr Rechenwerke unter einem Kontrollprozessor zusammengefasst, was den Verwaltungsaufwand der SMs untereinander reduziert.

Bis zu 15 SMX-Einheiten soll GK110 besitzen, wie Nvidias Supercomputerexperte Sumit Gupta nach der Vorstellung der Architektur in einem Roundtablegespräch sagte. Das ergibt 2.880 Rechenwerke, fast doppelt so viele wie die 1.536 Cuda-Cores des aktuellen GK104. Das gilt aber noch nicht für die Karte Tesla K20, die Jen-Hsun Huang zuvor auf einem Bild zeigte. Hier sollen es Gupta zufolge nur 13 oder 14 SMX sein, also 2.496 oder 2.688 Rechenwerke.

Genau wollten sich mehrere Nvidia-Mitarbeiter nicht festlegen, was auch für die Leistungsaufnahme der Beschleunigerkarten gilt. Für den kleineren Tesla K10, der noch im Mai 2011 ausgeliefert werden soll, gelten 225 bis 250 Watt TDP. Den genauen Wert, so betonte Sumit Gupta, legen die Hersteller der Geräte fest.

Auch zum Speicherausbau ist noch nicht das letzte Wort gesprochen. "Wir werden so viel Speicher hinter den 384-Bit-Bus klemmen, wie uns die DRAM-Industrie bereitstellen kann. Wie viel das sein wird? Wenn es 8 GByte sind, wird auch das schnell zu klein sein. Es gibt einfach nie genug Speicher", sagte Huang.

In einem Punkt ist sich der Nvidia-Chef aber bereits sicher: "Ich habe gestern Abend nochmal nachgesehen: Das ist der komplexeste Chip, der in Serie hergestellt wird. Auf Platz zwei kommt dann ein FPGA von Xilinx mit 6,8 Milliarden Transistoren. Dann folgen viele GPUs, und die komplexeste CPU ist ein Westmere von Intel mit 2,5 Milliarden Transistoren." Dafür hatte sich Huang vermutlich am Eintrag 'Transistor Count' der englischen Wikipedia orientiert.

Wieder einmal sind die Pläne des Unternehmens, das schon oft sehr große Chips mit entsprechenden Problemen bei der Fertigungsausbeute entwickelt hat, sehr ehrgeizig. Ob sie aufgehen, soll sich im vierten Quartal 2012 zeigen, dann wird der GK110 auf der Karte Tesla K20 ausgeliefert. Nur damit gibt es die hier beschriebenen neuen Funktionen, die früher verfügbare K10 kann damit noch nicht aufwarten.

Quelle: www.golem.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
nVidia: GeForce-GTX-600-Serie kämpft mit Treiberproblemen
« Antwort #274 am: 21 Mai, 2012, 19:40 »
Trotz eigentlich ausreichender Leistungsreserven kann es bei nVidias neuester Grafikkartengeneration bei bestimmten Einstellungen zu einer ruckelnden Darstellung kommen. nVidia gibt Tipps, wie man das Problem umgehen kann, und verspricht Abhilfe mit einem der nächsten Treiberupdates.

Das Problem wird demnach durch die neue GPU-Boost-Technik in Kombination mit der vertikalen Synchronisation (kurz VSync) verursacht. Bis zum Treiberupdate sollten Spieler, die das Problem auf ihrem System feststellen, also auf die vertikale Synchronisation verzichten. Funktionierende Alternativen sind jedoch in einigen Spielen vorhandene Ingame-Framelimitter oder die Virtual-Vsync-Technik von Lucidlogix Virtu MVP Chips.

Endgültige Abhilfe verspricht nVidia dann mit der nächsten Treibergeneration; eine Möglichkeit, die höchstwahrscheinlich für das Problem verantwortliche GPU-Boost-Technik vorübergehend zu deaktivieren, gibt es übrigens nicht.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
nVidia: GeForce GT 640 jetzt auch für den Einzelhandel
« Antwort #275 am: 05 Juni, 2012, 13:20 »
Nachdem bereits vor einigen Wochen ganze drei Grafikkarten mit der Bezeichnung "GeForce GT-640" für Erstausrüster vorgestellt wurden, gibt es nun eine vierte Version exklusiv für den Einzelhandel. Diese ist, anders als im Vorfeld spekuliert, scheinbar aus Kostengründen mit recht langsamem DDR-3-Speicher bestückt.

Mit einer modernen "Kepler"-GK-107-GPU und 1 oder 2 GB DDR-3-Speicher geht also das Retail-Modell der GeForce GT 640 an den Start. Mit einem Chiptakt von 900 MHz und einem Speichertakt von 891 MHz (1782 MHz effektiv) entspricht die Einzelhandels-Version nicht ganz der schnellsten Variante für Erstausrüster (OEMs). Diese wurde mit schnellem GDDR-5Speicher und einem Chiptakt von 950 MHz deutlich besser bestückt. Allerdings gibt es im OEM-Markt auch zwei langsamere Grafikkarten, die nVidia ebenfalls unter dem Namen GeFoce GT 640 an den Kunden bringen will.

Kunden eines Komplett-PCs mit einer GeForce GT 640 müssen also, zumindest wenn sie Interesse an aktuellen Spielen haben, genauer hinsehen. Käufer einer GeForce GT 640 in der für den Einzelhandel bestimmten Version erhalten währenddessen eine Karte, die dank ihrer 384 Streamprozessoren und des mit 900 MHz recht hohen GPU-Takts immerhin für Spiele in niedrigen und mittleren Auflösungen ausreichend schnell sein dürfte. Die ersten Tests werden sich sicherlich noch diese Woche im Netz finden. Die Leistung dürfte aber, ähnlich wie auch die Preisgestaltung der meisten Boardpartner, circa auf einem Level mit AMDs Radeon HD 7750 liegen, die, wie AMD gestern ankündigte, immerhin in einer zweiten Version 100 MHz mehr GPU-Takt spendiert bekommen soll. In hohen Auflösungen dürfte die AMD-Karte jedoch aufgrund des besseren Speichers wieder einen Vorteil besitzen.

Wie AMDs Radeon HD 7750 benötigt auch nVidias neue Einstiegskarte keinen zusätzlichen Stromanschluss und soll unter Vollast circa 65 Watt konsumieren. Der Idle-Verbrauch liegt im Referenzdesign bei circa 15 Watt und fällt somit im Konkurrenz-Vergleich etwas schlechter aus.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10878
  • Ich liebe dieses Forum!

Die GHz-Edition der Radeon HD 7850 (Bild: AMD)
Noch im Juni 2012 plant AMD unbestätigten Angaben zufolge eine Neuauflage der Radeon HD 7970, bei der die GPU über 1 GHz erreichen soll. Auf Basis dieser GPU namens Tahiti 2 soll dann auch die verspätete Radeon HD 7990 erscheinen.

Auf der Computex will Semiaccurate erfahren haben, dass AMD an einer neuen Version seiner GPU mit dem Codenamen Tahiti arbeitet. Die erste Tahiti kam auf den Radeon HD 7970 und 7950 im Referenzdesign auf maximal 925 MHz, Tahiti 2 soll 1.050 bis 1.075 MHz erreichen. Wie schon bei der Radeon HD 7850, die als "GHz Edition" erschien, will AMD Tahiti 2 als GHz-Edition der Radeon HD 7970 vermarkten.

Den höheren Takt soll die GPU nicht nur durch strengere Selektion des inzwischen recht rund laufenden 28-Nanometer-Prozesses bei TSMC erreichen, sondern auch durch ein neues Stepping des Chips. Da die Tahiti-GPUs inzwischen über ein halbes Jahr in Serie gefertigt werden, ist eine solche Überarbeitung nach dieser Zeit in der Halbleiterbranche durchaus üblich.

Da die Leckströme dabei verringert werden konnten, geht Semicaccurate von einer ähnlichen oder minimal höheren Leistungsaufnahme der Grafikkarte aus. Noch im Juni soll sie von allen namhaften Herstellern angeboten werden, Preise sind jedoch noch nicht bekannt.

Das Warten auf Tahiti 2 soll auch der Grund sein, warum die ursprünglich im ersten Quartal erwartete Radeon HD 7990 mit zwei GPUs noch nicht erschienen ist. AMD will die überarbeitete GPU auf dieser Grafikkarte einsetzen, mit welchen Takten, steht aber noch nicht fest. Um die GTX-690 von Nvidia auch nur zu erreichen, braucht der Radeon-Hersteller jedes MHz.

Quelle: www.golem.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10878
  • Ich liebe dieses Forum!
AFDS 2012: 4-TFlops-Grafikkarte für Workstations
« Antwort #277 am: 15 Juni, 2012, 11:19 »

AMDs Firepro W9000: mit drei Lüftern
Gestern erst hat AMD die Firepro W600 mit der neuen Tahiti-Architektur präsentiert, heute legte Cheftechnologe Mark Papermaster auf der Abschlussveranstaltung der Fusion Developer Conference noch einmal nach. Mit 4 TFlops Spitzenperformance bei einfacher Genauigkeit soll die Firepro W9000 in der Leistungsgegend einer Nvidia Tesla K10 liegen (4,6 TFlops), aber mit 1 TFlops deutlich mehr Performance bei doppelter Genauigkeit bieten. Für DP ist Nvidias Tesla K10 allerdings mit nur etwa 190 GFlops nicht ausgelegt, sondern erst die für Ende des Jahres angekündigte auf Kepler-GK110 beruhende Tesla K20. Beide sind aber Server-GPU-Karten und nicht für Workstations gedacht. Wann Nvidia entsprechende Quadro-Karten mit Kepler-Architektur für High-Performance-Workstations analog zu den Tesla K10/20-Karten herausbringen will, ist noch unklar.

Wie die Firepro W600 auch, kann die Firepro W9000 6 Displays ansteuern. Gleich drei 92-mm-Lüfter sind nötig, um die mit 1 GHz GPU-Takt laufenden Karte zu kühlen. Der DDR5-Speicher ist 6 GByte groß; er wird über ein 384-Bit-Interface angesprochen. Weitere Feinheiten zur Firepro W9000, etwa zum Energiebedarf, will AMD erst zur SIGGRAPH im August bekannt geben.

Quelle: www.heise.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GHz-Edition: AMD bringt aufgebohrte Radeon HD 7970
« Antwort #278 am: 22 Juni, 2012, 06:15 »
Eine aufgebohrte Variante der vor einem halben Jahr vorgestellten Radeon HD 7970 präsentiert AMD als "GHz Edition". Sie soll die GeForce GTX 680 von Nvidia durch erhöhte GPU- und Speichertaktfrequenzen in Spielen übertrumpfen. Die Karte ist zu DirectX 11.1 kompatibel und bringt 3 GByte Speicher mit, der mit 3 GHz läuft. Die 2048 Shader-Rechenkerne packen 4,3 Billionen Gleitkommaoperationen pro Sekunde bei einfacher Genauigkeit, bei doppelter Genauigkeit noch ein Viertel davon. Mehr Rechenkraft bietet derzeit keine Single-GPU-Grafikkarte.

AMD behauptet, bei der Radeon HD 7970 GHz Edition nun – wie Nvidia bei der GeForce GTX 670 und 680 – eine Turbo-Funktion implementiert zu haben. So beträgt die Standard-Taktfrequenz des Grafikchips 1000 MHz, die Boost-Frequenz 1050 MHz. Das ist 75 beziehungsweise 125 MHz schneller als die GPU der herkömmlichen Radeon HD 7970 läuft. In der Praxis rechnet die Grafikeinheit aber nahezu immer mit vollen 1050 MHz, beim Belastungstest Furmark aber lediglich mit 1000 MHz. Letztlich ist AMDs Turbo-Funktion nichts weiter als das altbekannte Powertune, das die GPU unter 1050 MHz drosselt, wenn die Leistungsaufnahme der Grafikkarte eine bestimmte Grenze überschreitet – laut AMD 250 Watt.

In Spielen ist die GHz-Edition rund 10 Prozent schneller als eine normale Radeon HD 7970. Sie bietet genügend Leistung, um alle aktuellen DirectX-11-Spiele bei 2560×1600 Bildpunkten ruckelfrei darzustellen. In vielen Titeln, etwa Anno 2070, Arkham City und Dirt 3, ist sie etwas flinker als Nvidias GeForce GTX 680. In Battlefield 3 ist die Nvidia-Karte bei maximaler Detailstufe und vierfacher Multisampling-Kantenglättung in Full HD rund 6 Prozent schneller, bei 2560×1600 Bildpunkten liegen beide gleichauf (40 fps). Im 3DMark 11 erreicht die Radeon HD 7970 GHz Edition 3033 Punkte in der Extreme-Voreinstellung.

Im Leerlauf ist die Karte vergleichsweise sparsam (13 Watt) und leise (0,4 Sone). Beim Spielen (206 Watt) ist sie mit 3,0 Sone aber viel zu laut. Im Furmark kommt sie sogar auf 4,7 Sone, ohne Powertune-Drosselung maßen wir unerträgliche 6,7 Sone. Überdies zirpte die Karte unter Last leicht.

Vier Displays lassen sich gleichzeitig an der Radeon HD 7970 GHz Edition betreiben. Dafür bietet sie zwei Mini-DisplayPorts, eine HDMI-Buchse und einen Dual-Link-DVI-Anschluss. AMD verlangt für die Karte 499 US-Dollar, einen Euro-Preis konnte die Firma noch nicht nennen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
nVidia: Neue Gerüchte zur GeForce GTX 660 und 660 Ti
« Antwort #279 am: 28 Juni, 2012, 18:30 »
Wer sich nVidias aktuelle Produktpalette anschaut, dem fällt direkt auf, dass im aktuellen Angebot der GeForce-600-Familie ein riesiges Loch zwischen der recht schwachen HTPC-Karte GeForce GT 640 und den schnellen aber teuren GTX 670- / 680- und GTX-690-Modellen klafft. Dieses soll wenig überrachend bald durch eine GTX 660 und GT(X) 650 geschlossen werden.

Recht wenig sinvolle Informationen findet man jedoch bisher zu den technischen Spezifikationen. So ist es wohl recht absehbar, dass der neue "GK106"-Grafikprozessor 768 Streamprozessoren besitzen wird und somit circa die halbe Performance des "GK104"-Chips einer GeForce GTX 680 aufweisen soll. Jedoch wäre eine solche Karte "nur" auf Augenhöhe mit einer AMD Radeon HD 7850. Als Konter zur Radeon HD 7870 wird aktuell daher eine weitere Karte mit teildeaktiviertem "GK104"-Grafikprozessor (GTX 670 und 680) gehandelt.

Erscheinen sollen die neuen Karten höchstwahrscheinlich bereits im Juli; genaue Informationen sind allerdings für einen so kurz bevorstehenden Marktstart erstaunlich rar gesäht. Preislich gilt es als wahrscheinlich, dass nVidia das neue "GK106"-Topmodell mit circa 1 GHz GPU-Takt und 768 Streamprozessoren als GeForce GTX 660 für circa 249 US-Dollar (umgerechnet 200,51 Euro) vermarkten wird. Eine GTX 660 Ti mit teildeaktiviertem "GK104"-Chip sollte dann für circa 299 US-Dollar (240,78 Euro) erhältlich sein und die Produktpalette komplettieren. Der für viele Spieler sehr interessante Preisbereich zwischen 100 und 200 US Dollar fällt somit wohl der GeForce GT(X)-650 Serie zu die wohl auch mit dem "GK106" Grafikprozessor jedoch in einer niedriger getakteten oder teildeaktivierten Version starten wird. Gerade bei dieser für Spieler wohl sehr interessanten Karte sind Informationen jedoch Mangelware. Auch zum Release-Termin finden sich kaum verlässliche Informationen.

Preisanpassungen bei nVidias Topmodell GeForce GTX 680 sind übrigens trotz kurz bevorstehendem Marktstart der Radeon HD 7970 GHz Edition eher unwahrscheinlich. Schließlich ist nVidias Single GPU-Topmodell immernoch in Schlagdistanz und liegt in einigen Spielen wie Battlefield 3 vor AMDs neuestem Angebot. Auch kann nVidia mit einer höheren Energieeffizienz und marketingwirksamen Zusatzfeatures wie nVidia PhysX punkten. Letzten Endes liegen die High-End-Modelle aus beiden Lagern in dieser Grafikkarten-Generation ohnehin so nah beieinander, dass wohl bei den meisten Kunden eher Markenpräferenzen und persönliche Vorlieben für eine Kaufentscheidung ausschlaggebend sein dürften.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10878
  • Ich liebe dieses Forum!
A New Dawn: Nvidias DX11-Elfe zum Download
« Antwort #280 am: 24 Juli, 2012, 10:34 »
Nvidia hat seine neue DirectX-11-Grafikdemo "A New Dawn" als ausführbare Datei veröffentlicht. Zuvor gab es die aufwendig berechnete Elfe nur in einem Video zu sehen.

Die DirectX-11-Techdemo "A New Dawn" kann nun auch auf dem eigenen Windows-Rechner ausgeführt werden. Nvidia stellt sie als ausführbare A-New-Dawn-Datei zum Download und nicht mehr nur als Video zur Verfügung.


Da die New-Dawn-Demo die Leistung der Dual-GPU-Grafikkarte Geforce GTX 690 demonstrieren soll, empfiehlt Nvidia für die optimale Darstellung auch zwei GPUs der GTX-600-Serie (Kepler) - zwei GTX 670 im SLI-Verbund sollten es mindestens sein. Nvidia rät mindestens zu einem Dual-Core-Prozessor ab 2,5 GHz Taktfrequenz und 4 GByte RAM. Die Demo ist für Vista oder Windows 7 ausgelegt.


Bilderstrecke: New Dawn - Screenshot aus Nvidias neuer Kepler- Grafikdemo (Bild: Nvidia)

A New Dawn zeigt eine Elfe in einem magischen Wald. Der liegt im Dunkeln, wird aber über verschiedene Lichtquellen stimmungsvoll beleuchtet. Die Elfe tauchte bereits 2002 in einer Nvidia-Demo auf, 2012 sieht sie unter anderem durch Tessellation, Sub-Surface Scattering und im Wind wehende Haare natürlicher aus.

Quelle: www.golem.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Nvidia will GeForce GTX 660 Ti am 16. August vorstellen
« Antwort #281 am: 27 Juli, 2012, 13:42 »
Nvidia plant derzeit, eine Performance-Grafikkarte namens GeForce GTX 660 Ti am 16. August vorzustellen, wie wir aus zuverlässigen Quellen erfuhren. Der Termin fällt damit auf den zweiten Veranstaltungstag der Spielemesse Gamescom, die vom 15. bis 19. August in Köln stattfindet. Die Grafikkarte wird – wie ihre große Schwester GeForce GTX 670 – 2 GByte Videospeicher mitbringen und zu DirectX 11.1 und OpenGL 4 kompatibel sein. Ihre Leistung reicht aus, um aktuelle DirectX-11-Spiele in der Full-HD-Auflösung 1920×1080 flüssig darzustellen.

Eine Bestätigung für die derzeit im Netz herumschwirrenden Spezifikationen steht aber noch aus: So soll der Grafikchip einer GeForce GTX 660 Ti laut der Webseite Sweclockers 1344 Shader-Rechenkerne enthalten und mit den gleichen Taktfrequenzen laufen wie eine GeForce GTX 670. Allerdings soll der Speicher nur mit 192 statt 256 Datenleitungen angebunden sein, was die Karte in Spielen im Vergleich zur GTX 670 ausbremsen würde.

Zum Marktstart werden einige Boardpartner bereits Varianten mit eigenen Kühldesigns und höheren Taktfrequenzen anbieten. Wieviel die GeForce GTX 660 Ti genau kosten soll, ist noch unklar. Gerüchten zufolge soll sie für rund 350 Euro über die Ladentheken gehen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
nVidia: GeForce GTX 660 Ti schneller als AMD Radeon HD 7950
« Antwort #282 am: 01 August, 2012, 13:09 »
Bereits seit langer Zeit gab es Gerüchte über die Spezifikationen zur kommenden GeForce GTX 660 Ti. Ein bereits heute veröffentlichter Test von Tweaktown bietet nun erste zuverlässige Ergebnisse. Insgesamt schlägt sich die Karte mehr als ordentlich.

Mit 1344 Stream-Prozessoren und im Vergleich zur GeForce GTX 670 unveränderten Taktraten kann die neue Karte sogar eine AMD Radeon HD 7950 knapp hinter sich lassen. Interessanterweise handelt es sich quasi um eine GTX 670 mit teildeaktiviertem Speicherinterface. So bietet die neue GTX 660 Ti "nur" ein Speicherinterface mit 192 Bit, während eine GTX 670 mit 256 Bit daher kommt, ein Nachteil, der sich nur bei extrem hohen Auflösungen oder Qualitätseinstellungen wirklich bemerkbar macht. Mit Immerhin 144,2 GB/s schlägt sich auch das 192-Bit-Speicherinterface der GTX 660 TI zusammen mit dem schnellen GDDR-5-Speicher in den meisten Fällen super.

Bereits gestern waren auf Facebook erste Benchmarks zu finden. So liefert eine GTX 660 Ti einen 3d-Mark-2011-Performance-Score von 8589 Punkten und landet somit deutlich vor einer Radeon HD 7870 mit 6788 Punkten und sogar knapp vor einer Radeon HD 7970 mit 8240 Punkten. Im Extrem-Preset verliert nVidias neueste Karte dann mit 2677 Punkten knapp gegen eine Radeon HD 7970 mit 2764 Punkten, schlägt eine Radeon HD 7950 mit ihren 2296 Punkten jedoch immer noch recht deutlich. Für alle Tests nutzte Tweaktown einen auf 4,7 GHz übertakteten Intel-Core-i7-3960X-Sechs-Kern-Prozessor in Kombination mit 16 Gigabyte DDR3-1866-Speicher auf einem ASUS-Rampage-IV-Extreme-Mainboard. Insgesamt schlägt sich nVidias neue Karte also sehr gut und das zu einem Verkaufspreis, der recht deutlich unterhalb einer GTX 670 liegen sollte. Als aktuelles Release-Datum ist der 16. August scheinbar gesetzt. Die Preise sollen in Deutschland bei circa 250 Euro liegen. Ein Angebot also, das Konkurrent AMD durchaus noch einmal zu Preissenkungen veranlassen sollte.

Später im Jahr sollten dann die für Spieler mit schmalerem Budget wohl interessanteren GTX-660- und GTS-650- und -650-Ti Karten auf den Markt kommen. Laut der türkischen Website Donanim Haber soll die GeForce GTS 650 für circa 100 bis 120 Euro am 17. September an den Start gehen.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
GeForce GTX 660 in ersten Komplett-PCs gesichtet
« Antwort #283 am: 05 August, 2012, 19:00 »
Nach Bekanntwerden eines Verkaufsstarts der neuen GeForce GTX 660 Ti am 16. August ist nun auch das non-Ti-Modell in Sichtweite. Genauer findet sich die Karte in einigen neuen Versionen von Alienwares Gamingrechner X51 (aktuell nicht lieferbar) und in einem Acer-Predator-Komplett-PC, dieser ist sogar in zwei Onlineshops angeblich ab sofort lieferbar.

So soll die kleinere der beiden GTX-660-Versionen ohne Ti-Kürzel über 1,5 GB Grafikspeicher verfügen. Das Speicherinterface und die Taktraten bleiben unangetastst. Neben weniger Speicher muss sich das non-Ti-Modell jedoch auch mit deutlich weniger Streamprozessoren begnügen. Während die Ti-Version mit 1344 Streamprozessoren bestückt ist, besitzt das non-Ti-Modell nur noch 1152 Streamprozessoren. Insgesamt sollte die GTX 660 also circa 15% langsamer arbeiten als das Ti-Modell. Der kleinere Grafikspeicher wirkt sich derweil bei aktuellen Spielen nur in sehr hohen Auflösungen, aus in denen die Rechenleistung einer einzelnen Grafikkarte meistens ohnehin keine spielbaren Bildwiederholraten mehr abliefern kann.

Bleibt also die interessante Frage nach den Preisen der beiden neuen Karten. Nach ersten Berichten, dass die GeForce GTX 660 Ti für circa 250 US-Dollar erscheinen soll, erscheint es nach neuesten Berichten und ersten Shoplistungen in den USA eher wahrscheinlich, dass dieser Preis einer normalen GTX 660 entspricht. Die Ti-Version sollte demnach für circa 300 US-Dollar in den Landen kommen und wird somit direkt gegen AMDs schwächere Radeon HD 7870 positioniert. Eine normale GTX 660 liegt dann preislich zwischen AMDs Radeon-HD-7850- und HD-7870-Karten, wobei die Spieleleistung durchaus auf einem Level mit AMDs Radeon HD 7870 liegen sollte. Circa einen Monat später, am 17. September, soll dann auch die GeForce GTS 650 in zwei Versionen (Ti und non-Ti) erscheinen und das Sortiment komplettieren.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wochen nach der Ankündigung einer höher getakteten Radeon HD 7750 verteilt AMD erste Testkarten. Die von AMDs für Testzwecke verteilten Karten verwendeten eine Referenzplatine sowie den Kühler der Radeon HD 7770; im Handel sollen sich dann in den nächsten Wochen im Wesentlichen Eigendesigns der Boardpartner finden.

Leider benötigt die höher getaktete Version der Radeon HD 7750 nun einen zusätzlichen 6-Pin-PCIe-Stromstecker vom Netzteil. Die Maximum Board Power steigt mit dem Taktupgrade zudem von 75 auf 83 Watt an. Unter typischer Spielelast verbraucht die Karte nach ersten Tests knapp 70 Watt und somit gut 15 Watt mehr als das Referenzdesign einer Radeon HD 7750 mit 800 MHz. Preislich finden sich die ersten Modelle mit 900 MHz GPU-Takt knapp unterhalb von 100 Euro wieder. Dank des Taktupdates ist die neue Version der Radeon HD 7750 circa 10 Prozent schneller und somit nun endlich in der Lage, nVidias alte GeForce GTX 550 Ti sowie die ebenfalls schon in die Jahre gekommene Radeon HD 5770/6770 knapp hinter sich zu lassen.

Gerade im HTPC-Bereich dürfte jedoch der zusätzlich benötigte Stromanschluss und der dank hoher TDP weit verbreitete Dual-Slot-Kühler nicht gerade einen Vorteil zur ursprünglichen Radeon HD 7750 mit 800 MHz darstellen. Wer jedoch eine sparsame und günstige Grafikkarte sucht, die auch aktuelle Spiele zumindest in mittleren Details problemlos darstellen kann, findet hier ein weiteres interessantes Angebot. nVidias neue GTS 650 lässt noch mindestens einen Monat auf sich warten (Marktstart angeblich am 17. September) und eine GT 640 wird bereits von der ersten Version einer Radeon HD 7750 mit 800 MHz GPU-Takt deutlich geschlagen. Alternativ gibt es jedoch für circa 15 Euro mehr breits eine wiederum circa zwanzig Prozent schnellere Radeon HD 7770. Die Pläne für eine ebenfalls 100 MHz höher getaktete Version der Radeon HD 7770 hat AMD übrigens mittlerweile begraben und verweist stattdessen auf die zahlreichen OC-Modelle der Boardpartner.

Die technischen Daten der Radeon HD 7750v2 im Überblick:

    GPU-Takt:   900 MHz
    Streamprozessoren:   512
    Speicher:   1 GB GDDR5
    Speichertakt:   1125 MHz 4500Mbps)
    Speicherinterface:   128 Bit
    MAX Board Power:   83 Watt

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )