Das Forum rund um DVB am PC, Handy und Tablet
Neuigkeiten:
Anzeigen der neuesten Beiträge
Übersicht
Forum
Hilfe
Einloggen
Registrieren
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Neue Grafikkarten von AMD und Nvidia
« vorheriges
nächstes »
Drucken
Seiten:
1
...
5
6
7
8
9
[
10
]
11
12
13
14
15
...
23
Nach unten
Autor
Thema: Neue Grafikkarten von AMD und Nvidia (Gelesen 25559 mal)
0 Mitglieder und 4 Gäste betrachten dieses Thema.
Snoop
Premium-Cubie
Beiträge: 795
Re: Nvidia - Geforce 300M-Serie angekündigt
«
Antwort #135 am:
31 Dezember, 2009, 12:20 »
Das, was NVidia da abzieht, klingt ziemlich verzweifelt. Wenn mich nicht alles täuscht, dann gibt es die Firma nicht mehr lange, weil sie insolvent werden ...
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia - Dual-Karte kurz nach GF100-Geforce?
«
Antwort #136 am:
12 Januar, 2010, 17:06 »
Die Gerüchteküche brodelt weiter. Nach zwei Geforce-Karten mit, die wohl Geforce GTX 360 und GTX 380 heißen sollen, könnte eine Dual-GPU-Karte folgen.
Laut Fudzilla sollen zwischen dem Erscheinen der Einzelkarten und der Dual-Karte ein oder zwei Monate vergehen. Dies würde vermutlich Mai bedeuten, wenn man März oder April als Erscheinungsdatum für die ersten DirectX-11-Karten von Nvidia annimmt und es keine weiteren Probleme gibt.
Doch gerade bei einer Dual-Karte könnte sich ein Problem andeuten, denn angeblich werden die neuen Grafikkarten mit dem Fermi-basierten GF100-Grafikchip heißer als die bisherigen DirectX-10-Karten von Nvidia. Fudzilla schreibt, man habe die Karte selbst bereits zwei Mal gesehen und sie sei trotz eines Dual-Slot-Kühlers recht heiß gewesen.
Eine Dual-Karte müsste aber, abgesehen von eventuellen Taktsenkungen, mit der doppelten Hitze zurechtkommen. Vielleicht werden die Vorab-Modelle des GF100 aber auch schlicht heißer als die fertigen Varianten, beispielsweise wegen einer höheren, benötigten Spannung für stabilen Betrieb.
Quelle :
www.gamestar.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
AMD Radeon HD 5670: DirectX 11 für unter 100 Euro
«
Antwort #137 am:
14 Januar, 2010, 08:17 »
AMD baut seine Serie DirectX-11-fähiger Grafikkarten weiter aus: Die Radeon HD 5670 ist für die meisten 3D-Spiele ausreichend und vergleichsweise sparsam. Sie eignet sich außerdem zur Wiedergabe von Blu-ray-Filmen und unterstützt unter anderem Dolby True HD und DTS HD Master Audio. Die Grafikkarte ist je nach Speicheraustattung ab 80 Euro (512 MByte) beziehungsweise 95 Euro (1024 MByte) zu haben. AMD stellte uns ein Referenzmodell vorab zur Verfügung, das nur einen Steckplatz belegt.
Auf der 17 Zentimeter langen Platine sitzt ein aus 627 Millionen Transistoren bestehender und mit 40-Nanometer-Strukturen gefertigter RV830-Grafikchip (Codename: Redwood), dessen 400 Shader-Prozessoren mit 775 MHz arbeiten – wie auch die 20 Textureinheiten und acht Rasterendstufen. Die GPU unterstützt universelle Berechnungen via DirectCompute 11 sowie OpenCL 1.0 und erreicht in der Theorie eine Rechenleistung von 620 Milliarden Gleitkommaoperationen pro Sekunde (GFlops) bei einfacher Genauigkeit – in der Praxis werden diese Werte jedoch nicht erreicht. Die GDDR5-Speicherbausteine laufen mit 2000 MHz (64 GByte/s) und sind wie bei den teureren HD-5700er-Karten über 128 Datenleitungen mit dem Grafikchip verbunden.
Für anspruchsvolle Spiele ist die Radeon HD 5670 zumindest in Verbindung mit Antialiasing (AA) and anisotropem Filter (AF) zu schwachbrüstig. Im DirectX-11-Rennspiel "Colin McRae: Dirt 2" erreicht die Grafikkarte durchschnittlich 26 Bilder/s (fps) bei 1680×1050 Bildpunkten und maximalen Details (ohne AA/AF). Das ist jedoch noch immer zu wenig, um Slowdowns bei anspruchsvollen Situationen mit vielen Fahrzeugen und Partikeleffekten zu vermeiden. Dagegen hilft nur, die Details oder auch die Auflösung zu reduzieren. Beim Arcade-Flugsimulator "Hawx" verdoppelt sich in unseren Tests die Bildrate auf 38 fps bei 1280×1024 Pixeln (SXGA), wenn man auf 4xAA und 16xAF verzichtet. Für Crysis reicht es auch ohne Kantenglättung nicht für die "sehr hohe" Detailstufe, selbst bei "hoch" sind bei SXGA nur 30 fps drin. In mittleren Detaileinstellungen sind es bereits 55 fps; eine GeForce GTS 240 erreicht ähnliche Bildraten. Das beliebte Echtzeitstrategiespiel Anno 1404 stellt die Radeon HD 5670 selbst in der Full-HD-Auflösung 1920 × 1080 bei hoher Detailstufe flüssig dar (40 fps). Im 3DMark Vantage erreicht sie in unseren Tests 6293 Punkte (Preset: Performance). Insgesamt ist eine Radeon HD 5750 , die bereits ab 100 Euro zu haben ist, in Spielen durchschnittlich satte 40 Prozent schneller.
Haben Grafikchip und Speicher im Windows-Betrieb nur wenig zu tun, dann laufen sie mit reduzierten Taktfrequenzen (157/300 MHz) und Spannungen. Die Radeon HD 5670 zieht dann lediglich 14 Watt aus dem PCIe-Slot. Mit sehr leisen 0,5 Sone war der Lüfter aus dem geschlossenen Gehäuse dann kaum zu hören. Schließt man einen weiteren Monitor an eine der drei Buchsen an (DVI/DisplayPort/HDMI), dann sind es immer noch zufriedenstellende 27 Watt. Beim Spielen (0,9 Sone) klettert die Leistungsaufnahme auf durchschnittlich 50 Watt, beim Belastungstest Furmark (1,1 Sone) maßen wir Peaks über 60 Watt. Die Grafikkarte kann ihren gesamten Strombedarf also allein durch den PCIe-Slot decken und besitzt daher keine externen Stromanschlüsse.
Die Radeon HD 5670 ist für die meisten aktuellen Spiele, wenn auch teilweise nicht mit maximalen Details, ausreichend und steuert bis zu drei Monitore gleichzeitig an. Kein Schnäppchen ist zumindest die 1-GByte-Variante für 95 Euro, für fünf Euro mehr gibt es bereits die deutlich schnellere Radeon HD 5750. Außerdem ist bei den Herstellerkarten der Radeon HD 5670 hinsichtlich der Geräuschentwicklung Vorsicht geboten, da der relativ leise AMD-Referenzkühler wohl lediglich auf den Presse-Testexemplaren zum Einsatz kommt.
Mitte Februar plant AMD zudem die HD-5500- und HD-5400-Serie zu veröffentlichen und damit seine DirectX-11-Desktopserie zu komplettieren. Die Low-Profile-Karten sollen weniger als 50 Watt verbrauchen und auch als lüfterlose Varianten zu haben sein.
Vom Konkurrenten Nvidia sind vor Mitte März keinerlei DirectX-11-fähige Grafikkarten zu erwarten – und selbst dann dürfte zunächst ausschließlich der High-End-Markt bedient werden. Demgegenüber kündigte AMD vor kurzem im Rahmen der CES an, bereits zwei Millionen HD-5000-Grafikchips ausgeliefert zu haben.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidias GF100: 512 Shader-Kerne und 64 Textureinheiten
«
Antwort #138 am:
18 Januar, 2010, 09:15 »
Während AMD seit September 2009 bereits über 2 Millionen zu DirectX 11 kompatible Grafikchips abgesetzt hat, sind Nvidias GeForce-Konkurrenzkarten mit GF100-Grafikchips noch immer nicht erhältlich. Zumindest die neuentwickelte Architektur der zukünftigen Tesla-Rechenkarten hat Nvidia bereits zu deren Ankündigung im vergangenen Jahr erläutert. Nun gab die kalifornische Firma am Rande der CES in Las Vegas einige Details zu den ab Mitte März erwarteten GeForce-Grafikkarten mit DirectX-11-Unterstützung preis, verschwieg jedoch die finalen Taktfrequenzen, machte keine Angaben zur Leistungsaufnahme und zeigte auch keine aussagekräftigen Vergleichsbenchmarks.
Die GF100-GPU nutzt 32 Streaming Multiprocessors mit jeweils 32 Shader-Rechenkernen.
Der GF100-Grafikchip besteht im Vollausbau aus insgesamt vier sogenannten Graphics Processing Clusters (GPC), die jeweils über eine eigene Raster-Engine verfügen und vier Streaming Multiprocessors (SM) enthalten. Die insgesamt 16 SMs besitzen jeweils einen 64 KByte großen konfigurierbaren Zwischenspeicher (Shared Memory/L1) und teilen sich einen 768 KByte fassenden, vereinheitlichten L2-Cache (Read/Write) sowie sechs 64-Bit-Speicherkanäle. Der Grafikchip ist dadurch über 384 Datenleitungen an den GDDR5-Speicher angebunden. Zum Vergleich: AMD koppelt GDDR5-Speicher und Grafikchip auf der Radeon HD 5870 mit 256 Leitungen. Hinsichtlich der verfügbaren Speicherbandbreite liegt Nvidia hier zumindest vorn.
Jede SM beherbergt 32 Shader-Einheiten, die Nvidia als CUDA-Kerne bezeichnet. Insgesamt besitzt der GF100-Chip, zumindest im höchsten Ausbau, also 512 solcher Kerne – der aktuelle GT200b-Chip kommt auf maximal 240 Einheiten. 16 Load/Store-Einheiten sorgen pro SM für den Transfer der Daten zwischen den Rechenkernen und den Zwischenspeichern.
An jedem der 16 SMs ist ein Cluster aus vier Textureinheiten (TMUs) angedockt, die nun effizienter arbeiten sollen und unter anderem auch spezielle DirectX-11-Texturkompressionsformate und Gather4-Operationen unterstützen. Insgesamt verfügt der GF100 also über lediglich 64 TMUs. Dies scheint für einen Chip, mit dem Nvidia die Leistungskrone beanspruchen will, zu wenig, besaß doch bereits der GT200b einer GeForce GTX 285 gleich 80 TMUs. Der Knackpunkt scheint hierbei jedoch die Taktfrequenz zu sein. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz ansteuern. Unbestätigten Gerüchten zufolge sollen die Textureinheiten gar so flott wie die Shader-Rechenkerne laufen („Hotclock“), was ihre geringe Anzahl mehr als kompensieren würde. Diese Taktfrequenz betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen.
Die unter anderem für die Kantenglättung (Antialiasing/AA) wichtigen ROPs dürften jedoch weiterhin mit der langsameren "Graphics Clock" laufen, im GF100-Grafikchip sind davon 48 vorhanden (GeForce GTX 285: 32, Radeon HD 5870: 32), unterteilt in insgesamt 6 ROP-Partitionen. Die Kantenglättungsleistung will Nvidia deutlich verbessert haben, besonders beim achtfachen Antialiasing soll die Bildrate nicht mehr so drastisch einbrechen wie noch beim GT200b-Chip. So sei der GF100 um bis zu den Faktor 2,3 schneller als der GT200b einer GeForce GTX 285. Zudem unterstützt die GF100-GPU nun auch 32x Coverage Sampling Antialiasing, bei dem acht Farb- und 24 Coverage-Samples zur Kantenglättung genutzt werden, und bietet zudem verbessertes Transparency Multisampling.
Um den Anforderungen von DirectX 11 gerecht zu werden, müssen Grafikchips Tessellation unterstützen, durch das sich geometrische Details von Polygonmodellen verfeinern lassen. Beim GF100-Chip beinhaltet jeder Streaming Multiprocessor eine eigene Tessellation-Engine (PolyMorph Engine). Laut Nvidia bearbeiten die 16 Tessellation-Engines geometrische Daten parallel, dadurch soll die Tessellation-Leistung der GF100-GPU bis zu sechsmal höher sein als die des RV870-Chips der AMD-Konkurrenzkarte Radeon HD 5870. Diese Behauptungen fußen jedoch auf speziell für den GF100-Chip selektierten Geometrie-Benchmarks. Wie hoch die tatsächliche Spieleleistung der GF100-Grafikkarte im Vergleich zu den derzeitigen AMD-Spitzenmodellen sein wird, steht weiterhin in den Sternen.
Auch wann die ersten GF100-Karten in den Handel kommen sollen, ist noch immer unklar. Brancheninsider gehen jedoch nicht von einem Marktstart vor Mitte März aus. Zumindest die Anfang März in Hannover stattfindende IT-Messe Cebit dürfte Nvidia nutzen, um die finalen Spezifikationen der GF100-Grafikkarten zu veröffentlichen. Bis dahin hat Konkurrent AMD seine DirectX-11-Serie von HD-5000-Karten bereits komplettiert.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia: DirectX-11-Spitzenmodell heißt GeForce GTX 480
«
Antwort #139 am:
02 Februar, 2010, 13:10 »
Nvidia hat die Namen der kommenden DirectX-11-Grafikkarten mit GF100-Grafikchip bekannt gegeben: GeForce GTX 480 und GTX 470 sollen die im März erwarteten High-End-Modelle heißen. Dabei wird der Grafikchip der 480er-Variante über 512 Shader-Rechenkerne und wohl 1,5 GByte GDDR5-Grafikspeicher verfügen. Die GPU ist dabei mit 384 Datenleitungen angebunden. Weiterführende Details zu den Chip-Innereien hat Nvidia bereits Mitte Januar verraten. Die GeForce GTX 470 ist etwas langsamer und dürfte 448 Rechenkerne und ein 320-Bit-Speicherinterface besitzen. Zu den Preisen und zum genauen Erscheinungsdatum äußerte sich Nvidia nicht.
Dass Nvidia die DirectX-11-Grafikkarten als 400er-Serie laufen lässt, ist eine kleine Überraschung, schließlich rechnete man beim High-End-Modell bis vor Kurzem noch mit einer Namensgebung in der 300er-Klasse, etwa GeForce GTX 380. Dies deutet darauf hin, dass Nvidia die GeForce-300-Grafikkarten lediglich mit DirectX-10.1-fähigen GPUs bestückt. Vor Kurzem brachten die Kalifornier etwa die GeForce 210 als GeForce 310 in den OEM-Markt. Und auch die DirectX-10.1-fähigen Notebook-Grafikchips lässt Nvidia als 300M-Serie laufen.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Radeon HD 5450: Die erste DirectX-11-Einsteigergrafikkarte
«
Antwort #140 am:
03 Februar, 2010, 19:00 »
Da ja hier sonst kaum wer was macht ...
Als erste Low-End-Grafikkarte der HD-5000-Serie stellt AMD die Radeon HD 5450 vor. Die Grafikkarte ist zu DirectX 11 kompatibel und für die Blu-ray-Wiedergabe geeignet. Für anspruchsvolle Spiele ist der aus 292 Millionen Transistoren bestehende Cedar-Grafikchip mit seinen lediglich 80-Shader-Prozessoren (650 MHz), 8 Textureinheiten und 4 Rasterendstufen jedoch zu langsam. So erreichte die Radeon HD 5450 in unseren Tests beispielsweise 1291 Punkte im 3DMark Vantage (Preset: Performance) und ist damit etwas schneller als eine Radeon HD 4350 (848 Punkte) oder auch Nvidias GeForce 210 (735 Punkte).
Insgesamt 64 Datenleitungen binden den DDR3-Speicher an, der – je nach Hersteller – mit bis zu 800 MHz Taktfrequenz arbeitet und 512 oder 1024 MByte an Daten fasst. Es wird auch Modelle mit etwas langsamerem DDR2-Speicher geben. Die Radeon HD 5450 ist kompatibel zu DirectCompute 11 und OpenCL 1.0 und damit für entsprechende universelle Berechnungen geeignet.
Besonders niedrig ist die Leistungsaufnahme der Low-Profile-Grafikkarte: So verbrauchte unser lüfter- und damit lautloses Testexemplar von Sapphire unter Last nicht mehr als 15 Watt, im Leerlauf gar nur knappe 7 Watt. Mit zwei und mehr Monitoren erhöhte sich die Leistungsaufnahme auf 9 Watt. AMD gibt für sein Referenzmodell eine TDP von 19,1 Watt an. Daher kommt die Radeon HD 5450 ohne externe Stromanschlüsse aus und deckt ihren gesamten Strombedarf aus dem PCIe-x16-Slot. Die sparsame DirectX-11-Grafikkarte bindet bis zu drei Displays gleichzeitig an und dürfte in den kommenden Tagen für um die 50 Euro verfügbar sein.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
AMD enthüllt die Radeon HD 5570
«
Antwort #141 am:
09 Februar, 2010, 09:33 »
Neue Woche, neue Karte: AMD geht das Vorstellen neuer DirectX-11-fähiger Grafikkarten derzeit flink von der Hand. Nun bringt das Unternehmen eine abgespeckte Variante der Radeon HD 5670 heraus und nennt die neue Pixelschleuder Radeon HD 5570. Wie alle Grafikkarten aus der HD-5000-Serie unterstützt sie die Blu-ray-Wiedergabe, ist kompatibel zu DirectCompute 11, OpenCL 1.0 und ATI Stream – und unterstützt damit universelle Berechnungen, wie beispielsweise das Transkodieren von Videomaterial.
Auf der Low-Profile-Platine der Radeon HD 5570 werkelt – wie bei der Radeon HD 5670 – ein im 40-Nanometer-Verfahren gefertigter und aus 627 Millionen Transistoren bestehender Redwood-Grafikchip mit 400 Shader-Rechenkernen. Diese arbeiten mit 650 MHz etwas langsamer als bei der Radeon HD 5670 (775 MHz), wie auch die 20 Textureinheiten und acht Rasterendstufen. Doch der für die 3D-Leistung wichtigste Unterschied zur großen Schwesterkarte ist die wesentlich geringere Datentransferrate. So sieht AMD keine schnellen GDDR5-, sondern billigere und langsame DDR3-Speicherbausteine vor, die bei einer 128-Bit-Anbindung mit 900 MHz arbeiten (28,8 GByte/s). Zum Vergleich: Die Radeon HD 5670 profitiert vom 2000 MHz schnellen GDDR5-Speicher (64 GByte/s) und ist in Spielen bis zu 20 Prozent flinker.
Dennoch ist die Radeon HD 5570 für aktuelle Spiele geeignet – sofern man bereit ist, bei den anspruchsvollen Action-Krachern auf die volle Detailstufe und hohe Auflösungen zu verzichten. Im für die Grafikkarte eher genügsamen Echtzeitstrategiespiel Anno 1404 erreicht die Radeon HD 5570 beispielsweise bei 1680×1050 Bildpunkten in hohen Details noch spielbare 33 Bilder pro Sekunde (fps) im Durchschnitt (ohne Antialiasing). Beim Rennspiel Dirt 2 reicht es zumindest in der mittleren Detailstufe noch für 35 fps in besagter Auflösung. 4497 Punkte schafft sie im 3DMark Vantage, eine Radeon HD 5670 immerhin 6293, die GeForce GT 240 liegt mit 5483 Punkten dazwischen.
Mit durchschnittlich 9 Watt gibt sich die Radeon HD 5570 im Leerlauf bescheiden, bei mehreren gleichzeitig angesteuerten Monitoren sind es sehr gute 12 Watt. In 3D-Spielen verheizt sie nicht mehr als 30 Watt im Mittel. Mit kurzzeitigen Spitzen von maximal 38 Watt blieben die Werte im Test noch unter der von AMD angegebenen TDP von knapp 43 Watt. Das uns von AMD zugeschickte Referenzmodell war im Windows-Betrieb bei 0,6 Sone lauter als nötig, schließlich blieb die GPU mit knapp über 40 Grad vergleichsweise kühl. Beim Spielen drehte der Lüfter schneller und verursachte bis zu 0,9 Sone; ein noch erträglicher Wert.
Maximal drei Bildschirme bindet die Radeon HD 5570 gleichzeitig an und ermöglicht via Eyefinity das Strecken des (Spiel-)Bildes über alle angeschlossenen Bildschirme. Damit sind extrem hohe Auflösungen wie 5760×1080 kein Problem, sofern man die Displays zuvor im Catalyst-Grafiktreiber als Display Group zusammengefasst hat. Laut AMD unterstützen über 80 Spiele, etwa Microsofts Flight Simulator X oder auch Call of Juarez 2 solche hohen Auflösungen. Doch genau dafür reicht die Rechenleistung von AMDs neuester DirectX-11-Karte in Verbindung mit aktuellen Spielen nicht aus.
Anno 1404 läuft auch auf einer Radeon HD 5570 mit hohen Details noch flüssig, wenn man die Kantenglättung ausschaltet.
Die Radeon HD 5570 ist bei einem Preis von 75 Euro kein Schnäppchen. Wem die DirectX-11-Unterstützung nicht wichtig ist, bekommt bereits ab 80 Euro die deutlich schnellere Radeon HD 4850 mit 800 Shader-Rechenkernen. Wie uns etwa Powercolor bestätigte, soll die Radeon HD 5570 bis spätestens Anfang nächster Woche in ausreichenden Stückzahlen verfügbar sein. Ende des Monats will AMD voraussichtlich noch die Radeon HD 5830 vorstellen, die rund 200 Euro kosten und deren 3D-Leistung etwa 20 Prozent unter der einer Radeon HD 5850 liegen soll, wie heise online aus gut unterrichteten Branchenkreisen erfuhr.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia - Geforce GTX 480 angeblich auf der CeBIT
«
Antwort #142 am:
10 Februar, 2010, 13:29 »
Die Wartezeit auf die neuen Nvidia-Karten könnte in weniger als vier Wochen zu Ende gehen, denn angeblich sollen die Geforce GTX 470 und GTX 480 auf der CeBIT präsentiert werden.
Zumindest behauptet dies Fudzilla, schränkt aber gleichzeitig ein, dass es sich dabei wohl nicht um die offizielle Markteinführung handeln dürfte. Einige Grafikkarten-Herstellen sollen die neuen Karten jedoch mit Segen von Nvidia auf jeden Fall auf der Messe vorführen.
Sollte dies stimmen, könnte der Vorstellungstermin dann ebenfalls in greifbarer Nähe liegen. In der Gerüchteküche gibt es allerdings Zweifel daran, dass Nvidia gleich zum Start ausreichend Karten in den Handel bringen kann.
Dann würden die Nvidia-Nutzer neben der langen Wartezeit bisher wohl einige Zeit auch noch das gleiche Schicksal erleiden wie potentielle Käufer der ATI Radeon HD 5870, die erst 2,5 Monate nach der Vorstellung wirklich bei vielen Händlern vorrätig war.
Quelle :
www.gamestar.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Snoop
Premium-Cubie
Beiträge: 795
Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen?
«
Antwort #143 am:
19 Februar, 2010, 10:45 »
Ich hätte wirklich drauf gewettet:... die 480 kommt später bzw. gar nicht - dann wird meine nächste Graka wohl eine ATi ein:
Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen?
Eigentlich soll es nun nur noch ein paar Wochen dauern, bis Nvidia seine neuen DirectX-11-Grafikkarten vorstellt und sich der Konkurrenz von AMD stellt.
Nvidia Geforce GTX 480 Nvidia Geforce GTX 480 Doch was SemiAccurate schreibt, klingt alles anderes als positiv. Der GF100-Chip sei defekt und irreparabel, heiß, langsam, zu spät und kaum zu produzieren. Schlimmer noch, Charlie Demerjian hält es für wahrscheinlich, dass Nvidia nur die 9000 bereits bezahlten Wafer für die Herstellung der GF100-Grafikchips verwenden wird und die damit produzierten Karten mit hohen Verlusten verkauft.
Danach würde sich Nvidia auf den »Fermi 2« konzentrieren, der aber in 28nm produziert werden müsste, um die Probleme zu lösen. Nvidia hätte dann bis 2011 nur PR zu bieten, so SemiAccurate, denn die kleineren Grafikchips auf Fermi-Basis für Mainstream-Karten gäbe es bisher nur auf dem Papier.
An dieser Stelle muss man natürlich erwähnen, dass Demerjian alles andere als ein Nvidia-Freund ist, was sich auch auf die Meldungen auswirkt. Doch was die neuen Grafikchips von Nvidia und deren Verzögerung angeht, waren die Vorhersagen bisher erstaunlich zutreffend. NordicHardware meldet in diesem Zusammenhang, dass selbst Nvidia-Partner nur sehr wenig über die Grafikkarten oder deren Markteinführung wissen. Wir haben Nvidia um eine Stellungnahme gebeten, doch dort gab man keinen Kommentar dazu ab.
Quelle:
Gamestar
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia präsentiert Fermi-Grafikkarten am 27. März
«
Antwort #144 am:
22 Februar, 2010, 20:07 »
Nvidia will die mehrfach verschobenen, zu DirectX 11 kompatiblen Grafikkarten mit GF100/Fermi-Grafikchips am 27. März offiziell vorstellen. Dies geht zum einen aus einer Facebook-Mitteilung als auch aus Gesprächen von heise online mit Nvidia-Boardpartnern hervor. Die Hüllen sollen im Rahmen der dreitägigen Spieleveranstaltung PaxEast im US-amerikanischen Boston fallen – um 1 Uhr nachts in Deutschland. Ebenfalls zu dieser Zeit dürften die ersten Testberichte von den GeForce-Karten ins Internet gelangen.
Am Rande der CES gab Nvidia in Las Vegas zwar bereits einige Details zur Architektur der GF100-Grafikchips bekannt. Jedoch verschwiegen die Kalifornier die finalen Taktfrequenzen, zeigten keine aussagekräftigen Vergleichsbenchmarks und machten keinerlei Angaben zur tatsächlichen Leistungsaufnahme. Als gesichert gilt, dass Nvidia zunächst zwei High-End-Modelle vorstellen wird. Die GeForce GTX 480 arbeitet mit 512 Shader-Rechenkernen und 64 Textureinheiten, eine GeForce GTX 470 rechnet mit 448 Rechenkernen etwas langsamer.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Snoop
Premium-Cubie
Beiträge: 795
Re: Nvidia präsentiert Fermi-Grafikkarten am 27. März
«
Antwort #145 am:
22 Februar, 2010, 20:20 »
In mehreren Ecken des Internets munkelt man, dass die neuen Fermi-Chips sauheiß werden und für ein Flaggschiff nicht wirklich viel können:
Nvidia Geforce GTX 480 - Kaum schneller als die Radeon HD 5870? - Quelle Gamestar
Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen? - Quelle Gamestar
Die bekommen ihren A**** einfach nicht hoch ... traurig, traurig! Und ich habe mich schon so auf einen Preiskampf gefreut. Endlich mal wieder eine schnelle Karte für erschwingliche €uros ... wenn schon der Speicher zur Zeit in schwindelnden Höhen kursiert ...
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
GeForce GT 330: Nvidias Verwirr-Karte für den OEM-Markt
«
Antwort #146 am:
23 Februar, 2010, 19:51 »
Für den OEM-Markt bringt Nvidia wieder einmal vermeintlich neue Grafikkarten: Neu scheinen an der GeForce GT 320 , GT 330 und GT 340 allerdings nur die Bezeichnungen zu sein. Die GPU der GeForce GT 340 besitzt 96 Shader-Rechenkerne (1340 MHz) und ist mit 128 Datenleitungen an den 512 beziehungsweise 1024 MByte fassenden GDDR(5)-Speicher angebunden, der bei 1700 MHz für eine Datentransferrate von knapp 55 GByte/s sorgt. Die Grafikkarte (TDP: 69 Watt) entspricht damit einer herkömmlichen GeForce GT 240 und unterstützt DirectX 10.1.
Soll es ein Rechner werden, in dem eine GeForce GT 330 (TDP: 75 Watt) steckt, dann muss man genau auf deren technische Daten achten. Denn die GeForce GT 330 gibt es sowohl mit 96 als auch 112 Shader-ALUs, die jeweils zwischen 1250 und 1340 MHz Taktfrequenz erreichen. Textureinheiten und Rasterendstufen laufen mit 500 beziehungsweise 550 MHz. Beim Speicher verbaut Nvidia 800 MHz DDR3- oder nur 500 MHz langsame DDR2-Bausteine. Diese fassen entweder 1024 oder 2048 MByte an Daten und werden mit 128, 192 oder 256 Leitungen angebunden.
Mit dieser Vielfalt an Möglichkeiten dürfte es den Kaliforniern gelingen, auch den letzten Kunden zu verwirren. Allein aus der Bezeichnung GeForce GT 330 lässt sich also nicht mehr präzise die Spieleleistung ablesen. Welche Chips verbaut sind, kommt laut Nvidia ganz auf das jeweilige Modell an. Höchstwahrscheinlich handelt es sich um den altbekannten G92(b) – schließlich unterstützt die GeForce GT 330 nach Aussagen von Nvidia Deutschland lediglich DirectX 10.0. Damit ist nun zumindest klar, dass Nvidia bei der GeForce-300-Serie im OEM-Markt nicht ausschließlich Grafikkarten anbieten wird, die mindestens DirectX 10.1 unterstützen.
Bilderstrecke :
http://www.heise.de/newsticker/bilderstrecke/bilderstrecke_938502.html?back=938483
Die GeForce GT 320 ist die schwächste der frisch gelisteten Grafikkarten und verheizt maximal nur 43 Watt. Ihr zu DirectX 10.1 kompatibler Grafikchip rechnet mit 540 MHz, die 72 Recheneinheiten laufen mit 1302 MHz. Der 1 GByte große Speicher (790 MHz) ist mit 128 Leitungen angebunden; die Datentransferrate liegt bei 25,3 GByte/s.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Radeon HD 5830: AMDs teurer Lückenfüller
«
Antwort #147 am:
25 Februar, 2010, 09:28 »
AMD schließt mit der zu DirectX 11 kompatiblen Radeon HD 5830 die Performance-Lücke zwischen der Radeon HD 5770 und Radeon HD 5850. Die Grafikkarte stellt auch aktuelle Spiele flüssig in der Full-HD-Auflösung dar und unterstützt bei der Blu-ray-Wiedergabe auch die Bild-in-Bild-Funktion. Außerdem lassen sich bis zu drei Bildschirme via Eyefinity-Technik mit je bis zu 2560×1600 Pixeln gleichzeitig ansteuern. Auch universelle Berechnungen übernimmt die Karte via OpenCL 1.0, DirectCompute 11 und ATI Stream (SP-Rechenleistung: 1,79 TFlops).
Auf der 28-Zentimeter langen Platine sitzt ein Cypress-Grafikchip, dessen 1120 Shader-Rechenkerne, 56 Textureinheiten und 16 Rasterendstufen mit 800 MHz rechnen – und damit etwas schneller als die der Radeon HD 5850 (725 MHz), welche jedoch über jeweils mehr Einheiten verfügt (1440/72/32). Den 1 GByte großen und 2000 MHz schnellen GDDR5-Speicher bindet AMD mit 256 Datenleitungen an.
Besonders die im Vergleich zu den restlichen HD-5800er-Karten halbierte Anzahl der Rasterendstufen limitiert die Performance der Radeon HD 5830, die dadurch in einigen Spielen lediglich so schnell wie eine Radeon HD 4890 ist. So erreichten beide genannten Karten in Crysis jeweils gleiche Bildraten; beispielswiese 24 Bilder pro Sekunde (fps) in der Full-HD-Auflösung 1920×1080 bei sehr hohen Details und zweifachem Antialiasing. In Stalker Clear Sky ist die neue AMD-Karte der Radeon HD 4890 maximal um zwei Bilder pro Sekunde überlegen, gleiches gilt bei der Arcade-Flugsimulation HAWX. Lediglich in World in Conflict kann die Radeon HD 5830 etwas Abstand gewinnen.
Mit maximal 175 Watt verheizt die Radeon HD 5830 unter Last laut AMD etwas mehr als die schnellere Radeon HD 5850 (151 Watt), die Chiptemperatur kletterte in unseren Tests dann auf über 80 Grad Celsius. Die Stromversorgung stellt AMD über zwei sechspolige Anschlüsse sicher. Im Leerlauf senkt die Radeon HD 5830 GPU- und Speicher-Taktfrequenzen (157/300 MHz) und ist mit 25 Watt vergleichsweise sparsam; ihr Lüfter mit 0,5 Sone angenehm leise. Jedoch werden AMDs Boardpartner, etwa Gigabyte, HIS, Powercolor, Sapphire und XFX, alle auf eigene Designs setzen.
Die Radeon HD 5830 soll laut AMD ab kommender Woche in ausreichenden Stückzahlen erhältlich sein – jedoch ist sie beim anvisierten Preis von zirka 230 Euro deutlich zu teuer. Schließlich ist eine ähnlich schnelle Radeon HD 4890 bereits für rund 150 Euro zu haben, bietet dafür jedoch keine DirectX-11- und Eyefinity-Unterstützung.
Mitte März will AMD zudem die spezielle Eyefinity-Variante der Radeon HD 5870 in den Handel bringen, die bis zu sechs Monitore via Mini-DisplayPort-Buchsen ansteuert. Über die Eyefinity-Technik lassen sich die Auflösungen der angeschlossenen Monitore auch zusammenfassen, sodass Spiele etwa mit 5760 × 2160 Bildpunkten darstellbar sind. Gleich fünf Adapter legen die Hersteller laut AMD bei: je zweimal MiniDP zu DP und DVI (Single Link) sowie einmal zu HDMI. Die 1600 Shader-Prozessoren arbeiten mit 850 MHz, der 2 GByte große GDDR5-Speicher mit 2400 MHz. Die Multimonitor-Karte soll im Leerlauf 34 Watt Leistung aufnehmen und wird voraussichtlich ab 11. März für nicht weniger als 400 Euro erhältlich sein.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Snoop
Premium-Cubie
Beiträge: 795
Re: Radeon HD 5830: AMDs teurer Lückenfüller
«
Antwort #148 am:
26 Februar, 2010, 15:31 »
Schade - von der hätte ich mir mehr erwartet, aber solange Nvidia nur Mist raus bringt (oder gar nichts), kann AMD machen, was sie wollen. Die 5830 ist überteuert bzw. kann für den Preis eindeutig zu wenig.
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia Geforce GTX 480 - Neue Bilder mit entferntem Kühler
«
Antwort #149 am:
03 März, 2010, 10:43 »
Obwohl Nvidia auf der CeBIT die neue Geforce GTX 480 streng bewacht, sind nun Bilder der Karte mit abgenommenem Kühler aufgetaucht.
Wie TechPowerUp meldet, stammen die an mehrere Internetseiten geschickten Bilder von einer Quelle, die anonym bleiben möchte. Einige Stellen der Fotos sind daher auch mit schwarzen Balken versehen.
Abgebildet ist die Referenz-Platine der Geforce GTX 480 mit dem GF100-Grafikchip und seinem sehr großen Heatspreader. Insgesamt verfügt die Karte über 12 Speicherchips für insgesamt 1.536 MByte Grafikspeicher, die über ein 384-Bit-Speicherinterface angebunden sind.
Über einen 8-Pin- und ein 6-Pin-Anschluss wird die Karte mit Strom versorgt. Die Karten sollen außerdem auf der Oberkannte ein beleuchtetes Geforce-Logo besitzen. Der Kühler, dessen Kontaktseite zur Karte ebenfalls zu sehen ist, verwendet Heatpipes und wirkt ansonsten recht unspektakulär.
Quelle :
www.gamestar.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Drucken
Seiten:
1
...
5
6
7
8
9
[
10
]
11
12
13
14
15
...
23
Nach oben
« vorheriges
nächstes »
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Neue Grafikkarten von AMD und Nvidia