Das Forum rund um DVB am PC, Handy und Tablet
Neuigkeiten:
Anzeigen der neuesten Beiträge
Übersicht
Forum
Hilfe
Einloggen
Registrieren
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Neue Grafikkarten von AMD und Nvidia
« vorheriges
nächstes »
Drucken
Seiten: [
1
]
2
3
4
5
6
...
23
Nach unten
Autor
Thema: Neue Grafikkarten von AMD und Nvidia (Gelesen 32417 mal)
0 Mitglieder und 1 Gast betrachten dieses Thema.
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Neue Grafikkarten von AMD und Nvidia
«
am:
01 Dezember, 2004, 19:02 »
Das neue ATI-Flaggschiff Radeon X850 XT Platinum Edition beruht auf einem optimierten Chip (Codebezeichnung R480) und erhöhten Taktfrequenzen. Die Steigerung bei den Takten bewegt sich allerdings nur im einstelligen Prozentbereich: Gegenüber dem bisherigen Spitzenprodukt Radeon X800 XT-PE legt der Chiptakt lediglich von 526 auf 540 MHz zu, und der Speichertakt nur von 574 auf 587 MHz. Dabei fällt die Kühlung diesmal erheblich aufwendiger aus. Die Grafikkarte belegt jetzt zwei Steckplätze und befördert die Abwärme über Öffnungen im Slotblech aus dem Rechnergehäuse heraus. Wie erwartet kann sich die Radeon X 850 XT-PE im Test mit Doom3, Half-Life 2 und FarCry auch nur durch rund vier Prozent höhere Bildraten von ihrem Vorgänger abheben. ATI räumt ein, dass die Überarbeitung des Chips vor allem zu einer bessseren Verfügbarkeit des Produkts beitragen soll. Der Vorgänger konnte lediglich in einigen Projektgeschäften eingesetzt werden und gelangte nur in kleinen Mengen in den Einzelhandel.
Bislang gibt es lediglich Dollar-Preisangaben, nach denen die XT-PE-Ausführung 549 US-Dollar kosten soll. Eine mit 520/540 MHz Chip-/Speichertakt betriebene XT-Version soll für 499 US-Dollar erhältlich sein und eine ebenfalls mit diesen Werten arbeitende Pro-Version mit zwölf statt sechzehn Pipelines ist für 399 US-Dollar zu haben.
Die zweite Neuerung dürfte für viele Anwender interessanter sein: Durch den Wechsel auf eine 0,11-µm-Fertigung (Codebezeichnung R430) will ATI weitere Varianten zu niedrigeren Preisen ermöglichen. Der Radeon X800XL ist für 400/500 MHz spezifiziert, besitzt sechzehn Pipelines und soll 349 US-Dollar kosten. Noch günstiger ist der Radeon X800 mit 400/350 MHz und zwölf Pipelines. ATI gibt den Preis mit 249 US-Dollar an, sodass man mit einem Einführungspreis von rund 300 Euro rechnen kann. ATIs Partner werden den Radeon X800 überwiegend auf Grafikkarten mit 128 MByte Speicher einsetzen. Alle anderen Modelle will man mit 256 MByte Speicher bestücken. Grafikkarten mit dem Radeon X850 sollen noch in diesem Monat in den Handel gelangen. Der Radeon X800XL und X800 hingegen erst im Januar.
Beide Chiplinien sind ausschließlich für PCI-Express ausgelegt und Besitzer von AGP-Systemen haben erst einmal das Nachsehen. Da die Produktion der auf dem R423 basierenden PCI-Express-Chips (Radeon X800 XT) aber eingestellt wird, wird Kapazität in der 0,13-µm-Fertigung frei, die ATI für die Produktion des AGP-High-End-Chips R420 (Radeon X800 XT-PE und X800 Pro) einsetzen will. Damit werden entsprechende Grafikkarten eventuell günstiger im Preis. Zudem soll es Pläne geben, Radeon X800 und X800XL mit dem Brückenchip Rialto an AGP anzupassen.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Radeon X700 und neue X800-Chips bald auch für AGP?
«
Antwort #1 am:
28 Dezember, 2004, 12:41 »
Radeon X300 mit HyperMemory soll ebenfalls kommen
Bisher kann ATI Nvidias Mittelklasse-Grafikchip GeForce 6600 GT nur auf PCI-Express mit dem X700 kontern. Da der AGP-Markt noch sehr groß ist, arbeitet ATI derzeit an einem eigenen Brücken-Chip namens "Rialto" - dieser soll in "ein paar Monaten" so weit sein, wie ATI auf einer Investoren-Konferenz angab.
Während Nvidia dank eines in beide Richtungen funktionierenden Wandlers sowohl AGP-8X-Grafikchips auf PCI-Express-Grafikkarten als auch PCI-Express-Grafikchips auf AGP-8X-Karten verwenden kann, kümmert sich ATI seit einer Weile nur noch um PCI-Express und verlässt sich für AGP 8X auf sein bestehendes Chipangebot. Ohne Rialto müsste ATI AGP entweder links liegen lassen oder eigene AGP-Versionen seiner Chips entwickeln.
Auch mit dem in Entwicklung befindlichen Rialto sieht ATI-CEO David Orton auf AGP oder PCI-Express spezialisierte Chips als effizienteren Weg. Womit er vermutlich die technischen Aspekte meint, denn wirtschaftlich dürfte es sinnvoller zu sein, einen Brücken-Chip und PCI-Express-Grafikchips anstatt zweier paralleler AGP- und PCI-Express-Chipserien zu entwickeln und zu fertigen. Zumindest anfangs gab es wegen Nvidias Brücken-Chip allerdings Beschwerden seitens asiatischer Grafikkarten-Hersteller, denen der AGP/PCIe-Wandler zu teuer war.
Laut Industrie-Quellen von Xbit Labs soll Rialto in Kürze von einem ATI-Partner gefertigt werden, ab wann erste Grafikkarten mit dem Brücken-Chip auf den Markt kommen, sei bisher noch nicht klar. Ebenfalls ist noch nicht bekannt, ob Rialto - wie auch Nvidias konkurrierende Technik - in beide Richtungen (AGP nach PCIe, PCIe nach AGP) wird wandeln können oder ob damit nur PCI-Express-Chips auf AGP-8X-Grafikkarten eingesetzt werden können. Orton zufolge liegt darauf der Hauptfokus bei der Entwicklung, alles andere erscheint auch nicht sinnvoll - zumal es mit Brücken-Chip keinen Sinn mehr ergibt, reine AGP-Chips zu entwickeln.
Mit Rialto könnte ATI seine PCI-Express-Grafikchips X300, X700, die neueren X800-Chips und das aktuelle Topmodell X850 auch für AGP-Systeme anbieten. Seinen Low-End-PCI-Express-Chip X300 will ATI laut eines Digitimes-Berichts ab Anfang 2005 mit HyperMemory ausstatten, womit der lokale Grafikspeicher zu Gunsten einer Shared-Memory-Lösung per PCI-Express ausgelagert wird und somit auch die Hardware-Kosten verringert werden können. ATI hatte seine Technik zwar früher als Nvidia angekündigt, bisher aber nur in Notebooks und PC-Chipsätze integriert - von Nvidia-Partnern gibt es bald GeForce-6200-Grafikkarten mit TurboCache, auch hier wird aus Kostengründen auf den PC-Hauptspeicher gesetzt, was allerdings auch Leistung kostet.
Quelle :
www.golem.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Neue High-End-Grafikkarten von AMD und Nvidia
«
Antwort #2 am:
16 Januar, 2005, 10:39 »
Nach dem erfolgreichen Verkaufstart der GeForce 6600 GT AGP Anfang November schickt Nvidia nun auch die niedriger getaktete 6600 als AGP-Version ins Rennen. Erneut kommt dabei Nvidias HSI-Bridge-Technik zum Einsatz.
Draufzahlen
Chip und Speicher werden wie bei der PCI-Express-Variante (PCIe) mit je 300 Megahertz getaktet. Erste 6600 AGP-Karten sind bereits im Handel erhältlich, der Preis beträgt bei einem Grafikspeicher von 128 Megabyte rund 150 Euro. Versionen mit 256 Megabyte Grafikspeicher kosten knapp 200 Euro. Wie bei den 6600-GT-Karten zahlen Besitzer von Mainboards mit AGP-Schnittstellen auch für 6600er Karten etwas mehr: Die PCIe-Versionen sind bis zu 30 Euro günstiger.
ATI kann nicht mithalten
Konkurrent ATI fährt mit seiner Mittelklassekarte Radeon X700 dagegen immer noch nicht auf AGP-Schienen. Die Entwicklung einer entsprechenden Brücke, um die PCI-Express-Karten umzurüsten, ist noch nicht abgeschlossen.
Quelle :
www.onlinekosten.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
ATI bringt Radeon 800 XL und 850 XT für AGP
«
Antwort #3 am:
28 Februar, 2005, 21:58 »
High-End-Karten auch für ältere Rechner
Der AGP-Bus darf nicht sterben - dachte sich wohl ATI und hat jetzt auch sein Top-Modell namens Radeon X850 XT als AGP-8x-Chip vorgestellt. Zusammen mit dem kleinen Bruder 800 XL werden erste Karten noch im März 2005 erwartet.
Totgesagte leben länger. Das gilt insbesondere für den AGP-Steckplatz, auf den einige schon vor Jahresfrist mit dem Erscheinen der ersten PCI-Express-Chipsätze von Intel den Abgesang angestimmt hatten. Gerade für Compuerspieler, die sich im letzten Jahr für einen Athlon 64 entschieden haben, ist AGP nach wie vor aktuell. Immerhin kommen, beispielsweise von Via erst jetzt erste PCIe-Chipsätze für die AMD-Plattform auf den Markt. Bei Karten mit großem lokalem Speicher bringt PCIe überdies bisher keinen Performance-Vorteil.
Da wundert es nicht, dass ATI jetzt seinen derzeit schnellsten Desktop-Chip X850 XT und das kleinere Modell 800 XL auch als AGP-Bausteine an die Hersteller von Grafikkarten ausliefert. Der 850 XT ist dabei mit einem nativen AGP-Interface ausgestattet, der 800 XL benötigt einen kleinen Bridge-Baustein. Wie die ersten PCIe-Karten mit AGP-Prozessoren gezeigt haben, kostet diese Bridge jedoch kaum Performance, da PCIe vor allem bei den Bus-Protokollen auf AGP aufbaut.
Beide neuen Prozessoren will ATI im März 2005 an die Board-Hersteller ausliefern. Als erstes soll laut ATI der 850 XT als AGP-Version in nennenswerten Stückzahlen auf den Markt kommen. Welche Hersteller AGP-Karten mit den neuen Chips auf den Markt bringen wollen, konnte ATI noch nicht sagen. Als einer der Ersten hat sich aber bereits Sapphire aus der Deckung gewagt und will auf der CeBIT entsprechende Produkte zeigen - und dort auch die Preise verraten.
Quelle :
www.golem.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Neue High-End-Grafikkarten von AMD und Nvidia
«
Antwort #4 am:
19 Juni, 2005, 14:42 »
Schon lange kursieren Gerüchte über den genauen Launch-Termin der nächsten Grafikchip-Generation des Chip-Herstellers Nvidia durchs Internet. Inzwischen kann man es bei den Kaliforniern direkt nachlesen: Den GeForce 7800 GTX alias G70 wird Nvidia anlässlich der GeForceLAN 2.0 am kommenden Dienstag in San Francisco der Öffentlichkeit präsentieren. Europäer dürften demnach am Mittwoch offiziell vom neuen Grafik-Boliden erfahren.
Bereits auf der diesjährigen Computex konnte man wesentliche Details des Grafikchips erfahren. Erste Benchmarks des Boliden sprechen zudem von wie bestellten rund 7800 3DMark05-Punkten bei 1024 x 768 Bildpunkten (ohne Antialiasing). Damit wäre der GeForce 7800 GTX etwas schneller als eine SLI-Kombination aus zwei Grafikkarten mit dem Vorgänger-Chip GeForce 6800 Ultra. Zwei G70-Grafikkarten auf einem SLI-Board sollen es sogar auf über 13 Tausend Punkte bringen.
Einige Internet-Versender hatten in den letzten Tagen etwas voreilig Grafikkarten mit dem GeForce 7800 GTX in ihren Shops für rund 600 Euro gelistet. Das hat Nvidia allerdings schnell wieder unterbunden. Ein schwedischer Shop führt aber immer noch eine Sparkle-Karte mitsamt einer sehr nach Nvidias Marketing klingenden Beschreibung. Ob die Karten allerdings tatsächlich sofort nach dem Launch in größeren Stückzahlen verfügbar sein werden, bleibt fraglich. Bisher musste man nach der Ankündigung einer neuen Generation nicht selten Monate auf kaufbare Exemplare warten.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
3D-Grafikchip GeForce 7800 GTX imponiert mit 24 Pixel-Pipelines
«
Antwort #5 am:
22 Juni, 2005, 16:31 »
Seit heute ist es offiziell: Bei seinem neuen Flaggschiff GeForce 7800 GTX hat der kalifornische 3D-Chip-Spezialist Nvidia nicht nur die Anzahl der Pixel-Pipelines auf 24 erhöht, auch die Vertex-Shader sind auf acht Einheiten angewachsen. Der Vorgänger GeForce 6800 Ultra muss mit 16 Pipelines und sechs Vertex-Shadern auskommen. Die Taktfrequenzen stiegen leicht auf standardmäßige 430 MHz für den Chip und 600 MHz für den Speicher an (Vorgänger: 425/550 MHz). Dank des Wechsels auf die nächstkleinere Strukturgröße von 0,11 µm soll die Leistungsaufnahme einer 256-MByte-Grafikkarte dennoch 110 Watt nicht überschreiten. Nvidias Referenzlüfter beansprucht diesmal sogar nur minimalen Raum: Er ragt nicht über den PEG-Slot hinaus; der Nachbar-Slot bleibt somit weiterhin nutzbar. Die erwärmte Luft bläst er allerdings ins Gehäuse.
Die interne Struktur der Shader-Einheiten hat sich kaum verändert. Wie der GeForce 6800 erfüllt der GTX-Chip die Anforderungen von DirectX 9.0c und des Shader Models 3.0. Die Rechengenauigkeit liegt nach wie vor bei 128 Bit, also bei 32 Bit pro Farb- beziehungsweise Alpha-Komponente. HDR-Effekte (High Dynamic Range) für große Helligkeitsunterschiede beherrscht auch der GTX mittels eines 16-Bit-Gleitkommaformats für Texturen, Filterung und Blending. Der Framebuffer lässt sich dazu im ebenfalls 16-bittigen OpenEXR-Format betreiben. Wer will, kann zwei GTX-Karten über die bekannte SLI-Technik kombinieren.
Die Pixel-Shader bestehen nach wie vor aus je zwei Recheneinheiten (ALU), von denen die erste auch die Berechnung von Textur-Adressen übernimmt. Neu ist die Fähigkeit, in jeder ALU eine Multiply-/Add-Instruction (MADD) in einem Takt ausführen zu können (CineFX 4.0). Der Vorgänger benötigte dafür noch zwei Takte. Da dieser Befehl in Shader-Programmen recht häufig vorkommt, soll dies zusammen mit der höheren Pipeline-Zahl die Shader-Leistung nahezu verdoppeln. Auch in ersten Demos der UnrealEngine 3 erreiche der GeForce 7800 die 2- bis 2,4fache Leistung des GeForce 6800 Ultra, behauptet Nvidia.
Der pixeligen Darstellung von filigranen Objekten wie Pflanzen und Gitterzäunen kommt ein zusätzlicher Antialiasing-Modus zugute. Er wirkt gezielt auf teilweise transparente Texturen, auf denen dünne Strukturen in der Regel aufgemalt sind. Er steht als hochwertiges Supersampling und schnelleres Multisampling zur Verfügung. Schließlich kann man Antialiasing jetzt optional auch gammakorrekt betreiben. Die durch Interpolation gewonnenen Farbwerte für das Auffüllen von Treppenstrukturen an schrägen Kanten erscheinen dadurch in einer modifizierten Helligkeitsabstufung.
Bei ersten Tests auf einem System mit einem rund 3,7 GHz schnellen Pentium 4 "Extreme Edition" zeigten sich deutliche Leistungssteigerungen gegenüber einem GeForce 6800 Ultra in erster Linie bei extrem hohen Einstellungen und Spielen mit hohen Grafikanforderungen: Doom 3 läuft bei 1600er Auflösung und vierfachem Antialiasing 23 Prozent schneller (Demo1, HQ). In Far Cry steigerte sich die Bildrate bei 1600er Auflösung, vierfachem Antialiasing und achtfacher anisotroper Filterung um 36 Prozent (Level Dampf, Taschenlampe ein). Am höchsten fiel der Vorsprung mit HDR-Rendering aus, das bei 1600er Auflösung auf dem Vorgänger mit 25 Bildern/s nicht mehr spielbar läuft. Der 7800er bewältigt den Test mit 36 Bildern/s, was einer Steigerung von 44 Prozent entspricht. Splinter Cell - Chaos Theorie ist mit allen Shader-Model-3.0-Effekten und 1600er Auflösung 46 Prozent schneller und mit 43 Bilder/s noch gut spielbar (Vorgänger: 29 Bilder/s). Mit vierfachem Antialiasing und Shader Model-1.1-Effekten beträgt der Vorsprung mit 61 gegenüber 31 Bildern/s sogar 98 Prozent.
Shadermark bestätigt in bestimmten Tests (HDR-Shader 22,23,24) die verdoppelte Shader-Leistung, im Mittel weist er jedoch eine Steigerung um nur 60 Prozent aus. Das neue Transparent-Antialiasing steigert die Darstellungsqualität bis zu einem bestimmten Grad, kann bei kleinen Objekten aber keine Wunder bewirken. Der Multisampling-Modus arbeitet entgegen der Erwartung teilweise besser als das Supersampling.
Erstmalig müssen sich Interessenten nicht mehr wochenlang gedulden. Dank eines Exklusiv-Abkommens mit Nvidia sind bereits heute beim Online-Händler Alternate gut 100 Exemplare von Gigabyte und XFX zu Preisen um 560 Euro verfügbar. Die XFX-Karte ist mit 450/625 MHz sogar leicht höher getaktet und mit zwei DVI-I-Buchsen nebst Video-In sowie einem Software-Bundle aus X2 - The Threat, MotoGP2 und einem Videoschnittprogramm ausgestattet.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
3D-Grafikchips Radeon X1000 mit vielen Verbesserungen und hohen Taktfrequezen
«
Antwort #6 am:
05 Oktober, 2005, 15:18 »
ATIs neue Grafikchipgeneration Radeon X1000 übernimmt viele Features der Konkurrenz und hebt sie auf eine höhere Entwicklungsstufe. Die Taktfrequenzen schrauben die Kanadier auf Rekordhöhe. An der Spitze von ATIs neuer Chip-Familie steht der mit 16 Pixelpipelines ausgestattete Radeon X1800. Als XT-Ausführung arbeitet er mit stolzen 625 MHz Chiptakt und 750 MHz Speichertakt; die XL-Variante ist für jeweils 500 MHz ausgelegt. Der Radeon X1600 integriert 12 Pixel-Pipelines und ist ebenfalls in zwei Varianten mit 590/690 MHz (XT) und 500/390 MHz (Pro) angekündigt. Das Einsteiger-Segment bedient ATI mit dem Radeon X1300, der sich auf vier Pixel-Pipelines beschränkt und als Pro- (600/400 MHz), Standard- (450/250 MHz) und Hyper-Memory-Modell (450/500 MHz) in den Handel kommen soll. ATI lässt alle Radeon X1000-Varianten in einem 90-nm-Prozess fertigen und stattet sie mit den gleichen Features aus.
Zu den zahlreichen Neuerungen gehört 32-Bit Gleitkomma-Genauigkeit in den Pixel-Shadern, wie es die Konkurrenz von Nvidia bereits seit dem GeForce 6800 anbietet. Auch HDR-Rendering (High Dynamic Range) für hohe Kontraste ist bereits seit längerem von den GeForce-Chips bekannt. ATI unterstützt aber nicht nur leistungshungrige 64-Bit-Formate (FP16, Int16), sondern auch speichersparende 32-Bit-Formate wie das 10:10:10:2-Format der XBox 360 oder andere spezielle Formate (Int10+L16). Zudem sind bei der X1000-Serie HDR-Effekte auch mit Antialiasing kombinierbar. Die Antialiasing-Modi erweitert ATI um adaptives Antaliasing, das die Zahl und Anordnung der Sub-Pixel nach Bedarf variiert und wie bei Nvidia gezielt auf transparente Texturen mit filigranen Strukturen wirkt. Anisotropes Filtern steht jetzt auch in einem High-Quality-Modus (area aniso) zur Verfügung, der endlich mit der für ATI bislang typischen Winkelabhängigkeit Schluss macht und die erste, detaillierteste MIP-Mapping-Stufe bis hin zu größerer Entfernung verwendet. In hügeligem Gelände mit geneigten Flächen bleiben die Texturen dadurch länger scharf.
Wie erwartet hat ATI das Shader-Model 3.0 implementiert, das in Shader-Programmen bedingte Sprünge, Schleifen und Unterprogramm-Aufrufe erlaubt. Entwickler können dadurch flexible Shader-Programme schreiben, die beispielsweise selbstständig zwischen verschiedenen Beleuchtungsverfahren wechseln können, je nachdem, ob ein Pixel im Schatten liegt oder direkt beleuchtet ist. Das Shader-Modell 3.0 (ps_30) steht bei der Konkurrenz schon seit der GeForce-6x00-Serie zur Verfügung, nach ATIs Aussage hat es bei den Entwicklern aber keinen großen Anklang gefunden. Die für die X1000-Chips gewählte Umsetzung soll aber besonders effizient sein. Wesentlich dafür ist, dass beispielsweise der Radeon-X1800-Chip mit besonders kleinen Threads von lediglich vier mal vier Pixeln arbeitet. Dadurch ist die Wahrscheinlichkeit, dass ein Thread vollständig im Licht oder im Schatten liegt, besonders hoch, und er muss nur einen Zweig des Pixel-Shaders durchlaufen (early exit). Ein größerer Thread, der sowohl im Schatten als auch im Licht liegt, muss dagegen mit allen Pixeln beide Beleuchtungszweige des Shaders durchlaufen, womit ein möglicher Geschwindigkeitsvorteil von SM30-Shadern verloren geht.
Um die Effizient weiter zu erhöhen, sind die X1800-Chips in der Lage, mit bis zu 512 Threads gleichzeitig zu arbeiten. Dies erhöht wiederum die Wahrscheinlichkeit, dass immer alle Recheneinheiten des Shader-Cores ausgelastet sind. Beispielsweise kann eine Pipeline, die noch auf Texturdaten wartet, in den Wartezyklen einem anderen Thread bearbeiten (Ultra-Threading). Kleine Threads stellen allerdings höhere Anforderungen an die Cache-Architektur, denen ATI mit voll assoziativen Caches für Texturen, Pixel-, Z- und Stencil-Werten begegnet.
ATI hat auch an anderen Stellen die Effizienz erhöht. Der Speichercontroller des Radeon X1800 arbeitet mit acht statt vier Kanälen, was die Performance bei zufälligen Datenzugriffen (random access) im Idealfall verdoppelt. Der Kontroller kann zudem vom Treiber an das Anforderungsprofil verschiedener Applikationen angepasst werden. Innerhalb des Grafikchips leitet ein Ringbus die über die acht Kanäle eintreffenden Daten zu ihrem Bestimmungsort. Dadurch verdichten sich die Datenleitungen nicht mehr am Speichercontroller, was die Temperatur-Belastung verringert und höhere Taktfrequenzen ermöglicht.
Besonderes Augenmerk legten die Entwickler auf die Verarbeitung der Z-Daten, die meist den höchsten Anteil am Datenverkehr haben. Der hierarchische Z-Buffer arbeitet bei den X1000-Chips auf Gleitkommabasis, was die Effizienz um bis zu 60 Prozent erhöhen soll. Durch verlustlose Kompression reduzieren die X1000-Chips den Z-Datenverkehr maximal auf ein Achtel. ATI betont ferner zahlreiche Neuerungen bei der Video-Verarbeitung (Avivo), zu denen Hardware-Beschleunigung für zahlreiche Formate (H.264, VC-1, WMV9, PMC, MPEG-2, MPEG-4), automatische Pegelkontrolle (AGC), 3D Combfilter, Denoise, 10-Bit-Verarbeitung auch über den DVI-Ausgang sowie HDCP/HDMI für kopiergeschützte HD-Videos gehören soll.
In ersten Tests konnte sich eine Radeon X1800 XT mit 512 MByte GDDR3-Speicher gut gegen eine GeForce 7800 GTX behaupten. Der Vorsprung betrug bei Splinter Cell Chaos Theory 12 Prozent (1600x1200, AAx4, AFx8, alle Effekte) und bei Far Cry sogar 23 Prozent, wobei jeweils 1600 × 1200 Bildpunkte, vierfaches Antialiasing und achtfache anisotrope Filterungen eingestellt waren. In Doom3 liegt ATIs Flaggschiff noch mit 19 Prozent zurück, wenn man 1600er-Auflösung und vierfaches Antialiasing einstellt.
AIT gab bislang lediglich Dollar-Preise bekannt, die für das X1800-XT-Modell mit 512 MByte Speicher bei 549 US-Dollar und für die XL-Variante mit 256 MByte bei 449 US-Dollar liegen. Die Preise für die Radeon X1300 reichen von 149 US-Dollar für die Pro-Version mit 128 MByte bis zu 249 US-Dollar für die XT-Version mit 256 MByte. Modelle mit dem Radeon X1300 sollen ab 99 US-Dollar (Standard, 128 MByte) zu haben sein. Die Radeon X1300 Pro mit 256 MByte soll 149 US-Dollar kosten.
Laut ersten Kommentaren sind die Händler zuversichtlich, die Radeon X1800 XL bereits in der kommenden Woche ausliefern zu können. Mitte bis Ende Oktober sollen der Radeon X1300 folgen, Anfang November die Radeon X1800 XT und Anfang Dezember die Mittelklasse-Karten mit dem Radeon X1600.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidia legt nach
«
Antwort #7 am:
21 Oktober, 2005, 19:54 »
Mit neuen Produkten versucht Nvidia, sich gegen die Radeon-X1000-Serie seines kanadischen Konkurrenten ATI zu behaupten. Im Einsteigersegment um 150 Euro soll der GeForce 6600 DDR2 dem Radeon X1300 Pro Paroli bieten. Der für 350 MHz Chip- und 400 MHz Speichertakt ausgelegte Grafikchip soll rund 25 Prozent schneller arbeiten als die Standardausführung mit 300/275 MHz. Das könnte reichen, um die X1300er-Chips zu schlagen. Deren Kern arbeitet zwar im 600-MHz-Takt, muss aber mit vier Pixel-Pipelines auskommen, während die GeForce-6600er-Chips acht Pipelines vereinen.
In der Mittelklasse wird wahrscheinlich der GeForce 6800 GS gegen ATIs Radeon X1600 antreten, was Nvidia aber noch nicht bestätigen wollte. Pipeline-Anzahl und Taktfrequenzen sind noch nicht bekannt. Allerdings findet man auch schon Grafikkarten mit dem Oberklasse-Grafikprozessor GeForce 6800 GT für 250 Euro im Handel, was dem Preis einer Karte mit dem Radeon X1600 XT entspricht. Nvidias GT-Chip ist mit seinem 256-Bit-Bus dem X1600 XT auf jeden Fall bei der Speicher-Performance überlegen. Die relativ niedrige Chiptaktfrequenz von 350 MHz macht es ihm aber schwer, mit dem 590 MHz schnellen ATI-Chip mitzuhalten, wenn Spiele anspruchsvolle Pixel-Shader einsetzen. Der in Japan aufgetauchte GeForce 6800 XT ist jedenfalls kein Gegner für ATIs neue, mit zwölf Pipelines ausgestattete Mittelklasse. Er soll lediglich acht Pipelines enthalten und mit 325/350 MHz laufen.
Gegen ATIs Flaggschiff Radeon X1800 XT wollen die Kalifornier weiter den GeForce 7800 GTX ins Rennen schicken. Ein GeForce 7800 "Ultra" mit höheren Taktfrequenzen soll vorerst nicht geplant sein, dafür aber eine Version mit 512 MByte Speicher.
Quelle und Links :
http://www.heise.de/newsticker/meldung/65212
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Radeon X1900 - ATI verdreifacht Shader-Zahl
«
Antwort #8 am:
24 Januar, 2006, 18:32 »
ATI verdreifacht bei seinem neuen Highend-Chip Radeon X1900 die Rechenleistung und setzt sich vor seinen Konkurrenten Nvidia wieder an die Spitze. Beim Radeon X1900 integriert ATI 48 Pixel-Shader und verdreifacht damit die Shader-Anzahl gegenüber dem Vorgänger Radeon X1800. Auch die Zahl der Register für Zwischenergebnisse hat ATI verdreifacht. Die Zahl der Textur-Einheiten beträgt weiterhin 16.
ATIs jüngste Kreation besitzt also die dreifache Rechenleistung für die Ausführung von Grafik- und Beleuchtungsalgorithmen. Damit folgen die kanadischen 3D-Spezialisten dem Trend zu immer komplexeren Shader-Programmen, die nicht mehr Texturdaten, sondern mehr Arithmetikleistung benötigen, um Oberflächen realistischer darzustellen und eine größere Zahl von dynamischen Lichtquellen zu berechnen. Bei F.E.A.R. sollen beispielsweise auf jede Texturoperation sieben Arithmetikoperationen kommen. Die geballte Shader-Power ermöglicht es prinzipiell auch, Texturen erst dann, wenn Sie gebraucht werden, zu errechnen (prozedurale Texturen, zum Beispiel Perlin Noise). Auch die Simulation von Strömungen und Rauch lässt sich bei ausreichender Shader-Leistung von der CPU auf den Grafikchip verlagern.
Die schnellste Ausführung – Radeon X1900 XTX – arbeitet mit 650 MHz Chip- und 775 MHz Speichertakt nur unwesentlich schneller als der Vorgänger. ATI vermeidet höhere Speichertakte, da schnellere DRAMs nicht ausreichend verfügbar sein sollen. Höheren Chiptakten dürfte die Stromaufnahme der 380 Millionen Transistoren entgegenstehen. Die zweite Variante – Radeon X1900 XT – ist mit 625 und 725 MHz Chip-/Speichertakt nur wenig langsamer. Im Vergleich zu Nvidias schnellstem Produkt – GeForce 7800 512 mit 550 MHz Chip- und 850 MHz Speichertakt sowie 24 Pixel-Shadern – kann ATIs XTX-Ausführung mit der 2,36-fachen Pixel-Shader-Leistung aufwarten.
Erste Messungen mit aktuellen Spielen bestätigen die überlegene Shader-Leistung. Bei 1600er-Auflösung und höchsten Qualitätseinstellungen mit vierfachem Antialiasing und achtfachem anisotroper Filterung kann sich der X1900 XTX deutlich vom GeForce 7800 GTX 512 absetzen. Bei Splinter Cell – Chaos Theorie und der Demo des Sciencefiction-Spiels X3 – The Reunion beträgt der Vorsprung rund 14 Prozent. Bei Call of Duty 2 steigt er bereits auf 18 und bei F.E.A.R. auf über 30 Prozent. Bei Doom 3 herrscht Gleichstand. Im 3D-Benchmark 3DMark 2006 erzielt die X1900-XTX-Karte 4922 Punkte gegenüber 4606 Punkten für das Nvidia-Flaggschiff. Hier fällt der Vorsprung im HDR/SM3.0-Test mit 2560 gegenüber 2182 Punkten am deutlichsten aus. ATI sieht den 3DMark06 allerdings eher als SM-2.0-Test, da er die Vorteile von SM-3.0 nur ansatzweise nutze.
ATIs Board-Partner wollen die X1900-Reihe bereits ab nächster Woche anbieten. Der XTX-Ausführung soll rund 650 Euro und die XT-Version 550 Euro kosten. Die CrossFire-Ausführung der Radeon X1900 XT beziffert ATI auf 600 Euro. In einigen Wochen soll noch eine All-in-Wonder X1900 mit integriertem UKW- und TV-Tuner folgen, die mit 500/480 MHz Chip-/Speichertakt arbeitet und bei 500 Euro liegen soll. Die Radeon X1800-Reihe ist vorerst noch weiter erhältlich. ATI will sie aber mittelfristig durch die X1900-Produkte ersetzen.
Quelle und Links :
http://www.heise.de/newsticker/meldung/68762
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Zwei neue Modelle in Nvidias Familie von Highend-Grafikchips
«
Antwort #9 am:
06 September, 2006, 15:26 »
Mit der GeForce 7900 GS und 7950 GT erweitert Nvidia die GeForce-7900-Familie um zwei neue Varianten und versucht sich so besser gegen den Konkurrenten ATI zu positionieren; der hatte vor kurzem mit der Radeon X1950XTX ein neues Top-Modell eingeführt und so die Karten im Highend-Markt für Grafikkarten neu gemischt.
Der GeForce 7950 GT arbeitet mit 550 MHz Chip- und 700 MHz Speichertakt und soll den GeForce 7900 GT ersetzen. Damit bietet der 7950er-Chip rund zehn Prozent mehr Leistung als der mit für 450/660 MHz spezifizierte 7900 GT. Allerdings haben eine Reihe von Anbietern die Taktfrequenzen ihrer 7900-GT-Karten schon selbst kräftig erhöht, was den Neuigkeitswert des 7950er-Chips stark begrenzt. Das eigentlich Interessante ist daher der Speicherausbau der 7950-Karte, der mit 512 MByte die doppelte Kapazität bietet. Zukünftige Spiele dürften davon immer stärker profitieren. Der Verkaufspreis der 7950-GT-Karten soll bei rund 300 Euro liegen, womit sie sich zwischen ATIs Radeon X1900 XT (270 Euro) und der Radeon X1900XTX (360 Euro) einordnet.
Der zweite Neuzugang ist der GeForce 7900 GS, mit dem Nvidia einen preiswerten Einstieg ins Performance-Segment bieten will. Allerdings besitzt der GS-Chip nur 7 Vertex-Shader und 20 Pixel-Pipelines, während alle anderen 7900er-Modelle mit 8 Vertex-Shadern und 24 Pipelines ausgestattet sind. Der neue Chip arbeitet mit 450 MHz, der 256 MByte fassende Speicher läuft mit 660 MHz. Weiteres Merkmal der 7900er-Famile sind normalerweise zwei Dual-Link-DVI-Ausgänge für Auflösungen bis 2560 x 1600 Bildpunkten an digitalen Displays – Datenblätter von 7900-GS-Grafikkarten verschiedener Grafikkarten-Hersteller sprechen allerdings nur einen Dual-Link-Ausgang. HDCP-Fähigkeit für die Wiedergabe von kopiergeschützten Filmen soll bei der 7950 zum Standard gehören, bei der 7900 GS kann die Unterstützung fehlen, wenn die Karte kein Encryption-ROM besitzt. Zu den Anschlüssen gehört auch ein analoger TV-Ausgang, der auch HDTV bis 1080P wiedergibt.
Die GS-Karten eignen sich besonders für den Einsatz in geräuscharmen Umgebungen – der Lüfter entspricht zwar dem sonst eher lautstarkem 7900er-Standard, die Regelung drosselt den Lüfter aber so stark, dass die Grafikkarte auch im 3D-Betrieb kaum hörbar ist. Erste Tests bestätigen das. Die GS-Grafikkarten sollen in den nächsten Tagen für rund 200 Euro in den Handel kommen. Preislich konkurrieren sie mit ATIs Radeon X1900GT (ab 220 Euro). Der Verkaufsstart des GeForce 7950 GT hat Nvidia auf den 14. September festgelegt.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidias nächster GeForce-Chip kommt mit Physikbeschleunigung
«
Antwort #10 am:
22 September, 2006, 12:20 »
Nvidia-Vizepräsident dementiert Ankündigungen dedizierter Physik-Karten
Im Gespräch mit Golem.de erklärt Nvidias PR-Chef Michael Hara anderslautende Meldungen, nach denen sein Unternehmen an eigenen Steckkarten mit Physikbeschleunigern arbeiten würde. Vielmehr würde die nächste GeForce-Generation im Grafikprozessor physikalische Berechnungen erledigen können.
Für einige Verwirrung sorgte in den letzten Tagen eine US-Pressemitteilung von Asus für deren neues Mainboard "P5N32-SLI Premium". Das Board auf Basis eines NForce 590 von Nvidia für AMD-Prozessoren verfügt über drei x16-Slots für PCI-Express-Karten. Bisher ließen sich in einem Spiele-PC nur zwei solcher Steckplätze sinnvoll nutzen, indem man sie mit zwei Grafikkarten füllte. Asus' Mitteilung spricht jedoch von "Nvidias zukünftiger Physik-Karte", die im dritten Slot Platz finden sollte.
Dabei handelt es sich aber offenbar um ein Missverständnis. Im Interview mit Golem.de sagte Nvidia-Vizepräsident und Kommunikations-Chef Michael Hara: "Das wird keine eigene Physik-Karte sein. Vielmehr ist es etwas, in das wir langsam hineinwachsen. Mit der nächsten GeForce-Generation und den dann folgenden werden die Möglichkeiten für Physik-Berechnungen sehr gut sein." Hara spielte damit auf den bisher nur unter dem Codenamen "G80" bekannten GeForce-Chip der achten Generation an, der nach unbestätigten Angaben noch 2006 vorgestellt werden soll.
Wie Hara weiter erklärte, denkt Nvidia daran, die "Unified Shaders" der neuen GPUs auch für Physik zu nutzen. Durch die Zusammenführung von Pixel- und Vertex-Shadern sei es sehr einfach, auch die physikalischen Eigenschaften eines Objekts gleich im Grafikprozessor zu berechnen. Hara glaubt fest an dieses Konzept und meint, dass auch Vierkern-Prozessoren weiterhin den Grafikchips in der Gleitkomma-Leistung unterlegen bleiben werden.
Ob Nvidia, wie dies ATI schon demonstriert hatte, tatsächlich drei gleichwertige Grafikkarten parallel betreiben will - zwei für die Grafik, eine für Physik -, wollte Michael Hara noch nicht verraten.
Quelle :
www.golem.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Nvidias G80 - mit Wasserkühlung und ab Ende November?
«
Antwort #11 am:
06 Oktober, 2006, 12:30 »
Gerüchte um neuen GeForce-Chip verdichten sich
Nvidias Geheimhaltung zum nächsten neuen Grafikchip funktionierte bisher hervorragend. Aus mehreren asiatischen Quellen ist nun jedoch zu hören, dass der "GeForce 8800" (Codename G80) bereits Ende November 2007 auf den Markt kommen soll, mit vollständiger Unterstützung für DirectX 10 - und womöglich einer zwingend nötigen Wasserkühlung.
Wie Nvidia gegenüber Golem.de bereits in einem Interview verriet, wird der G80 erweiterte Funktionen zur Physikbeschleunigung enthalten. Sonst hält sich Nvidia zu seinem neuen Produkt bisher sehr bedeckt. Bei der Leistung mit nur einer GPU ist Nvidia durch den Radeon X1950 XTX von ATI geschlagen, das aktuelle Highend-Produkt von Nvidia braucht auf einer PCI-Express-Karte zwei Prozessoren und heißt 7950 GX2. Mit zwei dieser Karten ist auch Quad-SLI möglich, was ATI noch nicht zu bieten hat.
Dennoch muss es Nvidias Ziel sein, die Performance-Krone mit nur einem Chip zurückzuerobern. Da der kalifornische Hersteller mit Vorab-Informationen diesmal mehr als geizt, heizt das natürlich die Gerüchteküche an. So tauchten in der vergangenen Woche erste Bilder einer Nvidia-Karte auf, die gleich über zwei Strombuchsen verfügt und auch mit Anschlüssen für eine Wasserkühlung versehen ist. Noch ist aber nicht klar, ob es sich dabei um ein Sondermodell oder die Serienausstattung der nächsten Highend-Karte von Nvidia handelt.
Wie einer kostenpflichtigen Meldung bei Digitimes zu entnehmen ist, soll der G80 mit dem Shader Model 4.0 Microsofts nur für Vista angekündigte Grafikschnittstelle DirectX 10 vollständig unterstützen. Unter Berufung auf taiwnesische Grafikkartenhersteller berichtet die Webseite, dass der G80 bereits Ende November 2006 als "GeForce 8800" auf den Markt kommen soll, was auch Nvidias bisheriger Namenskonvention entspricht: Seit Jahren bezeichnen die vierstelligen Modellnummern in der ersten Ziffer die Chip-Generation, das Top-Modell einer neuen Architektur erhält dann den Zusatz "800" und wird in einer leicht überarbeiteten und höher getakteten Variante rund ein halbes Jahr später als "900" neu aufgelegt.
Da Nvidia sich bei der Vorstellung der letzten neuen Architektur mit dem GeForce 7800 GTX dazu bekannt hat, künftig neue Karten am Tag der Ankündigung auch verfügbar zu machen - was bei den letzten beiden Chips auch klappte - ist davon auszugehen, dass auch der G80 sofort nach Vorstellung geliefert wird. Beim 7800 GTX gab es jedoch zuerst nur die schnellste und teuerste Variante über Online-Händler, erst einige Wochen danach standen die Karten auch im Laden. Wenn Nvidia, wie Digitimes weiter berichtet, den G80 Ende November vorstellen sollte, dürften die Karten bis zum Weihnachtsgeschäft in ausreichenden Stückzahlen über alle Kanäle zu haben sein.
Völlig unklar ist noch der Preis dieser Produkte. ATI hatte sich mit der X1950 XTX von den in den letzten Jahren ständig steigenden Preisen von bis zu 600,- Euro für Highend-Grafikkarten verabschiedet und 399,- Euro als Preisempfehlung ausgegeben. Ob Nvidia hier auch mit der neuen Generation mitzieht, ist fraglich.
Quelle :
www.golem.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Radeon X1950 Pro: Neue Mittelklasse mit nativem CrossFire
«
Antwort #12 am:
17 Oktober, 2006, 18:05 »
Mit der Radeon X1950 Pro führt ATI jetzt auch in der unteren Oberklasse ein Grafikkarte mit einem in 80-Nanometer-Fertigung hergestellten Grafikchip (RV570) ein. Er besitzt 12 Pixel-Pipelines mit insgesamt 36 Recheneinheiten für Farbberechnungen (Pixel-Shadern) und entspricht damit dem der X1900 GT. Auch der Chiptakt von 575 MHz stimmt mit dem des GT-Chips überein. Die 256 MByte Speicher der Radeon X1950 Pro arbeiten allerdings mit 682 MHz schneller als die der 600-MHz Speicher der X1900 GT.
Damit liegt die neue Grafikarte in den meisten Benchmarks leicht vor Nvidias GeForce 7900 GS, dem der X1900-GT-Chip noch nicht gewachsen war. In Spielen wie Oblivion, F.E.A.R. und Prey beträgt der Vorsprung zwischen drei und sieben Prozent, wenn man 1600 × 1200 als Spieleauflösung und zwei bis vierfaches Antialiasing einstellt. In Call of Duty 2 erreicht die X1950 Pro bei vierfachem Antialiasing noch 20 Bilder/s und kann ihrer Konkurrenz (17 Bilder/s) sogar um 18 Prozent davonziehen.
Mit der X1950 Pro führt ATI zudem eine verbesserte Signalverbindung für den Parallelbetrieb zweier Grafikkarten im CrossFire-Verbund ein. Ähnlich der Methode von Nvidia verbindet man zwei Karten mit zwei Steckverbindern an der Grafikkarten-Oberkante. Je ein Steckverbinder gehört zum Lieferumfang der X1950 Pro. Da die Compositing-Engine, die die beiden Teilbilder kombiniert, jetzt im Grafikchip integriert ist, gibt es bei der X1950 Pro keine spezielle CrossFire-Ausführung mehr.
Man spekuliert bereits, das auch die X1900 XT mit 16 Pipelines durch eine X1950 XT in 80-nm-Fertigung ersetzt werden soll. In der Mittelklasse gibt es bereits mit der X1300 XT und der X1650 Pro bereits zwei 80-nm-Modelle.
Die X1950 Pro soll in den nächsten Tagen für knapp 170 bis 210 Euro in den Handel kommen. Tul hat in seiner PowerColor-Serie bereits ein Modell mit besonders leisem Lüfter von Arctic Cooling angekündigt. Auch Asus verspricht mit einem verbesserten Kühler eine um 10 Grad niedrigere Chiptemperatur. Im Gegensatz zum Original belegen beide Modifikationen mit ihrem Kühler auch den benachbarten Steckplatz.
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
Neue High-End-Grafikkarten von AMD und Nvidia
«
Antwort #13 am:
08 November, 2006, 20:21 »
Nvidia stellt mit dem GeForce 8800 (G80) seit Langem einmal wieder eine neue Chiparchitektur vor. Der DirectX-10-Chip kommt auf dem Flaggschiff GeForce 8800 GTX und der leicht abgespeckten Variante GeForce 8800 GTS zum Einsatz. Von beiden Modellen konnte Nvidia bereits eine erste Charge von weltweit etwa 25.000 Stück ausliefern, die in den nächsten Tagen in den Handel kommen soll. Die GTX-Ausführung wird 550 bis 600 Euro kosten, das GTS-Modell rund 450 Euro. Die bisherigen Spitzenmodelle GeForce 7900 GTX und GeForce 7950 GX2 laufen aus.
Mit 681 Millionen 90-Nanometer-Transistoren, 128 skalaren Shader-ALUs (Stream Processors), 64 Textur- und 6 Rastereinheiten übertrifft der GeForce 8800 GTX seinen Vorgänger mehr als deutlich. Die Shader-Einheiten laufen mit rekordverdächtigen 1350 MHz, alle übrigen Baugruppen mit 575 MHz. Der Speicher fasst üppige 768 MByte, ist 900 MHz schnell und über einen 384-Bit-Bus angebunden. Der GTS-Chip begnügt sich mit 96 Shader-ALUs und 640 MByte Speicher. Die Taktfrequenzen betragen 1200 MHz für den Shader-Core, 500 MHz für alle übrigen Baugruppen und 800 MHz für den Speicher.
Nvidias GeForce 8800 GTX beherbergt 681 Millionen Transistoren und lässt DirectX-10-Spiele wie Crysis oder Alan Wake in voller Pracht erstrahlen.
Für die übliche Verarbeitung von Koordinaten-Vektoren (x, y, z, w) und Pixel-Farbwerten (r, g, b, alpha) sind jeweils vier Shader-ALUs gekoppelt. Jeweils vier dieser Gruppen bilden eine 16-fache SIMD-Einheit (single instruction, multiple data), die nach herkömmlicher Betrachtung eine Quad-Pipeline ergeben. Demnach besitzt der GeForce 8800 GTX also acht Quad-Pipelines, die es in der Form von zwei Quad-Pipes für Koordinaten-Berechnungen (acht Vertex-Shader) und sechs Pixel-Quad-Pipes (24 Pixel-Shader) beim GeForce 7800/7900 auch schon gibt. Seine höhere Leistung bezieht der G80 in erster Linie aus dem von 650 auf 1350 MHz gesteigerten Takt.
Anzeige
Zusätzlich sollen die 8800er-ALUs effizienter sein, da die G80-Shader "unified" ausgelegt sind. Der Chip ist nicht auf die Aufteilung in acht Vertex- und 24 Pixel-Shader festgelegt ist, sondern kann sich je nach Situation unterschiedlich konfigurieren und seine 32 Shader-Einheiten damit besser auslasten. Ausserdem sollen mehrere Scheduler Tausende von Threads gleichzeitig verwalten können und die ALU-Einheiten zu mehr als 95 Prozent auslasten. Sprunganweisungen arbeiten mit Threads von 32 oder 16 Pixeln und sind dadurch etwas effizienter als bei den aktuellen ATI-Chips mit einer minimalen Thread-Größe von 48 Pixeln.
Die 64 Textur-Einheiten filtern auch FP32-Texturen, arbeiten bei HDR mit FP16-Texturen mit voller Geschwindigkeit und filtern anisotrop ohne Winkelabhängigkeit. Die sechs Rastereinheiten können HDR mit Antialiasing kombinieren und jeweils 16 Samples pro Takt ausgeben. Neu hinzugekommen ist achtfaches Antialiasing sowie Coverage Sampling Antialiasing, das bei bestimmten Kontrastverhältnissen die Qualität von 16-fachem Antialiasing erreicht und durch Datenkompression so schnell wie vierfaches Antialiasing sein soll.
Wie bei ATI arbeitet die Display-Pipeline jetzt durchgängig mit 10 Bit pro Farbkomponente. Der Video-Prozessor ist leistungsfähig genug, um das Postprocessing (Spatial-Temporal Deinterlacing, Inverse Telecine, Noise Reduction, Edge-Enhancement) auf VC-1- und H.264-kodierte HD-Filme anwenden zu können.
All dies funktioniert auch unter DirectX 9, wobei der Shader-Core gegenüber dem 7900 GTX die zwei- bis dreifache Leistung erreichen soll. In aktuellen Spielen ist der GeForce 8800 GTX nach Aussage von Nvidia zwischen 1,5- und 2-mal schneller.
Unter Windows Vista und DirectX 10 arbeiten die Shader nach dem Shader-Model 4.0, das längere Shader-Programme sowie 4096 statt 32 Rechenregister vorsieht und 128 statt 16 innerhalb eines Shader-Programms adressierbare Texturen ermöglicht. Zudem kommt mit dem Geometrie-Shader ein dritter Shader-Typ hinzu, der auf Dreiecksbasis arbeitet und eine Fülle zusätzlicher Aufgaben übernehmen kann.
Die Leistungsaufnahme einer GeForce-8800-GTX-Karte liegt im Mittel bei 117 Watt und kann bei einzelnen Spielen bis auf 145 Watt steigen. Nvidia schreibt ein Netzteil mit mindestens 450 Watt vor, das auf seinen 12-Volt-Leitungen 30 Ampere leisten muss. Das GTS-Modell ist um etwa 25 Prozent genügsamer (12 Volt, 26 Ampere).
Quelle :
www.heise.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
SiLæncer
Cheff-Cubie
Beiträge: 191383
Ohne Input kein Output
GeForce 8800 GTX/GTS - Neuer Treiber beseitigt Fehler
«
Antwort #14 am:
13 Januar, 2007, 08:38 »
Gegen Darstellungsfehler unter Halo, Oblivion und Splinter Cell Double Agent
Nvidia hat speziell für Besitzer von High-End-Grafikkarten mit den beiden GeForce-Grafikchips 8800 GTX und 8800 GTS einen neuen Windows-XP-Treiber mit der Versionsnummer 97.92 veröffentlicht. Damit werden primär Darstellungsfehler beseitigt.
Mit dem vorherigen GeForce-8800-Treiber konnte es Darstellungsfehler in Verbindung mit "Halo", "The Elder Scrolls IV: Oblivion" und "Splinter Cell Double Agent" geben, die nach dem Treiber-Update beseitigt sein sollen. Im synthetischen 3D-Benchmark 3DMark 06 soll nun die Leistung bei aktiviertem "Coverage Sampling AA" (CSAA) richtig ermittlt werden.
Zudem soll es beim gleichzeitigen Brennen einer DVD und dem Fernsehen keinen Blue-Screen-Absturz mehr geben. Ein kleiner Fehler in Nvidias Control Panel wurde ebenfalls beseitigt. Wer im SLI-Modus gleich zwei 8800er betreibt, soll nun mit Valves Steam-Client keine Probleme mehr bekommen: SLI-Profile werden künftig nicht mehr ignoriert wenn die steam.exe läuft und sich die Auflösung der Anwendung von der des Desktops unterscheidet.
Nvidia GeForce-8800-Treiber "ForceWare Release 95 Version 97.92" für die verschiedenen 32-Bit- und 64-Bit-Versionen von Windows XP findet sich im Treiberbereich von Nvidia.de.
http://www.nvidia.de/page/drivers.html
Quelle :
www.golem.de
Arbeits.- Testrechner
:
Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit
TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )
Drucken
Seiten: [
1
]
2
3
4
5
6
...
23
Nach oben
« vorheriges
nächstes »
DVB-Cube <<< Das deutsche PC und DVB-Forum >>>
»
PC-Ecke
»
# Hard-und Software Allgemein
»
Thema:
Neue Grafikkarten von AMD und Nvidia