DVB-Cube <<< Das deutsche PC und DVB-Forum >>>

PC-Ecke => # Hard-und Software Allgemein => Thema gestartet von: SiLæncer am 01 Dezember, 2004, 19:02

Titel: Neue Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 01 Dezember, 2004, 19:02
Das neue ATI-Flaggschiff Radeon X850 XT Platinum Edition beruht auf einem optimierten Chip (Codebezeichnung R480) und erhöhten Taktfrequenzen. Die Steigerung bei den Takten bewegt sich allerdings nur im einstelligen Prozentbereich: Gegenüber dem bisherigen Spitzenprodukt Radeon X800 XT-PE legt der Chiptakt lediglich von 526 auf 540 MHz zu, und der Speichertakt nur von 574 auf 587 MHz. Dabei fällt die Kühlung diesmal erheblich aufwendiger aus. Die Grafikkarte belegt jetzt zwei Steckplätze und befördert die Abwärme über Öffnungen im Slotblech aus dem Rechnergehäuse heraus. Wie erwartet kann sich die Radeon X 850 XT-PE im Test mit Doom3, Half-Life 2 und FarCry auch nur durch rund vier Prozent höhere Bildraten von ihrem Vorgänger abheben. ATI räumt ein, dass die Überarbeitung des Chips vor allem zu einer bessseren Verfügbarkeit des Produkts beitragen soll. Der Vorgänger konnte lediglich in einigen Projektgeschäften eingesetzt werden und gelangte nur in kleinen Mengen in den Einzelhandel.

Bislang gibt es lediglich Dollar-Preisangaben, nach denen die XT-PE-Ausführung 549 US-Dollar kosten soll. Eine mit 520/540 MHz Chip-/Speichertakt betriebene XT-Version soll für 499 US-Dollar erhältlich sein und eine ebenfalls mit diesen Werten arbeitende Pro-Version mit zwölf statt sechzehn Pipelines ist für 399 US-Dollar zu haben.

Die zweite Neuerung dürfte für viele Anwender interessanter sein: Durch den Wechsel auf eine 0,11-µm-Fertigung (Codebezeichnung R430) will ATI weitere Varianten zu niedrigeren Preisen ermöglichen. Der Radeon X800XL ist für 400/500 MHz spezifiziert, besitzt sechzehn Pipelines und soll 349 US-Dollar kosten. Noch günstiger ist der Radeon X800 mit 400/350 MHz und zwölf Pipelines. ATI gibt den Preis mit 249 US-Dollar an, sodass man mit einem Einführungspreis von rund 300 Euro rechnen kann. ATIs Partner werden den Radeon X800 überwiegend auf Grafikkarten mit 128 MByte Speicher einsetzen. Alle anderen Modelle will man mit 256 MByte Speicher bestücken. Grafikkarten mit dem Radeon X850 sollen noch in diesem Monat in den Handel gelangen. Der Radeon X800XL und X800 hingegen erst im Januar.

Beide Chiplinien sind ausschließlich für PCI-Express ausgelegt und Besitzer von AGP-Systemen haben erst einmal das Nachsehen. Da die Produktion der auf dem R423 basierenden PCI-Express-Chips (Radeon X800 XT) aber eingestellt wird, wird Kapazität in der 0,13-µm-Fertigung frei, die ATI für die Produktion des AGP-High-End-Chips R420 (Radeon X800 XT-PE und X800 Pro) einsetzen will. Damit werden entsprechende Grafikkarten eventuell günstiger im Preis. Zudem soll es Pläne geben, Radeon X800 und X800XL mit dem Brückenchip Rialto an AGP anzupassen.

Quelle : www.heise.de
Titel: Radeon X700 und neue X800-Chips bald auch für AGP?
Beitrag von: SiLæncer am 28 Dezember, 2004, 12:41
Radeon X300 mit HyperMemory soll ebenfalls kommen

Bisher kann ATI Nvidias Mittelklasse-Grafikchip GeForce 6600 GT nur auf PCI-Express mit dem X700 kontern. Da der AGP-Markt noch sehr groß ist, arbeitet ATI derzeit an einem eigenen Brücken-Chip namens "Rialto" - dieser soll in "ein paar Monaten" so weit sein, wie ATI auf einer Investoren-Konferenz angab.

Während Nvidia dank eines in beide Richtungen funktionierenden Wandlers sowohl AGP-8X-Grafikchips auf PCI-Express-Grafikkarten als auch PCI-Express-Grafikchips auf AGP-8X-Karten verwenden kann, kümmert sich ATI seit einer Weile nur noch um PCI-Express und verlässt sich für AGP 8X auf sein bestehendes Chipangebot. Ohne Rialto müsste ATI AGP entweder links liegen lassen oder eigene AGP-Versionen seiner Chips entwickeln.

Auch mit dem in Entwicklung befindlichen Rialto sieht ATI-CEO David Orton auf AGP oder PCI-Express spezialisierte Chips als effizienteren Weg. Womit er vermutlich die technischen Aspekte meint, denn wirtschaftlich dürfte es sinnvoller zu sein, einen Brücken-Chip und PCI-Express-Grafikchips anstatt zweier paralleler AGP- und PCI-Express-Chipserien zu entwickeln und zu fertigen. Zumindest anfangs gab es wegen Nvidias Brücken-Chip allerdings Beschwerden seitens asiatischer Grafikkarten-Hersteller, denen der AGP/PCIe-Wandler zu teuer war.

Laut Industrie-Quellen von Xbit Labs soll Rialto in Kürze von einem ATI-Partner gefertigt werden, ab wann erste Grafikkarten mit dem Brücken-Chip auf den Markt kommen, sei bisher noch nicht klar. Ebenfalls ist noch nicht bekannt, ob Rialto - wie auch Nvidias konkurrierende Technik - in beide Richtungen (AGP nach PCIe, PCIe nach AGP) wird wandeln können oder ob damit nur PCI-Express-Chips auf AGP-8X-Grafikkarten eingesetzt werden können. Orton zufolge liegt darauf der Hauptfokus bei der Entwicklung, alles andere erscheint auch nicht sinnvoll - zumal es mit Brücken-Chip keinen Sinn mehr ergibt, reine AGP-Chips zu entwickeln.

Mit Rialto könnte ATI seine PCI-Express-Grafikchips X300, X700, die neueren X800-Chips und das aktuelle Topmodell X850 auch für AGP-Systeme anbieten. Seinen Low-End-PCI-Express-Chip X300 will ATI laut eines Digitimes-Berichts ab Anfang 2005 mit HyperMemory ausstatten, womit der lokale Grafikspeicher zu Gunsten einer Shared-Memory-Lösung per PCI-Express ausgelagert wird und somit auch die Hardware-Kosten verringert werden können. ATI hatte seine Technik zwar früher als Nvidia angekündigt, bisher aber nur in Notebooks und PC-Chipsätze integriert - von Nvidia-Partnern gibt es bald GeForce-6200-Grafikkarten mit TurboCache, auch hier wird aus Kostengründen auf den PC-Hauptspeicher gesetzt, was allerdings auch Leistung kostet.

Quelle : www.golem.de
Titel: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 16 Januar, 2005, 10:39
Nach dem erfolgreichen Verkaufstart der GeForce 6600 GT AGP Anfang November schickt Nvidia nun auch die niedriger getaktete 6600 als AGP-Version ins Rennen. Erneut kommt dabei Nvidias HSI-Bridge-Technik zum Einsatz.
      
Draufzahlen

Chip und Speicher werden wie bei der PCI-Express-Variante (PCIe) mit je 300 Megahertz getaktet. Erste 6600 AGP-Karten sind bereits im Handel erhältlich, der Preis beträgt bei einem Grafikspeicher von 128 Megabyte rund 150 Euro. Versionen mit 256 Megabyte Grafikspeicher kosten knapp 200 Euro. Wie bei den 6600-GT-Karten zahlen Besitzer von Mainboards mit AGP-Schnittstellen auch für 6600er Karten etwas mehr: Die PCIe-Versionen sind bis zu 30 Euro günstiger.

ATI kann nicht mithalten

Konkurrent ATI fährt mit seiner Mittelklassekarte Radeon X700 dagegen immer noch nicht auf AGP-Schienen. Die Entwicklung einer entsprechenden Brücke, um die PCI-Express-Karten umzurüsten, ist noch nicht abgeschlossen.

Quelle : www.onlinekosten.de
Titel: ATI bringt Radeon 800 XL und 850 XT für AGP
Beitrag von: SiLæncer am 28 Februar, 2005, 21:58
High-End-Karten auch für ältere Rechner

Der AGP-Bus darf nicht sterben - dachte sich wohl ATI und hat jetzt auch sein Top-Modell namens Radeon X850 XT als AGP-8x-Chip vorgestellt. Zusammen mit dem kleinen Bruder 800 XL werden erste Karten noch im März 2005 erwartet.

Totgesagte leben länger. Das gilt insbesondere für den AGP-Steckplatz, auf den einige schon vor Jahresfrist mit dem Erscheinen der ersten PCI-Express-Chipsätze von Intel den Abgesang angestimmt hatten. Gerade für Compuerspieler, die sich im letzten Jahr für einen Athlon 64 entschieden haben, ist AGP nach wie vor aktuell. Immerhin kommen, beispielsweise von Via erst jetzt erste PCIe-Chipsätze für die AMD-Plattform auf den Markt. Bei Karten mit großem lokalem Speicher bringt PCIe überdies bisher keinen Performance-Vorteil.

Da wundert es nicht, dass ATI jetzt seinen derzeit schnellsten Desktop-Chip X850 XT und das kleinere Modell 800 XL auch als AGP-Bausteine an die Hersteller von Grafikkarten ausliefert. Der 850 XT ist dabei mit einem nativen AGP-Interface ausgestattet, der 800 XL benötigt einen kleinen Bridge-Baustein. Wie die ersten PCIe-Karten mit AGP-Prozessoren gezeigt haben, kostet diese Bridge jedoch kaum Performance, da PCIe vor allem bei den Bus-Protokollen auf AGP aufbaut.

Beide neuen Prozessoren will ATI im März 2005 an die Board-Hersteller ausliefern. Als erstes soll laut ATI der 850 XT als AGP-Version in nennenswerten Stückzahlen auf den Markt kommen. Welche Hersteller AGP-Karten mit den neuen Chips auf den Markt bringen wollen, konnte ATI noch nicht sagen. Als einer der Ersten hat sich aber bereits Sapphire aus der Deckung gewagt und will auf der CeBIT entsprechende Produkte zeigen - und dort auch die Preise verraten.

Quelle : www.golem.de
Titel: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 19 Juni, 2005, 14:42
Schon lange kursieren Gerüchte über den genauen Launch-Termin der nächsten Grafikchip-Generation des Chip-Herstellers Nvidia durchs Internet. Inzwischen kann man es bei den Kaliforniern direkt nachlesen: Den GeForce 7800 GTX alias G70 wird Nvidia anlässlich der GeForceLAN 2.0 am kommenden Dienstag in San Francisco der Öffentlichkeit präsentieren. Europäer dürften demnach am Mittwoch offiziell vom neuen Grafik-Boliden erfahren.

Bereits auf der diesjährigen Computex konnte man wesentliche Details des Grafikchips erfahren. Erste Benchmarks des Boliden sprechen zudem von wie bestellten rund 7800 3DMark05-Punkten bei 1024 x 768 Bildpunkten (ohne Antialiasing). Damit wäre der GeForce 7800 GTX etwas schneller als eine SLI-Kombination aus zwei Grafikkarten mit dem Vorgänger-Chip GeForce 6800 Ultra. Zwei G70-Grafikkarten auf einem SLI-Board sollen es sogar auf über 13 Tausend Punkte bringen.

Einige Internet-Versender hatten in den letzten Tagen etwas voreilig Grafikkarten mit dem GeForce 7800 GTX in ihren Shops für rund 600 Euro gelistet. Das hat Nvidia allerdings schnell wieder unterbunden. Ein schwedischer Shop führt aber immer noch eine Sparkle-Karte mitsamt einer sehr nach Nvidias Marketing klingenden Beschreibung. Ob die Karten allerdings tatsächlich sofort nach dem Launch in größeren Stückzahlen verfügbar sein werden, bleibt fraglich. Bisher musste man nach der Ankündigung einer neuen Generation nicht selten Monate auf kaufbare Exemplare warten.

Quelle : www.heise.de
Titel: 3D-Grafikchip GeForce 7800 GTX imponiert mit 24 Pixel-Pipelines
Beitrag von: SiLæncer am 22 Juni, 2005, 16:31
Seit heute ist es offiziell: Bei seinem neuen Flaggschiff GeForce 7800 GTX hat der kalifornische 3D-Chip-Spezialist Nvidia nicht nur die Anzahl der Pixel-Pipelines auf 24 erhöht, auch die Vertex-Shader sind auf acht Einheiten angewachsen. Der Vorgänger GeForce 6800 Ultra muss mit 16 Pipelines und sechs Vertex-Shadern auskommen. Die Taktfrequenzen stiegen leicht auf standardmäßige 430 MHz für den Chip und 600 MHz für den Speicher an (Vorgänger: 425/550 MHz). Dank des Wechsels auf die nächstkleinere Strukturgröße von 0,11 µm soll die Leistungsaufnahme einer 256-MByte-Grafikkarte dennoch 110 Watt nicht überschreiten. Nvidias Referenzlüfter beansprucht diesmal sogar nur minimalen Raum: Er ragt nicht über den PEG-Slot hinaus; der Nachbar-Slot bleibt somit weiterhin nutzbar. Die erwärmte Luft bläst er allerdings ins Gehäuse.

Die interne Struktur der Shader-Einheiten hat sich kaum verändert. Wie der GeForce 6800 erfüllt der GTX-Chip die Anforderungen von DirectX 9.0c und des Shader Models 3.0. Die Rechengenauigkeit liegt nach wie vor bei 128 Bit, also bei 32 Bit pro Farb- beziehungsweise Alpha-Komponente. HDR-Effekte (High Dynamic Range) für große Helligkeitsunterschiede beherrscht auch der GTX mittels eines 16-Bit-Gleitkommaformats für Texturen, Filterung und Blending. Der Framebuffer lässt sich dazu im ebenfalls 16-bittigen OpenEXR-Format betreiben. Wer will, kann zwei GTX-Karten über die bekannte SLI-Technik kombinieren.

Die Pixel-Shader bestehen nach wie vor aus je zwei Recheneinheiten (ALU), von denen die erste auch die Berechnung von Textur-Adressen übernimmt. Neu ist die Fähigkeit, in jeder ALU eine Multiply-/Add-Instruction (MADD) in einem Takt ausführen zu können (CineFX 4.0). Der Vorgänger benötigte dafür noch zwei Takte. Da dieser Befehl in Shader-Programmen recht häufig vorkommt, soll dies zusammen mit der höheren Pipeline-Zahl die Shader-Leistung nahezu verdoppeln. Auch in ersten Demos der UnrealEngine 3 erreiche der GeForce 7800 die 2- bis 2,4fache Leistung des GeForce 6800 Ultra, behauptet Nvidia.

Der pixeligen Darstellung von filigranen Objekten wie Pflanzen und Gitterzäunen kommt ein zusätzlicher Antialiasing-Modus zugute. Er wirkt gezielt auf teilweise transparente Texturen, auf denen dünne Strukturen in der Regel aufgemalt sind. Er steht als hochwertiges Supersampling und schnelleres Multisampling zur Verfügung. Schließlich kann man Antialiasing jetzt optional auch gammakorrekt betreiben. Die durch Interpolation gewonnenen Farbwerte für das Auffüllen von Treppenstrukturen an schrägen Kanten erscheinen dadurch in einer modifizierten Helligkeitsabstufung.

Bei ersten Tests auf einem System mit einem rund 3,7 GHz schnellen Pentium 4 "Extreme Edition" zeigten sich deutliche Leistungssteigerungen gegenüber einem GeForce 6800 Ultra in erster Linie bei extrem hohen Einstellungen und Spielen mit hohen Grafikanforderungen: Doom 3 läuft bei 1600er Auflösung und vierfachem Antialiasing 23 Prozent schneller (Demo1, HQ). In Far Cry steigerte sich die Bildrate bei 1600er Auflösung, vierfachem Antialiasing und achtfacher anisotroper Filterung um 36 Prozent (Level Dampf, Taschenlampe ein). Am höchsten fiel der Vorsprung mit HDR-Rendering aus, das bei 1600er Auflösung auf dem Vorgänger mit 25 Bildern/s nicht mehr spielbar läuft. Der 7800er bewältigt den Test mit 36 Bildern/s, was einer Steigerung von 44 Prozent entspricht. Splinter Cell - Chaos Theorie ist mit allen Shader-Model-3.0-Effekten und 1600er Auflösung 46 Prozent schneller und mit 43 Bilder/s noch gut spielbar (Vorgänger: 29 Bilder/s). Mit vierfachem Antialiasing und Shader Model-1.1-Effekten beträgt der Vorsprung mit 61 gegenüber 31 Bildern/s sogar 98 Prozent.

Shadermark bestätigt in bestimmten Tests (HDR-Shader 22,23,24) die verdoppelte Shader-Leistung, im Mittel weist er jedoch eine Steigerung um nur 60 Prozent aus. Das neue Transparent-Antialiasing steigert die Darstellungsqualität bis zu einem bestimmten Grad, kann bei kleinen Objekten aber keine Wunder bewirken. Der Multisampling-Modus arbeitet entgegen der Erwartung teilweise besser als das Supersampling.

Erstmalig müssen sich Interessenten nicht mehr wochenlang gedulden. Dank eines Exklusiv-Abkommens mit Nvidia sind bereits heute beim Online-Händler Alternate gut 100 Exemplare von Gigabyte und XFX zu Preisen um 560 Euro verfügbar. Die XFX-Karte ist mit 450/625 MHz sogar leicht höher getaktet und mit zwei DVI-I-Buchsen nebst Video-In sowie einem Software-Bundle aus X2 - The Threat, MotoGP2 und einem Videoschnittprogramm ausgestattet.

Quelle : www.heise.de
Titel: 3D-Grafikchips Radeon X1000 mit vielen Verbesserungen und hohen Taktfrequezen
Beitrag von: SiLæncer am 05 Oktober, 2005, 15:18
ATIs neue Grafikchipgeneration Radeon X1000 übernimmt viele Features der Konkurrenz und hebt sie auf eine höhere Entwicklungsstufe. Die Taktfrequenzen schrauben die Kanadier auf Rekordhöhe. An der Spitze von ATIs neuer Chip-Familie steht der mit 16 Pixelpipelines ausgestattete Radeon X1800. Als XT-Ausführung arbeitet er mit stolzen 625 MHz Chiptakt und 750 MHz Speichertakt; die XL-Variante ist für jeweils 500 MHz ausgelegt. Der Radeon X1600 integriert 12 Pixel-Pipelines und ist ebenfalls in zwei Varianten mit 590/690 MHz (XT) und 500/390 MHz (Pro) angekündigt. Das Einsteiger-Segment bedient ATI mit dem Radeon X1300, der sich auf vier Pixel-Pipelines beschränkt und als Pro- (600/400 MHz), Standard- (450/250 MHz) und Hyper-Memory-Modell (450/500 MHz) in den Handel kommen soll. ATI lässt alle Radeon X1000-Varianten in einem 90-nm-Prozess fertigen und stattet sie mit den gleichen Features aus.

 Zu den zahlreichen Neuerungen gehört 32-Bit Gleitkomma-Genauigkeit in den Pixel-Shadern, wie es die Konkurrenz von Nvidia bereits seit dem GeForce 6800 anbietet. Auch HDR-Rendering (High Dynamic Range) für hohe Kontraste ist bereits seit längerem von den GeForce-Chips bekannt. ATI unterstützt aber nicht nur leistungshungrige 64-Bit-Formate (FP16, Int16), sondern auch speichersparende 32-Bit-Formate wie das 10:10:10:2-Format der XBox 360 oder andere spezielle Formate (Int10+L16). Zudem sind bei der X1000-Serie HDR-Effekte auch mit Antialiasing kombinierbar. Die Antialiasing-Modi erweitert ATI um adaptives Antaliasing, das die Zahl und Anordnung der Sub-Pixel nach Bedarf variiert und wie bei Nvidia gezielt auf transparente Texturen mit filigranen Strukturen wirkt. Anisotropes Filtern steht jetzt auch in einem High-Quality-Modus (area aniso) zur Verfügung, der endlich mit der für ATI bislang typischen Winkelabhängigkeit Schluss macht und die erste, detaillierteste MIP-Mapping-Stufe bis hin zu größerer Entfernung verwendet. In hügeligem Gelände mit geneigten Flächen bleiben die Texturen dadurch länger scharf.

Wie erwartet hat ATI das Shader-Model 3.0 implementiert, das in Shader-Programmen bedingte Sprünge, Schleifen und Unterprogramm-Aufrufe erlaubt. Entwickler können dadurch flexible Shader-Programme schreiben, die beispielsweise selbstständig zwischen verschiedenen Beleuchtungsverfahren wechseln können, je nachdem, ob ein Pixel im Schatten liegt oder direkt beleuchtet ist. Das Shader-Modell 3.0 (ps_30) steht bei der Konkurrenz schon seit der GeForce-6x00-Serie zur Verfügung, nach ATIs Aussage hat es bei den Entwicklern aber keinen großen Anklang gefunden. Die für die X1000-Chips gewählte Umsetzung soll aber besonders effizient sein. Wesentlich dafür ist, dass beispielsweise der Radeon-X1800-Chip mit besonders kleinen Threads von lediglich vier mal vier Pixeln arbeitet. Dadurch ist die Wahrscheinlichkeit, dass ein Thread vollständig im Licht oder im Schatten liegt, besonders hoch, und er muss nur einen Zweig des Pixel-Shaders durchlaufen (early exit). Ein größerer Thread, der sowohl im Schatten als auch im Licht liegt, muss dagegen mit allen Pixeln beide Beleuchtungszweige des Shaders durchlaufen, womit ein möglicher Geschwindigkeitsvorteil von SM30-Shadern verloren geht.

Um die Effizient weiter zu erhöhen, sind die X1800-Chips in der Lage, mit bis zu 512 Threads gleichzeitig zu arbeiten. Dies erhöht wiederum die Wahrscheinlichkeit, dass immer alle Recheneinheiten des Shader-Cores ausgelastet sind. Beispielsweise kann eine Pipeline, die noch auf Texturdaten wartet, in den Wartezyklen einem anderen Thread bearbeiten (Ultra-Threading). Kleine Threads stellen allerdings höhere Anforderungen an die Cache-Architektur, denen ATI mit voll assoziativen Caches für Texturen, Pixel-, Z- und Stencil-Werten begegnet.

ATI hat auch an anderen Stellen die Effizienz erhöht. Der Speichercontroller des Radeon X1800 arbeitet mit acht statt vier Kanälen, was die Performance bei zufälligen Datenzugriffen (random access) im Idealfall verdoppelt. Der Kontroller kann zudem vom Treiber an das Anforderungsprofil verschiedener Applikationen angepasst werden. Innerhalb des Grafikchips leitet ein Ringbus die über die acht Kanäle eintreffenden Daten zu ihrem Bestimmungsort. Dadurch verdichten sich die Datenleitungen nicht mehr am Speichercontroller, was die Temperatur-Belastung verringert und höhere Taktfrequenzen ermöglicht.

Besonderes Augenmerk legten die Entwickler auf die Verarbeitung der Z-Daten, die meist den höchsten Anteil am Datenverkehr haben. Der hierarchische Z-Buffer arbeitet bei den X1000-Chips auf Gleitkommabasis, was die Effizienz um bis zu 60 Prozent erhöhen soll. Durch verlustlose Kompression reduzieren die X1000-Chips den Z-Datenverkehr maximal auf ein Achtel. ATI betont ferner zahlreiche Neuerungen bei der Video-Verarbeitung (Avivo), zu denen Hardware-Beschleunigung für zahlreiche Formate (H.264, VC-1, WMV9, PMC, MPEG-2, MPEG-4), automatische Pegelkontrolle (AGC), 3D Combfilter, Denoise, 10-Bit-Verarbeitung auch über den DVI-Ausgang sowie HDCP/HDMI für kopiergeschützte HD-Videos gehören soll.

In ersten Tests konnte sich eine Radeon X1800 XT mit 512 MByte GDDR3-Speicher gut gegen eine GeForce 7800 GTX behaupten. Der Vorsprung betrug bei Splinter Cell Chaos Theory 12 Prozent (1600x1200, AAx4, AFx8, alle Effekte) und bei Far Cry sogar 23 Prozent, wobei jeweils 1600 × 1200 Bildpunkte, vierfaches Antialiasing und achtfache anisotrope Filterungen eingestellt waren. In Doom3 liegt ATIs Flaggschiff noch mit 19 Prozent zurück, wenn man 1600er-Auflösung und vierfaches Antialiasing einstellt.

AIT gab bislang lediglich Dollar-Preise bekannt, die für das X1800-XT-Modell mit 512 MByte Speicher bei 549 US-Dollar und für die XL-Variante mit 256 MByte bei 449 US-Dollar liegen. Die Preise für die Radeon X1300 reichen von 149 US-Dollar für die Pro-Version mit 128 MByte bis zu 249 US-Dollar für die XT-Version mit 256 MByte. Modelle mit dem Radeon X1300 sollen ab 99 US-Dollar (Standard, 128 MByte) zu haben sein. Die Radeon X1300 Pro mit 256 MByte soll 149 US-Dollar kosten.

Laut ersten Kommentaren sind die Händler zuversichtlich, die Radeon X1800 XL bereits in der kommenden Woche ausliefern zu können. Mitte bis Ende Oktober sollen der Radeon X1300 folgen, Anfang November die Radeon X1800 XT und Anfang Dezember die Mittelklasse-Karten mit dem Radeon X1600.

Quelle : www.heise.de
Titel: Nvidia legt nach
Beitrag von: SiLæncer am 21 Oktober, 2005, 19:54
Mit neuen Produkten versucht Nvidia, sich gegen die Radeon-X1000-Serie seines kanadischen Konkurrenten ATI zu behaupten. Im Einsteigersegment um 150 Euro soll der GeForce 6600 DDR2 dem Radeon X1300 Pro Paroli bieten. Der für 350 MHz Chip- und 400 MHz Speichertakt ausgelegte Grafikchip soll rund 25 Prozent schneller arbeiten als die Standardausführung mit 300/275 MHz. Das könnte reichen, um die X1300er-Chips zu schlagen. Deren Kern arbeitet zwar im 600-MHz-Takt, muss aber mit vier Pixel-Pipelines auskommen, während die GeForce-6600er-Chips acht Pipelines vereinen.

In der Mittelklasse wird wahrscheinlich der GeForce 6800 GS gegen ATIs Radeon X1600 antreten, was Nvidia aber noch nicht bestätigen wollte. Pipeline-Anzahl und Taktfrequenzen sind noch nicht bekannt. Allerdings findet man auch schon Grafikkarten mit dem Oberklasse-Grafikprozessor GeForce 6800 GT für 250 Euro im Handel, was dem Preis einer Karte mit dem Radeon X1600 XT entspricht. Nvidias GT-Chip ist mit seinem 256-Bit-Bus dem X1600 XT auf jeden Fall bei der Speicher-Performance überlegen. Die relativ niedrige Chiptaktfrequenz von 350 MHz macht es ihm aber schwer, mit dem 590 MHz schnellen ATI-Chip mitzuhalten, wenn Spiele anspruchsvolle Pixel-Shader einsetzen. Der in Japan aufgetauchte GeForce 6800 XT ist jedenfalls kein Gegner für ATIs neue, mit zwölf Pipelines ausgestattete Mittelklasse. Er soll lediglich acht Pipelines enthalten und mit 325/350 MHz laufen.

Gegen ATIs Flaggschiff Radeon X1800 XT wollen die Kalifornier weiter den GeForce 7800 GTX ins Rennen schicken. Ein GeForce 7800 "Ultra" mit höheren Taktfrequenzen soll vorerst nicht geplant sein, dafür aber eine Version mit 512 MByte Speicher.

Quelle und Links : http://www.heise.de/newsticker/meldung/65212
Titel: Radeon X1900 - ATI verdreifacht Shader-Zahl
Beitrag von: SiLæncer am 24 Januar, 2006, 18:32
ATI verdreifacht bei seinem neuen Highend-Chip Radeon X1900 die Rechenleistung und setzt sich vor seinen Konkurrenten Nvidia wieder an die Spitze. Beim Radeon X1900 integriert ATI 48 Pixel-Shader und verdreifacht damit die Shader-Anzahl gegenüber dem Vorgänger Radeon X1800. Auch die Zahl der Register für Zwischenergebnisse hat ATI verdreifacht. Die Zahl der Textur-Einheiten beträgt weiterhin 16.

ATIs jüngste Kreation besitzt also die dreifache Rechenleistung für die Ausführung von Grafik- und Beleuchtungsalgorithmen. Damit folgen die kanadischen 3D-Spezialisten dem Trend zu immer komplexeren Shader-Programmen, die nicht mehr Texturdaten, sondern mehr Arithmetikleistung benötigen, um Oberflächen realistischer darzustellen und eine größere Zahl von dynamischen Lichtquellen zu berechnen. Bei F.E.A.R. sollen beispielsweise auf jede Texturoperation sieben Arithmetikoperationen kommen. Die geballte Shader-Power ermöglicht es prinzipiell auch, Texturen erst dann, wenn Sie gebraucht werden, zu errechnen (prozedurale Texturen, zum Beispiel Perlin Noise). Auch die Simulation von Strömungen und Rauch lässt sich bei ausreichender Shader-Leistung von der CPU auf den Grafikchip verlagern.

Die schnellste Ausführung – Radeon X1900 XTX – arbeitet mit 650 MHz Chip- und 775 MHz Speichertakt nur unwesentlich schneller als der Vorgänger. ATI vermeidet höhere Speichertakte, da schnellere DRAMs nicht ausreichend verfügbar sein sollen. Höheren Chiptakten dürfte die Stromaufnahme der 380 Millionen Transistoren entgegenstehen. Die zweite Variante – Radeon X1900 XT – ist mit 625 und 725 MHz Chip-/Speichertakt nur wenig langsamer. Im Vergleich zu Nvidias schnellstem Produkt – GeForce 7800 512 mit 550 MHz Chip- und 850 MHz Speichertakt sowie 24 Pixel-Shadern – kann ATIs XTX-Ausführung mit der 2,36-fachen Pixel-Shader-Leistung aufwarten.

Erste Messungen mit aktuellen Spielen bestätigen die überlegene Shader-Leistung. Bei 1600er-Auflösung und höchsten Qualitätseinstellungen mit vierfachem Antialiasing und achtfachem anisotroper Filterung kann sich der X1900 XTX deutlich vom GeForce 7800 GTX 512 absetzen. Bei Splinter Cell – Chaos Theorie und der Demo des Sciencefiction-Spiels X3 – The Reunion beträgt der Vorsprung rund 14 Prozent. Bei Call of Duty 2 steigt er bereits auf 18 und bei F.E.A.R. auf über 30 Prozent. Bei Doom 3 herrscht Gleichstand. Im 3D-Benchmark 3DMark 2006 erzielt die X1900-XTX-Karte 4922 Punkte gegenüber 4606 Punkten für das Nvidia-Flaggschiff. Hier fällt der Vorsprung im HDR/SM3.0-Test mit 2560 gegenüber 2182 Punkten am deutlichsten aus. ATI sieht den 3DMark06 allerdings eher als SM-2.0-Test, da er die Vorteile von SM-3.0 nur ansatzweise nutze.

ATIs Board-Partner wollen die X1900-Reihe bereits ab nächster Woche anbieten. Der XTX-Ausführung soll rund 650 Euro und die XT-Version 550 Euro kosten. Die CrossFire-Ausführung der Radeon X1900 XT beziffert ATI auf 600 Euro. In einigen Wochen soll noch eine All-in-Wonder X1900 mit integriertem UKW- und TV-Tuner folgen, die mit 500/480 MHz Chip-/Speichertakt arbeitet und bei 500 Euro liegen soll. Die Radeon X1800-Reihe ist vorerst noch weiter erhältlich. ATI will sie aber mittelfristig durch die X1900-Produkte ersetzen.

Quelle und Links : http://www.heise.de/newsticker/meldung/68762
Titel: Zwei neue Modelle in Nvidias Familie von Highend-Grafikchips
Beitrag von: SiLæncer am 06 September, 2006, 15:26
Mit der GeForce 7900 GS und 7950 GT erweitert Nvidia die GeForce-7900-Familie um zwei neue Varianten und versucht sich so besser gegen den Konkurrenten ATI zu positionieren; der hatte vor kurzem mit der Radeon X1950XTX ein neues Top-Modell eingeführt und so die Karten im Highend-Markt für Grafikkarten neu gemischt.

Der GeForce 7950 GT arbeitet mit 550 MHz Chip- und 700 MHz Speichertakt und soll den GeForce 7900 GT ersetzen. Damit bietet der 7950er-Chip rund zehn Prozent mehr Leistung als der mit für 450/660 MHz spezifizierte 7900 GT. Allerdings haben eine Reihe von Anbietern die Taktfrequenzen ihrer 7900-GT-Karten schon selbst kräftig erhöht, was den Neuigkeitswert des 7950er-Chips stark begrenzt. Das eigentlich Interessante ist daher der Speicherausbau der 7950-Karte, der mit 512 MByte die doppelte Kapazität bietet. Zukünftige Spiele dürften davon immer stärker profitieren. Der Verkaufspreis der 7950-GT-Karten soll bei rund 300 Euro liegen, womit sie sich zwischen ATIs Radeon X1900 XT (270 Euro) und der Radeon X1900XTX (360 Euro) einordnet.

Der zweite Neuzugang ist der GeForce 7900 GS, mit dem Nvidia einen preiswerten Einstieg ins Performance-Segment bieten will. Allerdings besitzt der GS-Chip nur 7 Vertex-Shader und 20 Pixel-Pipelines, während alle anderen 7900er-Modelle mit 8 Vertex-Shadern und 24 Pipelines ausgestattet sind. Der neue Chip arbeitet mit 450 MHz, der 256 MByte fassende Speicher läuft mit 660 MHz. Weiteres Merkmal der 7900er-Famile sind normalerweise zwei Dual-Link-DVI-Ausgänge für Auflösungen bis 2560 x 1600 Bildpunkten an digitalen Displays – Datenblätter von 7900-GS-Grafikkarten verschiedener Grafikkarten-Hersteller sprechen allerdings nur einen Dual-Link-Ausgang. HDCP-Fähigkeit für die Wiedergabe von kopiergeschützten Filmen soll bei der 7950 zum Standard gehören, bei der 7900 GS kann die Unterstützung fehlen, wenn die Karte kein Encryption-ROM besitzt. Zu den Anschlüssen gehört auch ein analoger TV-Ausgang, der auch HDTV bis 1080P wiedergibt.

Die GS-Karten eignen sich besonders für den Einsatz in geräuscharmen Umgebungen – der Lüfter entspricht zwar dem sonst eher lautstarkem 7900er-Standard, die Regelung drosselt den Lüfter aber so stark, dass die Grafikkarte auch im 3D-Betrieb kaum hörbar ist. Erste Tests bestätigen das. Die GS-Grafikkarten sollen in den nächsten Tagen für rund 200 Euro in den Handel kommen. Preislich konkurrieren sie mit ATIs Radeon X1900GT (ab 220 Euro). Der Verkaufsstart des GeForce 7950 GT hat Nvidia auf den 14. September festgelegt.

Quelle : www.heise.de
Titel: Nvidias nächster GeForce-Chip kommt mit Physikbeschleunigung
Beitrag von: SiLæncer am 22 September, 2006, 12:20
Nvidia-Vizepräsident dementiert Ankündigungen dedizierter Physik-Karten

Im Gespräch mit Golem.de erklärt Nvidias PR-Chef Michael Hara anderslautende Meldungen, nach denen sein Unternehmen an eigenen Steckkarten mit Physikbeschleunigern arbeiten würde. Vielmehr würde die nächste GeForce-Generation im Grafikprozessor physikalische Berechnungen erledigen können.

Für einige Verwirrung sorgte in den letzten Tagen eine US-Pressemitteilung von Asus für deren neues Mainboard "P5N32-SLI Premium". Das Board auf Basis eines NForce 590 von Nvidia für AMD-Prozessoren verfügt über drei x16-Slots für PCI-Express-Karten. Bisher ließen sich in einem Spiele-PC nur zwei solcher Steckplätze sinnvoll nutzen, indem man sie mit zwei Grafikkarten füllte. Asus' Mitteilung spricht jedoch von "Nvidias zukünftiger Physik-Karte", die im dritten Slot Platz finden sollte.

Dabei handelt es sich aber offenbar um ein Missverständnis. Im Interview mit Golem.de sagte Nvidia-Vizepräsident und Kommunikations-Chef Michael Hara: "Das wird keine eigene Physik-Karte sein. Vielmehr ist es etwas, in das wir langsam hineinwachsen. Mit der nächsten GeForce-Generation und den dann folgenden werden die Möglichkeiten für Physik-Berechnungen sehr gut sein." Hara spielte damit auf den bisher nur unter dem Codenamen "G80" bekannten GeForce-Chip der achten Generation an, der nach unbestätigten Angaben noch 2006 vorgestellt werden soll.

Wie Hara weiter erklärte, denkt Nvidia daran, die "Unified Shaders" der neuen GPUs auch für Physik zu nutzen. Durch die Zusammenführung von Pixel- und Vertex-Shadern sei es sehr einfach, auch die physikalischen Eigenschaften eines Objekts gleich im Grafikprozessor zu berechnen. Hara glaubt fest an dieses Konzept und meint, dass auch Vierkern-Prozessoren weiterhin den Grafikchips in der Gleitkomma-Leistung unterlegen bleiben werden.

Ob Nvidia, wie dies ATI schon demonstriert hatte, tatsächlich drei gleichwertige Grafikkarten parallel betreiben will - zwei für die Grafik, eine für Physik -, wollte Michael Hara noch nicht verraten.

Quelle : www.golem.de
Titel: Nvidias G80 - mit Wasserkühlung und ab Ende November?
Beitrag von: SiLæncer am 06 Oktober, 2006, 12:30
Gerüchte um neuen GeForce-Chip verdichten sich

Nvidias Geheimhaltung zum nächsten neuen Grafikchip funktionierte bisher hervorragend. Aus mehreren asiatischen Quellen ist nun jedoch zu hören, dass der "GeForce 8800" (Codename G80) bereits Ende November 2007 auf den Markt kommen soll, mit vollständiger Unterstützung für DirectX 10 - und womöglich einer zwingend nötigen Wasserkühlung.

Wie Nvidia gegenüber Golem.de bereits in einem Interview verriet, wird der G80 erweiterte Funktionen zur Physikbeschleunigung enthalten. Sonst hält sich Nvidia zu seinem neuen Produkt bisher sehr bedeckt. Bei der Leistung mit nur einer GPU ist Nvidia durch den Radeon X1950 XTX von ATI geschlagen, das aktuelle Highend-Produkt von Nvidia braucht auf einer PCI-Express-Karte zwei Prozessoren und heißt 7950 GX2. Mit zwei dieser Karten ist auch Quad-SLI möglich, was ATI noch nicht zu bieten hat.

Dennoch muss es Nvidias Ziel sein, die Performance-Krone mit nur einem Chip zurückzuerobern. Da der kalifornische Hersteller mit Vorab-Informationen diesmal mehr als geizt, heizt das natürlich die Gerüchteküche an. So tauchten in der vergangenen Woche erste Bilder einer Nvidia-Karte auf, die gleich über zwei Strombuchsen verfügt und auch mit Anschlüssen für eine Wasserkühlung versehen ist. Noch ist aber nicht klar, ob es sich dabei um ein Sondermodell oder die Serienausstattung der nächsten Highend-Karte von Nvidia handelt.

Wie einer kostenpflichtigen Meldung bei Digitimes zu entnehmen ist, soll der G80 mit dem Shader Model 4.0 Microsofts nur für Vista angekündigte Grafikschnittstelle DirectX 10 vollständig unterstützen. Unter Berufung auf taiwnesische Grafikkartenhersteller berichtet die Webseite, dass der G80 bereits Ende November 2006 als "GeForce 8800" auf den Markt kommen soll, was auch Nvidias bisheriger Namenskonvention entspricht: Seit Jahren bezeichnen die vierstelligen Modellnummern in der ersten Ziffer die Chip-Generation, das Top-Modell einer neuen Architektur erhält dann den Zusatz "800" und wird in einer leicht überarbeiteten und höher getakteten Variante rund ein halbes Jahr später als "900" neu aufgelegt.

Da Nvidia sich bei der Vorstellung der letzten neuen Architektur mit dem GeForce 7800 GTX dazu bekannt hat, künftig neue Karten am Tag der Ankündigung auch verfügbar zu machen - was bei den letzten beiden Chips auch klappte - ist davon auszugehen, dass auch der G80 sofort nach Vorstellung geliefert wird. Beim 7800 GTX gab es jedoch zuerst nur die schnellste und teuerste Variante über Online-Händler, erst einige Wochen danach standen die Karten auch im Laden. Wenn Nvidia, wie Digitimes weiter berichtet, den G80 Ende November vorstellen sollte, dürften die Karten bis zum Weihnachtsgeschäft in ausreichenden Stückzahlen über alle Kanäle zu haben sein.

Völlig unklar ist noch der Preis dieser Produkte. ATI hatte sich mit der X1950 XTX von den in den letzten Jahren ständig steigenden Preisen von bis zu 600,- Euro für Highend-Grafikkarten verabschiedet und 399,- Euro als Preisempfehlung ausgegeben. Ob Nvidia hier auch mit der neuen Generation mitzieht, ist fraglich.

Quelle : www.golem.de
Titel: Radeon X1950 Pro: Neue Mittelklasse mit nativem CrossFire
Beitrag von: SiLæncer am 17 Oktober, 2006, 18:05
Mit der Radeon X1950 Pro führt ATI jetzt auch in der unteren Oberklasse ein Grafikkarte mit einem in 80-Nanometer-Fertigung hergestellten Grafikchip (RV570) ein. Er besitzt 12 Pixel-Pipelines mit insgesamt 36 Recheneinheiten für Farbberechnungen (Pixel-Shadern) und entspricht damit dem der X1900 GT. Auch der Chiptakt von 575 MHz stimmt mit dem des GT-Chips überein. Die 256 MByte Speicher der Radeon X1950 Pro arbeiten allerdings mit 682 MHz schneller als die der 600-MHz Speicher der X1900 GT.

Damit liegt die neue Grafikarte in den meisten Benchmarks leicht vor Nvidias GeForce 7900 GS, dem der X1900-GT-Chip noch nicht gewachsen war. In Spielen wie Oblivion, F.E.A.R. und Prey beträgt der Vorsprung zwischen drei und sieben Prozent, wenn man 1600 × 1200 als Spieleauflösung und zwei bis vierfaches Antialiasing einstellt. In Call of Duty 2 erreicht die X1950 Pro bei vierfachem Antialiasing noch 20 Bilder/s und kann ihrer Konkurrenz (17 Bilder/s) sogar um 18 Prozent davonziehen.

Mit der X1950 Pro führt ATI zudem eine verbesserte Signalverbindung für den Parallelbetrieb zweier Grafikkarten im CrossFire-Verbund ein. Ähnlich der Methode von Nvidia verbindet man zwei Karten mit zwei Steckverbindern an der Grafikkarten-Oberkante. Je ein Steckverbinder gehört zum Lieferumfang der X1950 Pro. Da die Compositing-Engine, die die beiden Teilbilder kombiniert, jetzt im Grafikchip integriert ist, gibt es bei der X1950 Pro keine spezielle CrossFire-Ausführung mehr.

Man spekuliert bereits, das auch die X1900 XT mit 16 Pipelines durch eine X1950 XT in 80-nm-Fertigung ersetzt werden soll. In der Mittelklasse gibt es bereits mit der X1300 XT und der X1650 Pro bereits zwei 80-nm-Modelle.

Die X1950 Pro soll in den nächsten Tagen für knapp 170 bis 210 Euro in den Handel kommen. Tul hat in seiner PowerColor-Serie bereits ein Modell mit besonders leisem Lüfter von Arctic Cooling angekündigt. Auch Asus verspricht mit einem verbesserten Kühler eine um 10 Grad niedrigere Chiptemperatur. Im Gegensatz zum Original belegen beide Modifikationen mit ihrem Kühler auch den benachbarten Steckplatz.

Quelle : www.heise.de
Titel: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 08 November, 2006, 20:21
Nvidia stellt mit dem GeForce 8800 (G80) seit Langem einmal wieder eine neue Chiparchitektur vor. Der DirectX-10-Chip kommt auf dem Flaggschiff GeForce 8800 GTX und der leicht abgespeckten Variante GeForce 8800 GTS zum Einsatz. Von beiden Modellen konnte Nvidia bereits eine erste Charge von weltweit etwa 25.000 Stück ausliefern, die in den nächsten Tagen in den Handel kommen soll. Die GTX-Ausführung wird 550 bis 600 Euro kosten, das GTS-Modell rund 450 Euro. Die bisherigen Spitzenmodelle GeForce 7900 GTX und GeForce 7950 GX2 laufen aus.

Mit 681 Millionen 90-Nanometer-Transistoren, 128 skalaren Shader-ALUs (Stream Processors), 64 Textur- und 6 Rastereinheiten übertrifft der GeForce 8800 GTX seinen Vorgänger mehr als deutlich. Die Shader-Einheiten laufen mit rekordverdächtigen 1350 MHz, alle übrigen Baugruppen mit 575 MHz. Der Speicher fasst üppige 768 MByte, ist 900 MHz schnell und über einen 384-Bit-Bus angebunden. Der GTS-Chip begnügt sich mit 96 Shader-ALUs und 640 MByte Speicher. Die Taktfrequenzen betragen 1200 MHz für den Shader-Core, 500 MHz für alle übrigen Baugruppen und 800 MHz für den Speicher.

(http://www.heise.de/bilder/80725/0/1)
Nvidias GeForce 8800 GTX beherbergt 681 Millionen Transistoren und lässt DirectX-10-Spiele wie Crysis oder Alan Wake in voller Pracht erstrahlen.

Für die übliche Verarbeitung von Koordinaten-Vektoren (x, y, z, w) und Pixel-Farbwerten (r, g, b, alpha) sind jeweils vier Shader-ALUs gekoppelt. Jeweils vier dieser Gruppen bilden eine 16-fache SIMD-Einheit (single instruction, multiple data), die nach herkömmlicher Betrachtung eine Quad-Pipeline ergeben. Demnach besitzt der GeForce 8800 GTX also acht Quad-Pipelines, die es in der Form von zwei Quad-Pipes für Koordinaten-Berechnungen (acht Vertex-Shader) und sechs Pixel-Quad-Pipes (24 Pixel-Shader) beim GeForce 7800/7900 auch schon gibt. Seine höhere Leistung bezieht der G80 in erster Linie aus dem von 650 auf 1350 MHz gesteigerten Takt.
Anzeige

Zusätzlich sollen die 8800er-ALUs effizienter sein, da die G80-Shader "unified" ausgelegt sind. Der Chip ist nicht auf die Aufteilung in acht Vertex- und 24 Pixel-Shader festgelegt ist, sondern kann sich je nach Situation unterschiedlich konfigurieren und seine 32 Shader-Einheiten damit besser auslasten. Ausserdem sollen mehrere Scheduler Tausende von Threads gleichzeitig verwalten können und die ALU-Einheiten zu mehr als 95 Prozent auslasten. Sprunganweisungen arbeiten mit Threads von 32 oder 16 Pixeln und sind dadurch etwas effizienter als bei den aktuellen ATI-Chips mit einer minimalen Thread-Größe von 48 Pixeln.

Die 64 Textur-Einheiten filtern auch FP32-Texturen, arbeiten bei HDR mit FP16-Texturen mit voller Geschwindigkeit und filtern anisotrop ohne Winkelabhängigkeit. Die sechs Rastereinheiten können HDR mit Antialiasing kombinieren und jeweils 16 Samples pro Takt ausgeben. Neu hinzugekommen ist achtfaches Antialiasing sowie Coverage Sampling Antialiasing, das bei bestimmten Kontrastverhältnissen die Qualität von 16-fachem Antialiasing erreicht und durch Datenkompression so schnell wie vierfaches Antialiasing sein soll.

Wie bei ATI arbeitet die Display-Pipeline jetzt durchgängig mit 10 Bit pro Farbkomponente. Der Video-Prozessor ist leistungsfähig genug, um das Postprocessing (Spatial-Temporal Deinterlacing, Inverse Telecine, Noise Reduction, Edge-Enhancement) auf VC-1- und H.264-kodierte HD-Filme anwenden zu können.

All dies funktioniert auch unter DirectX 9, wobei der Shader-Core gegenüber dem 7900 GTX die zwei- bis dreifache Leistung erreichen soll. In aktuellen Spielen ist der GeForce 8800 GTX nach Aussage von Nvidia zwischen 1,5- und 2-mal schneller.

Unter Windows Vista und DirectX 10 arbeiten die Shader nach dem Shader-Model 4.0, das längere Shader-Programme sowie 4096 statt 32 Rechenregister vorsieht und 128 statt 16 innerhalb eines Shader-Programms adressierbare Texturen ermöglicht. Zudem kommt mit dem Geometrie-Shader ein dritter Shader-Typ hinzu, der auf Dreiecksbasis arbeitet und eine Fülle zusätzlicher Aufgaben übernehmen kann.

Die Leistungsaufnahme einer GeForce-8800-GTX-Karte liegt im Mittel bei 117 Watt und kann bei einzelnen Spielen bis auf 145 Watt steigen. Nvidia schreibt ein Netzteil mit mindestens 450 Watt vor, das auf seinen 12-Volt-Leitungen 30 Ampere leisten muss. Das GTS-Modell ist um etwa 25 Prozent genügsamer (12 Volt, 26 Ampere).

Quelle : www.heise.de
Titel: GeForce 8800 GTX/GTS - Neuer Treiber beseitigt Fehler
Beitrag von: SiLæncer am 13 Januar, 2007, 08:38
Gegen Darstellungsfehler unter Halo, Oblivion und Splinter Cell Double Agent

Nvidia hat speziell für Besitzer von High-End-Grafikkarten mit den beiden GeForce-Grafikchips 8800 GTX und 8800 GTS einen neuen Windows-XP-Treiber mit der Versionsnummer 97.92 veröffentlicht. Damit werden primär Darstellungsfehler beseitigt.

Mit dem vorherigen GeForce-8800-Treiber konnte es Darstellungsfehler in Verbindung mit "Halo", "The Elder Scrolls IV: Oblivion" und "Splinter Cell Double Agent" geben, die nach dem Treiber-Update beseitigt sein sollen. Im synthetischen 3D-Benchmark 3DMark 06 soll nun die Leistung bei aktiviertem "Coverage Sampling AA" (CSAA) richtig ermittlt werden.

Zudem soll es beim gleichzeitigen Brennen einer DVD und dem Fernsehen keinen Blue-Screen-Absturz mehr geben. Ein kleiner Fehler in Nvidias Control Panel wurde ebenfalls beseitigt. Wer im SLI-Modus gleich zwei 8800er betreibt, soll nun mit Valves Steam-Client keine Probleme mehr bekommen: SLI-Profile werden künftig nicht mehr ignoriert wenn die steam.exe läuft und sich die Auflösung der Anwendung von der des Desktops unterscheidet.

Nvidia GeForce-8800-Treiber "ForceWare Release 95 Version 97.92" für die verschiedenen 32-Bit- und 64-Bit-Versionen von Windows XP findet sich im Treiberbereich von Nvidia.de.

http://www.nvidia.de/page/drivers.html

Quelle : www.golem.de
Titel: Preiswerte GeForce 8800 GTS mit wenig Speicher
Beitrag von: SiLæncer am 12 Februar, 2007, 15:10
Nvidias neue und mit 320 statt 640 MByte Speicher ausgestatte GeForce 8800 GTS erweitert die im vergangenen November vorgestellten Direct3D-10-Grafikkartenserie um ein drittes und etwas preiswerteres Modell. Verschiedene Hersteller bieten es ab heute unter eigenem Markennamen für etwa 300 bis 320 Euro im hiesigen Handel an – die Straßenpreise für die ältere 640-MByte-Version beginnen derzeit bei rund 360 Euro.

Abgesehen von der Speicherausstattung sind die beiden GTS-Modelle identisch – die mit 96 Stream-Prozessoren bestückte GPU ist mit 500 MHz getaktet, die Shader mit 1200 MHz und der über ein 320-Bit-Interface angebundene GDDR3-Speicher mit 800 MHz. Damit sind die beiden etwas dürftiger ausgestattet als das ab 500 Euro erhältliche Spitzenmodell GeForce 8800 GTX, das 128 Stream-Prozessoren besitzt und etwas schneller getaktet ist. Die einen zusätzlichen Steckplatz blockierende Kühllösung ist bei allen drei Modellen die gleiche und pustet die Wärme über Schlitze im Slotblech direkt nach außen.

Spekulationen auf verschiedenen Hardware-Websites zufolge dürfte Nvidia in einigen Wochen – möglicherweise zur CeBIT oder kurz danach – auch neue Grafikkarten für Einsteiger (GeForce 8300) und die Mittelklasse (GeForce 8600) vorstellen. Sie dürften bei einem deutlich geringeren Anschaffungspreis Direct3D-10-Fähigkeiten bieten.

Quelle : www.heise.de
Titel: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 22 Februar, 2007, 15:03
Diversen Berichten zufolge hat AMD von dem ursprünglichen Plan Abstand genommen, die nächste, Direct3D-10-kompatible ATI-Grafikchipgeneration R600 zur CeBIT oder kurz danach einzuführen. AMD hat nun wohl einen Termin im zweiten Quartal im Auge – eine überarbeitete Marketing-Strategie für ein breiteres Marktsegment seien wohl der Hintergrund.

Das deutet darauf hin, dass es im zweiten Anlauf um eine erweiterte Zahl von Grafik- und Direct3D-10-Produkten gehen wird, mit denen man sich gegen den bereits erhältlichen Direct3D-10-Chip GeForce 8800 des Konkurrenten Nvidia positionieren will. Auch die Entscheidung Nvidias, sich nicht an der CeBiT am 15. März zu beteiligen, und wohl in diesem Zeitraum die erwarteten Direct3D-10-Grafikchips für Einsteiger- und Mittelklasse-Grafikkarten noch nicht vorzustellen, mag AMD veranlasst haben, sich mit der Vorstellung des R600 mehr Zeit zu lassen.

Quelle : www.heise.de
Titel: Direct3D-10-Grafik ab 100 Euro
Beitrag von: SiLæncer am 16 April, 2007, 20:24
Auf Preisvergleich-Webseiten finden sich die ersten Grafikkarten mit den noch nicht offiziell eingeführten Nvidia-Grafikprozessoren GeForce 8500 GT, 8600 GT und 8600 GTS. Alle angebotenen Karten stammen von MSI und haben jeweils 256 MByte lokalen Speicher, sind aber auf der MSI-Webseite bisher nicht zu finden. Die Preise liegen bei knapp 100 Euro (GeForce 8500 GT), 150 Euro (GeForce 8600 GT) beziehungsweise 200 Euro (GeForce 8600 GTS). Die Bezeichung GeForce 8600 kennzeichnet einen Chip mit dem Codenamen G84, der – anders als zunächst eingeschätzt – angeblich 32 Shader-ALUs (Stream Processors) enthält, beim G86 (GeForce 8500) sollen es nur halb so viele sein. MSI setzt auf den 8600er-Karten offenbar GDDR3-Speicher ein und auf der 8500-GT-Karte langsameres DDR2-SDRAM.

Die bisher einzigen erhältlichen Grafikkarten, die die neue Microsoft-Grafikprogrammierschnittstelle Direct3D 10 unterstützen, sind mit den GPUs der GeForce-8800-Baureihe von Nvidia bestückt und deutlich teurer. Der GeForce 8800 GTX hat 128 Stream Processors, die GTS-Version 96. Angeblich will Nvidia sehr bald noch eine Ultra-Version des GeForce 8800 herausbringen.

AMD will sein Direct3D-10-Flaggschiff "R600" und einige billigere und langsamere Varianten innerhalb der nächsten zehn Wochen vorstellen, möglicherweise als ATI-Radeon-X2000-Baureihe. Beim Notebook-Grafikchip Mobility Radeon X2300 handelt es sich allerdings um einen DirectX-9-Prozessor.

Quelle : www.heise.de
Titel: Nvidia stellt Direct3D-10-Grafikchips für die Massen vor
Beitrag von: SiLæncer am 17 April, 2007, 15:21
 Nach der Einführung der ersten Direct3D-10-Grafikkartenserie GeForce 8800 im vergangenen November stellt Nvidia den Grafikkarten mit Highend-GPUs nun mit den GeForce-Modellen 8500 GT, 8600 GT und 8600GTS drei neue Grafikkartenvarianten für das Preissegment zwischen 90 bis 220 Euro zur Seite. Dieses Direct3D-10-taugliche Trio dürfte langfristig die bisherige Mittelklassen-Serie 7600 ersetzen. Karten mit Nvidias neuen Chips sind ab sofort von den verschiedenen Grafikkartenherstellern im Handel und waren vereinzelt bereits am gestrigen Montag in den Preislisten aufgetaucht.

Die 8600 GTS steuert zwei DVI-I-Ausgängen mit Dual Link und HDCP an und kann HD-Videos so auch auf hochauflösenden Displays mit bis zu 2560 × 1600 Bildpunkten ausgeben. Eine neue Video-Engine der GPU soll dabei nahezu vollständig die sehr rechenintensive Dekodierung inklusive der AES128-Entschlüsselung und des H.264-Bitstream-Decoding übernehmen, wodurch man HD-DVD- und Blu-ray-Videos auch auf PCs abspielen kann, dessen Prozessor sonst nicht ausreichend Leistung böte. Bei Blu-ray soll die Video-Engine Bitraten bis 40 MBit/s bewältigen. Der GT-Chip unterstützt selbst kein HDCP; Nvidia überlässt es den Herstellern, ob sie ihre GT-Grafikkarten mit einem HDCP-Chip nachrüsten.

(http://www.heise.de/bilder/88363/1/0)
Die GeForce 8600 GTS erfordert eine zusätzliche Spannungsversorgung.

Die beiden GeForce-8600-Ausführungen basieren beide auf dem G84-Chip; während Nvidia die G80-Chips der GeForce 8800 noch in 90 nm fertigt, setzt der Grafikchiphersteller beim G84 auf 80 nm. Er nutzt 289 Millionen Transistoren und arbeitet mit acht Vector4-Shader-Einheiten, die acht Pipelines nach herkömmlicher Sprechweise entsprechen und die je nach Bedarf die Funktion des Vertex-, Geometrie- oder Pixel-Shaders übernehmen (Unified shader). Damit besitzt er ein Viertel der Ausstattung des GeForce 8800 GTX, der es auf 32 Vector4-Shader-Einheiten bringt. Nvidia hat zudem jeder Vierergruppe von Vector4-Shadern nicht vier sondern acht Texturadresseinheiten zugeordnet, die Zahl der Texturfiltereinheiten aber bei acht belassen. Damit kann der G84 pro Takt 16 bilinear gefilterte Texel (Texturpixel) berechnen. Zudem sollen eine Reihe von Optimierungen die Leistung pro Takt gegenüber dem G80 erhöhen.
Anzeige

Bei der GTS-Version liegen der Chipttakt und der Takt der Shader-Einheiten mit 675 und 1450 MHz leicht höher als beim GeForce 8800 GTX (575/1350 MHz). Auch der Speichertakt von 1 GHz übertrifft den des GTX-Chips (900 MHz). Der GeForce 8600 GT arbeitet mit 540 MHz Chip- und 1190 MHz Shader-Takt; der Speichertakt liegt bei 700 MHz. Beide Varianten schicken ihre Daten über einen 128-Bit-Bus zum GDDR3-Speicher, der meist 256 MByte groß sein dürfte – die Grafikkartenhersteller können aber auch mehr oder weniger Speicher verbauen. Die Leistungsaufnahme einer GeForce-8600-GTS-Karte soll maximal bei 71 Watt, die einer GT-Karte bei maximal 43 Watt liegen; die meisten Karten dürften einen Lüfter zur Kühlung besitzen, einige Hersteller wollen jedoch auch passiv gekühlte Modelle ausliefern. Die Preise schwanken zwischen 190 und 220 Euro (GTS) beziehungsweise 140 bis 150 Euro (GT).

(http://www.heise.de/bilder/88363/0/0)
Referenzdesign der Nvidia GeForce 8500 GT

 In der DirectX-10-Einstiegsklasse schickt Nvidia den G86-Chip auf dem GeForce 8500 GT an den Start. Er integriert 210 Millionen Transistoren und arbeitet mit vier Vector4-Einheiten sowie einem Chip-/Shader-Takt von 450/900 MHz. Als Speicher kommt 400 MHz schneller GDDR2-Speicher zum Einsatz, der über einen 128-Bit-Bus angebunden ist. Der GeForce 8500 GT ist ebenfalls mit der neuen Video-Engine ausgestattet, bringt selbst kein HDCP, dafür aber einen DVI-I-Ausgang mit Dual-Link sowie einen analogen Ausgang mit. Die Leistungsaufnahme von 8500-GT-Grafikkarten soll maximal 40 Watt betragen, der Preis beträgt rund 90 Euro.

Für Hersteller preiswerter PCs will Nvidia wohl bald noch die Varianten GeForce 8400 GS und GeForce 8300 GS mit G86-Chip vorstellen. Sie können mit ähnlichen Taktfrequenzen wie der 8500 GT arbeiten, binden ihren Speicher aber nur über einen 64-Bit-Datenbus an, was sie für aktuelle 3D-Spiele ungeeignet macht. Die Video-Engine soll zumindest beim 8300 GS fehlen.

In ersten Tests mit DirectX-9-Spielen reichen die Reserven des GeForce 8600 GTS bei Half Life 2 und Prey sogar für vierfaches Antialiasing bei 1280er-Auflösung. In Oblivion erreicht der Chip mit HDR und zweifachem Antialiasing ebenfalls noch ausreichende 39 Bilder pro Sekunde. Der Direct3D-10-Chip kommt allerdings nur bei Oblivion und S.T.A.L.K.E.R. an den etwa gleich teuren GeForce 7950 GT aus der Vorgängergeneration heran. Bei Prey und F.E.A.R. liegt der Rückstand bei etwa 25 Prozent und bei Call of Duty sogar bei über 50 Prozent. Der GeForce 8600 GT erreicht 70 bis 80 Prozent der Leistung des GTS-Chips. Der GeForce 8500 GT liegt bei 30 bis 50 Prozent der GTS-Leistung. Die Eignung für Direct3D 10 lässt sich mangels geeigneter Spiele noch nicht einschätzen; ausführliche Ergebnisse bringt c´t in Ausgabe 10 (ab Montag, den 30. April, im Handel).

Quelle : www.heise.de
Titel: Nvidia geht mit GeForce 8800 Ultra auf Rekordjagd
Beitrag von: SiLæncer am 02 Mai, 2007, 16:36
Mit dem GeForce 8800 Ultra erweitert Nvidia seine Reihe von Direct3D-10-Grafikchips um eine weitere Variante für Hochleistungsgrafikkarten. Grafikkarten mit dem neuen Flaggschiff sollen ab dem 15. Mai für rund 700 Euro erhältlich sein.

Der Grafikchip arbeitet mit einer Taktfrequenz von 612 MHz und einem Shader-Takt von 1500 MHz. Den Speicher stellt Nvidia auf 1080 MHz ein. Gegenüber der bislang schnellsten Variante – GeForce 8800 GTX (500/1200/900 MHz) – bedeutet dies eine Steigerung der Taktfrequenzen um gut 20 Prozent. Alle anderen Spezifikationen bleiben unverändert, da Nvidia nach wie vor denselben Grafikchip (G80) einsetzt. Der Speicher fasst nach wie vor 768 MByte und am Bildaufbau beteiligen sich 128 Shader-Prozessoren. Allerdings sind die Ultra-Karten mit 29 Zentimetern noch einmal rund zwei Zentimeter länger als GTX-Karten, was in engen Gehäusen den Einbau erschwert, wenn nicht sogar unmöglich macht.

Die Lieferbarkeit bezeichnen Händler als gut. Allein MSI soll ab nächster Woche über Stückzahlen im oberen dreistelligen Bereich verfügen. Nvidia hat den 15. Mai nicht zufällig als Verkaufsstart gewählt, sondern will damit anscheinend die Aufmerksamkeit der Spielefans vom Konkurrenten AMD ablenken, der seine auf dem R600 beruhende Direct3D-10-Produktlinien am 14. Mai vorstellen will.

Quelle : www.heise.de
Titel: Nvidia erweitert 3D-Einstiegsklasse
Beitrag von: SiLæncer am 19 Juni, 2007, 14:29
Der Grafikspezialist Nvidia will noch heute den Direct3D-10-Grafikchip GeForce 8400 GS ankündigen. Der GeForce 8400 GS arbeitet mit einer Chiptaktfrequenz von 450 MHz und ist mit 16 Shader-ALUs ausgestattet, die mit 900 MHz doppelt so schnell angetrieben werden. Der über ein 64-Bit-Interface angebundene Speicher vom Typ GDDR2 ist für 400 MHz ausgelegt. Grafikkarten mit dieser GPU gehören wie der bereits erhältliche GeForce 8500 GT zum 3D-Einstiegssegment. Sie konkurrieren mit dem angekündigten Radeon HD 2400 Pro von AMD/ATI (40 Shader-Einheiten, Chip-/Shader-Taktfrequenz: 525 MHz, Speichertaktfrequenz: 400 MHz). Nvidia behauptet, dass der GeForce 8400 GS bis zu 100 Prozent schneller sei als der HD 2400 Pro.

Allerdings reicht die Grafikleistung sowohl des 8400 GS als auch des 2400 Pro nur für ältere Spiele aus 2006 und früher sowie für anspruchslose Anwendungen wie Google Earth und 3D-Küchenplaner. Die Einstiegsklasse verkraftet dabei nur Bildpunkt-Auflösungen von 1024 × 768 und geringer. Grafikchips dieser Kategorie erfüllen die Direct3D-10-Spezifikation nur deswegen, um preisgünstige Komplettsysteme mit dem Label "Direct3D-10-Grafik" bewerben zu können, sind für Spiele dieser Gattung aber zu leistungsschwach.

Die Leistungsaufnahme von 8400-GS-Karten soll 40 Watt betragen und wäre damit verhältnismäßig hoch, HD-2400-Pro-Karten sollen lediglich 25 Watt benötigen. Beide Grafikchips sind mit Video-Engines ausgestattet, um HD- und Blue-ray-DVDs ohne starke CPU-Belastung abspielen zu können. Grafikkarten mit dem GeForce 8400 GS benötigen für einen vollwertigen HDMI-Ausgang eine Kabelverbindung mit der Sound-Karte. Der Radeon HD 2400 enthält einen eigenen Audio-Controller und bezieht das Audio-Signal über das PCIe-Interface direkt vom Audio-Codec der Northbridge.

Die Kartenhersteller Foxconn und Sparkle haben bereits 8400-GS-Modelle mit 128 und 256 MByte Speicher zu Preisen um 60 Euro angekündigt.

Quelle : www.heise.de
Titel: Re: Nvidia erweitert 3D-Einstiegsklasse
Beitrag von: mtron am 19 Juni, 2007, 15:19
wirds diese Karten auch noch in einer AGP Variante geben, oder nur noch PCI-Express?

Falls nein, wer kann mir eine gute Nvidia für AGP empfehlen, die sich idealerweise noch gut mit den Linux binary treibern verträgt?
Titel: Re: Nvidia erweitert 3D-Einstiegsklasse
Beitrag von: _Immer_Intl_ am 21 Juni, 2007, 19:50
Soll noch was für AGP kommen.

Aber sowas wie der 8400 ist nur Gemurxe.

Ich will ne HD 2600XT!!!!!!!!!!!!!!!!!!!!!!!!!    :D
Titel: Günstige Quadro-Grafikkarten mit Unified Shadern
Beitrag von: SiLæncer am 14 September, 2007, 16:31
Ein halbes Jahr nach Vorstellung der ersten Profi-Grafikkarten mit Direct3D-10-Unterstützung erweitert der Grafikchiphersteller Nvidia seine Produktpalette um vier Einsteiger- und Mitteklasse-Varianten mit Unified Shadern. Wie bei Consumer-Grafikkarten mit Unfied Shadern soll die flexible Verteilung der Geometrie-, Pixel- oder Vertex-Berechnungen auf die einzelnen Grafikeinheiten die Performance der GPU bei der Quadro FX 1700, FX 570, FX 370 und NVS 290 besser ausnutzen.

Die Quadro FX 1700 mit 512 MByte GDDR2-RAM und G84-Grafikchip positioniert Nvidia im Mittelklassesegment. Bei Grafikberechnungen soll die Karte eine Geometrieleistung von 191 Millionen Dreiecken pro Sekunde und eine Füllrate von 7,36 Gigatexeln pro Sekunde erreichen. Der Speicher wird über einen 128 Bit breiten Bus mit einer Transferrate von 12,8 GByte/s angesteuert. Neben zwei Dual-Link-DVI-Anschlüssen ist die Grafikkarte mit einem analogen HD-tauglichen Komponentenausgang ausgestattet.

Auf den Einsteigerkarten Quadro FX 570 und FX 370 verbaut Nvidia ebenfalls den G84-Chip, stattet sie aber jeweils nur mit 256 MByte GDDR2-Speicher aus. Der Speicherbus der Quadro FX 370 ist gegenüber dem 128-bittigen Interface des Quadro FX 570 halbiert. Beide Grafikkarten besitzen jeweils zwei Dual-Link-DVI-Anschlüsse.

Für den Mehrschirmbetrieb bietet Nvidia die Quadro NVS 290 mit G86-Chip und 256 MByte GDDR2-Speicher (64 Bit) an. Die passiv gekühlte Low-Profile-Karte ist wahlweise als PCIe-x16- oder PCIe-x1-Ausführung erhältlich und eignet sich damit auch als Zweit- oder Drittkarte. Über ein mitgeliefertes Kabel stellt die Quadro NVS 290 aus einem DMS-59-Anschluss zwei Dual-Link-DVI-Ausgänge bereit.

Zielgruppe der Quadro-Grafikkarten sind professionelle Anwender in den Bereichen CAD/CAM, Medizin und Video. Neben dem 24-Stunden-Betrieb beherrschen alle vorgestellten Quadro-Modelle CUDA. Damit lässt sich die Rechenleistung des Grafikchips auch für Modellsimulationen oder Finanzanwendungen nutzen. Den Vertrieb der Einzelkarten mit Preisen von 153 bis 570 Euro übernimmt in Europa PNY. Darüber hinaus verbauen unter anderem HP, Dell, IBM, Lenovo und Sun die Quadro-Karten in ihren Workstations.

Quelle : www.heise.de
Titel: AMD und Nvidia stellen vermutlich neue Grafikchips fürs Weihnachtsgeschäft vor
Beitrag von: SiLæncer am 11 Oktober, 2007, 16:00
Im Internet mehren sich Gerüchte, dass in Kürze sowohl AMD als auch Nvidia ihre überarbeiteten Direct3D-10-Grafikchips vorstellen. Die ersten Vertreter mit Codenamen RV670 (AMD) und G92 (Nvidia) sollen im oberen Mittelklasse-Segment (200 bis 300 Dollar) Käufer finden. Passend zur Vorstellung des X38-Chipsatz von Intel verfügen beide GPUs über ein PCI-Express-2.0-Interface, das mit 8 GByte/s die doppelte Übertragungsrate im Vergleich zum aktuellen PCIe 1.1 bietet.

Bisher klaffte bei Preis und Leistung eine große Lücke zwischen der Mittelklasse und den High-End-Varianten der ersten Direct3D-10-Generation. Mit den kommenden Grafikchips wollen die beiden Hersteller AMD und Nvidia eine bessere Performance zu geringeren Kosten bieten. Nvidias G92 soll bereits am 29. Oktober als GeForce 8800 GT das Licht der Öffentlichkeit erblicken. Der in 65 nm produzierte Chip verfügt wohl über 112 Stream-Prozessoren mit 1,5 GHz Taktfrequenz; die weiteren Recheneinheiten haben 600 MHz. Der 256 MByte beziehungsweise 512 MByte große GDDR3-Speicher mit 900 MHz bindet über 256 Datenleitungen an die GPU an. Die GeForce 8800 GT soll den bisher kleinsten Vertreter der G80-Chipfamilie, die 8800 GTS mit 320 MByte Speicher, ersetzen. Im Unterschied zu dieser kommt die 8800 GT mit einem 1-Slot-Kühlmodul aus, was auf eine verringerte Leistungsaufnahme schließen lässt.

Die 640-MByte-Variante der 8800 GTS soll wegen der Neuvorstellung eine kleine Überarbeitung erfahren, verwendet aber weiterhin die in 90 nm hergestelle G80-GPU. Während das 320-Bit-Speicherinterface sowie die Taktfrequenzen von GPU (600 MHz) und RAM (800 MHz) wohl unangetastet bleiben, aktiviert Nvidia nun 112 anstatt 96 der 128 Unified-Shader-Einheiten. Die High-End-Grafikkarten GeForce 8800 GTX und 8800 Ultra bleiben unverändert im Angebot.

Im November soll AMDs RV670 im gleichen Marktsegment wie der G92 an den Start gehen. Geplant sind hier mindestens drei verschiedene Kartenvarianten. Auf der Radeon HD 2950 XT soll ein in 55 nm gefertigter RV670 mit 320 Shader-Einheiten und 825 MHz Taktfrequenz verbaut werden; die Taktfrequenz des 512 MByte großen GDDR4-Speichers beträgt 1200 MHz. Wie beim G92 von Nvidia bindet AMD bei der neuen Grafikgeneration den Speicher wohl mit 256 Bit an den Chip an, was ein kostengünstigeres Platinenlayout ermöglicht.

Die Radeon HD 2950 Pro mit 256 beziehungsweise 512 MByte GDDR3-Speicher (900 MHz) arbeitet mit 750 MHz GPU-Takt. Neben Unterstützung für die 3D-Schnittstelle Direct3D 10.1 und Shader Model 4.1 soll der RV670 die UVD-Einheit der Radeon-HD-2400/2600-Karten enthalten und damit den Hauptprozessor bei der Wiedergabe von Videos in HD-Auflösung entlasten. Im Unterschied zu den R600-basierten Radeon HD 2900 XT, 2900 Pro und 2900 GT kommen die HD-2950-Varianten mit einem Kühlkörper aus, der keinen weiteren Slot blockiert.

Derzeitige Direct3D-10-Spiele laufen mit aktuellen Mittelklassekarten nicht ausreichend flüssig, wie kürzlich der Microsoft-Entwickler Sebastian St-Laurent in seinem Blog einräumte. Die durch die Hardware-Hersteller geweckten hohen Erwartungen der Spieler an Direct3D 10 hätten sich nicht erfüllt. Die Ursache sieht er unter anderem in den unausgereiften Treibern, bedingt durch das neue Treibermodell in Vista und die neue Grafikarchitektur mit Unified Shadern. Allerdings räumt St-Laurent auch ein, dass auch Microsoft nicht ganz unschuldig ist, da die vor einem Jahr gezeigten Bilder des Flugsimulators X mit Direct3D 10 mit derzeit aktueller Hardware nicht zu realisieren sind.

Quelle : www.heise.de
Titel: Foxconn und Lavalys enthüllen Daten der GeForce 8800 GT
Beitrag von: SiLæncer am 19 Oktober, 2007, 13:48
Auf der Vetriebswebseite des taiwanischen Elektronikkonzerns Foxconn waren – offenbar versehentlich – für einige Stunden erste Details zu den von Nvidia noch nicht vorgestellten Grafikchip GeForce 8800 GT zu sehen. Momentan erreichbar ist hingegen ein Screenshot der Diagnose-Software Everest von Lavalys, der umfangreiche technischen Daten des Refresh-Chips der GeForce-8-Serie mit Codenamen G92 preisgibt.

Die Angaben bestätigen die bisher im Umlauf befindlichen Gerüchte, nach denen die Taktfrequenzen 600 MHz für die GPU und 1500 MHz für die 112 Stream-Prozessoren betragen. Die Shader-Einheiten beherrschen das Shader-Modell 4.0 (SM 4.0) und eignen sich daher vermutlich nicht für die 3D-Schnittstelle Direct3D 10.1 (SM 4.1), die Bestandteil des Service Pack 1 von Windows Vista sein wird. Der 512 MByte große GDDR3-Speicher (900 MHz) bindet über 256 Datenleitungen an. Mit dem System kommuniziert die Grafikkarte über eine PCIe-2.0-Schnittstelle (8 GByte/s), die auch in Intels kürzlich vorgestelltem X38-Chipsatz und im AMD-790FX zum Einsatz kommt. Dank der 65-nm-Fertigung benötigt eine GeForce 8800 GT – anders als die GeForce 8800 GTS/GTX/Ultra mit G80-Chip – nur einen Single-Slot-Kühler.

Quelle und Links : http://www.heise.de/newsticker/meldung/97638
Titel: Grafikchip GeForce 8800 GT schließt Leistungslücke
Beitrag von: SiLæncer am 29 Oktober, 2007, 15:26
 Der GeForce 8800 GT von Nvidia richtet sich an Anwender, die eine größere 3D-Leistung benötigen und arbeitet mit 112 Shader-ALUs, einem Chiptakt von 600 MHz und einem Shader-Takt von 1500 MHz. Der 512 MByte große Speicher ist für 900 MHz ausgelegt und wird über 256 Datenleitungen angesteuert. Grafikkarten mit dem 8800er-GT-Chip ersetzen die leistungsschwächere 320-MByte-Version des GeForce 8800 GTS, der mit 96 Shader-ALUs, 500 MHz Chip-, 1200 MHz Shader- sowie 800 MHz Speichertakt auskommen muss, aber ein 320-Bit-Interface besitzt.

(http://www.heise.de/bilder/98134/0/0)

Der GeForce 8800 GT beruht auf dem G92-Chip mit 781 Millionen Transistoren, bei dem Nvidia erstmals auf die 65-nm-Fertigung wechselt und dadurch höhere Taktfrequenzen verwenden kann. Trotzdem bleibt die Leistungsaufnahme mit 105 Watt moderat, und für die Kühlung reicht ein 1-Slot-Lüfter. Erstmals bietet Nvidia die für HD-Videos besser geeignete Video-Engine, die bislang den GeForce 8500 und 8600-Chips vorbehalten war, auch in einem 8800er-Chip an (Pure Video HD 2.0). Das Interface erfüllt bereits die Spezifikationen von PCIe 2.0, das Daten doppelt so schnell von und zum Grafikchip überträgt. Spiele profitieren davon allerdings noch nicht. In Verbindung mit entsprechenden Mainboards soll PCIe 2.0 aber GPGPU-Anwendungen beschleunigen können, die den Grafikchip als Rechenknecht für wissenschaftliche Aufgaben einsetzen. Größere Änderungen an den ALU- und Textur-Einheiten gibt es nicht.

Die Leistung des GeForce 8800 GT soll teilweise sogar über der des 8800 GTS mit 640 MByte liegen. Nach Angaben von Nvidia sind die GTS- und GTX-Grafikkarten bei hohen Antialiasing-Einstellungen mit ihrem 320- beziehungsweise 384-Bit-Speicherinterface aber nach wie vor schneller.
Anzeige

Der Preis einer GeForce-8800-GT-Karte soll 230 Euro betragen, er kann aufgrund der Nachfrage anfänglich auch darüber liegen. In ein oder zwei Wochen folgen voraussichtlich preisgünstigere OEM-Versionen mit 256 MByte Speicher. Einzelne Kartenhersteller arbeiten zudem an 1-GByte-Versionen. Im November will Konkurrent AMD den RV670-Chip mit einem ähnlichen Preis-/Leistungsverhältnis anbieten, wofür es aber noch keine offizielle Bestätigung gibt.

Quelle : www.heise.de
Titel: AMD/ATI Grafikkarten...
Beitrag von: SiLæncer am 03 November, 2007, 16:37
Auf der Webseite des Grafikkartenherstellers Diamond Multimedia gab es für kurze Zeit die kompletten technischen Daten der neuen Mittelklasse-Grafikchips von AMD zu sehen. Die Angaben auf den Screenshots entsprechen größtenteils den bereits im Vorfeld bekannt gewordenen Informationen, nach denen die beiden GPUs 320 Stream-Prozessoren nach Shader-Modell 4.1 (tauglich für Direct3D 10.1) und ein 256-Bit-Speicherinterface besitzen. Die Taktfrequenzen liegen mit 775/1200 MHz (GPU/RAM) bei der Radeon HD 3870 und 668/882 MHz bei der HD 3850 unter den bisher in der Gerüchteküche gehandelten Werten.

Um den Stromverbrauch zu minimieren, setzt AMD die bisher nur bei Mobil-Grafikchips verwendete Stromspartechnik PowerPlay erstmal auch bei GPUs für Desktop-PCs ein. Wie der kürzlich vorgestellte GeForce 8800 GT von Nvidia kommunizieren die neuen AMD-Chips über das im Vergleich zu PCI-Express 1.1 doppelt so schnelle PCIe 2.0 mit dem System. ATI CrossFire X ermöglicht es mit dem ebenfalls noch nicht vorgestellten AMD-790FX-Chipsatz, bis zu vier Radeon-Grafikkarten zur Steigerung der 3D-Leistung miteinander verknüpfen.

Wie die Radeon-HD-2000-Serie enthalten die HD-3800-Chips eine integrierte Soundeinheit, die mit einem DVI-zu-HDMI-Adapter ohne zusätzliche Kabel Videos mit Ton an Anzeigegeräte mit HDMI-Schnittstelle ausgibt. Zur Entlastung des Hauptprozessors bei HD-Inhalten besitzen die Radeon HD 3870 und 3850 im Unterschied zu den HD-2900-Grafikprozessoren die UVD-Einheit der HD 2600/2400-Chipfamilie.

Quelle : www.heise.de
Titel: AMD stellt erste Grafikchips mit Direct3D 10.1 vor
Beitrag von: SiLæncer am 15 November, 2007, 08:19
Der Grafikchip- und Prozessorhersteller AMD präsentiert rechtzeitig zum bevorstehenden Weihnachtsgeschäft mit dem Radeon HD 3870 und dem HD 3850 die ersten beiden Vertreter seiner neuen Grafikchip-Generation. In beiden GPUs steckt der RV670, ebenso wie in dem bereits angekündigten Applikationsbeschleuniger FireStream 9170. Es handelt sich dabei um eine überarbeitete Version des R600, der bei Grafikkarten mit HD 2900 GT, HD 2900 Pro und HD 2900 XT eingesetzt wird. Mit dem Mainboard-Chipsatz kommunizieren die Chips der HD-3800er-Serie nun über PCI Express 2.0, den Grafikspeicher binden allerdings nur noch 256 Datenleitungen an.

(http://www.heise.de/bilder/98998/0/0)

Die Taktfrequenzen des Radeon HD 3870 mit 775 MHz für den Chip und 1200 MHz für die 512 MByte GDDR4-Speicher liegen über denen der HD 2900 XT (740/828 MHz). Unterhalb davon postiert AMD den HD 3850 (670 MHz) mit 256 MByte GDDR3-Speicher (833 MHz). An den Recheinheiten ändert sich nichts, die neuen Grafikchips enthalten wie der HD 2900 XT 320 Shader-, 16 Textur- sowie 16 Raster-Operation-Einheiten. Durch das schmalere Speicherinterface verringert sich die Transistorenzahl von 700 auf 666 Millionen.

Die kleineren Strukturgrößen von nur noch 55 statt 80 Nanometer und die Integration der bisher nur bei Notebook-Grafikchips genutzten Stromspartechnik PowerPlay sollen für eine deutlich geringe Leistungsaufnahme sorgen. AMD verspricht diese im Vergleich zur Radeon HD 2900 XT bei maximaler 3D-Last zu halbieren und bei mittlerer Belastung gar auf 25 Prozent abzusenken. HD-3850-Grafikkarten kommen daher mit einem Ein-Slot-Kühler aus; das Zwei-Slot-Kühlmodul der HD&nbsp3870; ist weniger massiv als das der HD-2900-Karten.

Beide GPUs unterstützen CrossFireX, was die Kopplung von bis zu vier Grafikkarten in Phenom-tauglichen Mainboards mit AMD-790FX-Chipsatz erlaubt. Weiterhin ist die UVD-Einheit aus den Radeon-HD-2400/2600-Chips in der HD-3800er-Serie enthalten, die den Systemprozessor bei der Wiedergabe von High-Definition-Videos entlastet. Neben zwei HDCP-tauglichen Dual-Link-DVI-Anschlüssen besitzen die Karten einen analogen Videoausgang. Über einen DVI-HDMI-Adapter können dank der integrierten Sound-Einheit HD-Videos per HDMI mit Ton ohne zusätzliche Kabel an ein Anzeigegerät ausgegeben werden.

Die versprochene Unterstützung von Direct3D 10.1 wird erst mit dem Service Pack 1 von Windows Vista nutzbar sein. Ein Microsoft-Vertreter erklärte in einem Interview, dass es sich dabei nur um ein inkrementelles Update handele und es für die Spiele der nächsten Zeit keine Rolle spiele. In das gleiche Horn bläst auch Cervat Yerli vom Entwicklerstudio Crytek (Crysis), der die Neuerungen von Direct3D 10.1 für relativ unbedeutend hält und in Frage stellt, sie zukünftig überhaupt zu verwenden.

Die Preisempfehlung für die neuen Karten liegt mit 150 bis 250 US-Dollar unter der des kürzlich von Nvidia vorgestellten GeForce 8800 GT. Erste Händler offerieren bereits Grafikkarten mit Radeon HD 3870 und HD 3850.

Quelle : www.heise.de
Titel: Die Spinne im Netz: Vierkernprozessor von AMD
Beitrag von: SiLæncer am 19 November, 2007, 09:45
Mit viel Aufwand hat AMD in Warschau Journalisten die Spider-Plattform vorgestellt. Unter diesem Namen fasst AMD das Dreigespann aus dem Vierkernprozessor Phenom, den Chipsätzen der 700er-Serie und den bereits letzte Woche vorgestellten HD-38xx-Grafikkarten zusammen.

Von den lang erwarteten Phenoms stellt AMD erst einmal nur zwei Modelle vor: Den Phenom 9600 (2,3 GHz, 95 Watt) und den Phenom 9500 (2,2 GHz, 95 Watt). Der ursprünglich ebenfalls für dieses Jahr erwartete Phenom 9700 kommt erst zu Beginn des nächsten Jahres. Auch der Phenom FX, mit dem AMD eigentlich Intel Paroli bieten wollte, kommt erst 2008, vielleicht zusammen mit den Triple-Kernen.

Die Phenom-Prozessoren tragen – anders als in diversen Internetshops angegeben – im offiziellen Jargon kein "X4", "X3" oder X2 im Namen, an dem man die Anzahl der Kerne direkt ablesen könnte. Klarheit soll vielmehr das neue Namensschema liefern: Die 9000er-Chips haben vier Kerne, die noch nicht vorgestellten 8000er haben derer nur drei.

Alle bisher fertigen Phenoms haben noch einen Bug im Translation Lookaside Buffer (TLB) des L3-Caches. Er soll laut AMD nur unter sehr seltenen Lastfällen auftreten und entspricht den Fehlern im Barcelona. AMD kann den Fehler durch Deaktivieren des gesamten TLBs für den L3-Cache umgehen, allerdings kostet das laut eigenen Aussagen zehn und mehr Prozent Performance.

Auf der Pressevorstellung erlaubte AMD lediglich das Benchmarken vorkonfigurierter Spider-Systeme unter Aufsicht. Bestückt waren die 790FX-Mainboards mit "Engineering-Samples" der 9700er-Phenoms – die AMD aber noch nicht mit vorgestellt hat. Ihnen standen zwei HD3850-Karten zur Seite. Nach der Veranstaltung verschwanden die Testrechner wieder in ihren Kisten und gingen erstmal zur Durchsicht nach England. Tests im eigenen Labor konnte die c't-Redaktion daher bislang noch nicht durchführen.

Aus den Beobachtungen während unserer Tests vor Ort lassen sich einige Prognosen ziehen: Die für AMD-Freunde und -Aktionäre traurigste, aber seit dem Barcelona-Launch nicht mehr überraschende Botschaft dürfte sein, dass der Phenom bei 2,4 GHz Intels Core 2 Quad nichts entgegenzusetzen hat. Die Performance-Krone bleibt somit noch eine Weile ganz sicher bei Intel.

Ganz anders sieht es im mittleren Preissegment aus. Dort dürfte die Kombination aus PCIe-2.0-Chipsatz, Vierkernprozessor und HD38xx-Grafikkarte(n) lukrativ sein. Insbesondere, da AMD in Warschau sehr verlockende Preise nannte. So soll ein Phenom 9500 gerade einmal auf einen Listenpreis (OEM, 1000 Stück) von 169 Euro und ein Phenom 9600 von 190 Euro kommen. Mainboards mit dem 770-Chipsatz soll es ab 109 Euro geben.

Nun bleibt abzuwarten, ab wann die Händler die angeblich ab heute verfügbaren Prozessoren ausliefern können. AMD will jedenfalls erst einmal nur den sogenannten Channel, also kleinere und mittlere Systemintegratoren und Händler beliefern. Mit großen Herstellern stehe man aber ebenfalls in Verhandlungen. Namen oder Termine wollte AMD allerdings noch nicht nennen.

Quelle : www.heise.de
Titel: Highend-Grafikchips mit Direct3D 10 für Notebooks
Beitrag von: SiLæncer am 19 November, 2007, 20:52
Nvidia präsentiert mit dem GeForce 8800M GTX und dem 8800M GTS die ersten zwei Highend-Grafikchips mit Direct3D 10 für Notebooks. Sie unterscheiden sich nur in der Anzahl der Shaderprozessoren: Der GeForce 8800M GTX berechnet 3D-Welten mit 96, der 8800M GTS mit 64 Shaderprozessoren. Das ist zwar das Dreifache beziehungsweise Doppelte dessen, was die bislang schnellsten Mittelklasse-Chips 8600M GT/ 8700M GT bieten (siehe dazu auch c't 23/07, S. 116), aber weniger als die Desktop-Pendants mit ähnlichem Namen, die bis zu 128 Shaderprozessoren haben.

Beide Neulinge basieren auf dem im 65-nm-Verfahren gefertigten G92-Kern mit über 700 Millionen Transistoren und laufen mit 500 MHz Chip- und 1250 MHz Shadertakt; auch das ist deutlich weniger als im Desktop-Bereich. Das 256 Bit breite Speicherinterface spricht 512 MByte Videospeicher mit 800 MHz an. An Bord ist auch Nvidias VP2-Video-Engine (PureVideo HD), die dem Hauptprozessor die vollständige Dekodierung des Videodatenstroms einer Blu-ray Disc oder HD-DVD abnimmt. Die Chips werden unter anderem auf MXM-III-Modulen angeboten und dürften demnach maximal 35 Watt Abwärme abgeben.

Unter den Launch-Partnern befinden sich nur kleinere Notebook-Händler wie Chiligreen, Cyber System oder Nexoc. Deren Geräte dürften zumindest anfangs allesamt auf dem Clevo-Barebone MR570RU mit 17-Zoll-Display basieren, der bislang auch schon mit dem Grafikchip GeForce 8700M GT erhältlich war (siehe dazu auch c't 23/07, S. 124). Nexoc rechnet damit, die ersten mit 8800M GTX bestückten Notebooks ab Mitte Dezember auszuliefern; das Osiris E705 III soll dann in einer typischen Ausstattung mit Core 2 Duo T7500 (2,2 GHz), 2 × 1024 MByte DDR2-667-RAM, 160-GByte-Festplatte, DVD-DL-Brenner und 4965AGN-WLAN-Modul 1.949 Euro kosten.

Alienware USA will die neuen Grafikchips in den Notebooks Area-51 m17x (17 Zoll) und m15x (15,4 Zoll) einsetzen, doch laut der deutschen Niederlassung wird man diese Geräte hierzulande erst anbieten, wenn die Verfügbarkeit sicher gestellt ist – das soll noch mehrere Wochen dauern. Dell und Toshiba werden laut Nvidia auch Notebooks mit den Highend-Chips anbieten; die Unternehmen selbst haben aber noch keine entsprechenden Produkte angekündigt.

Quelle : www.heise.de
Titel: HIS mit HD-3850-Karten samt Übertaktung und 512 MByte
Beitrag von: SiLæncer am 10 Dezember, 2007, 12:27
Aufgemotzte Mittelklasse-Modelle mit RV670-GPU

Drei Wochen nach Markteinführung des Grafikprozessores RV670 von AMD stellt nun HIS die nach eigenen Angaben schnellste Grafikkarte auf Basis des Radeon HD 3850 vor: Die "HD3850 ICEQ3 TURBO X" soll fast so schnell arbeiten wie Grafikkarten mit dem größeren Prozessor HD 3870, dabei aber etwas günstiger sein.
Die neue HIS-Karte arbeitet statt mit den Standardtakten von 670 und 1.666 MHz für GPU und Speicher - Letzteres per DDR-Verfahren statt der physikalischen 833 MHz angegeben - mit 735 und 1.960 MHz. Die Spezifikation für HD-3870-Karten liegt bei 770 und 2.250 MHz. Beide GPUs hatte Golem.de bereits ausführlich vorgestellt.

(http://scr3.golem.de/screenshots/0712/HIS-Karte/HD3850_IceQ3T_PCIe.jpg)

Für die Turbo X von HIS empfiehlt der Hersteller einen Preis von 209,- Euro, auf diesem Niveau liegen jedoch im Handel bereits HD-3870-Karten, auch wenn AMD hier einen Preis von 229,- Euro vorsieht. Wie diese größeren Modelle verfügt auch die HD-3850-Karte von HIS über einen Kühler im bekannten IceQ-Design, der zwei Steckplätze belegt.

Etwas günstiger ist mit einer Preisempfehlung von 189,- Euro die "HD3850 IceQ3 Turbo" mit gleichem Kühler und ebenfalls 512 MByte GDDR3-Speicher. Auch sie ist mit 720/1.820 MHz kräftig übertaktet. Laut HIS werden beide Karten ab sofort an den Handel geliefert und sollten dort noch vor Weihnachten erhältlich sein.

Quelle : www.golem.de
Titel: Modellpflege bei Nvidia-Grafikchips
Beitrag von: SiLæncer am 11 Dezember, 2007, 15:15
Grafikspezialist Nvidia ersetzt die Direct3D-10-Chips GeForce 8800 GTS und GeForce 8400 GS durch neue Ausführungen mit geänderten Leistungsdaten. Für anspruchsvolle PC-Spiele eignet sich Nvidias neue 512-MByte-Ausführung des GeForce 8800 GTS. Sie arbeitet mit dem in 65-nm-Strukturen gefertigten G92-Chip, der schon beim GeForce 8800 GT zum Einsatz kommt. Allerdings sind diesmal nicht nur 112, sondern alle 128 Shader-ALUs freigeschaltet. Damit steigert Nvidia die Rechenleistung seines GTS-Modells erheblich, das bislang mit 96 Shader-ALUs auskommen musste.

Auch die Shader-Taktfrequenz von 1625 MHz sorgt für mehr 3D-Power und übertrifft sogar die 1350 MHz des GeForce 8800 GTX um fast 20 Prozent. Die Speichertaktfrequenz von 970 MHz liegt ebenfalls deutlich über den 800 MHz des alten GTS-Chips. Trotzdem erreicht er keine höhere Speicherbandbreite, da Nvidia das Speicherinterface wie beim GeForce 8800 GT auf 256 Bit begrenzt – der Vorgänger arbeitet mit einem 320-Bit-Interface. Die Kapazität des Speichers beträgt 512 MByte, die alten GTS-Modelle sind mit bis zu 640 MByte bestückt. Der Zweislotkühler ähnelt den von Nvidias High-End-Modellen bekannten Ausführungen und muss laut Nvidia eine Verlustleistung von maximal 140 Watt abführen.

Der modernisierte Chip bringt nun auch die verbesserte Videobeschleunigung PureVideo HD in die High-End-Klasse von Nvidia. Die integrierte VP2-Einheit entlastet den Hauptprozessor bei der Berechnung der letzten drei Dekodierschritte von hochauflösenden Videos in H.264 und VC-1. Der Bitstream-Prozessor (BSP) übernimmt zusätzlich noch die erste Stufe bei H.264.

Grafikkarten mit dem neuen GeForce 8800 GTS sind ab sofort im Handel und kosten rund 350 Euro. Einige Nvidia-Partner kündigen übertaktete GTS-Karten zu etwas höheren Preisen an. So soll eine O.C.-Version von MSI mit 730/1825 MHz für den Chip und die Shader-ALUs und unveränderter Speichertaktfrequenz für 389 Euro in den Handel kommen.

Im Low-Cost-Segment setzt Nvidia beim GeForce 8400 GS einen weiteren neuen 65-nm-Chip ein. Der G98 ist für 567/1400/500 MHz ausgelegt (Chip/Shader-ALUs/Speicher). Ber Vorgänger G86 arbeitet mit 450/900/400 MHz. Dafür soll Nvidia aber die Hälfte der Shader-ALUs und Textureinheiten eingespart haben, sodass der Neuling mit nur vier ALUs und vier TMUs auskommen muss. Dazu gekommen ist aber eine neue HD-Videoeinheit, die die System-CPU bei der Wiedergabe von VC-1 kodierten HD-Videos noch stärker entlasten soll.

Quelle : www.heise.de
Titel: 3 Grafikkarten synchron: Benchmarks von Nvidias 3-Way-SLI
Beitrag von: SiLæncer am 13 Dezember, 2007, 13:27
Gute Skalierung, aber bis zu 819 Watt Leistungsaufnahme

Mit Prototypen-Systemen führt Nvidia derzeit der Hardware-Presse sein "3-Way-SLI" vor. Dabei können drei GTX- oder Ultra-Grafikkarten der Serie GeForce 8800 gekoppelt werden. Die Kollegen von PC Games Hardware führten einen der ersten Tests mit vorinstallierten Anwendungen durch, wobei die Grafikleistung der Spiele recht gut skalierte - sogar Crysis kann man damit voll ausreizen.
3-Way-SLI ist Nvidias Antwort auf AMDs Spider-Plattform, bei der bis zu vier Grafikkarten gekoppelt werden können - und auch eines der letzten Verkaufsargumente für die sehr stromhungrigen GTX- und Ultra-Karten, deren GPU noch in 90 Nanometern Strukturbreite gefertigt wird. Vor allem die neue GeForce 8800 GTS mit 512 MByte samt 65-Nanometer-Prozessor ist bei vielen Spielen genauso schnell oder schneller als eine GTX, aber deutlich sparsamer.

Voraussetzung für 3-Way-SLI ist nicht unbedingt ein Mainboard mit Nvidias offiziell noch nicht erhältlichen, aber durch Mainboard-Hersteller wie Asus und MSI bereits angekündigten 780a/780i-Chipsätzen. Auch ein älteres Board mit drei PCIe-x16-Slots reicht, wobei dann aber nicht allen drei Karten 16 Lanes zur Verfügung stehen. Der Leistung tut das mit bisherigen Anwendungen jedoch kaum einen Abbruch, die höhere Bandbreite zeigt sich nur mit synthetischen Tests wirklich deutlich.

Wie die Redaktion von PC Games Hardware gegenüber Golem.de erklärte, waren die vier Spiele Crysis, Unreal Tournament 3, F.E.A.R und Company of Heroes auf den Nvidia-Rechnern vorinstalliert. Alle Titel entstammen Nvidias Programm "The way it's meant to be played", bei dem der Chip-Hersteller Spiele-Entwickler mit eigenem Code und anderen Maßnahmen unterstützt. Wie bei anderen derartigen Vorabtests konnten die Redakteure die Konfiguration jedoch ausgiebig prüfen. Dabei zeigte sich, dass für Crysis ein noch nicht veröffentlichter Patch (Build 3857) nötig war, der laut Nvidia die Skalierfähigkeit bei 3-Way-SLI stark verbessert. Zudem wurde auch noch ein offizieller Microsoft-Patch für Windows Vista installiert, der allgemein die Leistung bei Kopplungen von Grafikkarten verbessert.

Angetrieben von einem Core 2 Quad E6850 (3 GHz) liefen drei GeForce-8800-Ultra-Karten mit Standardtakten auf einem Mainboard P5N32-E SLI von Asus. Dieses Board ist noch mit dem 680i-Chipsatz von Nvidia bestückt, also noch nicht dem neuen 780i. Ein 1.200-Watt-Netzteil von Toughpower erledigte die Stromversorgung. PC Games Hardware gibt für die Leistungsaufnahme des Gesamtsystems nur den erreichten Spitzenwert an: Er liegt bei wahnwitzigen 819 Watt und erscheint durchaus realistisch. Laut Nvidia nimmt eine einzelne Ultra-Karte unter Last 180 Watt auf, so dass das SLI-Trio alleine schon auf 540 Watt kommt. Zusammen mit der Effizienz des Netzteils, CPU und Mainboard - die beim Ansteuern von drei Grafikkarten kräftig schwitzen - erscheint der Wert durchaus praxisnah.

Aus dem hohen Aufwand und Stromverbrauch resultiert aber, zumindest mit den Nvidia-Spielen, eine gute Skalierung der Anwendungen. Der aktuelle High-End-Titel Crysis wird beim Ausnutzen aller Grafikoptionen ("Very High", DirectX-10) in hohen Auflösungen tatsächlich erst mit drei Grafikkarten spielbar. Bei 1.920 x 1.200 Pixeln Auflösung kam eine einzelne Ultra-Karte im Test-Level "Paradise Lost", das per Shader-Programmen unter anderem Schneefall erzeugt, auf 14,8 Bilder pro Sekunde (fps). Mit 27,1 fps schon 83 Prozent schneller waren zwei Ultras, und die dritte steigerte die Bildrate nochmals um 38 Prozent auf 37,9 fps.

Bei weniger anspruchsvollen Titeln wie Unreal Tournament 3 ergab sich dasselbe Bild: Die dritte Grafikkarte skaliert ähnlich gut wie die zweite, wenn man die Werte prozentual umrechnet. UT3 kam selbst mit 16facher anisotroper Filterung bei 2.560 x 1.600 Pixeln noch auf flüssige 63 fps, und auch bei den beiden anderen Titeln steigerte eine dritte Ultra die Leistung um rund ein Drittel. Die detaillierten Ergebnisse sind dem Test bei PC Games Hardware zu entnehmen.

Den Redakteuren fiel jedoch beim Spielen selbst, abseits der Benchmark-Durchläufe, noch auf, dass die Karten mit zugeschaltetem Anti-Aliasing nicht völlig flüssig rechneten. Den Messwerten ist das nicht zu entnehmen, eventuell ist hier noch etwas Feinarbeit an Treibern oder Mainboards nötig.

Durch die Vorführung von Nvidia ist jedoch auch klar geworden, dass die neuen Mainboards mit 780a/780i-Chipsatz für 3-Way-SLI nicht zwingend nötig sind - ob jedoch auch ein neuer Treiber die Kopplung von drei Grafikkarten auf anderen Plattformen erlaubt, ist zweifelhaft. Schon knapp zwei Jahre alte Mainboards mit Intels 975X-Chipsatz bieten drei PCIe-x16-Slots; wie Nvidia jedoch mehrfach betonte, hat Intel keine Lizenz für SLI. Wann Nvidia 3-Way-SLI freigibt, ist ebenfalls noch unklar. Unbestätigten Berichten zufolge soll das erst mit den neuen Chipsätzen erfolgen, die angeblich noch Probleme mit Intels auf effektiv 1.600 MHz beschleunigtem FSB neuer Penryn-Prozessoren haben.

Quelle und Links : http://www.golem.de/0712/56539.html
Titel: Nvidia führt nForce-700-Chipsatzserie ein
Beitrag von: SiLæncer am 17 Dezember, 2007, 18:59
Der Grafikchip- und Chipsatzhersteller Nvidia stellt mit dem nForce 780i SLI und dem 750i SLI seine ersten Mainboard-Chipsätze mit PCI-Express 2.0 vor. Beide Chipsätze unterstützen Intels LGA775-Prozessoren mit FSB533 bis FSB1333, darunter befinden sich auch die neuen 45-nm-CPUs Wolfdale (Dual-Core) und Yorkfield (Quad-Core) mit Penryn-Architektur.

Beim nForce 780i SLI erhöht Nvidia die Anzahl der PCI-Express-Lanes im Vergleich zum Vorgänger 680i SLI von 46 auf 62. Die drei elektrisch voll beschalteten PCIe-x16-Slots ermöglichen den Betrieb des vor wenigen Tagen vorgestellten 3-Wege-SLI ohne Einschränkung bei der Transferrate. Technisch ist der nForce 780i SLI dem 680i SLI sehr ähnlich, ein zusätzlicher (nForce 200 getaufter) PCIe-Switch stellt zwei PCIe-2.0-x16-Schnittstellen bereit. Den dritten PCIe-x16-Slot – allerdings nur mit PCI-Express 1.1 – realisiert Nvidia über die MCP55P-Southbridge, die ebenfalls baugleich zum Vorgängerchipsatz ist.

Der günstigere nForce 750i SLI besitzt nur einen PCIe-2.0-x16-Slot, der zweite Grafikkartensteckplatz ist hier mit 8 Lanes angebunden. Die erweiterte Systemüberwachung ESA sowie die Unterstützung von EPP-Speichermodulen mit vorbereiteten Übertaktungsprofilen bleiben dem nForce 780i SLI vorbehalten. Kleine Unterschiede zwischen beiden Chipsätzen gibt es auch bei den verbleibenden Schnittstellen, so besitzt der nForce 780i SLI sechs statt vier SATA-Anschlüsse und zehn statt acht USB-Ports. Einige Händler haben bereits Mainboards mit den neuen Chips für etwa 120 Euro (750i) beziehungsweise 220 Euro (780i) in ihren Preislisten.

Quelle : www.heise.de
Titel: Hardware-Ausblick 2008: Intel, AMD und Nvidia
Beitrag von: SiLæncer am 26 Dezember, 2007, 14:20
Wie jedes Jahr zum Jahresende lässt man in den letzten Tagen die vergangene Zeit noch einmal Revue passieren. Viel spannender ist aber die Frage, was das neue Jahr bringen wird. Zumindest für den Hardware-Bereich kann die Redaktion diese Frage beantworten: Neue Prozessoren, komplette Plattformen für den Business-, Privat- und Notebook-Markt und natürlich neue Grafikchips und -Lösungen von AMD und Nvidia.
   
2007: 45-nm-Fertigung

In Jahren mit ungeraden Zahlen stellt der Chipriese Intel die Fertigung auf die nächst kleinere Transistorstrukturbreite um. In diesem Jahr wurde die Breite von 65 auf 45 Nanometer (nm) verkleinert. Der Quadcore-Prozessor der Penryn-Reihe ist mit mehr als 800 Millionen Transistoren bestückt. Um die Größenordnung zu verdeutlichen: Der erste Intel Prozessor von 1971 war mit 2300 Transistoren ausgestattet. Die neuen CPUs sollen Unternehmensangaben zufolge rund 30 Prozent weniger Strom benötigen, mehr als 20 Prozent schneller sein oder fünfmal weniger Leckströme verursachen. So kann man für die einzelnen CPUs entweder die Leistung optimieren oder den Stromverbrauch senken. Die entsprechenden Prozessoren für Server und Desktop-PCs sind bereits im Handel, im ersten Quartal 2008 sollen dann die Notebook-CPUs folgen.

2008: neue Architektur

Das kommende Jahr hat eine gerade Zahl, was für Intel immer die Einführung einer neuen Architektur bedeutet: "Nehalem". Die Technik der neuen Prozessoren vergleicht der Halbleiterhersteller mit der Hyper Threading Technology (HTT), die zum Beispiel bei den Pentium 4-Prozessoren zum Einsatz kam. Demnach können auch mit Nehalem mehrere Threads pro Rechenkern parallel ausgeführt werden. Da bis zu acht Kerne auf einem Chip verbaut werden, lassen sich in Kombination mit Simultaneous Multi-Threading (SMT) mehr als 16 Threads gleichzeitig verarbeiten.

Die Nehalem-CPUs werden einen Memory Controller mitbringen, über den sie dann direkt mit dem Arbeitsspeicher Daten austauschen können. So lässt sich ein Grafik-Chipsatz direkt auf dem Prozessor implementieren. Darüber hinaus wird die neue System-Schnittstelle QuickPath ihren ersten Auftritt mit Nehalem haben. Diese ersetzt den Frontside-Bus und soll durch einen schnelleren Datenaustausch das gesamte System beschleunigen. Als Liefertermin nannte Intel-Chef Paul Otellini auf der hauseigenen Messe IDF (Intel Developer Forum) die zweite Jahreshälfte.

Zu den weiteren Neuigkeiten für 2008 zählen die CPUs mit den Codenamen "Silverthorne", die vor allem in Mobile Internet Devices (MID), aber auch in MP3-Playern oder in Steuerungseinheiten von Embedded Systemen zum Einsatz kommen sollen. Diese Gebiete haben laut Intel die Faktoren Kosten, Stromverbrauch und Größe gemeinsam, an denen das Unternehmen in den nächsten Jahren weiter arbeiten möchte.

Silverthorne-Prozessor

Besonders bei tragbaren Geräten ist die Akkulaufzeit eine entscheidende Größe. Die auf einem von Grund auf neu entwickelten x86-Design basierenden Silverthorne-CPUs sollen unter Volllast weniger als ein Watt verbrauchen und so besonders sparsam sein. Obwohl der Chip kleiner als ein US-amerikanischer Penny ist, bietet die Oberfläche Platz für ganze 47 Millionen Transistoren. Die Fertigung erfolgt wie auch bei den Nehalem-CPUs im 45-nm-Prozess. Silverthorne ist Bestandteil der "Menlow"-Plattform, die auch den Grafikchipsatz "Poulsbo" integriert. In Kombination mit einem passenden Mainboard lassen sich mit der Plattform Geräte wie zum Beispiel Ultra Mobile PCs herstellen, die gerade einmal doppelt so groß sind wie eine Spielkarte. In puncto Datenaustausch werden die Chips Wi-Fi, Bluetooth, GPS und WiMAX unterstützen. Intel wird nach eigenen Angaben in Zusammenarbeit mit anderen Firmen auch UMTS ermöglichen.

Neue Notebook-Plattform

Ebenfalls für das kommende Jahr angekündigt ist die Notebook-Plattform "Montevina", die auf Penryn basiert und HD-DVD und Blu-ray unterstützt. Montevina ist Intels erste Centrino Prozessor-Technologie mit integriertem Wi-Fi und mobilem WiMAX.

Auch die Verabschiedung von USB 3.0 ist für 2008 angesetzt. Der neue Standard soll im Vergleich zum jetzigen USB 2.0 bis zu zehnmal schneller sein und die Daten so mit einer Geschwindigkeit von bis zu fünf Gigabit pro Sekunde (GBit/s) übertragen können. Wann genau die ersten Produkte mit dem neuen Standard kommen, ist noch nicht bekannt.

Darüber hinaus soll im ersten Quartal die Massenproduktion des neuen Z-P140 PATA Solid-State Drives (SSD) starten. Der Flashspeicher mit zwei oder vier Gigabyte (GB) ist kleiner als ein Penny und dabei leichter als ein Tropfen Wasser und wird in mobilen Geräten wie MP3-Playern und Internet-Handhelds eingesetzt.

AMD plant für das kommende Jahr jede Menge neue Plattformen und auch neue ATI Grafiklösungen. In der ersten Jahreshälfte soll die Notebook-Plattform "Puma" starten, die dann in Konkurrenz zu Intels Montevina tritt. Auch Puma wird sich mit Blu-ray und HD-DVD verstehen und unterstützt dann auch den neuen Funkstandard 802.11 n. Zur Plattform gehören die künftigen Dual-Core-Prozessoren mit dem Codenamen "Griffin" und der kommende Chipsatz RS780 mit integriertem DirectX-10-Kern. Die CPU bietet neben HyperTransport-3.0 eine unabhängige Spannungsversorgung. Mittels PowerXpress kann der Nutzer zusätzlich zur integrierten Grafik per PCI-Express-2.0 eine Grafikkarte anschließen und im laufenden Betrieb zwischen den beiden wechseln.
   
"Perseus" für Geschäftskunden

Im Bereich der Desktop-Plattformen unterscheidet AMD zwischen Business- und Home-Anwendern. Für den Business-Kunden bringt der Hersteller im ersten Quartal "Perseus" auf den Markt, für den Heim-Bereich eignet sich "Cartwheel". Beide Plattformen basieren auf Quad-, Triple- oder Dual-Core-Prozessoren mit den Codenamen "Toliman" und "Kuma". Die CPUs werden im 65-Nanometer-Prozess gefertigt. Prozessoren für Privat- und Geschäftskunden auf 45-nm-Basis folgen erst 2009 mit den Plattformen "Kodiak" und "Cartwheel" Refresh. Perseus bringt wie auch Puma den RS780-Chipsatz mit und unterstützt ebenfalls die Hybrid-Grafik. Als Sockel kommt AM2+ für die neuen Phenom-CPUs zum Einsatz, der im Vergleich zum AM2-Sockel HyperTransport 3.0 bietet.

Erst Spinne, dann Löwe

Die kürzlich vorgestellte Spider-Plattform für Gamer wird in der zweiten Jahreshälfte durch "Leo" abgelöst. Diese vereint die Chipsätze 790FX, 790 und 770 mit Drei- und Vierkern-Prozessoren mit den Codenamen "Deneb" und "Propus", die bereits im 45-Nanometer-Prozess gefertigt werden. Die entsprechenden Grafikkarten sollen laut der Präsentation auf dem Financial Analyst Day am 13. Dezember auf dem ATI R600-Chip basieren.

Im ersten Quartal plant AMD außerdem Software-Treiber für CrossfireX zu veröffentlichen. Mit Crossfire kann man bislang zwei Grafikkarten im Verbund betreiben, mit dem Nachfolger CrossfireX und dem aktuellen RD790 Chipsatz lassen sich dann drei oder sogar vier Karten kombinieren.
   
Onboard-Grafik pusht die Leistung

Eine weitere Neuerung ist "Hybrid Graphics". Wie der Name schon verrät, geht es auch hier um mehrere Grafikkarten. Mit dieser Lösung lässt sich ein Onboard-Grafikchip, der in den meisten Fällen eine eher schwache Leistung bietet, mit einer Grafikkarte koppeln. Laut Rick Bergman, Senior Vice President von AMD, sind so bis zu 50 Prozent Leistungssteigerung möglich. Mit Hybrid Graphics will AMD vor allem den Durchschnitts-Gamer ansprechen, der nach einer kostengünstigen Lösung sucht.

Die neuen Grafikprozessoren für Notebooks tragen den Codenamen "M8X" und werden im 55-nm-Prozess gefertigt. Neben DirectX 10.1 werden die Chips auch die DisplayPort-Schnittstelle unterstützen, über die sich ein Monitor anschließen lässt. Der ebenfalls für 2008 geplante Chip ATI R680 soll zwei GPUs (Graphics Processing Unit) auf einer Karte vereinen und bereits CrossfireX unterstützen. Im unteren und mittleren Preissegment plant das Unternehmen die Chips RV620 und RV635 auf 55-nm-Basis.

Ansonsten soll im ersten Quartal noch der Phenom Triple-Core auf den Markt kommen, der insbesondere bei Multitasking- und Multi-Threaded-Applikationen für mehr Rechenleistung sorgen soll. Auch im Bereich Unterhaltung und Computerspiele soll sich die höhere Produktivität bemerkbar machen.

Pläne von Nvidia

Der Konkurrent Nvidia arbeitet Medienberichten zufolge ebenfalls an einer Hybrid-Lösung für integrierte und diskrete Grafik. Ähnlich wie bei Hybrid Graphics von ATI könnten die Mainstream-Kunden dann eine günstige Grafikkarte mit dem bereits auf dem Mainboard vorhandenen Chip kombinieren und so mehr Grafikleistung erreichen. Mit der GeForce 9-Serie wird für 2008 außerdem der Nachfolger der 8er-Reihe erwartet. Weitere Details oder ein Erscheinungstermin sind leider noch nicht bekannt.

Zu den Neuigkeiten, die Nvidia noch in diesem Jahr präsentiert hat, gehören Triple-SLI und der 780i SLI-Chipsatz – Nachfolger des nForce 680i SLI. SLI ist das Pendant zu ATIs Crossfire und bietet die Möglichkeit, zwei Grafikkarten parallel zu nutzen. Mit Triple-SLI lassen sich drei GeForce 8800 GTX oder 8800 Ultra gleichzeitig betreiben. Im Vergleich zu einer einzelnen Karte soll die Leistung um das 2,8-fache gesteigert werden und zum Beispiel Call of Duty 4 oder Unreal Tournament 3 in der höchstmöglichen Auflösung und mit allen Details spielbar sein.

Quelle : www.onlinekosten.de
Titel: Re: Hardware-Ausblick 2008: Intel, AMD und Nvidia
Beitrag von: _Immer_Intl_ am 26 Dezember, 2007, 17:44
Da bin ich ja mal gespannt ob sich bei Onboard-gfx wirklich mal was Positives tut.
Titel: Hybrid SLI: Onboard-Grafik und Grafikkarte alternativ oder gemeinsam nutzen
Beitrag von: SiLæncer am 07 Januar, 2008, 17:01
Die kommenden Generationen grafikfähiger Mainboard-Chipsätze von Nvidia sollen sowohl den alternativen als auch den gemeinsamen Betrieb von integrierten Grafikprozessoren und gesteckten PCI-Express-Grafikkarten ermöglichen. Laut Nvidia soll es möglich werden, dass bei geringem 3D-Leistungsbedarf nur die sparsame Onboard-Grafik arbeitet; bei höheren Performance-Anforderungen an die Grafikbeschleunigung lässt sich dann die GPU auf einer PCIe-Karte zuschalten, die sogar per SLI im Verbund mit dem Mainboard-Chipsatz Bilddaten verarbeitet.

Als erste Hybrid-SLI-taugliche Mainboard-Chipsätze sollen "in Kürze" die "Motherboard GPUs" (mGPUs) nForce 780a, 750a und 730a im Verbund mit dem GeForce 8200 für AMD64-Prozessoren erscheinen. Anders als die Produktnamen suggerieren, dürfte es sich dabei (wie schon bei den aktuellen Produkten GeForce 7xxx und nForce 630a/i) um Single-Chip-"Chipsätze" handeln. Im kommenden zweiten Quartal stehen dann Hybrid-SLI-Chipsätze für Intel-Prozessoren auf dem Programm. Laut Nvidia-Webseite soll Hybrid SLI mit den Grafikchips GeForce 8400 GS, 8500 GT und 8800 GT funktionieren.

Während die typischerweise sehr schwachbrüstige Chipsatzgrafik im SLI-Verbund mit einem GeForce 8400 GS vielleicht noch eine leichte Beschleunigungswirkung entfalten mag, dürfte davon in Kombination mit einem GeForce 8800 GT allerdings kaum noch etwas zu spüren sein.

Schon bisher lassen sich zwar bei einigen Mainboard-Chipsätzen Onboard-Grafik und separate Grafikkarte gemeinsam betreiben (wobei die Aero-Glass-Funktionen von Windows Vista nur dann funktionieren, wenn beide mit demselben Treiber arbeiten), doch die Grafikkarte zieht dann auch bei Nichtbenutzung eine je nach Grafikchip beträchtliche Leerlaufleistung. Bei einigen Notebooks hat die Firma Sony deshalb bereits ein "Hybrid Graphics System" realisiert, bei dem man per Schiebeschalter zwischen Chipsatzgrafik und Grafikchip wählen kann – allerdings erst nach einem Neustart des Geräts.

Nvidia hat bisher keine technischen Details zu Hybrid SLI veröffentlicht, weshalb mehrere Fragen offen bleiben. Es ist etwa unklar, über welche Buchse (jene des Mainboards oder jene der Grafikkarte) Monitore angeschlossen werden, über welche Verbindung (PCIe oder separater Kanal) die Grafiksignale zwischen Chipsatz und GPU fließen oder wie die PCIe-GPU bei Nichtbenutzung abgeschaltet wird (etwa über interne "Schalter" oder durch Zusatzmaßnahmen auf dem Mainboard).

Auch AMD hat eine ähnliche Lösung wie Hybrid SLI angekündigt, die PowerXpress heißen soll und laut einer Ankündigung vom Mai 2007 mit den Chipsätzen für die Notebook-Plattform Puma (Prozessor Griffin) kommen soll.

Auch Intel hat angedeutet, zumindest künftige Mobilchipsätze mit vergleichbaren Funktionen auszustatten; hier stellt sich die Frage, welche Grafiktreiberkombinationen (Intel-Nvidia, Intel-AMD/ATI) funktionieren.

Quelle : www.heise.de
Titel: Nvidia verrät mehr Details zur Hybrid-SLI-Technik
Beitrag von: SiLæncer am 18 Januar, 2008, 21:38
Noch im ersten Quartal sollen die ersten Desktop-PC-Mainboards erscheinen, deren Chipsatz mit integriertem Nvidia-Grafikprozessor (im Nvidia-Jargon mGPU genannt) eine gleichzeitig eingesteckte Grafikkarte im laufenden Betrieb komplett abschalten kann. Diese Funktion der kürzlich angekündigten Hybrid-SLI-Chipsätze für AMD- und Intel-Prozessoren nennt Nvidia HybridPower. Die zweite neue Funktion heißt GeForce Boost: Dabei kooperiert die mGPU per SLI-Technik mit dem Grafikchip auf der zusätzlich eingebauten PCIe-Grafikkarte (dGPU), steigert also die 3D-Beschleunigungsleistung. Da die dGPUs aber typischerweise wesentlich potenter sind als mGPUs, dürfte GeForce Boost eher mäßige Leistungssteierungen bringen, wie Nvidia selbst einräumt.

(http://www.heise.de/bilder/102021/0/0)

Sehr interessant zur Minderung von Lüfterlärm und PC-Energiebedarf – sowie bei Notebooks zur Verlängerung der Akkulaufzeit – ist HybridPower. Diese Funktion setzt aber nicht nur eine passende mGPU (also zunächst einen Chipsatz der Baureihe GeForce 8200) voraus, sondern auch eine Grafikkarte der nächsten Nvidia-Generation – mit aktuellen Karten funktioniert HybridPower nicht, auch nicht mit GeForce 8400 GS oder GeForce 8500 GT, die bereits GeForce Boost unterstützen sollen. Nvidia verspricht allerdings, dass die abschaltbaren PCIe-2.0-Grafikchips der nächsten Generation tatsächlich keine Leistung aufnehmen, wenn sie der Chipsatz deaktiviert; das geschieht übrigens per System Management Bus (SMBus).

Wenn die dGPU arbeitet, liefert sie ihre Bilddaten über die PCIe-2.0-Schnittstelle zum Mainboard-Chipsatz, der sie wiederum über seine Buchsen an Displays weiterleitet. Das Mainboard muss also mit den gewünschten Ports bestückt sein. Nvidia will künftig alle Mainboard-Chipsätze mit mGPUs ausrüsten, etwa auch den kommenden nForce 780a für AMD-Prozessoren, der auch Triple SLI mit drei Grafikkarten (sowie ESA) unterstützen soll. Die Anbindung der drei PEG-Slots erfolgt dabei über einen PCIe-2.0-Switch namens nForce 200.

(http://www.heise.de/bilder/102021/1/0)

Gleichzeitig kündigt Nvidia auch die AMD-Chipsätze nForce 750a SLI (mit einem auf zwei x8-Ports aufteilbaren PCIe-2.0-x16-Interface und zwei PCIe-1.1-x1-Lanes) und nForce 730a (mit einem PCIe-2.0-x16-Port und drei PCIe-1.1-x1-Lanes) an.

Außerdem soll die GeForce-8200-mGPU in den neuen Chipsätzen wesentlich leistungsfähigere HD-Beschleunigungsfunktionen mitbringen; HD-Video-Wiedergabe von einer Blu-ray Disc soll dann in guter Qualität mit dem 45-Euro-Prozessor AMD Athlon 64 X2 3800+ möglich sein.

Quelle : http://www.heise.de
Titel: AMD erneuert Grafikchips im unteren und mittleren Preissegment
Beitrag von: SiLæncer am 23 Januar, 2008, 07:22
AMD erweitert seine 3000er-Familie um zwei in 55-nm-Technik gefertigte Grafikchips für die Einstiegs- und Mittelklasse. Der Radeon HD 3450/3470 (Chipcode RV620) und der Radeon HD 3600 (Chipcode RV635) entsprechen intern den 65-nm-Chips Radeon HD 2400 und Radeon HD 2600 (Link auf Meldung) und sind ebenfalls mit 40 beziehungsweise 120 Shader-ALUs ausgestattet. AMD hat sie aber um Direct3D-10.1-Funktionen, ein PCIe-2.0-Interface sowie die Stromsparfunktionen PowerPlay erweitert. AMD hat außerdem die beiden in den GPUs integrierten digitalen Ausgänge so erweitert, dass sie entweder DVI- beziehungsweise HDMI-Signale ausgeben oder nach dem neuen VESA-Standard DisplayPort arbeiten können. Die Kartenhersteller können dadurch verschiedene Kombinationen von DVI-I- oder DisplayPort-Ausgängen vorsehen.

Der Einstiegschip Radeon HD 3450 ist für 600 MHz Chiptakt und 500 MHz Speichertakt vorgesehen, beim Radeon HD 3470 sind es 800 MHz Chip- und 950 MHz Speichertakt. Beide steuern ihren Speicher über ein 64-Bit-Interface an. Im Vergleich zum Vorgänger hat AMD die Takte also um 14 bis 25 Prozent erhöht. In Verbindung mit einem RS780-Chipsatz, der ebenfalls einen Direct3D-10.1-Grafikkern enthält, ist Hybrid-CrossFire möglich. Dabei steuern Chipsatzgrafik und Grafikkarte zusammen einen Monitor an und erhöhen dadurch die für Spiele verfügbare Grafikleistung. Notebooks können mit Hybrid-CrossFire durch Abschalten der diskreten Grafik bei Office-Anwendungen Strom sparen.

Der Mittelklasse-Chip Radeon HD 3650 arbeitet mit 725 MHz Chiptakt. AMD spezifiziert ihn entweder für 500 MHz schnellen GDDR2-Speicher oder 800 MHz schnellen GDDR3-Speicher, die der Chip jeweils über ein 128-Bit-Interface mit Daten versorgt. Er ist damit rund 20 Prozent schneller als der Radeon HD 2600 Pro, kommt aber nicht an die Rechenleistung des mit 800 MHz angetriebenen Radeon 2600 XT heran. Seine Leistungsaufnahme liegt unter 75 Watt, weshalb er keine zusätzliche Stromversorgung durch das Netzteil benötigt. Der Radeon HD 3650 unterstützt kein Hybrid-CrossFire – was bei Mittelklasse-Grafikchips auch nicht sinnvoll wäre.

AMD betont, dass beide Grafikchips Blu-ray- und HD-DVDs-Videos dekodieren und anzeigen können, und mit ihrer integrierten Video-Engine die CPU dabei effektiv entlasten. Die Video-Engine soll HD-Videos bis auf 2560 × 1440 Bildpunkte hochskalieren können und dabei mit advanced De-Interlacing, inverse Telecine, Color Vibrance, Edge Enhancement und Noise Reduction die Bildqualität erhalten können.

Die Preise von Grafikkarten mit dem Radeon HD 3450/3470 sollen zwischen 50 und 70 Euro liegen. Karten mit dem Radeon HD 3650 kosten etwa 90 Euro. Alle Varianten sollen in den nächsten Tagen in den Handel kommen.

Quelle : www.heise.de
Titel: Hybrid-CrossFire: Chipsatzgrafik unterstützt Grafikkarte bei 3D-Spielen
Beitrag von: SiLæncer am 23 Januar, 2008, 07:24
AMD erweitert seine CrossFire-Technik zur Kopplung zweier Grafikkarten auch auf den im Mainboard-Chipsatz integrierten Grafikkern, um bei 3D-Spielen dessen Rechenleistung mit der Grafikkarte zu kombinieren. Dieses Verfahren soll erstmals bei Systemen mit dem kommenden RS780-Chipsatz und Grafikkarten mit dem Radeon HD 34x0 möglich sein und ist für das erste Quartal dieses Jahres angekündigt. Wie bei Konkurrent Nvidia ist dieses Verfahren auf Windows Vista beschränkt und unter Windows XP nicht verfügbar, da man den Bedarf für diese Funktion nicht im Nachrüstgeschäft, sondern eher bei Komplettsystemen sieht und man den Aufwand für den Support zweier Betriebssysteme scheut.

Mit Hybrid-CrossFire verdoppelt sich die Leistung des integrierten Chipsatzes etwa auf das Niveau der oberen Einstiegsklasse. Die beiden GPUs berechnen dabei abwechselnd je ein Bild im AFR-Modus (Alternate Frame Rendering). AMD argumentiert, dass man so die Leistung einer 100 Euro-Grafikkarte durch Zustecken einer 50-Euro-Grafikkarte erhält. In anspruchsvollen Spielen wie Call of Duty 4 reicht diese für die 1024er-Auflösung bei stark reduzierten Effekten für Raten zwischen 30 und 70 Bildern/s. Hybrid-CrossFire eignet sich nicht für schnellere Grafikkarten der Mittelklasse oder höher, da diese durch die Chipsatzgrafik eher ausgebremst würden.

Während man bei Nvidias Hybrid-SLI den Monitor sowohl am Mainboard als auch an die Grafikkarte anschließen kann, muss man bei AMD den Monitor mit der Grafikkarte verbinden. Obwohl bei Office-Anwendungen nur die integrierte Grafik aktiv ist, kann das System die Grafikkarte bei Hybrid-CrossFire deswegen nicht abschalten. In Notebooks gibt es aber weitergehende Möglichkeiten, die wie bei Hybrid-SLI auch mit Hybrid-CrossFire durch Abschalten der diskreten Grafik Strom sparen können, wenn man die maximale 3D-Grafikleistung nicht benötigt.

Der RS780-Chipsatz integriert einen Grafikkern für Direct3D 10.1 sowie eine HD-Video-Engine und beherrscht zusätzlich zu den üblichen Monitor-Standards auch die neue VESA-Norm Display-Port.

Quelle : www.heise.de
Titel: Radeon HD 3870 X2: High-End-Grafikkarte mit zwei GPUs
Beitrag von: SiLæncer am 28 Januar, 2008, 10:04
Auf der Radeon HD 3870 X2 arbeiten zwei Radeon-HD-3870-Chips (Chipcode R680) im CrossFire-Verbund parallel und sollen damit annähernd zweimal so viel Leistung erreichen wie ein einzelner 3870-Chip. Es sind theoretisch sogar mehr als 100 Prozent Steigerung möglich, weil AMD die beiden Chips auf der Dual-GPU-Karte mit 825 MHz arbeiten lässt, während es auf der Radeon HD 3870 nur 775 MHz sind. Laut AMD ist die Radeon HD 3870 X2 dank ihrer insgesamt 640 Shader-ALUs die erste Grafikkarte mit einer Rechenleistung von über einem TFLOPS.

Die beiden Grafikchips berechnen im AFR-Modus (Alternate Frame Rendering) abwechselnd ein Bild. Da nur eine der beiden GPUs mit den Ausgängen verbunden ist, muss die gegenüberliegende GPU ihre Daten an den anderen Grafikchip übertragen, damit dieser sie an den Monitor schicken kann. Jedem der beiden Grafikchips steht ein 512-MByte-Speicher zur Seite, der über einen 256 Bit breiten und 900 MHz schnellen Datenbus angebunden ist. Eine 3870-Karte arbeitet allerdings mit 1125 MHz Speichertakt und ist beim Datentransfer 25 Prozent schneller. Offenbar sieht AMD den Engpass bei der Rechenleistung und nicht bei der Übertragungsrate des Speichers. Wegen der Doppelspeicherung aller Daten addieren sich die Speichergrößen nicht zu einem GByte, sondern nur die Übertragungsgeschwindigkeiten zu der eines 512-Bit-Speichers. Die beiden GPUs kommunizieren über einen PCI-Switch mit dreimal 16 Daten-Lanes untereinander und mit dem System. Weil der Switch nur mit PCIe-1.0-Geschwindigkeit arbeiten kann, geht die PCIe-2.0-Fähigkeit der GPUs leider verloren.

(http://www.heise.de/bilder/102536/0/1)

Die Grafikkarte soll das Netzteil bei maximaler Aktivität mit 196 Watt belasten, durch den in den GPUs integrierten Stromsparmechanismus PowerPlay kann er aber auch auf beispielsweise 110 Watt sinken, wenn das Spiel nicht die maximale Leistung abfordert. Die Radeon HD 2900 XT entnimmt dem Netzteil im 3D-Modus dagegen dauerhaft 200 Watt. Im 2D-Modus soll die Leistungsaufnahme 47 Watt betragen. Für die externe Stromzuführung sind eine sechs- und eine achtpolige Buchse vorgesehen. Solange man die Karte nicht übertakten will, reicht an der achtpoligen Buchse auch ein sechspoliges Kabel.

Der 2-Slot-Lüfter entspricht dem Design auf der 3870 und befördert die Abwärme über Schlitze im Slotblech aus dem Rechnergehäuse. Die PCIe-Karte ist mit insgesamt 26,5 cm noch einmal 3,5 cm länger als eine Radeon HD 3870. Die 3870 X2 soll nach Aussage von AMD nicht auf Mainboards mit AMD- oder Intel-Chipsatz beschränkt sein, sondern hat auch in Rechnern mit Nvidia-Chipsatz erfolgreiche Tests absolviert. AMD will noch in diesem Quartal CrossFireX für die 3870 X2 anbieten. Dazu besitzt die Karte einen CrossFire-Kanal, über den man zur weiteren Steigerung der 3D-Leistung zwei Exemplare koppeln kann.

In ersten Tests mit dem Dschungel-Shooter Crysis ist die Dual-GPU-Karte bei 1280 × 1024 Bildpunkten und maximalen Effekten um 58 Prozent schneller als eine 3870 und übertrifft mit 26 Bildern/s auch das schnellste Konkurrenzmodell – eine GeForce 8800 Ultra –, die 24 Bilder/s erreicht. Mit zweifachem Antialiasing und der Qualitätseinstellung "high" kann sie 30 Bilder/s berechnen und fällt damit minimal hinter die 31 Bilder/s der Konkurrenz zurück. In World in Conflict und Call of Juarez kann sich die X2-Karte dagegen kaum von einer 3870 absetzen und unterliegt auch der Konkurrenz. Offenbar eignet sich die Dual-GPU-Karte bei diesen Spielen in erster Linie für hohe Auflösungen von 1920 × 1200 Bildpunkten und mehr, bei denen sie nach Aussage von AMD zwischen 80 und 100 Prozent schneller sein soll, als eine einfache 3870-Karte.

AMDs Partner wollen die Radeon HD 3870 X2 in den nächsten Tagen für rund 400 Euro anbieten. Das Modell von HIS soll mit einem Speichertakt von 1000 MHz die Vorgaben von AMD noch übertreffen. Als relativ sicher gilt die noch inoffizielle Information, dass Konkurrent Nvidia noch im Februar eine Dual-GPU-Karte vorstellen wird, die mit zwei GeForce-8800-GT-Chips arbeitet.

Quelle : www.heise.de
Titel: Mobile Grafikchips der GeForce-9-Serie erhältlich
Beitrag von: SiLæncer am 08 Februar, 2008, 16:27
Wieder einmal kommt Asus einem Grafikchiphersteller zuvor und kündigt neue Notebooks mit noch nicht offiziell vorgestellten Grafikchips an: Im 12,1-Zoll-Subnotebook U6S arbeitet der GeForce 9300M G, im 15,4-Zoll-Gerät M51SN der GeForce 9500M GS. Nvidia selbst hat die Grafikchipgeneration GeForce 9 noch nicht angekündigt.

Auf Nvidias Webseiten findet man allerdings bereits dort nicht verlinkte Seiten mit Informationen zu den beiden Notebook-Grafikchips. Die technischen Daten des GeForce 9300M G entsprechen exakt denen des bereits länger bekannten Einsteigsmodells 8400M GS, die Spezifikationen des GeForce 9500M G denen des Mittelklassechips 8600M GT. Wie diese beherrschen die beiden Neulinge Direct3D 10 sowie die Videobeschleunigung PureVideo HD. Die jeweiligen 3D-Rechenleistungen liegen somit genau auf dem Niveau der Vorgänger.

Das M51SN zeigt auf seinem 15,4-Zoll-Bildschirm 1440 × 900 Punkte; diese Auflösung war bislang meist 17-Zoll-Notebooks vorbehalten. Externe Bildschirme können per VGA und DVI-D angesteuert werden. Mit Core 2 Duo T8300 (2,4 GHz, 3 MByte L2-Cache), 2048 MByte DDR2-Speicher, einer 250-GByte-Platte sowie dem 9500M GS kostet es offiziell 1299 Euro.

Der LED-beleuchtete 12,1-Zoll-Bildschirm des U6S zeigt 1280 × 800 Bildpunkte; Asus bezieht die Handballenablage und die mitglieferte optische Maus mit dunklem Rindsleder. Auf das beworbene Gewicht von knapp 1,6 Kilogramm kommt das Subnotebook nur mit dem kleineren 3-Zellen-Akku; ein größeres und schwereres 6-Zellen-Modell liegt ebenfalls bei. Mit Core 2 Duo T8300, 3072 MByte Arbeitsspeicher, DVD-Brenner, 250-GByte-Platte, Draft-N-WLAN, Bluetooth 2.0+EDR und Windows Vista Business kostet das U6S 1799 Euro; es soll ab Mitte Februar im Handel erhältlich sein.

Quelle : www.heise.de
Titel: GeForce GTS 250 - Déjà-vu im Mittelklasse-Segment
Beitrag von: SiLæncer am 27 Februar, 2009, 15:26
Durch eine verfrühte Produktankündigung, die mittlerweile wieder zurückgezogen wurde, verriet Asus erste Details der von Nvidia noch nicht offiziell vorgestellten GeForce GTS 250. Die Grafikkarte soll demnach auf einem G92-Grafikchip (55 nm) und nicht, wie der Name vermuten lässt, auf einer GT200b-GPU basieren. Die technischen Daten der Asus-Karten entsprechen prinzipiell denen einer GeForce 9800 GTX+ (128 Shader-Einheiten, 256 Bit Speicherinterface). Dies deutet auf eine simple Umbenennung dieses älteren Modells in GeForce GTS 250 hin, obwohl die 9800 GTX+ ebenfalls nichts anderes ist als eine mit 55-Nanometer-Strukturen gefertigte und mit höheren Taktfrequenzen laufende GeForce 8800 GTS.

Nvidia würde den G92-Grafikchip demzufolge nach der GeForce-8- und GeForce-9-Serie schon in der dritten Grafikkarten-Generation einsetzen. Dies macht es für die Kunden umso schwieriger, den Überblick im sowieso durch eine Vielzahl von Produktbezeichnungen verwirrenden Grafikkartenmarkt zu behalten. Außerdem wäre dieser Schritt ein Indikator dafür, dass Nvidia den GT200(b)-Grafikchip, der auf Grafikkarten ab GeForce GTS 260 verbaut ist, nicht im Mittelklassesegment einsetzen wird und daher mit G92-GPUs die Wartezeit bis zur neuen DirectX-11-Grafikkartengeneration überbrücken will. Mit jener rechnen Branchenkenner jedoch frühestens Ende 2009.

Quelle : www.heise.de
Titel: FirePro 2450: Profi-Grafikkarte für bis zu 4 Displays
Beitrag von: SiLæncer am 09 März, 2009, 20:39
Mit der Firepro 2450 präsentiert AMD eine neue Grafikkarte im Low-Profile-Format für den professionellen Multimonitor-Einsatz. Die Profi-Karte besitzt zwei Grafikchips und soll laut AMD dennoch besonders sparsam sein: Demnach kommt die FirePro 2450 im 2D-Betrieb mit durchschnittlich 17 Watt aus und zieht unter Last maximal 32 Watt aus dem Netzteil.

(http://www.heise.de/bilder/134263/0/1)

Bis zu vier DVI- oder VGA-Displays bindet die FirePro 2450 über beide VHDCI-Anschlüsse an. Zwei VHDCI-Kabel, an die sich jeweils zwei DVI-Monitore mit bis zu 1920 × 1200 Bildpunkten anschließen lassen, sind ebenso im Lieferumfang enthalten wie vier DVI-zu-VGA-Adapter. Die DirectX-10.1-kompatible Karte besitzt 512 MByte GDDR3-Speicher und soll sowohl als PCIe-x16- als auch PCIe-x1-Version für rund 500 US-Dollar in den Handel kommen.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: GeForce GTX 275 am 6. April?
Beitrag von: SiLæncer am 11 März, 2009, 09:19
Die Gerüchteküche brodelt in der Grafikkartenbranche derzeit besonders stark: Vor Kurzem wurde bekannt, dass AMD wohl am 6. April die Radeon HD 4890 (RV790) vorstellen möchte. Nun scheint auch Nvidia am selbigen Tag eine neue GeForce-Karte präsentieren zu wollen.

Die als GeForce GTX 275 bezeichnete High-End-Grafikkarte soll über 896 MByte GDDR3-Speicher verfügen, der mit 448 Datenleitungen an den Grafikchip (GPU) angebunden ist. Wieviel Shader-Einheiten die GPU besitzt, ist derzeit noch unklar, Branchenkenner gehen von 216 aus. Wahrscheinlich wird sich die GeForce GTX 275 also nur durch erhöhte Taktfrequenzen von der aktuellen GeForce GTX 260 (GT200b-GPU mit 216 Shader-Einheiten) abheben – das soll aber reichen, um AMDs Radeon HD 4890 in der 3D-Leistung zu überholen.

Wie bereits vor dem Marktstart der im Rahmen der CeBIT präsentierten GeForce GTS 250 aus Branchenkreisen nach außen drang, will Nvidia außerdem wohl Ende März oder Anfang April eine GeForce GTS 240 vorstellen. Bis auf die Taktfrequenzen gleicht sie mit hoher Wahrscheinlichkeit der GeForce 9800 GT und setzt damit auch noch auf einen betagten G92-Grafikchip.

Quelle : www.heise.de
Titel: Radeon HD 4890 taucht bei Versandhändlern auf
Beitrag von: SiLæncer am 18 März, 2009, 11:36
Refresh der GPU RV770 mit höheren Takten

Noch weit vor der Markteinführung listet ein niederländischer Onlineshop AMDs neue Grafikkarte "Radeon HD 4890". Die dort genannten Daten bestätigen bisherige Gerüchte. Die Karte ist jedoch unerwartet teuer.
Wie bei neuen Grafikkarten üblich, verdichteten sich in den vergangenen Wochen die Gerüchte um die technischen Daten der Radeon HD 4890. Bestätigungen von AMD gibt es dazu bisher nicht, denn selbst der Name steht noch nicht endgültig fest - manche Quellen waren auch von einer Radeon HD 4970 ausgegangen.

Dass die aktualisierte Version der GPU RV770 (Radeon 4850 und 4870) mit dem Namen RV790 aber nun in die Serie 4800 eingeordnet wird, scheint nach den Angaben des niederländischen Versenders Salland wohl festzustehen. Dort finden sich auch Angaben zu den Takten der von Sapphire hergestellten Karte: 850 MHz für die GPU und 975 MHz für den Speicher sollen es sein. Das Gerät verfügt zudem über 1 GByte GDDR5-Speicher.

Damit wäre die GPU der 4890 um 100 MHz höher getaktet als eine der Spezifikation von AMD folgende 4870, beim Speicher sind es 75 MHz mehr. Diese für einen neuen Grafikprozessor geringen Zuwächse sind nicht verwunderlich, wird der RV790 doch wie der aktuelle RV770 in 55 Nanometern Strukturbreite hergestellt. Angaben zur Leistungsaufnahme liegen noch nicht vor, bekannt ist aber, dass AMD die Zahl der Shader-Einheiten nicht erhöht hat. Damit wäre die 4890 lediglich eine 4870 mit höheren Takten.

Beim niederländischen Versender soll die Karte knapp 260 Euro kosten, sie ist damit rund 90 Euro teurer als eine 4870 mit 1 GByte. Diese Karten sind derzeit ab etwa 170 Euro zu haben, nachdem AMD im Stillen eine Preissenkung vollzogen hatte. Bei welchem Wert die Preisempfehlung für die 4890 liegt, ist noch nicht bekannt. In der Vergangenheit ließen sich manche Händler neue Grafikkarten überproportional gut bezahlen, wenn sie diese zum Marktstart sofort liefern konnten. Ein bis zwei Wochen danach fielen die Preise deutlich.

Ebenfalls noch nicht bestätigt ist der Termin, an dem AMD die neue Karte vorstellen will - auch Salland nennt nur den April 2009. Seit Anfang März 2009 geht VR-Zone davon aus, dass er in der ersten Woche dieses Monats liegen wird.

Quelle : www.golem.de
Titel: Grafik-Gerüchte: Radeon HD 4890 auf 9. April verschoben, HD 4830 läuft aus
Beitrag von: SiLæncer am 19 März, 2009, 16:12
In den letzten Tagen häuften sich die Informationen zur kommenden Radeon HD 4890, deren Marktstart AMD wohl vom 6. auf den 9. April verschoben hat. Derzeit machen im Netz erste Bilder des Referenzdesigns und technische Daten die Runde. Demnach rechnet der mit 55-Nanometer-Strukturen gefertigte RV790-Grafikchip (GPU) der Radeon HD 4890 mit 850 MHz und ist mit 256 Datenleitungen an den GDDR5-Speicher angebunden, der mit einer Taktfrequenz von 1950 MHz arbeitet (Radeon HD 4870: 750 MHz / 1800 MHz). Damit besäße die Karte eine maximale Speicherbandbreite von 124,8 GByte pro Sekunde (HD 4870: 115,2 GByte/s).

(http://www.heise.de/bilder/134835/0/0)

In Spielen dürfte die Radeon HD 4890 mindestens 10 Prozent schneller als die Radeon HD 4870 sein. Ersten Benchmarks zufolge erreicht die neue Radeon 10966 3DMark-Vantage-Punkte (Preset: Performance) im Zusammenspiel mit einem auf 2673 MHz übertakteten Intel Core i7 920 und 3 GByte Arbeitsspeicher. Im älteren 3DMark06 soll die Grafikkarte 16096 Punkte schaffen. Behaupten will sich AMD mit der Radeon HD 4890 vor allem gegen Nvidias kommende GeForce GTX 275, die am 6. April erwartet wird.

Einige Onlineshops hatten Sapphires Radeon HD 4890 bereits für rund 260 Euro gelistet, nahmen das Angebot jedoch nach kurzer Zeit wieder offline. Im Heise-Preisvergleich tauchte außerdem ein PowerColor-Modell für 237 Euro auf. Gleichzeitig fielen auch die Preise für derzeit erhältliche Grafikkarten: So gibt es die Radeon HD 4870 mit 1 GByte GDDR5-Speicher bereits für rund 170 Euro. Auch Nvidias GeForce GTX 260 mit 896 MByte GDDR3-Speicher ist schon für diesen Preis zu haben.

Während man auf die Radeon HD 4890 wartet, scheint AMD die Radeon HD 4830 langsam zu verabschieden. So sollen die letzten Modelle abverkauft werden und die Boardpartner diese wahrscheinlich durch die Ende April/Anfang Mai erwarteten Grafikkarten mit RV740-Grafikchip (40 nm) ersetzen, die sich wohl leistungsmäßig auf dem gleichen Level bewegen. Dies bestätigte ein Boardpartner im Gespräch mit heise online, der unter anderem auch auf die unattraktive Preisgestaltung der Radeon HD 4830 hinwies.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: GeForce GTX 275 mit 240 Shadern für 250 Euro
Beitrag von: SiLæncer am 21 März, 2009, 07:58
In den letzten Tagen war es ruhig geworden um die für den 6. April erwartete GeForce GTX 275 von Nvidia, die mit AMDs kommender Radeon HD 4890 konkurrieren muss. Nachdem gestern erste Bilder und Benchmarks der Radeon HD 4890 an die Öffentlichkeit gelangten, sind nun auf einigen Webseiten die technischen Spezifikationen der GeForce GTX 275 aufgetaucht. Im Gegensatz zu früheren Vermutungen soll die GeForce GTX 275 ganze 240 Shader-Einheiten besitzen, die mit 1404 MHz rechnen. Die GPU verrichtet wohl mit 633 MHz ihren Dienst und ist mit 448 Datenleitungen an den 896 MByte fassenden GDDR3-Speicher (1161 MHz) angebunden.

(http://www.heise.de/bilder/134947/0/0)

Damit lägen die Spezifikationen der GeForce GTX 275 nur minimal unter denen der GeForce GTX 285 (GPU: 648 MHz, Shader: 1476 MHz, Speicher: 1242 MHz, 1024 MByte, 512 Bit). Preislich ist die GTX 275 mit rund 250 Euro sogar deutlich günstiger und spielt damit in der gleichen Klasse wie AMDs kommende Radeon HD 4890 (erste Bilder einer Boardpartner-Karte), die bereits für 237 Euro gelistet wurde. Eine GeForce GTX 285 kostet derzeit noch rund 320 Euro – das dürfte sich jedoch spätestens Anfang April mit den offiziellen Ankündigungen der neuen AMD- und Nvidia-Karten ändern. Erst kürzlich purzelten die Preise der Radeon HD 4870 (1 GByte) und GeForce GTX 260 auf jeweils rund 170 Euro.

Quelle : www.heise.de
Titel: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 02 April, 2009, 06:34
Die Radeon HD 4890 ist eine überarbeitete und rund 10 Prozent schnellere Version der Radeon HD 4870. Als Grafikchip (GPU) kommt der aus 55-Nanometer-Strukturen gefertigte RV790 zum Einsatz, der im Vergleich zum RV770 der bisherigen Radeon-HD-4800er Serie einige kleinere Änderungen erfahren hat, um stabil bei hohen Taktfrequenzen zu arbeiten. Zusätzliche Entstörkondensatoren (decaps) vermindern das Signalrauschen, lassen jedoch die Die-Größe minimal ansteigen. Auch die internen Latenzen des DirectX-10.1-fähigen Grafikchips hat AMD nach eigenen Angaben optimiert und die Kernspannung von 1,25 Volt (RV770) auf 1,33 Volt (RV790) angehoben.

(http://www.heise.de/bilder/135608/0/0)

Somit ist es AMD möglich, die aus 959 Millionen Transistoren bestehende RV790-GPU mitsamt ihrer 800 Shader-Prozessoren mit 850 MHz laufen zu lassen. Das führt zu einer theoretischen Rechenleistung von 1,36 Billionen Gleitkommaoperationen pro Sekunde (TFlops). Angeordnet sind die 800 Shader-Prozessoren in zehn SIMD-Blöcken zu jeweils 16 Fünfergruppen. Wie schon beim RV770 steht jeder SIMD-Einheit ein vierfaches Texturcluster zur Seite, so dass auch der RV790 über insgesamt 40 Textureinheiten verfügt, die für eine Texturfüllrate von 34 Milliarden Texel pro Sekunde (GTexel/s) sorgen. 16 der unter anderem für die Kantenglättung wichtigen Rasterendstufen schaffen einen Pixeldurchsatz von 13,6 GPixel/s.

Mit 256 Datenleitungen ist der 1 GByte fassende GDDR5-Speicher an die GPU angebunden und erreicht bei einer Taktfrequenz von 1950 MHz eine Datentransferrate von 124,8 GByte/s. Im Unterschied zur Radeon HD 4870 soll es von der Radeon HD 4890 nur Karten mit 1 GByte und mehr Speicher geben.

Auf Nvidias GeForce GTX 275 rechnet ein aus 1,3 Milliarden Transistoren bestehender GT200b-Grafikchip mit 240 Shader-Einheiten. Während der lediglich zu DirectX-10.0-kompatible Grafikchip mit 633 MHz läuft, verrichten die Shader-Rechenkerne mit 1404 MHz ihren Dienst. Dadurch erreicht der ebenfalls im 55-Nanometer-Prozess gefertigte Chip eine theoretische Rechenleistung von zirka 1 TFlops. Im Unterschied zur RV790-GPU sind die Shader-Rechenkerne in 10 Shader-Clustern zu jeweils dreimal acht Shader-Einheiten angeordnet. An jedes Shader-Cluster ist zudem ein Texturcluster angebunden, was aus jeweils acht Textureinheiten besteht. Die also insgesamt 80 Textureinheiten erreichen bei 633 MHz eine Texturfüllrate von 50,64 GTexel/s. 28 Rasterendstufen der GPU berechnen bis zu 17,7 GPixel/s.

(http://www.heise.de/bilder/135608/1/0)

Beim Speicher setzt Nvidia weiterhin auf GDDR3-Bausteine, die mit 1134 MHz arbeiten. Durch das 448 Bit breite Speicherinterface übertrumpft die GeForce GTX 275 mit einer Datentransferrate von 127 GByte/s sogar die Radeon-Konkurrenzkarte mit GDDR5-Speicher.

Hinsichtlich der Leistungsaufnahme macht die GeForce GTX 275 eine deutlich bessere Figur als die Radeon HD 4890 und zieht im Desktop-Betrieb um die 35 Watt aus dem Netzteil. Die (2D-)Leistungsaufnahme der Radeon liegt nach unseren Messungen mit 61 Watt gleichauf mit einer 1-Gigabyte-Version der HD 4870. Immerhin ist die Radeon bei anspruchsvollen 3D-Spielen mit einer durchschnittlichen Leistungsaufnahme von 132 Watt noch 22 Watt sparsamer als die GTX 275. Bei der Geräuschentwicklung fällt das Urteil zugunsten der GeForce aus, die auch unter Last nicht mehr als 0,9 Sone erzeugt. Unser Testsample der Radeon HD 4890 erreicht bei 3D-Spielen bis zu störende 3 Sone.

Die Performance von Radeon HD 4890 und GeForce GTX 275 reicht auch für anspruchsvolle 3D-Spiele aus. Oftmals, aber nicht immer, berechnet die GeForce GTX 275 die im Vergleich zur Radeon HD 4890 höhere Bildrate. Beispielsweise übertrifft die GeForce GTX 275 in Far Cry 2 eine HD 4890 bei der Auflösung 1680 × 1050 um 25 Prozent und zieht auch bei HAWX deutlich davon. Bei Stalker Clear Sky und Crysis berechnen beide Karten annähernd die gleiche Bildrate. Detaillierte Benchmarkwerte finden sich in der kommenden c't-Ausgabe 9/09.

Während die Radeon HD 4890 bereits ab heute für rund 240 Euro verfügbar sein soll, ist mit der für ebenfalls 240 Euro veranschlagten GeForce GTX 275 wohl erst Mitte April zu rechnen.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: Stirbt Radeon HD 4890 X2 den Hitzetod?
Beitrag von: SiLæncer am 14 April, 2009, 20:02
Heiß her geht es derzeit nicht nur außerhalb der Bürotüren, sondern auch im High-End-Grafikbereich zu. Gerüchten zufolge soll mit der AMD Radeon HD 4890 X2 bereits im Mai eine Dual-GPU-Version der Anfang April vorgestellten Radeon HD 4890 das Licht der Welt erblicken, die hinsichtlich der immensen Leistungsaufnahme und Hitzeentwicklung wohl alle bisherigen Grafikkarten in den Schatten stellen dürfte. Das als Radeon HD 4890 X2 getaufte Modell soll als erste Consumer-Grafikkarte zwei externe 8-Pin-Stromanschlüsse besitzen und darf daher bis zu 375 Watt (2 × 150 Watt extern, 1 × 75 Watt PCIe-Slot) aus dem Netzteil ziehen. Bereits für die Single-GPU-Karte Radeon HD 4890 gibt AMD stolze 190 Watt maximale Verlustleistung (TDP) an. Eine Radeon HD 4870 X2 bringt es auf bis zu 286 Watt.

(http://www.heise.de/bilder/136166/0/0)

Inwieweit es AMD den Herstellern tatsächlich freistellt, eine Radeon HD 4890 X2 anzubieten, ist jedoch noch offen. Im Gespräch mit c't wies ein Boardpartner darauf hin, dass AMD beim geplanten Dual-GPU-Modell massiv mit der Hitzeentwicklung zu kämpfen habe und es deshalb noch nicht klar sei, ob eine X2-Version der Radeon HD 4890 überhaupt jemals über die Ladentische wandere. AMD reagierte zurückhaltend auf unsere Anfrage und wollte sich nicht zur möglichen Veröffentlichung einer Radeon HD 4890 X2 äußern. Derzeit sind die im Internet kursierenden Gerüchte über mögliche, auf 1000 MHz übertaktete 4-Gigabyte-Versionen der Radeon HD 4890 X2 also noch mit Vorsicht zu genießen.

Ebenfalls noch im Mai dürfte AMD bereits die ersten 40-Nanometer-Grafikchips ausliefern. Zum Einsatz kommen diese auf der Radeon HD 4770, die den schnellen GDDR5-Speicher mit 128 Datenleitungen an die RV740-GPU anbindet und welche die Radeon HD 4830 ersetzen soll. Durch die 40-Nanometer-Fertigung fällt die Leistungsaufnahme mit 80 Watt deutlich geringer aus als bei der HD 4830 (TDP: 110 Watt). Mit der Radeon HD 4750 ist zudem ein Modell mit GDDR3-Speicher geplant.

Nvidia scheint im fünften Monat des Jahres ein technisches Update der Dual-GPU-Grafikkarte GeForce GTX 295 anzustreben. Bisher verbinden die Kalifornier die zwei GT200b-Grafikchips auf jeweils einer Platine (PCB). Künftig sollen beide Grafikchips auf einem einzigen PCB Platz finden. Vorteile für die Käufer wird es höchstwahrscheinlich nicht geben. Die günstigeren Produktionskosten dürften sich kaum in einem günstigeren Ladenpreis niederschlagen. Auch eine Anhebung der Taktfrequenzen ist im Zuge der PCB-Umstellung eher unwahrscheinlich. Wann genau mit den ersten Single-PCB-Versionen des derzeitigen 3D-Leistungskönigs GeForce GTX 295 zu rechnen ist, ist unklar – Nvidia wollte auf c't-Anfrage zum Terminplan offiziell keine Auskunft geben.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: DirectX-11-Chips von AMD bereits Ende Juli?
Beitrag von: SiLæncer am 17 April, 2009, 17:16
Schon Ende Juli oder Anfang August dieses Jahres könnten die ersten DirectX-11-fähigen Grafikkarten von AMD über die Ladentheken gehen, wie heise online aus Unternehmenskreisen erfahren hat. Damit wären die mit 40-Nanometer-Strukturen gefertigten DX-11-Grafikchips noch weit vor dem Marktstart von Microsofts zukünftigen Betriebssystem Windows 7 erhältlich, das die DirectX-11-Programmierschnittstelle erst mitbringen soll, jedoch nicht vor Jahresende erwartet wird. DirectX 11 führt mit unter anderem mit Multi-Threading, Tessallation und Dynamic Linking eine Vielzahl von Erweiterungen und Verbesserungen ein. Zudem lassen sich via Compute-Shader die Grafikchips auch für allgemeine Rechenaufgaben nutzen. AMD scheint außerdem die aktuelle 4000er-Serie noch auf 40-Nanometer-Produktion umstellen zu wollen, hieß es weiter, Details waren jedoch nicht zu erfahren.

Zunächst präsentiert die Firma am 28. April mit der Radeon HD 4770 die erste Grafikkarte, auf der ein 40-Nanometer-Grafikchip (RV740) seinen Dienst verrichtet. Das mit 640 Shader-Prozessoren und GDDR5-Speicher ausgestattete Modell soll die Radeon HD 4830 ersetzen und bei aktuellen Spielen vielleicht sogar noch ein Quentchen schneller sein. Erste Bilder der wohl rund 100 Euro teuren Grafikkarte sind bereits ins Netz gelangt, auf der man unter anderem einen sechspoligen Stromanschluss erkennt. Dieser ist bei einer maximalen Verlustleistung von 80 Watt auch nötig.

(http://www.heise.de/bilder/136350/0/1)
Das Referenzdesign der Radeon HD 4770 sieht einen sechspoligen Stromanschluss vor.

Sollte sich der frühe Veröffentlichungstermin der ersten DirectX-11-Chips von AMD bewahrheiten, dürfte das enormen Druck auf Nvidia ausüben. Wann die Firma ihre DirectX-11-Grafikchips oder erste 40-Nanometer-Grafikchips vorstellen möchte, ist noch unbekannt. Im Performance-Segment bedient Nvidia die Nachfrage noch immer mit betagten G92-Chips, die bereits bei der GeForce-8-Serie zum Einsatz kamen. Lediglich auf Nvidias High-End-Grafikkarten arbeiten mit den GT200(b)-Chips aktuelle GPUs.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: Nvidias 40nm-Grafikchips erst im Spätsommer?
Beitrag von: SiLæncer am 22 April, 2009, 16:59
Einem Bericht der chinesischen Commercial Times zufolge könnte Nvidia im Juni mit der Produktion von 40-Nanometer-Grafikchips beginnen. Dabei handelt es sich um den Einsteiger-Chip GT218, den GT214 und GT214 für Mittelklasse-Grafikkarten und einen GT215 für den High-End-Mobilbereich. In den Handel dürften erste 40-Nanometer-Exemplare wohl frühestens Anfang des dritten Quartals gelangen, sollte sich der Bericht bewahrheiten.

(http://www.heise.de/bilder/136570/0/0)

Konkurrent AMD kann dagegen wie berichtet bereits am 28. April unter der Bezeichnung Radeon HD 4770 die ersten rund 100 Euro teuren Performance-Grafikkarten mit 40-Nanometer-Chip vorstellen. Wie nun Fudzilla erfahren haben will, könnte es aber mit im Handel verfügbaren Karten in den ersten ein bis zwei Wochen knapp werden, da AMD wohl nicht genug RV740-Grafikchips für einen weltweit gleichzeitigen Marktstart aufbringen kann.

Die RV740-GPU besitzt 640-Shader-Einheiten, ist mit GDDR5-Speicherbausteinen bestückt und dürfte leistungsmäßig zwischen der Radeon HD 4830 und Radeon HD 4850 liegen. Neben den Taktfrequenzen von Grafikchip (750 MHz) und Speicher (1600 MHz) fanden auch erste Bilder des Referenzdesigns in den letzten Tagen den Weg ins Netz. Mit den Modellen von HIS und Connect3D gibt es nun auch HD-4770-Karten mit einem vom Referenzdesign abweichenden Kühler zu sehen.

(http://www.heise.de/bilder/136570/1/0)

Glaubt man der Gerüchteküche The Inquirer, dann könnte Nvidia bereits im Oktober erste DirectX-11-kompatible GT300-Grafikchips an die Boardpartner ausliefern. Dies wäre allerdings nur möglich, wenn die Kalifornier tatsächlich im Juni die Schaltkreisentwürfe an den Halbleiterfertiger übermitteln, die ersten Testläufe mit dem A0-Silizium im Juni erfolgreich und keine weiteren Steppings nötig sind. Sollte dieser Idealfall eintreten, ist wahrscheinlich Mitte November mit ersten DirectX-11-Grafikkarten von Nvidia im Handel zu rechnen. Bewahrheiten sich die Gerüchte um AMDs kommende DirectX-11-Grafikkarten, dann hängt Nvidia dennoch mindestens zwei Monate hinterher.

AMD CEO Dirk Meyer bestätigte heute im Rahmen der Bekanntgabe der Quartalszahlen zumindest, dass DirectX-11-kompatible Radeon-Grafikkarten in der zweiten Jahreshälfte erscheinen sollen. Wann genau, ließ er offen.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: Schafft Nvidias DirectX-11-Chip 3 TFlops?
Beitrag von: SiLæncer am 23 April, 2009, 20:06
Beeindruckende Zahlen schwirren derzeit durch die digitalen Sphären. Nvidias kommender DirectX-11-kompatibler Grafikchip GT300 soll eine flexiblere Shader-Architektur mitbringen und eventuell bis zu 3 Billionen Gleitkommaoperationen pro Sekunde (TFlops) erreichen, mutmaßt die Webseite BSN. Dafür soll der in der zweiten Jahreshälfte erwartete Grafikchip 512 Shader-Einheiten haben, die wohl in 16 Texture Processing Clusters zu je 4 Streaming-Multiprozessoren (SMP) angeordnet sind. Jeder dieser vier SMPs hätte dann wiederum 8 Shader-Einheiten. Der aktuelle High-End-Chip GT200(b) klassifiziert seine 240 Shader-Einheiten in 10 Gruppen à 24 (3 × 8 ) Shader-Einheiten. Sollte Nvidia weiterhin acht Textureinheiten (TMUs) pro Textur-Cluster ankoppeln, stünden dem GT300 folglich 128 TMUs zur Verfügung.

(http://www.heise.de/bilder/136687/0/1)
Ein Texture Processing Cluster besteht beim aktuellen GT200-Chip aus 3 Streaming-Multiprozessoren mit je 8 skalaren Shader-Einheiten.

Interessant ist vor allem die Behauptung, dass die SMPs beim GT300 keine SIMT-, sondern MIMD-ähnliche Einheiten sind. SIMT (Single Instruction, Multiple Thread) ist an SIMD (Single Instruction, Multiple Data) angelehnt und bedeutet, dass ein Rechenbefehl mehrfach parallel mit verschiedenen Daten ausgeführt wird. MIMD (Multiple Instruction, Multiple Data) würde beim GT300 bedeuten, dass unterschiedliche Shader-Programme auch innerhalb eines Textur-Clusters von verschiedenen Streaming-Multiprozessoren parallel abgearbeitet werden können. Falls sich die Gerüchte bewahrheiten, könnte Nvidia die Shader-Architektur unter anderem deshalb flexibilisieren, um die hohe Zahl von 512 Shader-Einheiten effizient auszulasten. Inwiefern Nvidia etwas an der internen Arbeitsweise der einzelnen Shader-Einheiten ändert, ist unklar.

Abzusehen ist, dass die Kalifornier wohl die unter anderem für wissenschaftliche Berechnungen auf dem Grafikchip relevante Dual-Precision-Rechenleistung deutlich erhöhen – BSN geht dabei von einer sechs- bis fünfzehnfachen Verbesserung im Vergleich zum GT200 (GeForce GTX 285: 89 GFlops) aus. Hinsichtlich der Single-Precision-Leistung spekuliert BSN sogar auf mögliche 3 Billionen Gleitkommaoperationen pro Sekunde (TFlops), sofern Nvidia die Shader-Einheiten tatsächlich mit 2 GHz betreibt und diese weiterhin bis zu 3 Operationen pro Takt ausführt. Selbst bei einer Taktfrequenz von 1,5 GHz wäre der GT300 in dieser spekulativen Konfiguration mit 2,3 TFlops noch mehr als doppelt so schnell wie ein einzelner GT200b-Chip.

Erste GT300-Grafikchips könnte Nvidia bereits im Oktober an die Boardpartner ausliefern, sofern bereits die ersten Testläufe mit dem A0-Silizium im Juni erfolgreich sind und man dem Inquirer Glauben schenkt. Dann dürften noch im November erste DirectX-11-Grafikkarten von Nvidia über die Ladentische gehen. Auch AMD plant offenbar erste DirectX-11-Chips in der zweiten Jahreshälfte auszuliefern – wahrscheinlich noch vor Nvidia.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: AMDs DirectX-11-Chip nur verbesserter RV770?
Beitrag von: SiLæncer am 25 April, 2009, 16:57
Nachdem vor kurzem Architekturdetails von Nvidias GT300-Grafikchip die Runde machten, gibt es nun erste Spekulationen um AMDs schon Ende Juli erwartete DirectX-11-GPU RV870. Diese soll eine verbesserte, auf DirectX-11-angepasste und im 40-Nanometer-Fertigungsprozess hergestellte Version der bekannten RV770/790-Chips sein, die auf den aktuellen Radeon HD 4870/90-Grafikkarten zum Einsatz kommen.

(http://www.heise.de/bilder/136782/0/1)

Glaubt man den neuesten Gerüchten, dann verfügt der auf Grafikkarten mit der Bezeichnung Radeon HD 5870 verbaute Grafikchip über 1200 Shader-Prozessoren. Diese sind in 12 SIMD-Einheiten zu jeweils 20 Fünfergruppen angeordnet. Jeder SIMD-Einheit stünde wie bisher ein vierfacher Texturcluster zur Seite, was insgesamt 48 Texture Units ergäbe. Mit 32 Einheiten soll sich die Zahl der Rasterendstufen beim RV870 im Vergleich zum RV770 verdoppelt haben. Damit gäbe der RV870-Chip 32 Pixel pro Takt aus. Weiterhin verbinden wohl 256 Datenleitungen den Chip mit GDDR5-Speicherbausteinen.

Sollten sich diese Gerüchte bewahrheiten und AMD einen Chiptakt von 900 MHz anvisieren, ergäbe das eine Rechenleistung von rund 2,16 TFlops mit einem einzelnen Grafikchip. Dies entspräche zwar beinahe der Rechenleistung der aktuellen Dual-GPU-Grafikkarte Radeon HD 4870 X2 (2,4 TFlops), dürfte jedoch nicht an Nvidias kommenden DirectX-11-Grafikchip GT300 herankommen. Sicherlich schickt AMD wohl eine als Radeon HD 5870 X2 bezeichnete Dual-GPU-Karte mit insgesamt mehr als 4 TFlops ins Rennen. Jedoch ist es wahrscheinlich, dass diese wie die aktuellen X2-Modelle auch mit einer exorbitanten Leistungsaufnahme und Mikroruckeln den Eindruck trübt.

Im Gespräch mit Heise Online behauptete ein Brancheninsider mit Kontakten zu Entwicklern, dass das Tape-Out des RV870 längst vollzogen sei und AMD bereits über Testboards verfüge. Selbst in Europa sollen bereits zwei herumschwirren. Dies würde das Gerücht um die Auslieferung erster Grafikkarten mit RV870-GPUs Ende Juli/Anfang August erneut untermauern. Nvidia braucht wohl noch etwas länger – schließlich scheinen die Kalifornier erst im Juni die Schaltkreisentwürfe des GT300-Chips an den Halbleiterfertiger zu übermitteln (Tape-Out). Daher ist im Idealfall erst Mitte November mit ersten DirectX-11-Grafikkarten von Nvidia zu rechnen. Nach aktuellen Erkenntnissen scheint es jedoch, dass Nvidias GT300 technologisch und leistungsmäßig vor AMDs RV870 liegen wird. Vergleichsweise ruhig ist es derzeit um Intels Larrabee, dessen Rechenleistung zwischen 1 und 2 TFlops vermutet wird.

Quelle : www.heise.de
Titel: AMD präsentiert Radeon HD 4770
Beitrag von: SiLæncer am 28 April, 2009, 10:28
Für rund 100 Euro kommen unter der Bezeichnung Radeon HD 4770 die ersten AMD-Grafikkarten mit einem RV740-Grafikchip aus der 40-Nanometer-Produktion auf den Markt. Sie ersetzen die Radeon HD 4830 und sind in aktuellen 3D-Spielen sogar etwas schneller. So erreicht die HD 4770 in unseren Tests beim anspruchsvollen Ego-Shooter Crysis in der Auflösung 1280 × 1024 (SXGA) in sehr hohen Detaileinstellungen durchschnittlich 25 Bilder pro Sekunde (fps). Eine Radeon HD 4830 berechnet hier 2 fps weniger, eine HD 4850 2 fps mehr. Im 3DMark Vantage erreicht die Karte im Zusammenspiel mit einem Core 2 Quad QX9770 gute 7600 Punkte in der Performance-Voreinstellung.

Entgegen den Erwartungen glänzt die Radeon HD 4770 jedoch nicht mit einer deutlich geringeren Leistungsaufnahme als ihr Vorgängermodell. Im Leerlauf nimmt sie mit gemessenen 34 Watt sogar 11 Watt mehr auf als eine Radeon HD 4830. Bei anspruchsvollen Spielen verheizt die HD 4770 mit durchschnittlich 63 Watt immerhin weniger als der Vorgänger (77 Watt).

(http://www.heise.de/bilder/136874/0/0)

Die aus 826 Millionen Transistoren bestehende GPU und ihre 640 Shader-Prozessoren rechnen mit 750 MHz (960 GFlops) schneller als die der Radeon HD 4830 (575 MHz, 736 GFlops). Im Unterschied zu jener verbaut AMD auf der HD 4770 nun GDDR5-Speicherbausteine, die im Vergleich zu ihren GDDR3-Pendants eine doppelt so hohe Datentransferrate erreichen. Dadurch ist es für AMD möglich, die Speicheranbindung von 256 (HD 4830) auf 128 Datenleitungen zu reduzieren und somit die Herstellungskosten der Grafikplatine im Vergleich zum Vorgänger zu verringern. Bei einer Speichertaktfrequenz von 800 MHz erreicht die Radeon HD 4770 eine Datentransferrate von 51,2 GByte/s. Die DirectX-10.1-Karte ist via CrossFireX kopplungsfähig.

Beim Referenzdesign bekommt eine stattliche Kühlkonstruktion die Wärme von Grafikchip und Speicher in den Griff. Eine 6 cm × 6,5 cm großer Aluminiumkühlkörper leitet die vom Grafikchip produzierte Abwärme über zwei Heatpipes zum Lamellenkühler. Ein zusätzlicher Lüfter führt die Wärme aus dem Gehäuse heraus und sorgt für nahezu unhörbare 0,2 Sone im Desktop-Betrieb und noch gute 0,9 Sone bei 3D-Spielen. Der Luftstrom erfasst die passiv gekühlten Speicherchips jedoch nicht. Der Grafikchip erhitzte sich in unseren Tests auf höchstens 70 °C und bleibt damit im unkritischen Bereich. Zwei Gehäusesteckplätze belegt die Radeon HD 4770 aufgrund des umfangreichen Kühlsystems.

Quelle : www.heise.de
Titel: 3D-Brille von Nvidia nun auch in Deutschland
Beitrag von: ritschibie am 29 April, 2009, 20:17
Nach langer Verzögerung ist die Shutterbrille 3D Vision von Nvidia nun auch in Deutschland erhältlich. Die Verspätung hatte offenbar nichts mit Nvidia zu tun, sondern mit den passenden Displays: Die 3D Vision erfordert zwingend einen mit 120-Hz ansteuerbaren Bildschirm, und die gab es bislang – außer als Röhrenmonitore – nicht auf dem deutschen Markt. Sowohl Samsung als auch ViewSonic hatten zwar kompatible 22-Zoll-Displays angekündigt, dann aber lange Zeit nicht liefern können.

Als erstes hat es nun Samsung in die Regale geschafft: Die Unterhaltungselektronik-Kette Media Markt verkauft ab sofort nicht nur die 3D-Vision-Brille, sondern auch Samsungs LCD-Monitor SyncMaster 2233RZ. Mit der Nvidia-Lösung lassen sich 3D-Fotos und -Videos und vor allem Spiele räumlich anzeigen. Mit einem speziellen Treiber werden so gut wie alle Direct3D-Titel stereoskopisch dargestellt (Kompatibilitätsliste). Für den 3D-Spaß ist allerdings Windows Vista (32 und 64 Bit) und eine Nvidia-Grafikkarte erforderlich. Unterstützt werden ausschließlich Karten der 8er- (ab 8800GT), 9er- und GTX-200-Serie.

Die Shutterbrille synchronisiert sich per Infrarotempfänger mit der Grafikkarte, der Akku lässt sich nur über die integrierte USB-Schnittstelle aufladen. Der 3D-Effekt ist überzeugend, allerdings führen Leuchtstofflampen im Raum zu unschönen Flimmereffekten – die Brille läuft pro Auge mit 60 Hz, die Lampen werden hierzulande mit 50-Hz-Wechselstrom betrieben.

 Der größte Vorteil der Nvidia-Lösung: Die Kanaltrennung zwischen den Bildern fürs linke und rechte Augen ist nahezu perfekt. Die anderen 3D-Systeme für Spieler von Zalman, iZ3D und Hyundai setzen auf Polarisation; systembedingt ist hier die Kanaltrennung etwas schlechter. Dafür benötigt man aber auch nur passive, also leichtere Brillen. Weiterer Vorteil: Der Treiber für den iZ3D-Monitor (siehe Test in c't 05/09) läuft auch mit AMD/ATI-Karten. Bei iZ3D bleibt wie bei Samsung/Nvidia im 3D-Betrieb die volle Displayauflösung von 1680 × 1050 Bildpunkten erhalten, bei Hyundai und Zalman muss man mit halbierter Auflösung leben.

Ein weiterer Vorteil der Polarisier-Displays: Zusätzliche Brillen sind für wenige Euro erhältlich, oft werden sogar mehrere mitgeliefert. Die Nvidia-Brille geht für 200 Euro über den Ladentisch, der passende Samsung-Monitor kostet bei Media Markt 370 Euro, ist aber im Unterschied zur Brille auch anderswo erhältlich. Der iZ3D-22"-Monitor (inklusive Polfilterbrillen) kostet in Deutschland 500 Euro, für den schon etwas älteren Zalman ZM-M220W muss man nur noch 200 Euro hinblättern. Ein Preis für den noch nicht erhältlichen Hyundai W220S steht noch nicht fest.

Quelle: http://www.heise.de
Titel: Grafik-Gerüchte: Verschieben sich DirectX-11-Grafikchips?
Beitrag von: SiLæncer am 11 Mai, 2009, 16:46
Zunächst schien es, als könne AMD bereits Ende Juli 2009 den ersten zu DirectX 11 kompatiblen Grafikchip (GPU) unter der Bezeichnung RV870 präsentieren. Nvidias Konkurrenzchip GT300 erwartete man im Idealfall frühestens im Oktober. Glaubt man den nun aus verschiedenen Quellen aufkommenden Gerüchten, dann verspäten sich beide GPUs zum Teil deutlich.

So schreibt die Gerüchteküche Fudzilla, dass die RV870-GPU nun wohl doch nicht vor dem vierten Quartal des Jahres zu erwarten ist und spekuliert, dass AMD die ursprüngliche Version des Chips verworfen habe und wohl erst mit einem überarbeiteten Modell gegen Nvidias GT300 antreten wolle. Wahrscheinlicher sind jedoch Probleme, die der taiwanesische Auftragsfertiger TSMC mit dem 40-Nanometer-Fertigungsprozess hat. So soll in Testläufen die Ausbeute von funktionierenden RV870-Chips, die aus mehreren Milliarden Transistoren bestehen, mit rund 30 Prozent nicht akzeptabel sein. Im Gespräch mit heise online ging auch eine unternehmensnahe Quelle nicht von einem Marktstart vor dem vierten Quartal des Jahres aus.

(http://www.heise.de/bilder/137627/0/0)
Grafikkarten mit AMDs RV740-GPU (40nm) sind noch Mangelware.

Grafikkarten mit Nvidias GT300 sollen, falls man dem Inquirer Glauben schenkt, erst Anfang des kommenden Jahres über die Ladentheken gehen. Als Grund mutmaßt die Online-Publikation, dass sich der ursprünglich ins Auge gefasste Tape-Out-Termin weiter verschiebt. Andere Quellen gehen dennoch weiterhin davon aus, dass Nvidias DirectX-11-Chip bereits Ende des dritten Quartals verfügbar ist – und damit noch vor AMDs RV870, sollte dieser wirklich erst im vierten Quartal kommen.

Im DirectX-10-Mitteklassesegment konnte AMD bereits Ende April mit der Radeon HD 4770 die erste Grafikkarte vorstellen, auf der ein im 40-Nanometer-Fertigungsprozess hergestellter Grafikchip werkelt (RV740). Solche Grafikkarten sind aktuell für rund 90 Euro erhältlich – wenn auch durch die Fertigungsprobleme derzeit nur in geringen Stückzahlen. Ebenfalls im Preis gefallen ist die Radeon HD 4850 (RV770, 55 nm), die bereits ab rund 95 Euro gelistet ist. Nvidia scheint erste 40-Nanometer-GPUs mit den GT218- (Low-End), GT214/216- (Mittelklasse) und GT215-Chips (High-End-Mobil) frühestens im Rahmen der Computermesse Computex Anfang Juni vorstellen zu wollen.

Quelle : www.heise.de
Titel: Nvidia legt GTX-295 neu auf - mit nur einer Platine
Beitrag von: SiLæncer am 12 Mai, 2009, 17:52
Erste Bilder von neuer Grafikkarte aufgetaucht

In China sind erste Fotos einer neuen Grafikkarte erschienen, die die neue Version von Nvidias Geforce GTX-295 zeigen sollen. Dabei wurden erstmals bei Nvidia zwei GPUs auf einer Platine untergebracht, bisher gab es zwei PCBs. Die Bilder widersprechen dem bisher vermuteten schnellen Ende der GTX-295.
Vor allem der US-Journalist Charlie Demerjian, der für den Inquirer schreibt, hatte wiederholt behauptet, die aktuelle GTX-295 sei nur einmalig in einer kleinen Auflage hergestellt worden und bereits bei Marktstart ein Auslaufmodell gewesen. Nvidia, so Demerjian weiter, hätte das Gerät mit zwei GPUs nur entworfen, um wieder den Titel der "schnellsten Grafikkarte" beanspruchen zu können. In der Tat ist die GTX-295 in vielen Tests etwas schneller als die Radeon HD 4870 X2, die ebenfalls mit zwei Grafikprozessoren bestückt ist.

Seit der Vorstellung der GTX-295 waren die Karten, die es von mehreren Anbietern gibt, teils auch mit Wasserkühlung, zudem stets recht knapp. Das trug zu Vermutungen bei, das Modell könnte bald auslaufen.

Das scheint nun jedoch nicht der Fall zu sein. Auf der chinesischen Webseite Expreview gibt es zahlreiche Bilder (http://www.expreview.com/news/hard/2009-05-12/1242120295d12387.html) einer neuen GTX-295, die den Beschriftungen nach von Inno 3D stammt. Dabei ist deutlich zu sehen, dass es sich um eine völlig neue Platine handelt, auf der die beiden GPUs auf derselben Seite angebracht sind. So baut auch AMD seine X2-Karten.

Bei Nvidia war es jedoch seit den Karten der Serie GX2 Standard, zwei Platinen mit je einer GPU zu einer Grafikkarte zusammenzubauen. Diese Konstruktion ist nicht nur sehr teuer, sondern auch aufwendig zu kühlen. Den nun aufgetauchten Bildern nach zu urteilen unterscheidet sich Nvidias Konzept aber in einem wichtigen Punkt von AMDs Design.

Während bei den X2-Karten ein umkapselter Lüfter am Ende der Karte die Luft quer durch den Kühlkörper und dann über das Slotblech aus dem PC bläst, sitzt bei der neuen GTX-295 der Lüfter in der Mitte der Karte. Er bläst dann nicht nur durch das Slotblech, sondern auch über die andere Seite der Platine - ein Teil der erwärmten Luft landet also wieder im PC. Ganz abführen können aber weder die aktuellen Nvidia- noch AMD-Karten mit zwei GPUs die Warmluft, bei Nvidia sorgen dafür zahlreiche Lamellen, bei AMD großzügige Kühlkörper. Sparsamer dürfte die neue GTX-295 auch nicht werden, es sind immer noch ein 8-poliger und ein 6-poliger Stromanschluss vorgesehen.

In welcher Form die neue GTX-295 erscheint, ist von Nvidia noch nicht bestätigt, denn die Karte wurde bisher nicht offiziell angekündigt. Ein naheliegender Termin wäre die Computex, die am 2. Juni 2009 in Taipeh startet.

Quelle : www.golem.de
Titel: Neue ATI Radeon HD 4730 aufgetaucht
Beitrag von: SiLæncer am 23 Mai, 2009, 21:48
Wie VR-Zone meldet, wird AMD eine weitere, günstige Grafikkarte auf den Markt bringen: die ATI Radeon HD 4730. Es handelt sich dabei um eine Karte, die einen auf dem RV770 basierenden Grafikchip in 55nm-Bauweise einsetzt und nicht, wie die neue Radeon HD 4770 (unser Test) bereits einen 40nm-Chip. Die Radeon HD 4730 besitzt die gleichen technischen Daten wie das Auslaufmodell Radeon HD 4830, der einzige Unterschied ist ein auf 128 Bit halbiertes Speicherinterface. Dies sollte jedoch durch den Einsatz von GDDR5- statt GDDR3-Speicher wieder ausgeglichen werden können.

Es wird vermutet, dass neben Lieferproblemen bei der Radeon HD 4770 auch die Lagerbestände der Radeon HD 4830 bald zu Ende gehen und AMD deswegen eine weitere Karte in diesem Bereich anbieten möchte. Der Preis ist noch nicht bekannt.

Quelle : www.gamestar.de
Titel: Powercolor präsentiert erste Radeon HD 4730
Beitrag von: SiLæncer am 28 Mai, 2009, 16:16
ls erster AMD-Boardpartner präsentiert Powercolor unter der Bezeichnung Radeon HD 4730 eine neue Mittelklasse-Grafikkarte. Deren 3D-Leistung reicht bei den meisten aktuellen Spielen für eine flüssige Darstellung aus. Auf dem neuen Modell werkelt ein aus 55-Nanometer-Strukturen gefertigter RV770LE-Grafikchip mit 640 Shader-Einheiten – also der gleiche wie auf der Radeon HD 4830. Letztere Karte ersetzte AMD Ende April mit der Radeon HD 4770, auf der jedoch der sparsame, in 40-Nanometer-Fertigungstechnik produzierte RV740-Chip sitzt. Im Gespräch mit heise online bestätigte AMD, dass neben Powercolor auch Sapphire HD-4730-Karten auf den Markt bringt. Nach Sapphire-Angaben soll dies noch im Juni geschehen.

(http://www.heise.de/bilder/139524/0/0)

ie RV770LE-GPU der PowerColor HD 4730 läuft mit 700 MHz (896 GFlops) und damit rund 20 Prozent schneller als die der Radeon HD 4830 (575 MHz). Beim Speicher setzt die HD 4730 auf 1800 MHz schnelle GDDR5-Bausteine (HD 4830: 900 MHz GDDR3, 256 Bit), die über 128 Datenleitungen an den Grafikchip angebunden sind. Bei gleicher Shader-Anzahl und gleichem Speicherdurchsatz (57,6 GByte/s) dürfte die Radeon HD 4730 also durch ihre höhere GPU-Taktfrequenz in Spielen etwas schneller sein als die ursprüngliche Radeon HD 4830 – und damit ungefähr auf dem Niveau der Radeon HD 4770 liegen. Anscheinend will AMD mit der HD 4730 die überflüssigen RV770LE-Grafikchips abverkaufen.

Powercolors Radeon HD 4730 soll ab 8. Juni für rund 80 US-Dollar erhältlich sein.

Quelle : www.heise.de
Titel: Monster-Version der GeForce GTX 295
Beitrag von: SiLæncer am 29 Mai, 2009, 12:52
Von Asus, auf 1.000 Stück limitiert

Wie SweClockers meldet, soll Asus auf der am 2. Juni beginnenden Computermesse Computex in Taiwan quasi eine Dual-GeForce GTX 285 vorstellen, die in Sandwich-Verfahren hergestellt ist. Die Karte soll auf 1.000 Stück limitiert sein und die Bezeichnung GeForce GTX 295 Mars tragen.

(http://images.gamestar.de/images/idgwpgsgp/bdb/2009854/800x600_prop.jpg)

Die Taktraten übertreffen die einer GeForce GTX 295 deutlich: 648 MHz statt 576 MHz für die GPU, 1.476 MHz statt 1.242 MHz für die Stream-Prozessoren und 2.400 MHz statt 1.998 MHz für den GDDR3-Speicher. Außerdem ist der Speicher mit einem 512-Bit-Speicherinterface angebunden (üblich sind 448 Bit) und gleich 2x 2 GByte groß, während die Standard-GTX 295 hier 2x 896 MByte aufweist. Der Preis für die Mars-Version ist nicht bekannt.

Quelle : http://www.gamestar.de
Titel: AMD doch zuerst mit DirectX 11?
Beitrag von: SiLæncer am 31 Mai, 2009, 20:30
Wie bit-tech.net unter Bezug auf AMD- und Nvidia-nahe Quellen im Umfeld der übermorgen startenden Computex meldet, soll AMD nun doch eher als Nvidia DirectX 11-Karten bereits im Oktober veröffentlichen. Die Grafikchips seien " im Wesentlichen" fertig und das schon einige Zeit, AMD warte nur noch darauf, dass der Auftragshersteller TSMC seine Probleme bei der Produktion in 40nm in den Griff bekommt. Die weiteren Informationen decken sich mit dem, was bisher schon bekannt war: AMD wird auch diesmal auf einen schnellen, kleinen Einzelchip setzen, der für die High-End-Karten doppelt verbaut wird.

Quelle : www.gamestar.de
Titel: Gigabyte stellt ATI Radeon HD 4650 für AGP-Slot vor
Beitrag von: SiLæncer am 08 Juni, 2009, 10:56
Der taiwanische Hardwarehersteller Gigabyte hat anlässlich der IT-Messe Computex in der letzten Woche eine neue Grafikkarte für den veralteten AGP-Port vorgestellt, die aktuelle Technologie auch für die Besitzer älterer PCs zugänglichen machen soll.

Bei Gigabytes neuer AGP-Grafikkarte handelt es sich um eine entsprechende Version der von dem Unternehmen angebotenen Grafikkarten auf Basis der ATI Radeon HD 4650. Das Gigabyte GV-R465D2-1GI genannte AGP-Modell bietet bis auf einige Einschnitte in Sachen möglicher Leistung die gleichen Features, wie die Variante für den PCI-Express-Slot.

Es handelt sich also um eine DirectX10.1-kompatible Grafikkarte, bei der Gigabyte ein Gigabyte Speicher verbaut. Sie ist AGP-8X-kompatibel und soll sogar CrossFireX-Funktionalität bieten - was angesichts fehlender Dual-AGP-Mainboards allerdings kaum möglich sein dürfte. Außerdem fehlt ein entsprechender Bridge-Connector, weshalb es sich laut 'Tom's Hardware' offenbar um einen Fehler des Herstellers handelt.

Gigabyte will mit der neuen AGP-Grafikkarte wohl vor allem Kunden ansprechen, die bisher kein Upgrade ihres Systems vorgenommen haben. Gerade in Fällen, wo viel Geld in ein AGP-System gesteckt wurde, zögern manche Kunden vielleicht, die Gigabyte nun bedienen will.

Quelle : http://winfuture.de
Titel: ATI plant Preissenkung bei Radeon HD 4800-Serie
Beitrag von: SiLæncer am 09 Juni, 2009, 11:07
AMDs Grafiktochter ATI will offenbar in Kürze eine kräftige Preissenkung bei den Grafikkarten der ATI Radeon HD 4800 Serie vornehmen. Hintergrund ist die bevorstehende Einführung neuer Modelle auf Basis eines neuen Chips.

Wie 'VR-Zone' unter Berufung auf nicht näher genannte Quellen berichtet, will AMD/ATI den Preis der Modelle Radeon HD 4850, 4870 und 4890 um bis zu 50 US-Dollar nach unten korrigieren. Wahrscheinlich will der Hersteller auf diesem Weg die Nachfrage noch einmal ankurbeln.

Ziel ist es offenbar, die Lagerbestände im Vorfeld der Markteinführung neuer Grafikkarten auf Basis des neuen Grafikchips RV870 im September zu reduzieren. Der empfohlene Verkaufspreis der ATI Radeon HD 4890 soll angeblich von 249 auf dann nur noch 199 US-Dollar fallen.

Das Modell ATI Radeon HD 4870 wird im gleichen Atemzug angeblich von 199 auf 149 US-Dollar herab gesetzt. Die Einsteigervariante ATI Radeon HD 4850 soll dann zu Preisen von unter 100 US-Dollar zu haben sein. Sie war zuletzt schon aufgrund der Lieferschwierigkeiten bei der Radeon HD 4870 deutlich günstiger geworden.

Quelle : http://winfuture.de
Titel: Fünf neue GeForce-GPUs in 40nm für Notebooks
Beitrag von: SiLæncer am 15 Juni, 2009, 17:56
Mehr Leistung und erstmals DirectX 10.1 bei Nvidia

Nvidias neue Notebook-GPUs heißen durchgängig "GeForce 200M". Dahinter steckt diesmal aber keine Umbenennung, sondern tatsächlich ein Ableger der GT200-Architektur. Die neuen Grafikprozessoren unterstützen erstmals bei Nvidia DirectX 10.1 und werden in 40 Nanometern Strukturbreite gefertigt.
Mit seinen neuen Notebook-GPUs schließt Nvidia in zwei Punkten zu AMD auf: Die Chips werden mit 40-Nanometer-Verfahren gebaut und beherrschen DirectX 10.1. Die kleine Erweiterung der 3D-Schnittstelle, die vor allem Tesselationsfunktionen erfordert, bot AMD schon ab der Serie Radeon HD 3000 für den Desktop und später auch für Mobil-GPUs an. Bei Nvidia ist sie vorerst nur in den jetzt vorgestellten Notebook-GPUs zu finden.

(http://scr3.golem.de/screenshots/0904/Nvidia-G200M/thumb480/Image7.png)

Die neuen mobilen Grafikprozessoren namens G-210M, GT-230M, GT-240M, GTS-250M und GTS-260M ersetzen in dieser Reihenfolge die Vorgänger G-110M, GT-130M und GTS-160M. Die bisherigen GPUs sollen noch so lange geliefert werden, wie die Notebookhersteller sie nachfragen. Gegenüber den älteren Modellen arbeiten die neuen GPUs nicht mehr mit der G92b-Architektur, die wiederum auf der GeForce-8-Generation basiert, sondern sind mit GT200-Architektur versehen. Dieses Design verwendet Nvidia auch bei seinen Desktop-Produkten wie GTX-260, GTX-275 und GTX-285, nicht aber bei der GTS-250. Auch die bisher schnellsten Notebook-GPUs von Nvidia, GTX-280M und GTX-260M, arbeiten noch mit G92b-Architektur.

Dennoch ist die Modellvielfalt mit den neuen Produkten leichter durchschaubar geworden, da die Architektur nun bei fünf Notebook-GPUs wieder gleich ist. Wann Nvidia auch seine mobilen High-End-Modelle darauf umstellt, gab der Chiphersteller noch nicht an. Anhand der Modellnummer lassen sich nun aber die Leistungsunterschiede wieder deutlich feststellen.

Das kleinste Modell, G-210M, dürfte mit seinen 16 Stream-Prozessoren wie in dieser Klasse üblich mit aufwendigen Spielen überfordert sein, erst ab GT-230M mit 48 Shader-Einheiten ist deutlich mehr spürbare Leistung als mit integrierter Grafik zu erwarten. GTS-250M und GTS-260M warten mit 96 Rechenwerken auf und können zudem GDDR5-Speicher ansteuern. Zum Vergleich: Die GTX-285 für Desktop-PCs besitzt 240 Stream-Prozessoren.

Quelle : www.golem.de (http://www.golem.de)
Titel: Kleine Radeon HD 4890 - ATI Radeon HD 4790 geplant
Beitrag von: SiLæncer am 16 Juni, 2009, 15:59
Laut it168.com, einer meist recht gut informierten asiatischen Webseite, arbeitet AMD an einer weiteren Grafikkarte aus der Radeon HD 4700-Serie. Die ATI Radeon HD 4790 – im Bild die Version von PowerColor – soll jedoch einen Grafikchip auf der Basis des RV790 verwenden, der auch auf dem aktuellen Flaggschiff Radeon HD 4890 zum Einsatz kommt.

Mit allen 800 Shadern, aber einem deutlich geringeren Chiptakt von 600 MHz, und dem Einsatz von GDDR5-Speicher mit effektiven 3,2 GHz soll die neue Radeon HD 4790 schneller sein als die Radeon HD 4850. Wenn die Karte offiziell erscheinen wird, ist noch nicht bekannt.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Asus Geforce GTX 295 Mars - Monster-Karte über 1.200 Euro?
Beitrag von: SiLæncer am 16 Juni, 2009, 16:01
Die von Asus entwickelte und auf 1.000 Exemplare limitierte Geforce GTX 295 Mars, bei der er es sich um zwei vollwertige Geforce GTX 285-Karten in Sandwichbauweise mit 4 GByte Speicher handelt, wird bei dem englischen Händler Scan bereits gelistet.

(http://images.gamestar.de/images/idgwpgsgp/bdb/2009854/800x600_prop.jpg)

Die Karte ist noch nicht lieferbar, kann aber vorbestellt werden und kostet enorme 1.030,98 Britische Pfund – nach aktuellem Kurs sind das über 1.200 Euro, die um vier Prozentpunkte niedrigere Mehrwehrt-Steuer in Großbritannien noch nicht einmal berücksichtigt. Für diese Summe erhält man in Deutschland immerhin gleich drei normale GeForce GTX 295.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Nvidia Grafikkarten - Leistung steigt in 6 Jahren um das 20-fache
Beitrag von: SiLæncer am 19 Juni, 2009, 19:58
Wenn man William Dally, dem leitenden Wissenschaftler des Grafikchip-Herstellers Nvidia ungeachtet seinen Glauben schenkt, wird die Leistung von Grafikkarten bereits im Jahr 2015 mit 20-facher Leistung ein atemberaubendes Niveau erreichen.

Laut William Dally bestehe, was die Entwicklung von Grafikprozessoren und Chipsätzen angeht, noch sehr viel Luft nach oben. Es gebe keinen Zweifel daran, dass bereits in sechs Jahren die zurzeit stärksten Grafikkarten auf dem Markt Nvidia GeForce GTX 285 oder ATI Radeon HD 4890 unproblematisch vom Thron geschubst werden. So sollen im Jahr 2015 die innovativsten und leistungsstärksten Grafikchips eine Rechenleistung erreichen, die mit einer 20-fachen Leistungsfähigkeit alle bekannten Grafikhardware in den Schatten stellen.Damit diese Rechnung aufgeht und sich seine Prognose bewahrheitet, müsse sich die Leistung der Grafikchips alle zwei Jahre verdoppeln. Wenn man sich die Entwicklung der Hardware anschaut, falle einem sehr schnell ins Auge, dass solch eine Bedingung sehr leicht zu erfüllen sei. "Wir sind zur Erkenntnis gekommen, dass bereits vor einigen Jahren der Trend einer Verdopplung der Grafikleistung in allen 2 Jahren in Gang gekommen ist. Somit ist diese Tatsache auf der Hand liegend", so der renommierte Wissenschaftler von Nvidia.

Gegenüber den französischen Redakteuren von Hardware.fr erklärt er weiterhin, dass sich in Zukunft auch der Aufgabenbereich der Grafikkarten um einiges ausdehnen werde. So sollen die neuartige Grafikchips den Hauptprozessoren mehr unter die Arme greifen, um diese bei einigen Anwendungen besser zu entlasten. Eine Interaktion zwischen Grafikkarte und Prozessor gewinne immer mehr an Bedeutung.

Quelle : www.gulli.com (http://www.gulli.com)
Titel: Re: Nvidia Grafikkarten - Leistung steigt in 6 Jahren um das 20-fache
Beitrag von: Theos am 19 Juni, 2009, 21:08
bei einer verdopplung alle 2 jahre (ie. moore's law) wäre das in 6 jahren aber nur das 8-fache...
Titel: Re: Nvidia Grafikkarten - Leistung steigt in 6 Jahren um das 20-fache
Beitrag von: Jürgen am 19 Juni, 2009, 22:52
Die Kriterien für Grafik- oder Prozessorleistung lassen sich nicht auf's Moor'sche Gesetz übertragen, das eigentlich nur so simple Dinge wie Speicherdichte kennen konnte.

Es ist noch nicht einmal möglich, ältere und neuere GPUs oder CPUs absolut zu vergleichen.
Die Taktfrequenzen steigen nicht mehr dramatisch. Die Busbreiten, zu RAM oder Hauptplatine auch nicht.
Parallele Verarbeitung ist stark von Treibern, Software und Aufgaben abhängig.
Pipelines werden immer länger, Caches und ihre Strategien gleichen das mehr oder weniger gut aus.
Die verwendeten Speichermengen steigen zwar weiterhin stark, aber deren Gebrauch teils ebenso.
Nicht zu vergessen, die Aufgaben werden immer wieder hin und her verlagert. So gibt's immer noch Grafikkonzepte, die Mainboard-RAM verwenden, andere entlasten die CPU z.B. bei HDTV ganz gewaltig. Die eine Variante sorgt für gewaltigen BUS-Traffic, die andere bringt ihn fast gegen Null. Es wäre wohl ganz interessant zu erfahren, wie sich eine Kiste mit TurboMemory plus GPU-h.264-Decoding verhielte...

Achtfach, zwanzigfach, kann man so nicht wirklich sagen.
Genau sowenig wie bei der Gesamtleistung eines PC.
E-Mail, Surfen, Word & Co. werden jedenfalls kaum profitieren...

Immerhin steigen Stromverbrauch und Hitzeentwicklung durchschnittlich immer noch, und das höchstwahrscheinlich auch weiterhin schon bei ruhendem Desktop. Die VGA-Kochplatte ist nicht mehr fern...
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Theos am 20 Juni, 2009, 00:50
Die Kriterien für Grafik- oder Prozessorleistung lassen sich nicht auf's Moor'sche Gesetz übertragen, das eigentlich nur so simple Dinge wie Speicherdichte kennen konnte.
moore's law = alle 2 jahre passen doppelt so viele dinge auf die gleiche chipfläche.
bei prozessoren und speicher sind das in der regel transistoren, bzw. bei speicher uU auch kondensatoren.

bei speicher ist es klar, dass die fast 1:1 davon profitieren.
bei prozessoren bringt es nur dann direkt etwas, wenn elemente dupliziert werden können.
und genau in diesem bereich fallen gpus: die bestehen im grunde aus 100en bzw. neuerdings sogar 1000en von kleinen rechenwerken. da sich auch die display auflösung immer erhöht, gibt es immer genug zum rechnen.

aber im zeitalter der multicores kann man auch dort moore's law live beobachten:
2005 kamen die dualcores
2007 die quadcores
und heuer sollen glaub ich noch octacore nehalems anstehen.

Achtfach, zwanzigfach, kann man so nicht wirklich sagen.
naja, wenn der (pseudo) benchmark 8mal schneller durchläuft...



Pipelines werden immer länger, Caches und ihre Strategien gleichen das mehr oder weniger gut aus.
soweit ich weiß gilt das nicht mehr. das wurde mit dem P4 zwar eingeleutet, aber der core/nehalem sind davon wieder abgegangen.
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Jürgen am 20 Juni, 2009, 08:51
soweit ich weiß gilt das nicht mehr. das wurde mit dem P4 zwar eingeleutet, aber der core/nehalem sind davon wieder abgegangen.
...dafür geht die Tendenz klar zum 3rd level cache.
Aber solche Konzept-Änderungen mindern grundsätzlich die Vergleichbarkeit.
Und Benchmarks versuchen zwar, diese mühsam wiederherzustellen, doch gelingen kann der Vergleich stets nur im sorgsam vordefinierten Umfeld von Anwendungen.
Taktfrequenz ist nicht alles, sonst wäre z.B. ein 3.6 GHz P4 heute noch weit vorn. Aber sicher wird's inzwischen viele Fälle geben, wo mehrere Rechenwerke, gut skaliert, mehr leisten, trotz langsamerer Cores. Nur nicht immer.

Kurzum, es gibt die ideale CPU oder GPU ebensowenig wie den idealen KFZ-Motor.
Und den perfekten Vergleichstest ebensowenig wie die eierlegende Wollmilchsau...
Titel: ATI-Grafikkarten - Mehr Leistung ohne HD-Audio
Beitrag von: SiLæncer am 21 Juni, 2009, 14:56
Alle ATI-Grafikkarten seit der X1000-Serie können neben der Grafik auch HD-Audio zur Ausgabe über HDMI berechnen, was allerdings nur sehr selten genutzt wird, da die meisten Anwender eine zusätzliche Soundkarte oder aber den Onboard-Sound des Mainboards verwenden.

Wie Hardware-Infos nun herausgefunden hat, berechnen die ATI-Karten jedoch den Sound auch dann, wenn er nicht genutzt wird. Ein Deaktivieren der ATI High Definition Audio Device bzw. des ATI Function Driver for High Definition Audio im Geräte-Manager brachte bei Tests eine Mehrleistung von durchschnittlich 2-3 Prozent. Besonders grafikintensive Spiele profitierten dabei mit bis zu fünf Prozent.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Re: ATI-Grafikkarten - Mehr Leistung ohne HD-Audio
Beitrag von: Warpi am 21 Juni, 2009, 14:59
Ob sich die Systemlast bei der Wiedergabe von HD- TV  auch so noch etwas drücken lässt ?
Gleich werden wir es wissen ....  ;)

Ps: Astra HD+ klebt bei 6-8% auf beiden Kernen . Scheint ein wenig gebracht zu haben.
Titel: Nvidia CUDA - Auch auf ATI-Karten?
Beitrag von: SiLæncer am 02 Juli, 2009, 10:45
Techradar berichtet, dass Nvidias Chief Scientist Bill Dally Andeutungen gemacht hätte, die darauf schließen lassen, dass CUDA bald auch auf den ATI-Grafikkarten von AMD unterstützt werden könnte. Zwar nannte Dally AMD nicht direkt, sprach aber davon, dass er mit einigen Projekten vertraut sei, die daran arbeiten, CUDA auf anderen Plattformen zu ermöglichen.

Was AMD mit ATI Stream zurzeit anbiete, basiere auf der Programmiersprache Brook, die Dally mit entwickelt hat. Doch aufgrund der Einschränkungen, die Brook mit sich bringe, habe man bei Nvidia CUDA entwickelt. AMD wollte zu den Spekulationen über CUDA keinen Kommentar abgeben und verwies darauf, dass man den offenen Standard OpenCL unterstütze. Den hält Dally jedoch nur für ein Treiber-Interface, CUDA sei wesentlich komfortabler zu nutzen.

Update:
Wie The Inquirer meldet, waren die Aussagen von Bill Dally wohl eher "hypothetisch" zu verstehen, es sei zwar technisch möglich, dass AMD CUDA nutze, aber beide Firmen müssten dann daran arbeiten. Laut AMD würden CUDA-Anwendungen auf ATI-Chips ohnehin nicht gut laufen, da CUDA nie optimiert sein könne wie ATI Stream. Und das wiederum würde Nvidia laut eigener Aussage nicht unterstützen. Bleibt für die Nutzer von Karten beider Lager die Hoffnung auf einheitliche Nutzung von Compute Shader bei DirectX 11 und OpenCL.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Sapphire Vapor-X - Radeon HD 4890 mit 2 GByte
Beitrag von: SiLæncer am 04 Juli, 2009, 19:17
Sapphire bereitet zurzeit die Markteinführung einer neuen Grafikkarte mit seiner Vapor-X-Kühltechnik vor: eine Radeon HD 4890, die gleich mit 2 GByte Grafikspeicher ausgestattet ist. Der Grafikchip ist mit 870 MHz nur moderate 20 MHz schneller als bei einem Standard-Modell, der Speicher dafür mit 4,2 GHz effektive 300 MHz flotter.

(http://images.gamestar.de/images/idgwpgsgp/bdb/2014530/800x600_prop.jpg)

Die Karte bietet mit VGA, DVI, HDMI und DisplayPort Ausgabemöglichkeiten für jeden Einsatzbereich. Der Preis der Karte im Handel soll bei 226 Euro liegen.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Nvidias neue OEM-Karten unterstützen DirectX 10.1
Beitrag von: SiLæncer am 08 Juli, 2009, 15:07
Nvidia hat auf seiner Webseite zwei neue Grafikkarten vorgestellt, die jedoch ausschließlich für den OEM-Markt bestimmt und damit nicht im Einzelhandel erhältlich sind. Es handelt sich um die GeForce GT220 und G210, deren Grafikchips (GPUs) aus 40-Nanometer-Strukturen bestehen. Beide Grafikkarten unterstützen im Unterschied zu allen bisherigen Desktop-Grafikkarten von Nvidia erstmals DirectX-10.1-Instruktionen. Verfügbar dürften die neuen OEM-Karten erst ab September sein.

Die GeForce GT220 besitzt einen GT218-Grafikchip (615 MHz) mit 48 Shader-Einheiten (1335 MHz). Der DDR3-Speicher (790 MHz) fasst 1 GByte an Daten und ist mit 128 Leitungen an die GPU angebunden. Dies führt zu einer Speicherbandbreite von 25,3 GByte/s. Displays bindet die GeForce GT220 über je einen Dual-Link-DVI sowie VGA- und HDMI-Anschluss an.

Der GT216-Grafikchip (589 MHz) der GeForce G210 ist mit nur 16 Shadereinheiten (1402 MHz) bei 3D- und GPGPU-Berechnungen deutlich langsamer als der einer GeForce GT220. Auch das Speicherinterface ist mit 64 Bit nur halb so leistungsfähig wie beim GT220, wodurch sich bei gleicher Taktfrequenz (790 MHz) nur mit 12,6 GByte/s Daten mit der GPU austauschen lassen. Standardmäßig verbaut Nvidia auf der GeForce G210 512 DDR3-MByte Speicher. Im Unterschied zur GeForce GT220 besitzt die G210 anstelle des HDMI-Anschlusses einen DisplayPort-Ausgang, über den sich Bildschirme mit bis zu 2560 × 1600 Bildpunkten ansteuern lassen. Laut Nvidia verheizt die GeForce G210 maximal 30,5 Watt. Zur Leistungsaufnahme der GT220 macht der Grafikchiphersteller keine Angaben.

Quelle : www.heise.de (http://www.heise.de)
Titel: Nvidias erste DirectX-10.1-Karten nur in Komplett-PCs
Beitrag von: SiLæncer am 09 Juli, 2009, 15:58
Nvidia baut seine Serie der OEM-Grafikkarten aus. Diese sind nur mit Komplett-PCs zu haben, bieten aber als erste Desktopgrafikkarten von Nvidia Unterstützung für DirectX 10.1. Ihren technischen Daten zufolge sind GT 220 und G 210 reine Einstiegslösungen.
Seit Anfang des Jahres 2009 gibt es von Nvidia neben den einzeln erhältlichen Karten, für die der Hersteller viel Marketing betreibt, auch Grafikkarten mit Modellnummern nach dem Schema Gxxx und GTxxx. Diese tauchten im Januar 2009 bereits in Sonderangeboten von Elektronikmärkten auf, ohne dass Nvidia die technischen Daten bekanntgegeben hätte - in den Prospekten der Händler fehlen sie bis auf die Größe des Speichers ohnehin meist.

Das brachte dem Chiphersteller viel Kritik ein, deshalb gibt es nun auf den Webseiten von Nvidia fast vollständige Daten zu den aktuellen OEM-Karten, und auch für die neuen Geforce GT 220 und G 210. Beide basieren wie die aktuellen GTX-2xx-Modelle auf der G200-Architektur, wurden für den OEM-Markt aber kräftig abgespeckt. Statt 240 Recheneinheiten wie bei den Spitzenmodellen besitzt die GT 220 nur 48 Stream-Prozessoren, die mit 1.335 MHz getaktet sind. Der Rest der GPU läuft mit 615 MHz.

(http://scr3.golem.de/screenshots/0907/Nvidia-OEM/thumb480/Geforce-GT-220.jpg)

Der GDDR3-Speicher von 1 GByte ist mit 790 MHz zwar recht schnell, aber nur über einen 128-Bit-Bus angebunden. Als Schnittstellen stehen DVI, HDMI und VGA zur Verfügung. Wie viele sich davon parallel nutzen lassen, ist noch nicht bekannt. Die von Nvidia gestellten Bilder einer Referenzkarte zeigen jedoch, dass alle drei Ports verbaut werden können. Das ist bei günstigen Grafikkarten wichtig, da der Nutzer jeden vorhandenen Monitor weiter verwenden können soll.

Die G 210 ist noch stärker beschnitten. Nur 16 Recheneinheiten mit 1.402 MHz und einem GPU-Takt von 589 MHz sind geboten. 512 MByte Standardspeicher nach DDR-3 mit 790 MHz sind über einen 64-Bit-Bus an die GPU gebunden. Damit ergibt sich eine theoretische Speicherbandbreite von 12,6 GByte pro Sekunde, die GT 220 kommt schon auf 25,3 GByte/s.

Neben DVI und VGA ist bei der G 120 statt HDMI auch ein DisplayPort vorhanden. HDMI-Display können aber über einen Adapter für die DVI- oder DisplayPort-Buchse verwendet werden. Die GT 220 besitzt keinen DisplayPort. Die Schnittstellenausstattung kann der PC-Hersteller aber selbst bestimmen, so dass auch G 210 erscheinen dürften, die keinen DisplayPort besitzen. Beide Karten sind als Low-Profile-Varianten ausgeführt, sodass sie mit entsprechenden Slotblenden auch in besonders kompakte PCs passen.

Wie viel Leistung die neuen Karten aufnehmen, verrät Nvidia nicht. Die Bilder der Referenzkarten zeigen jedoch keine externe Stromzufuhr, so dass die Karten deutlich weniger als die 75 Watt aufnehmen dürften, welche der PCI-Express-Bus zur Verfügung stellt. Dafür ist nun in den Spezifikationen auch DirectX 10.1 genannt, was der Chiphersteller auch bei seinen neuen Notebook-GPUs unterstützt. Bei der Vorstellung der mobilen Grafikprozessoren hatte Nvidia diese Funktionen nicht besonders herausgestellt, weil AMD sie schon seit zwei Jahren anbietet.

Quelle : www.golem.de (http://www.golem.de)
Titel: ATI - Radeon HD 4770 X2 möglich
Beitrag von: SiLæncer am 10 Juli, 2009, 13:42
Laut AMDs Marketing Manager Patrick Moorhead ist eine ATI Radeon HD 4770 X2 eine großartige Idee, doch die Umsetzung und Markteinführung läge in der Verantwortung der ATI-Partner. Laut XbitLabs wäre eine solche Karte ungefähr auf dem Niveau einer Sapphire Radeon HD 4850 X2, sollte aber wesentlich billiger herzustellen sein.

Das einzige Problem dürfte jedoch die Knappheit an funktionierenden Rv740-Grafikchips für die Radeon HD 4770 sein, von denen eine Radeon HD 4770 X2 sogar zwei benötigen würde. Angeblich soll dieser Lieferengpass aufgrund der Fortschritte bei der Herstellung im August behoben werden.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: DirectX-11-Karten - ATI vermutlich Anfang Oktober
Beitrag von: SiLæncer am 11 Juli, 2009, 13:22
Wie Fudzilla meldet, wird ATI erst im August die Entwicklung des als RV870 bekannten DirectX-11-Grafikchips fertigstellen. Dies hätten "gut informierte Quellen" bestätigt. Die Massenproduktion soll Ende des dritten Quartals, also in etwa Ende September, startet, so dass die Karten im Handel dann Anfang bis Mitte Oktober zu finden sein könnten.

Nach wie vor sieht es so aus, als ob ATI damit einen deutlichen Vorsprung vor Nvidia haben wird. Deren GT300 wird erst Ende des 4. Quartals erwartet – oder noch später.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: ATI - DX11-Karten erst im November?
Beitrag von: SiLæncer am 19 Juli, 2009, 16:46
Wie ATI-Forum meldet, haben "industrienahe Quellen" verlautet lassen, dass ATI die Verfügbarkeit seiner neuen Karten mit seinem DirectX-11-Grafikchip RV870 auf November verschoben haben soll.

Grund dafür sei hauptsächlich die Ausbeute bei der Produktion durch den Auftragshersteller TSMC, die trotz Verbesserungen nach wie vor nicht besonders gut ausfallen soll. ATI-Forum geht jedoch davon aus, dass ATI die Karten dennoch im Oktober vorstellen wird, obwohl sie zu diesem Zeitpunkt noch nicht erhältlich sein werden.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Grafik-Gerüchte: AMD enthüllt die DirectX-11-GPUs schon im September
Beitrag von: SiLæncer am 23 Juli, 2009, 18:39
Wenige Monate vor der Vorstellung der ersten DirectX-11-Chips von AMD und Nvidia brodelt es in der Gerüchteküche ganz gewaltig. Derzeit scheint zumindest klar, dass der Chiphersteller AMD wohl einige Wochen, wenn nicht sogar Monate vor Nvidia einen DirectX-11-kompatiblen Grafikchip in den Handel bringen wird. Bright Side of News (BSN) will nun gar erfahren haben, dass AMD die neuen Chips wohl bereits am 10. September in San Francisco offiziell vorstellen wird – an einem, wie es heißt, "ganz speziellen Ort". Über diesen schweigt sich BSN jedoch aus. Im Gespräch mit heise online berief sich BSN-Chefredakteur Theo Valich auf Quellen in der amerikanischen Führungsriege des Chipherstellers. AMD Deutschland wollte auf Anfrage diesbezüglich keine Stellungnahme abgeben.

Wann die ersten DirectX-11-fähigen Karten jedoch tatsächlich in den Verkaufsregalen auftauchen, ist weiter ungewiss. Schließlich scheint die Ausbeute an funktionierenden, mit 40-Nanometer-Strukturen hergestellten RV870-Grafikchips des taiwanischen Auftragsfertigers TSMC noch nicht befriedigend zu sein. Einige Webseiten rechnen daher nicht vor November mit einer breiten Verfügbarkeit. Andere Quellen gehen von einem Hardlaunch erster Performance-Karten bereits Ende September aus. Dann wären erste DirectX-11-Karten bereits vor dem Windows-7-Verkaufsstart am 22. Oktober verfügbar.

Zudem will der britische Inquirer die Codenamen der kompletten DX11-GPU-Linie von AMD erfahren haben. So sollen die Chips der Einsteigerkarten Hemlock, die des Mainstream Cedar und Redwood und im Performance- und High-End-Segment Juniper beziehungsweise Cypress heißen. Die ersten DirectX-11-Mobilchips für Notebooks sind laut Xbitlabs, die AMDs Präsident und CEO Dirk Meyer zitieren, die nicht vor dem ersten Halbjahr 2010 zu erwarten.

Quelle : www.heise.de (http://www.heise.de)
Titel: Nvidia - Neuer GT230 im Winter?
Beitrag von: SiLæncer am 25 Juli, 2009, 19:17
Wie Guru3D meldet, soll Nvidia für November oder Dezember dieses Jahres den 40nm-Grafikchip GT230 planen, der für den Mainstream-Bereich gedacht ist und angeblich GDDR3 und GDDR5 als Grafikspeicher verwenden kann. Die Anzahl der Stream-Prozessoren ist allerdings noch nicht bekannt.

Auch ist unklar, ob es sich um einen DirectX-11-Chip handelt oder nicht. Es würde jedoch wenig Sinn machen, Wochen nach dem Verkaufsstart von Windows 7 noch einen neuen DirectX-10-Chip zu veröffentlichen, so Guru3D. Es könnte sich aber auch einfach nur um eine dann sehr günstige DirectX-10-Karte handeln.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: GeForce GTS 240: Alter Bekannter, aufgehübscht für den OEM-Markt
Beitrag von: SiLæncer am 25 Juli, 2009, 19:36
Die Liste ausschließlich für den OEM-Markt bestimmter Grafikkarten hat Nvidia um die "neue" GeForce GTS 240 erweitert. Auf der auch für aktuelle Spiele noch ausreichend schnellen Grafikkarte werkelt der G92b-Grafikchip (55nm, 675 MHz) mit 112 Shader-Rechenkernen (1620 MHz) – ein alter Bekannter, der in 65-Nanometer-Bauform bereits in der GeForce-8-Serie zum Einsatz kam. Der 1 GByte große GDDR3-Arbeitsspeicher arbeitet mit 1100 MHz und ist mit 256 Datenleitungen angebunden (Datentransferrate: 70,4 GByte/s). Bis zu 120 Watt zieht die GeForce GTS 240 laut Nvidia aus dem Netzteil und ist daher auf den zusätzlichen sechspoligen Stromanschluss angewiesen. Maximal zwei Karten lassen sich via SLI parallel betreiben.

(http://www.heise.de/bilderstrecke/bild/672/0)

Die knapp 23 Zentimeter lange Grafikkarte belegt durch ihre flache Kühlkonstruktion nur einen Gehäusesteckplatz. Displays bindet sie über zwei Dual-Link-fähige DVI-Anschlüsse mit bis zu 2560 × 1600 Bildpunkten an. Auch ein TV-Ausgang findet sich am Slotblech.

Bis auf leicht erhöhte Chip- und Speichertaktfrequenzen gleicht die GeForce GTS 240 also einer GeForce 9800 GT (600/1500/900 MHz). Damit ist die OEM-Karte auch nur zu DirectX 10.0 kompatibel – und nicht wie die kürzlich vorgestellten GeForce-G210- und GT220-Modelle zu DirectX 10.1, deren GPUs außerdem mit 40-Nanometer-Strukturen gefertigt werden. Erste Komplettsysteme mit GeForce GTS 240 sind bereits gelistet.

Quelle : www.heise.de (http://www.heise.de)
Titel: Nvidia GT300-Prototyp ist fertig
Beitrag von: SiLæncer am 30 Juli, 2009, 19:53
Wie SemiAccurate meldet (http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/), hat derDirectX-11-Chip GT300 von Nvidia das »Tape Out« hinter sich und ist damit sozusagen fertiggestellt. Nun kann der eigentliche Ablauf der Produktion und des Testens der ersten Chips beginnen. Dies soll allerdings ungefähr 10 Wochen dauern, die eigentliche Produktion der Chips und Karten weitere 12 Wochen, so dass die ersten, kleineren Lieferungen laut SemiAccurate nicht vor Mitte Dezember möglich sind.

Selbst das soll jedoch sehr unwahrscheinlich sein, da Nvidia schon bei kleineren 40nm-Chips Probleme habe, man also bei einem vier Mal so großen Chip ebenfalls mit Schwierigkeiten rechnen müsse. Ein neuer Testlauf würde weitere acht Wochen Verzögerung bedeuten und die Karten bereits in den Februar verschieben.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Radeon HD 4890 mit 2 GByte von Powercolor
Beitrag von: SiLæncer am 03 August, 2009, 10:47
Neben Sapphire bietet nun auch Tul/Powercolor eine Radeon-HD-4890-Grafikkarte mit 2 GByte GDDR5-Speicher. Die Powercolor PCS+ HD4890 kommt dabei mit von Hause aus übertaktetem Grafikchip.

Laut Tul-Ankündigung wird der RV790-Grafikchip auf der Powercolor PCS+ HD4890 mit 900 MHz statt den üblichen 850 GHz getaktet. Die 2 GByte GDDR5-Speicher laufen mit 1.000 MHz statt 975 MHz. Zum Vergleich: Sapphires HD 4890 Vapor-X 2GB arbeitet mit 870-MHz-GPU-Takt und 1.050 MHz GDDR5-Takt.

Das Speicherplus bringt laut Tul beispielsweise etwas in Grand Theft Auto 4. Das Spiel braucht bei 1.920 x 1.080 Pixeln mit hohem Detailgrad und maximaler Sichtweite 1,6 GByte Grafikspeicher.

(http://scr3.golem.de/screenshots/0908/radeon-hd-4890-2gb/thumb480/GrandTheftAuto4.jpg)

Tul verspricht, dass der verwendete aktive Kühler von ZEROtherm die Grafikkartentemperatur niedrig hält und dennoch einen geringen Geräuschpegel aufweist. Dem kleinen Produktbild nach zu urteilen bleibt die aufgeheizte Luft aber im Gehäuse und wird nicht - wie etwa bei Sapphire - aus dem Gehäuse gepustet.

Die PCI-Express-2.0-Grafikkarte Powercolor PCS+ HD4890 bietet drei Videoausgänge: Dual-Link-DVI, HDMI und VGA. Die im Juli 2009 vorgestellte Konkurrentin von Sapphire bietet zusätzlich noch einen Displayport.

Ab wann die neue Grafikkarte in Europa verfügbar sein und was sie kosten wird, wurde noch nicht angeben. Die Sapphire HD 4890 Vapor-X 2GB wird im deutschen Handel bereits für unter 230 Euro als lieferbar gelistet.

Quelle : www.golem.de (http://www.golem.de)
Titel: Nvidias GT300 soll noch 2009 kommen, danach vier Varianten
Beitrag von: SiLæncer am 06 August, 2009, 17:03
Aus den üblichen Quellen sprudeln wieder einmal die Gerüchte um Nvidias nächste GPU-Generation. Der Nachfolger der Grafikprozessoren, die auf Karten der Serie GTX-200 zum Einsatz kommen, soll derzeit in ersten Mustern produziert werden. Davon ausgehend sollen vier Varianten entwickelt werden.

Während sich AMD mit dem Versprechen, als erster Hersteller DirectX-11-Karten liefern zu können, weit aus dem Fenster lehnt, schweigt Nvidia beharrlich zu seiner nächsten Chipgeneration. Die US-Site SemiAccurate will wieder einmal als erste erfahren haben, dass die GPU mit dem Codenamen "GT300" bereits in der vergangenen Woche ihr "tape out" erreicht hat. Damit ist ein Chip in der ersten produktionsfähigen Version fertiggestellt.

Das Die des GT300 soll nach den Informationen aus nicht genannten Quellen bei 40 Nanometern Strukturbreite rund 530 Quadratmillimeter groß sein. Das wäre nur wenig kleiner als die 576 Quadratmillimeter des ersten GT200, der mit 65-Nanometer-Strukturen gebaut wurde. Später wechselte Nvidia auf 55-Nanometer-Technik, was das Die auf rund 420 Quadratmillimeter schrumpfte. Die großen Chips brachten Nvidia vor allem von Analysten Kritik ein, weil sie die Produktionskosten in die Höhe treiben. Vom ersten GT200 passten nur rund 80 Exemplare auf einen 300-Millimeter-Wafer.

Mit dem neuen Design des GT300 fühlt sich Nvidia aber offenbar sehr wohl, denn auf Basis des ersten Chips sollen gleich vier Ableger erscheinen. Bisher stellte Nvidia maximal zwei der drei Varianten derselben GPU vor, wenn man von Klassifizierungen nach Taktfrequenzen absieht. Bei diesen Varianten wurde, beispielsweise bei der GTX-260 gegenüber der GTX-280, meist ein Teil der Stream-Prozessoren abgeschaltet. Zuerst erscheint traditionell das High-End-Modell.

SemiAccurate zufolge könnten die ersten GT300-Karten schon im Oktober 2009 erscheinen. Das gilt aber nur, wenn im Design keine schweren Bugs lauern und der Produktionsprozess mit 40-Nanometer-Technik bei TSMC endlich auf nennenswerte Stückzahlen kommt. Vielleicht hält sich Nvidia mit offiziellen Aussagen auch deshalb im Moment so zurück, weil man AMD auf der Zielgeraden noch abfangen will.

Quelle : www.golem.de (http://www.golem.de)
Titel: Weg frei für Nvidias SLI auf neuen Intel P55-Boards
Beitrag von: SiLæncer am 11 August, 2009, 17:48
Nvidia und Intel haben sich offenbar im Ringen um die Unterstützung für die Multi-GPU-Technologie SLI geeinigt. Wie Nvidia mitteilte, hat man mit Intel und diversen Mainboard-Herstellern Abkommen über die Lizenzierung von SLI geschlossen.

Auch künftig kann das so genannte "Scalable Link Interface" (SLI) auf den Mainboards von Firmen wie ASUS, Gigabyte und MSI für Intel-Prozessoren verwendet werden. Mit SLI lassen sich zwei oder noch mehr Grafikkarten im Verbund betreiben, was vor allem bei High-End Spielesystemen üblich ist.

Im Rahmen der Einigung kann Intel die mit dem P55-Chipsatz ausgestatteten Mainboards für die neuen Core i5 und i7 Prozessoren mit SLI-Unterstützung versehen. Die Intel Core i5-CPUs sind noch nicht auf dem Markt, weshalb Nvidia das neue Abkommen als großen Erfolg feiert. Bisher wurde über die SLI-Unterstützung immer erst nach der Einführung neuer CPUs verhandelt.

Intel will seine P55-Mainboards mit SLI-Unterstützung rechtzeitig zur Einführung von Windows 7 im Herbst im Handel verfügbar machen. SLI wird natürlich auch von Mainboards für Prozessoren des Intel-Konkurrenten AMD unterstützt. Die jüngste Einigung hat mit dem Streit um die Lizenzen zur Fertigung von Chipsätzen für Nehalem-CPUs nichts zu tun.

Quelle : http://winfuture.de (http://winfuture.de)
Titel: ATI - Radeon HD 5800-Serie mit Eyefinity
Beitrag von: SiLæncer am 24 August, 2009, 14:06
Laut VR-Zone hat AMD seine Partner darüber informiert, dass die DirectX-11-Karten tatsächlich den vermuten Namen ATI Radeon HD 5800 tragen werden.

Die Hauptpunkte der neuen Karten seien 1 GByte GDDR5-Speicher, ATI Eyefinity zum Anschluss von bis zu drei Monitoren gleichzeitig, ATI Stream, DirectCompute 5.0 und OpenCL, Accelerated Video Transcoding (AVT), Open GL 3.1, CrossfireX, Avivo HD, dynamisches Powermanagement mit Powerplay, 2x Duallink-DVI, Displayport und HDMI. Es handelt sich natürlich um PCI-Express-2.0-Karten.

Quelle : www.gamestar.de
Titel: ATI Radeon HD 5870 X2 Ende 2009
Beitrag von: SiLæncer am 02 September, 2009, 21:13
Die Dual-GPU-Variante der neuen DirectX-11-Grafikkarten von ATI wird vermutlich etwas später erscheinen als die restlichen Karten. Die X2-Karte soll den Codenamen »Hemlock« tragen und wird wahrscheinlich als Radeon HD 5870 X2 verkauft.

Die technischen Daten will AMD erst kurz vor dem Erscheinungstermin festlegen, einzig 2 GByte GDDR5-Grafikspeicher scheinen relativ gesichert. Damit wird AMD nach bisherigen Informationen fünf verschiedene DirectX-11-Karten anbieten, von denen die X2-Karte das Top-Modell darstellt.

Quelle : www.gamestar.de
Titel: Neue AMD-Grafikkarten mit ausgefeilter Multi-Display-Technik
Beitrag von: SiLæncer am 11 September, 2009, 12:06
AMDs Grafiktochter ATI rüstet ihre neue Radeon HD 5800-Serie mit einer neuen Technologie namens Eyefinity aus, mit der eine einzelne Grafikkarte mit bis zu sechs DisplayPort-Anschlüssen versehen werden kann. Auf diese Weise kann man bis zu sechs Displays an einer Karte betreiben.

Mit Eyefinity lassen sich die sechs Ausgänge auch mit einem einzigen großen Bild ansprechen, das, die entsprechende Leistung der Grafikkarten vorausgesetzt, bis zu 8192 x 8192 Pixel haben kann. Mit aktuellen Grafikchips lassen sich sechs Displays mit einer Auflösung von 2560 x 1600 Pixeln zu einem Paket verschnüren, das dann eine Auflösung von 7680 x 3200 Pixeln bietet.

(http://scr3.golem.de/screenshots/0909/Eyefinity/thumb480/Battleforge-auf-6-Monitoren.jpg)

Eyefinity ist modular aufgebaut, der Anwender kann also die einzelnen Displays nach Bedarf unterschiedlich anordnen, um zum Beispiel mit einer einzelnen Grafikkarte drei Displays nebeneinander mit einem durchgehenden Bild zu versorgen, oder drei über einander angeordnete Displays mit einem Bild im Porträt-Modus anzusteuern.

AMD/ATI sieht das Hauptanwendungsgebiet von Eyefinity im professionellen Bereich, doch auch für Spiele soll die Technik nutzbar sein. Ein Spieler könnte so entweder ein großes Panorama-Bild nutzen, oder einfach nur extrem viele Details anzeigen lassen. Die jetzt von ATI gezeigten Karten konnten bereits die meisten Spiele ohne nennenswerte Detail- oder Geschwindigkeitsverluste per Eyefinity auf mehrere Displays verteilt anzeigen.

Der Displayhersteller Samsung arbeitet derzeit bereits an LCDs, die für den Eyefinity-Betrieb vorbereitet sind. AMD wird die ATI Radeon HD 5850 und 5870 wahrscheinlich noch in diesem Monat offiziell vorstellen und auf den Markt bringen. Die neue Grafikkartenserie soll das obere Ende von ATIs Produktportfolio bilden.

Quelle : http://winfuture.de
Titel: ATI - DirectX-11-Flaggschiff verzögert sich
Beitrag von: SiLæncer am 12 September, 2009, 19:55
Wie Fudzilla (http://www.fudzilla.com/content/view/15435/1/) meldet, soll das Flaggschiff der neuen DirectX-11-Grafikkarten von ATI erst Ende Oktober auf den Markt kommen. Während die Markteinführung der neuen Generation für den 22. und 23. September geplant ist, verzögert sich die X2-Version anscheinend aufgrund von Treiberproblemen und Problemen mit der Platine.

Die Verzögerung soll aber nichts mit den Grafikchips der Radeon HD 5870 X2 zu tun haben. Ebenfalls im Oktober sollen kleinere Karten wie die Radeon HD 5770 und 5750 erscheinen.

Quelle : www.gamestar.de
Titel: ATI Radeon HD 5700 in Kürze, 5870 X2 im November
Beitrag von: SiLæncer am 15 September, 2009, 10:21
AMDs Grafiktochter ATI bereitet derzeit die Einführung ihrer neuen Radeon HD 5000-Serie vor. Anfangs kommen die High-End-Modelle ATI Radeon HD 5850 und 5870 auf den Markt, später sollen dann diverse weitere Karten folgen.

Die offizielle Vorstellung der Modelle der oberen Preisklasse erfolgt nach Angaben des taiwanischen Branchendienstes 'DigiTimes' am 22. September 2009. Im Oktober ist die Einführung der Radeon HD 5700-Reihe geplant, die dann in den Varianten 5750 und 5770 auf den Markt kommen sollen.

Im November will AMD dann im Endspurt des Weihnachtsgeschäfts noch einmal auftrumpfen und wird die ATI Radeon HD 5870 X2 auf den Markt bringen, bei der zwei Grafikprozessoren verbaut sind. Zusätzlich will AMD auch eine ATI Mobility Radeon HD 5000-Reihe einführen.

Diese wird angeblich aus den Serien 5400, 5600, 5700 und 5800 bestehen, die jeweils die gesamte Bandbreite von Einsteiger-Notebooks bis hin zu High-End Desktop-Ersatz-Geräten abdecken sollen. AMD wird die neuen Grafikkarten auch in sein neues "Vision"-Stufensystem aufnehmen, das den Kunden die Wahl eines für sie passenden Rechners erleichtern soll.

Quelle : http://winfuture.de
Titel: Nvidia offenbar mit großen Problemen bei DirectX 11 Grafikkarten
Beitrag von: SiLæncer am 16 September, 2009, 13:20
Nvidia arbeitet derzeit mit Hochdruck an der Entwicklung des neuen GT300-Grafikchips. Dieser soll in den kommenden DirectX-11-Grafikkarten des Unternehmens zum Einsatz kommen. Doch die Markteinführung könnte sich erheblich verzögern.

So hat Nvidia die ersten Exemplare des neuen Chips fertigen lassen. Diese erste Testreihe soll dazu dienen, Fehler zu entdecken und anschließend zu beheben. Normalerweise sind rund 50 Prozent der produzierten Hardware für diese Tests brauchbar - es können jedoch auch 20 Prozent sein, vor allem wenn man auf ein neues Fertigungsverfahren setzt, wie es Nvidia derzeit tut.

Doch die Zahlen, die von der Webseite 'SemiAccurate' gemeldet werden, sind alles andere als gut. Demnach hat man aus den ersten vier Wafern zusammen 416 Chips produzieren lassen. Darunter sollen sich lediglich sieben brauchbare Exemplare befinden. Die Ausbeute würde also lediglich 1,7 Prozent betragen.

Ob Nvidia mit so wenigen Exemplaren überhaupt Tests und Fehlerbereinigungen im notwendigen Umfang durchführen kann, wird in Frage gestellt. Dies würde zur Folge haben, dass sich die Markteinführung der DirectX-11-Grafikkarten deutlich nach hinten verschiebt.

Quelle : http://winfuture.de
Titel: Radeon HD 5800: Die ersten DirectX-11-Grafikkarten sind da
Beitrag von: SiLæncer am 23 September, 2009, 08:25
AMD stellt die Radeon-HD-5800-Serie offiziell vor und lüftet damit das Geheimnis der ersten zu DirectX 11 kompatiblen Grafikkarten. Die rund 350 Euro teure Radeon HD 5870 ist doppelt so schnell wie die Vorgängerkarte Radeon HD 4870, deutlich sparsamer im Desktop-Betrieb und kann in der sogenannten Eyefinity-Spezialversion bis zu sechs Displays parallel ansteuern. 100 Euro billiger ist die rund 10 Prozent langsamere Radeon HD 5850, die ebenfalls Ende September in den Händlerregalen stehen soll.

(http://www.heise.de/bilder/145716/0/0)

In den Spielen Crysis und Stalker Clear Sky ist die Radeon HD 5870 bis zu 60 Prozent flotter als Nvidias GeForce GTX 285 – die bis dato schnellste Single-GPU-Grafikkarte. Doch der Vorsprung der Radeon HD 5870 ist auch abhängig vom jeweiligen Spiel: In World in Conflict beträgt er beispielsweise lediglich 10 Prozent. Bei der Arcade-Flugsimulation HAWX, die besser auf GeForce-Grafikkarten läuft, ist die GTX 285 bei vierfachem Antialiasing und sechzehnfachem anisotropen Filter bis zur Auflösung 1920 × 1080 etwas schneller. An Nvidias Dual-GPU-Grafikkarte GeForce GTX 295 kommt die Radeon HD 5870 jedoch nur selten heran. Ausführliche Benchmarks finden sich in c’t 21/09.

(http://www.heise.de/bilder/145716/3/0)

In der theoretischen Rechenleistung ist die Radeon HD 5870 mit 2,7 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit und 544 GFlops bei doppelter Genauigkeit mehr als doppelt so leistungsfähig wie eine Radeon HD 4870 (1,2 TFlops/240 GFlops) und überflügelt hier selbst bisherige Dual-GPU-Grafikkarten mit Leichtigkeit. Dafür sorgt der neue RV870-Grafikchip (40 nm), der aus 2,15 Milliarden Transistoren besteht und in dem insgesamt 1600 Shader-Rechenkerne arbeiten. Diese sind in 20 SIMD-Einheiten zu je 16 Recheneinheiten à fünf Kernen angeordnet. Am SIMD-Layout hat AMD im Vergleich zur HD-4800er-Serie prinzipiell also nichts geändert, sondern lediglich die Anzahl der Einheiten verdoppelt. Die Shader-Rechenkerne arbeiten bei einigen Rechenoperationen effizienter als ihre Vorgänger und beherrschen auch die von der DirectX-11-Spezifikation geforderten bitweisen Operationen wie count, insert und extract, die beispielsweise bei Videobearbeitung und Kryptographie häufig vorkommen. Summen absoluter Differenzen sollen sich nun bis zu zwölfmal schneller berechnen lassen. Die billigere Radeon HD 5850 ist um zwei SIMD-Einheiten beschnitten und besitzt damit 160 Shader-Kerne und 8 Textureinheiten weniger. Auch Grafikchip und -Speicher laufen mit 725 beziehungsweise 1000 MHz etwas langsamer als bei der Radeon HD 5870 (850/1200 MHz).

Bei der Radeon HD 5870 ist an jede SIMD-Einheit wie schon bei der Radeon HD 4870 ein Cluster mit vier Textureinheiten (TMUs) gekoppelt, sodass insgesamt 80 davon zur Verfügung stehen. Texturen werden nun bis zu einer Kantenlänge von 16384 Pixeln unterstützt. Massiv verbessert hat AMD die anisotrope Texturfilterung: Diese arbeitet nun winkelunabhängig, liefert daher eine bessere Bildqualität und soll trotzdem so schnell sein wie der AF-Algorithmus der Vorgängerversion. Auch die Zahl der beispielsweise für die Kantenglättung wichtigen Rasterendstufen (ROPs) hat sich bei der Radeon HD 5870 auf 32 verdoppelt, sodass sich pro Takt nun 32 Pixel berechnen lassen. Durch einen zusätzlichen Readback-Pfad können die Textureinheiten nun direkt komprimierte Antialiasing-Farbwerte auslesen, was die Leistung beim Custom-Filter-Antialiasing laut AMD erhöhen soll. Im Treiber stellt AMD nun auch einen Schalter für Supersampling-Antialiasing zur Verfügung.

(http://www.heise.de/bilder/145716/2/0)

Der GDDR5-Speicher fasst im Referenzdesign 1 GByte an Daten und ist weiterhin über vier Speichercontroller mit insgesamt 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 1200 MHz erreicht die Radeon HD 5870 einen rund ein Drittel höheren Datendurchsatz (153,6 GByte/s) im Vergleich zur Radeon HD 4870. Jeder Speichercontroller ist mit einem L2-Cache verbunden, dessen Kapazität auf je 128 KByte verdoppelt wurde. Die fest verdrahtete Tessellation-Einheit erfüllt in ihrer sechsten Generation die DirectX-11-Anforderungen. Mit ihr lassen sich die geometrischen Details von 3D-Objekten automatisch und ohne große Leistungseinbußen verfeinern. Dadurch steigt die Detailqualität bei Spielen, die dieses Feature unterstützen, enorm. Bei der Wiedergabe von Blu-ray-Videos entlastet die verbesserte UVD2-Videoeinheit weiterhin den Hauptprozessor und dekodiert bis zu zwei Videoströme für die Bild-in-Bild-Funktion. Neu ist nun, dass der zweite Strom auch im HD-Format 1080p vorliegen kann. Hinzugekommen ist laut AMD außerdem die Möglichkeit, TrueHD und DTS-HD als Bitstream auszugeben.

(http://www.heise.de/bilder/145716/4/0)

Beeindruckend ist die vergleichsweise geringe Leistungsaufnahme der neuen High-End-Grafikkarten. AMD spricht von rund 27 Watt im Leerlauf, was für beide vorgestellten Modelle gelten soll. Unser Testexemplar der Radeon HD 5870 verbrauchte gar nur 19 Watt – und damit nur rund ein Drittel einer Radeon HD 4870 und auch weniger als Nvidias GeForce GTX 285 (rund 30 Watt). Auch die Geräuschentwicklung ist mit 0,6 Sone gut. Beim Spielen zieht die Radeon HD 5870 durchschnittlich 119 Watt. Die Höchstbelastung lag in unseren Messungen bei 198 Watt; 10 Watt mehr als AMD als TDP-Wert angibt. Der mit zirka 2000 U/min drehende Lüfter ist dann mit 1,2 Sone auch aus dem geschlossenen Gehäuse noch wahrnehmbar. Nach einem längeren Furmark-Stabilitätstest kletterte der Wert sogar auf sehr störende 3,2 Sone. In der Praxis kommt das jedoch eher selten vor. Der Grafikchip erreichte während all unserer Tests nie mehr als 80 °C. Die 28 Zentimeter lange Karte wird durch zwei sechspolige Stromanschlüsse versorgt und belegt durch das umfangreiche Kühlsystem zwei Gehäusesteckplätze.

(http://www.heise.de/bilder/145716/1/0)

Bisher konnten Single-GPU-Grafikkarten zumeist nur zwei Bildschirme gleichzeitig ansteuern, auch wenn teilweise viel mehr Anschlüsse an der Slotblende verfügbar waren. Die Radeon HD 5870 bindet nun bis zu drei Displays mit maximal je 2560 × 1600 Bildpunkten an, die Eyefinity-Spezialversion sogar bis zu sechs via DisplayPort. Dabei kann man den Desktopinhalt auf die jeweiligen Monitore erweitern oder auch duplizieren. Was auf welchem Display ausgegeben wird, konfiguriert man im Catalyst-Treiber. So lassen sich auch Spiele in extrem hohen Auflösungen wie 5760 × 2160 darstellen. Rund 80 Titel zählt AMD auf, die zur Eyefinity-Technik kompatibel sind, unter anderem Call of Juarez 2, Fallout 3 und den Microsoft Flight Simulator X.

Mit Stalker: Call of Pripyat und Dirt 2 sollen noch in diesem Jahr Spiele erscheinen, die optionale DirectX-11-Effekte bieten. Das bereits erhältliche Echtzeit-Strategiespiel Battleforge zieht über ein offizielles Update Vorteile aus DirectX 11 und soll etwas schneller laufen. Mit Alien vs. Predator kündigt sich noch ein Top-Titel mit hochdetaillierten Charaktermodellen zum Anfang des nächsten Jahres an. Ob das Spiel auch in Deutschland verkauft wird, ist wegen der Gewaltdarstellung noch unklar. Der im kommenden Jahr erwartete Teil der Battlefield-Serie unterstützt DirectX 11 von Haus aus. Auch Dungeons and Dragons Online (Eberron Unlimited) sowie Lord of the Rings Online bringen einen DirectX-11-Renderpfad mit.

(http://www.heise.de/bilder/145716/5/0)

Die Radeon HD 5870 und 5850 sollen ab Ende September für 350 beziehungsweise 250 Euro erhältlich sein. Bereits im Oktober werden auch die ersten Mittelklassegrafikkarten (Radeon HD 5770) erwartet, die wohl für um die 150 Euro über die Ladentheken gehen. Auch ein High-End-Modell mit zwei Grafikchips, die Radeon HD 5870 X2, ist laut AMD in Planung und soll noch in diesem Jahr erscheinen. Vom Konkurrenten Nvidia ist zumindest in den nächsten Monaten keinerlei DirectX-11-fähige Grafik-Hardware zu erwarten.

Quelle : www.heise.de
Titel: Radeon HD 5850 ab 200 Euro gelistet
Beitrag von: SiLæncer am 25 September, 2009, 07:19
Die gestern vorgestellten DirectX-11-Grafikkarten Radeon HD 5870 und Radeon HD 5850 lassen wohl noch etwas auf sich warten. Während AMD von einer Verfügbarkeit ab Ende September sprach, rechnen die Boardpartner hinsichtlich der Radeon HD 5870 nicht vor Anfang Oktober mit im Handel befindlichen Karten. Und die Radeon HD 5850 dürfte wohl nicht vor Mitte Oktober in großen Stückzahlen zu sehen sein.

In den Preissuchmaschinen finden sich derzeit unter anderem die Modelle von Asus, Club3D, Gigabyte, MSI, Powercolor, Sapphire und XFX. Dabei sind HD-5850-Modelle ab 200 Euro und die Radeon HD 5870 ab rund 290 Euro gelistet. Letztere ist damit ungefähr so teuer wie die in manchen Spielen deutlich langsamere GeForce GTX 285. Nvidia müsste demnach die Preise der GeForce-Topmodelle kräftig senken, um hinsichtlich des Preis-Leistungs-Faktors konkurrenzfähig zu bleiben. Eine Radeon HD 5870 ist ungefähr doppelt so schnell wie die Vorgängerkarte Radeon HD 4870 und steuert in der sogenannten Eyefinity-Version bis zu sechs Displays parallel an.

Die nachfolgenden fünf Videos wurden während der offiziellen Präsentation der HD-5000-Serie aufgenommen und zeigen unter anderem einige der mit DirectX 11 möglichen Effekte wie Tessellation und Depth of Field. Crytek präsentierte zudem die PC-Version der Cryengine 3, die über drei Monitore verteilt ruckelfrei lief. AMD führte schließlich vor, wie sich der Windows-Desktop an sechs über eine HD-5870-Grafikkarte angeschlossene Monitore zuweisen lässt.

Quelle und Videos : http://www.heise.de/newsticker/Radeon-HD-5850-ab-200-Euro-gelistet--/meldung/145857
Titel: Radeon HD 5870 X2 - Konkurrenz für Geforce GTX-295
Beitrag von: SiLæncer am 27 September, 2009, 15:49
Für Ende 2009 sind laut einer chinesischen Website Radeon-HD-5870-X2-Grafikkarten mit zwei Grafikchips zu erwarten. Während einer DirectX-11-Veranstaltung soll AMD ein erstes Muster in Aktion gezeigt haben.

Bereits mit der Radeon HD 5870 kann AMD alle bisherigen Single-GPU-Lösungen übertrumpfen, wie unter anderem der 5870-Test von Golem.de gezeigt hat (http://www.golem.de/0909/70001.html). Zudem handelt es sich um die ersten DirectX-11-kompatiblen Grafikkarten.

Um den Doppel-GPU-Grafikkarten mit Nvidia Geforce GTX-295 etwas entgegen setzen zu können, wird AMD laut Enet zum Jahresende noch eine X2-Variante mit zwei RV870-Grafikchips ("Cypress") auf einer Platine auf den Markt bringen - mit zusätzlicher Stromversorgung über das PC-Netzteil, wie es auch bei den X2-Karten der 3000er und 4000er Serien der Fall ist.

Auf einer DirectX11-Veranstaltung zeigte AMD Enet zu Folge erstmals eine Radeon HD 5870 X2 in Aktion. Eine mit 1.920 x 1.200 Bildpunkten ohne Kantenglättung laufende aufwendige Cryengine-3-Techdemo soll sehr flüssig gelaufen sein.

Die Radeon HD 5870 X2 trägt den Codenamen Hemlock und soll im vierten Quartal 2009 für unter 500 US-Dollar auf den Markt kommen, zitiert Enet aus einer AMD-Roadmap. Enet hat Fotos von der 5870 X2 (http://www.enet.com.cn/article/2009/0923/A20090923541550.shtml) veröffentlicht.

Quelle : www.golem.de
Titel: GTC: Nvidias enthüllt die Architektur der nächsten GPU-Generation
Beitrag von: SiLæncer am 30 September, 2009, 22:25
Auf der ab heute in San Jose tagenden dreitägigen GPU Tech Conference stellt Nvidia die neue G(F)300-Architektur für DirecX11, OpenGl 3.1, OpenCl 1.1 und Cuda 3.0 vor. Es soll ein gigantischer 3-Milliarden-Transistor-Chip werden (TSMC 40 nm), der die 2,15 Milliarden von AMD/ATI (und die 2,05 Milliarden von Intel Tukwila) allein schon bezüglich Transistormenge in den Schatten stellt.

Anders als Konkurrent AMD/ATI hat Nvidia nicht nur die Zahl der Recheneinheiten mehr als verdoppelt, sondern auch die Architektur komplett umgekrempelt. Insbesondere für den Betrieb als Numbercruncher im High Performance Computing brachte Nvidia zahlreiche Verbesserungen ein. Der Tesla-Nachfolger wird unter dem Namen Fermi mit einer Gleitkommaperformance (FMA: GleitkommaMultiplikation and Addition ) für doppeltgenaue Berechnungen (DP) aufwarten, die bei gleichem Takt um mehr als Faktor acht höher ist. Statt einer DP-Einheit pro Stream-Multiprocessor (SM) sind es nun derer vier, wobei die Hardware von zwei mit Single Precision rechnenden Cores (ehemals Streaming Processor genannt) zusammengeschaltet werden. Ein Fermi-Chip enthält 16 SMs (zuvor 30), aber jede SM enthält nun 32 Cores (früher waren es 8 SPs), sodass die Zahl der skalaren SP-Recheneinheiten auf 512 steigt (von 240 zuvor). Konkurrent ATI hat demgegenüber in der neuen RV8xx-Architektur 1600 einzelne SP-Recheneinheiten, die zu fünft zu 320 SIMD-Einheiten zusammengeschaltet sind. Bezogen auf doppeltgenaue FMA-Einheiten sind es jetzt bei Fermi 256 (Tesla: 30) gegenüber AMD/ATI mit 320.

Bei gleichem Takt wie die Tesla C1060 müsste die theoretische Spitzenleistung (FMA) bei 2 Teraflop/s (SP) und 630 GFlop/s (DP) liegen, gegenüber 933 GFlop/s (SP) und 75 GFlop/s (DP) der C1060 und 2,7 Teraflop/s (SP) sowie 544 GFlops/s (DP ) bei AMDs Radeon HD5870. Das sind aber zum Teil reichlich schöngerechnete theroretische Werte (mit drei Flops/SP/Takt bei Nvidia SP, inklusive der Special Function Units), die echte erzielbare SGEMM/DGEMM-Leistung liegt zumeist deutlich darunter.

Wichtiger aber noch als die pure Anzahl von Recheneinheiten ist indes die Fähigkeit, möglichst schnell an die benötigten Daten zu kommen. Dafür bieten die GPUs mehrstufige Konzepte mit Caches, kleinen lokalen gemeinsamen Speichern, schnellen GDDRx-Kartenspeichern über viele Speicherkanäle und mit DMA-Transfer-Einheiten hin zum Hauptspeicher. Hier hat sich bei Nvidia viel geändert.

In der Nvidia-Vorgängerarchitektur G(T)-200 waren drei SMs zu einem Thread-Cluster zusammengeschaltet, der einen kleinen Write-Though-Cache von 24 KByte besaß. Jede SM hatte zudem noch einen gemeinsamen lokalen Speicher von 16 KByte. Nun jedoch teilen sich die SMs einen 768 KByte großen L2-Cache (Write-Back). Jede der 16 SMs enthält Instruktions-Cache, Dekoder, Scheduler, Dispatcher und Registersatz für zwei Pipelines, die die 32 Recheneinheiten, sowie vier Special Function Units (SFU) versorgen. Die SFUs kümmern sich um Inversion-, Inverse-Wurzel-, Logarithmus-, Exponentiation-, Sinus- und Cosinus-Funktionen die weitgehend über Tabellen und quadratische Interpolation voll pipelined berechnet werden.

Hinzu kommt pro SM ein gemeinsamer lokaler Speicher von 64 KByte, der sich ganz oder teilweise auch als L1-Cache konfigurieren lässt, zum Beispiel 48 KByte als gemeinsamer Speicher und 16 KByte als L1-Cache. In dieser Konfiguration soll Radix Sort um Faktor 4,7 schneller laufen als zuvor auf Tesla.

Der Speicher ist über sechs GDDR5-Speicherkanäle (zwei mehr als bei ATI RV8xx) angekoppelt. Satt einer DMA-Engine verfügt die neue Architektur über zwei, die überlappend arbeiten können. Das Adressiermodell wurde von 32 Bit auf 64 Bit (theoretisch, faktisch derzeit auf 40 physische und virtuelle Bits beschränkt) aufgebohrt, um mehr als 4 GByte Speicher ansprechen zu können. Mehr Speicherkapazität war vor allem ein Wunsch aus der HPC-Welt. Ebenso der fehlerkorrigierende ECC-Schutz, um die Zuverlässigkeit des Rechenbeschleunigers zu erhöhen. Nvidia hat für den Speicher, aber auch für die internen Busse und Caches ECC vorgesehen, wird das aber vermutlich nur für die Fermi- aber nicht für die GeForce-Linie nutzen, denn ECC erfordert nicht nur mehr Speicher sondern kostet auch etwas Performance.

Wichtig für die Performance im Rechenbetrieb ist zudem, dass, wie von DirectCompute und OpenCl für Multithreading-Betrieb gefordert, nun auch einzelne Rechenprozeduren (sogenannte Kernels) parallel ausgeführt werden können, wenn ein Kernel nur einen Teil der Hardware-Ressourcen ausnutzt. Ein SM muss immer den gleichen Code ausführen, so dass maximal 16 Kernels gleichzeitig auf Fermi laufen können. Bei ATI ist in den Unterlagen dazu nichts zu finden, aber AMD/ATIs technische Marketing-Leiterin fürs High Performance Computing versicherte gegenüber heise online, dass auch die RV800 mit parallel laufenden Kernels arbeiten kann. Bislang mussten diese hier wie dort einzeln nacheinander ausgeführt werden. Sie werden dabei auf größere Thread-Bündel verteilt (Warps mit 32 Threads bei Nvidia, Wavefronts mit 64 Threads bei ATI). Im Grafikbetrieb sind die Kernels typischerweise groß genug, um die ganze Hardware auszulasten. Nvidias "GigaThread-3.0-Engine" arbeitet zudem mit zwei Warp Schedulers und kann zehnmal schneller den Kontext wechseln als die GT200.

Nvidia änderte auch die Integer-Einheiten, die jetzt volle 32 Bit (zuvor nur 24 Bit) aufweisen. Daher dürften ältere Programme nur bedingt und mit Performanceverlust lauffähig sein, sie sollten mit der neuen CUDA-3.0-Version samt ptx-Assembler neu kompiliert werden. CUDA-3.0 unterstützt jetzt auch C++ (mit kleineren Ausnahmen) mit Objekten und Exception-Handling. Fortran, Java und Python für CUDA sind in Arbeit. Die Hardware kann jetzt auch mit Breakpoints arbeiten, was das Debugging erheblich erleichtert. Ob der neue Debugger Nexus, der sich in Microsofts Visual Studio 2005/8 einklinken kann, auch Disassemblieren soll, wird bei Nvidia derzeit noch diskutiert.

Der Haupt-Unterschied zum Konkurrenten AMD/ATI ist jedoch, dass dieser rechtzeitig zum Windows-7-Start mit DirectX11-fähigen Grafikkarten aufwarten kann, während Nvidia nach eigenen Aussagen mindestens noch bis Jahresende braucht, bis erste Karten verfügbar sind. Wahrscheinlich wird es noch erheblich länger dauern, denn Tapeout des gigantischen Chips war gemäß semiaccurate.com erst Mitte Juli und erfahrungsgemäß dauert es dann meist länger als ein halbes Jahr, bis ausgereifte Produkte auf den Markt kommen können. Da hat AMD/ATI also ein großes Zeitfenster.

Quelle : www.heise.de
Titel: GTC: Nvidia-Chef zeigt erste Fermi-Grafikkarte
Beitrag von: SiLæncer am 01 Oktober, 2009, 10:30
Nvidia-Chef Jen-Hsung Huang hat die GPU Technology Conference im kalifornischen San Jose mit einer knapp zweistündigen Keynote eröffnet, die in HD und 3D-Stereo live ins Netz gestreamt wurde. Dabei stellte Huang unter anderem die Architektur der kommenden Grafikkarten-Generation mit Fermi-Grafikchips vor und präsentierte schließlich auch eine erste Grafikkarte. Zwar kommt Nvidia mit verbesserter Dual-Precision-Leistung und ECC-Schutz bei kommenden Tesla-Grafikkarten besonders den Wünschen der HPC-Welt nach, jedoch sollen auch die GeForce-Abkömmlinge eine deutlich höhere Grafikleistung als die vor kurzem vorgestellten DirectX-11-Grafikkarten der Radeon-HD-4800-Serie von AMD besitzen.

Nvidias Konkurrent punktete bei der Radeon HD 5870 besonders mit einer niedrigen Leistungsaufnahme im Leerlauf. Auf die Frage, wie diese bei Grafikkarten mit dem aus drei Milliarden Transistoren bestehenden Fermi-Chip sei, entgegnete Jen-Hsung Huang, dass deren Leistungsaufnahme ähnlich oder gar geringer als die der derzeiten GeForce-Serie ausfalle. Zur Erinnerung: Eine GeForce GTX 285 benötigt rund 30 Watt im Leerlauf. Für den HPC-Bereich soll es sogar passiv gekühlte Tesla-Modelle geben. Unter Vollast dürften Nvidias kommende GeForce-Grafikkarten jedoch etwas mehr ziehen als die derzeitigen High-End-Modelle der GT200-Serie. Die von Huang präsentierte Karte besitzt immerhin je einen sechs- und einen achtpoligen Stromanschluss, so dass High-End-Fermi-Karten je nach Spezifikation bis zu 300 Watt verheizen könnten.

(http://www.heise.de/bilder/146166/1/1)

Nvidia will den Fermi-Chip vom Low-end- bis ins High-End-Segment einsetzen. Weitere Details zur GeForce-Serie wie beispielsweise finale Taktraten gab der Nvidia-Chef nicht preis. Bis zum Erscheinen der ersten Karten dürften noch "einige kurze Monate" vergehen, zumindest handele es sich um einen Dienstag, scherzte Huang.

Der Nvidia-Chef betonte zudem die Wichtigkeit von Grafikkarten und ihrer im Vergleich zu CPUs gigantischen Rechenleistung, die beispielsweise für die Bereiche der Medizin (etwa der Brustkrebsfrüherkennung) und der Klimaforschung enorme Fortschritte versprechen. Der Nvidia-Chef stellte bereits in zehn Jahren Grafikchips mit einer Rechenleistung von einem Petaflops in Aussicht – soviel wie IBMs Supercomputer Roadrunner, der derzeit die Weltspitze in der Rechenleistung darstellt. Bereits die Fermi-GPU sei ein "Supercomputer mit der Seele eines Grafikchips". In nicht allzu ferner Zukunft erwartet Huang auf Grafikchips basierende Supercomputer, die eine Rechenleistung von 20 Petaflops erreichen können.

Quelle : www.heise.de
Titel: Nvidia - Gezeigte Fermi-Karte war ein Fake
Beitrag von: SiLæncer am 03 Oktober, 2009, 11:37
SemiAccurate (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/) schreibt, dass es eindeutige Belege dafür gibt, dass Nvidia auf seiner GPU-Konferenz nur einen Dummy in die Kameras gehalten hat, aber keine funktionierende Grafikkarte. Eine Großaufnahme des einzeln präsentierten Fermi-Grafikchips zeigt den Datumscode 0935. Der Chip wurde also zwischen dem 28. August und 5. September 2009 hergestellt.

Zusätzlich trägt der Chip neben dem Nvidia-Logo eine handgeschriebene 7. Sowohl das Datum als auch die Zahl Sieben passen exakt zu den Behauptungen (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html), die SemiAccurate im September aufgestellt hat: Nvidia habe eben erst vier Wafer mit den Chips herstellen lassen und von den 416 möglichen Chips gerade einmal sieben brauchbare Exemplare erhalten.

Die Karte selbst zeigte unter anderem Schrauben und Anschlüsse an Stellen, an denen keine sein dürften und der 6-Pin-Stromanschluss sei schlicht aufgeklebt. Inzwischen hat Nvidia gegenüber Fudzilla (http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/) zugegeben, dass auf der GPU-Konferenz keine echte Karte gezeigt wurde. Der echte Prototyp sehe aus wie ein Tintenfisch, weil überall Kabel heraushingen und das habe man den Nvidia-CEO nicht für eine Präsentation in die Hände geben wollen. Dies bedeutet aber auch, dass Nvidia noch recht weit von verkaufsfähigen Karten entfernt sein muss.

Quelle : www.gamestar.de
Titel: Nvidia - »Fermi noch in diesem Jahr«
Beitrag von: SiLæncer am 03 Oktober, 2009, 13:51
Trotz der Tatsache, dass Nvidia auf der GPU-Konferenz keine lauffähige Karte in die Kameras halten konnte, erklärt Luciano Alibrandi, ein Sprecher von Nvidia, dass die Fermi-Demo jedoch tatsächlich auf einem echten Fermi-Grafikchip gelaufen sei. Dies würden auch die Leistungsdaten belegen, die fünf Mal so hoch seien wie bei einem aktuellen Tesla-Chip, so Alibrandi gegenüber XbitLabs. Man zeige einigen Presseleuten sogar eine lauffähige Karte.

Der Sprecher betont auch, dass an den Behauptungen, die ersten Fermi-Produkte würden erst im 1. Quartal 2010 erscheinen, nichts dran sei. Man erwarte die Veröffentlichung der ersten Fermi-Chips zum Ende des Jahres. Doch auch XbitLabs hat Zweifel am Optimismus von Nvidia, denn Nvidia habe nur einen Chip in der ersten Revision A1 präsentiert, der normalerweise nicht für die Produktion genutzt wird.

Üblicherweise werde dafür auf Revision A2 oder gar A3 gewartet. Jede neue Revision benötige Monate. So hatte ATI seinen Grafikchip für die Radeon HD 5870 bereits Anfang Juni vorführen können, erste Produkte gab es aber erst Ende September, eine Laufzeit von fast vier Monaten.

Quelle : www.gamestar.de
Titel: Nvidia Fermi: Angeblich drei Grafikkarten zum Start
Beitrag von: SiLæncer am 05 Oktober, 2009, 12:50
Nachdem Nvidia in der letzten Woche seinen neuen Grafikchip "Fermi" der Weltöffentlichkeit präsentierte, gelangen nun immer weitere Informationen an das Tageslicht. Laut einer Meldung von 'Fudzilla' sind zum Start drei Modelle geplant.

So wird es eine High-End-Variante mit einem Chip geben, die schneller arbeiten soll als die Radeon HD 5870 aus dem Hause AMD. Zudem soll sich eine GX2-Variante dazugesellen, also eine Grafikkarte mit zwei Chips. Für das von Nvidia als Performance-Bereich bezeichnete Segment wird es ebenfalls ein Modell geben. Derzeit wird es beispielsweise von der GeForce GTS250 besetzt.

Wie sich diese Modelle konkret unterscheiden werden, ist derzeit noch nicht bekannt. Laut Gerüchten sollen die Grafikkarten auf Basis des Fermi-Chips noch in diesem Jahr in den Handel kommen. Für Nvidia wäre dies wichtig, schließlich hat AMD bereits die ersten DirectX-11-Grafikkarten in den Läden. Allerdings hängt dies auch von der Produktionsausbeute ab.

Der Fermi-Chip wird im modernen 40-Nanometer-Verfahren gefertigt. Er kann auf insgesamt 512 Shadereinheiten zurückgreifen. Zudem setzt das Unternehmen erstmals auf GDDR5-Speicher, von dem bis zu sechs Gigabyte verbaut werden können. Er ist mit 384 Bit angebunden.

Quelle : http://winfuture.de
Titel: Nvidia - Sieht sich als Retter des Spiele-PCs
Beitrag von: SiLæncer am 06 Oktober, 2009, 12:54
Ashu Rege, der bei Nvidia mit Spiele-Entwicklern zusammenarbeitet, hat laut bit-tech.net erklärt, dass PC-Spiele ohne die Arbeit seines Teams ständig weniger und schließlich sogar »sterben« würden. In seinem Team seien 50 Entwickler, die rund um die Uhr »verdammt hart« mit Spiele-Entwicklern zusammenarbeiten würden, um PC-Spiele zu verbessern.

Wenn man beispielsweise nichts hinsichtlich des Spiels Batman: Arkham Asylum, bei dem sich AMD benachteiligt fühlt, unternommen hätte, hätte dies nur zum Ende der PC-Spiele beigetragen. »Spiele-Entwickler lieben den PC und arbeiten auch gerne darauf, aber die Wirklichkeit sieht so aus, dass man mit Konsolen das Geld verdient«, so Rege.

Ohne die Arbeit von Nvidia, die PC-Spiele verbessern soll, seien die meisten Spiele nur noch direkte Konvertierungen von Konsolen auf den PC. Und da der PC für Gelegenheitsspieler etwas schwieriger zu verstehen sei als eine Konsole, würden mehr und mehr Menschen einfach eine Konsole kaufen und zum Ende der PC-Spiele beitragen.

Quelle : www.gamestar.de
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Snoop am 07 Oktober, 2009, 16:43
Starker Tobak ... folgende zwei Meldungen bei Gamestar:

Zitat
AMD
Radeon HD 57x0 ab 120 Euro gelistet
AMD AMD Die ersten Händler haben die neuen AMD-DirectX-11-Grafikkarten Radeon HD 5750 und HD 5770 bereits gelistet und wie erwartet liegen die Preise recht niedrig.

Die Radeon HD 5750, deren Grafikchip 1.120 Stream-Prozessoren besitzt und mit 725 MHz getaktet ist, soll mit 1 GByte GDDR5-Speicher mit 1.150 MHz und einem 128-Bit-Speicherinterface gerade einmal knapp 120 Euro kosten. Die Radeon HD 5770 ist bis auf den höheren GPU-Takt von 825 MHz ansonsten identisch und wird von den Händlern für knapp 150 Euro aufgeführt.

Lieferbar sind die Karten allerdings momentan noch nicht. Angeblich soll dies jedoch bereits in den nächsten Tagen der Fall sein. Das neue AMD-Flaggschiff Radeon HD 5870 hingegen ist inzwischen auf 306 Euro gesunken, leidet jedoch ebenfalls an Lieferproblemen.

Zitat
Notbremse: Geforce GTX eingestellt?
Nvidia Nvidia Laut einer Meldung von SemiAccurate wird Nvidia aus finanziellen Gründen, die angeblich keinerlei Gewinne mehr erlauben, die Geforce GTX 260, Geforce GTX 275 und Geforce GTX 285 einstellen. Entsprechende »End of Life«-Mitteilungen sollen die Partner von Nvidia bereits erhalten haben.

Die Geforce GTX 285 wäre demnach bereits eingestellt, die Geforce GTX 260 soll im November oder Dezember folgen und die Geforce GTX 275 habe gerade noch zwei Wochen bis zur Einstellung. Einzig die Geforce GTX 295 würde noch überleben, allerdings vermutlich auch nicht für längere Zeit.

Nvidia habe nur die Wahl, seine aktuellen Grafikchips herzustellen und mit Verlust zu verkaufen, oder den Verkauf einzustellen und so weniger Verluste zu machen. Wirklich konkurrenzfähige Karten von Nvidia sollen laut SemiAccurate nicht vor Sommer 2010 erscheinen können. Aber selbst ein halbierter Fermi-Chip sei noch zu teuer im Vergleich zu AMDs aktuellen Karten.

Sollte die Meldung von SemiAccurate stimmen, überlässt Nvidia vorerst auf fast allen Feldern dem Konkurrenten AMD und dessen Grafikkarten um die Radeon HD 5870 das Feld. Schlimmer noch, sollte sich kein »Weißer Ritter« (ein finanzkräftiger Investor) oder Käufer finden, sieht SemiAccurate sogar das Ende für Nvidia nahen.

Quelle: Gamestar (http://www.anonym.to/?http://www.gamestar.de)


Ich glaube, ich kenne mindestens zwei interessierte Käufer :D
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 07 Oktober, 2009, 16:50
Hmm...Ati Karten haben mich eigentlich noch nie wirklich interessiert...aber die 2. Meldung gibt mir doch sehr zu denken ...
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Snoop am 07 Oktober, 2009, 16:53
Ich denke, die zweite hängt von der ersten ab.
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: SiLæncer am 07 Oktober, 2009, 16:59
...das dies zusammenhängt ist mir schon klar ...hätte aber eigentlich nicht gedacht, dass das Wasser Nvidia doch so sehr bis zur Halskrause steht (wie man das ja zwischen den Zeilen lesen kann)...bleibt nur zu hoffen das die sich wieder fangen ...
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Snoop am 07 Oktober, 2009, 17:06
Ich bin von der zweiten Meldung auch sehr überrascht gewesen. Ich dachte, dass die das Mittel- und Spitzensegment doch noch einigermaßen beherrschen.
Es wäre nicht nur schade, sondern fatal, wenn NVidia nicht mehr da wäre oder von ATi/AMD aufgekauft werden würde. Ein Monopol - und das wäre es faktisch - ist nicht gut!
Titel: Nvidia räumt Lieferengpässe bei High-End-Chips ein
Beitrag von: SiLæncer am 07 Oktober, 2009, 19:00
Wer derzeit eine leistungsfähige GeForce-Grafikkarte mit GT200-Grafikchip kaufen möchte, hat es nicht leicht – die Karten sind nur schwer erhältlich. Aus der Gerüchteküche machen nun Meldungen die Runde, Nvidia wolle die Produktion von GT200-Grafikchips auslaufen lassen, betroffen seien die Modelle GeForce GTX 285, GTX 275 und GTX 260. Gegenüber heise online wies Nvidia die Gerüchte zurück und erklärte, dass die Nachfrage derzeit die in Krisenzeiten produzierten Bestände übersteige.

Auch Boardpartner des Chipherstellers konnten ein Auslaufen der Produktion der genannten GeForce-Karten auf Nachfrage ebenfalls nicht bestätigen. Nvidia könne derzeit nicht ausreichend Grafikchips an die Boardpartner liefern, teilte Gigabyte mit. Grafikchips für die GeForce GTX 275 seien nach aktuellem Informationsstand lediglich bis Mitte November von einem Lieferengpass betroffen. Auch Gainward und Zotac wussten nichts vom vermeintlichen Ende der Produktion; Asus wollte die Gerüchte nicht kommentieren.

Nvidia hat erst kürzlich im Rahmen der GPU Technology Conference die Architektur der kommenden DirectX-11-Grafikkarten mit Fermi-Chip vorgestellt. Mit ersten Fermi-Grafikkarten ist jedoch nicht vor Mitte Dezember zu rechnen. Daher ergäbe es keinen Sinn, dass Nvidia das komplette High-End-Segment auslaufen lässt und damit Konkurrent AMD den Markt kampflos überlässt. AMD stellte bereits Anfang September seine ersten DirectX-11-Grafikkarten der Radeon-HD-5800er-Serie vor und plant bereits Mitte Oktober die HD-5700er-Serie einzuführen.

Quelle : www.heise.de
Titel: Nvidia erweitert Grafikkarten um Geforce GT 220 und 210
Beitrag von: SiLæncer am 12 Oktober, 2009, 17:10
Nvidia erweitert das Angebot an Grafikkarten der Geforce-Serie um zwei neue GT200-Karten für den PEG-Slot 2.0 moderner Rechner. Geforce 210 und Geforce GT 220 sind dank 40-nm-Prozess stromsparender als andere Karten der G200-Architektur.
Von Nvidia gibt es im Retail-Markt zwei neue DirectX-10.1-Grafikkarten der GT-200-Serie, die im 40-nm-Prozess produziert werden. Die Geforce 210 stellt das Einsteigermodell dar, bei dem auf das vorangestellte G vor der 210 verzichtet wird. Als beide Karten noch für den OEM-Markt exklusiv waren, hieß die jetzige Geforce 210 noch G210. Schneller, aber immer noch im unteren Preissegment, ist die Geforce GT220 angesiedelt.

(http://scr3.golem.de/screenshots/0907/Nvidia_Geforce_GT220_Geforce_210/thumb480/GeForce_G210_3qtr_med.jpg)

Die Taktraten der verschiedenen Grafikkarten-Ankündigungen der Hersteller können sich unterscheiden. Nvidia sieht 589 und 625 MHz für den GPU-Takt vor. Das gilt auch für die Ausstattung des Arbeitsspeichers, der aber in der Regel bei 512 MByte (500 MHz, 64-Bit-Anbindung) beim kleinen Modell und 1 GByte (790 MHz, 128 Bit) beim größeren Modell liegt. Vor allem übertaktete Modelle sind in den Ankündigungen auszumachen. So bietet Gainward eine GT 220 mit 900 MHz-Speicher an. Allerdings sind hier nur 512 MByte verbaut. Das normale Modell, das bereits mit leicht schnellerer GPU ausgeliefert wird (645 MHz), hat 1 GByte Speicher zur Verfügung.

Laut Nvidia soll die Geforce GT 220 maximal 58 Watt elektrische Leistung aufnehmen. Bei der Geforce 210 sind es nur 30,5 Watt - vorausgesetzt, die Kartenhersteller halten sich an das Referenzdesign. In beiden Fällen ist die Leistungsaufnahme niedrig genug, um prinzipiell passiv gekühlte Grafikkarten zu ermöglichen. Allerdings empfiehlt sich dann eine gute Gehäusebelüftung.

Zahlreiche Hersteller haben schon damit angefangen, die neuen Karten anzukündigen. Elitegroup bringt mit der GT 220 auch eine Variante mit passiver Kühlung heraus. Die meisten anderen Karten setzen aber auf eine herkömmliche Ein-Slot-Kühlung mit Lüfter, so wie es das Referenzdesign vorsieht. Um es fast allen recht zu machen, gibt es einen VGA-Anschluss, einen DVI-I-Anschluss, der auch analoge Signale ausgeben kann, sowie einen modernen digitalen Monitoranschluss. Beim 210er-Modell ist es Displayport und beim 220er-Modell HDMI. Es gibt allerdings auch 210er-Karten, die stattdessen einen HDMI-Anschluss nutzen. HDCP wird von den Karten unterstützt.

Erwartungsgemäß unterstützen die neuen Grafikkarten auch Nicht-Grafik-Berechnungen auf der GPU. Für OpenCL und CUDA stellt die Geforce 210 16 Recheneinheiten bereit. Die Geforce GT 220 ist hier besser, sie stellt 48 Recheneinheiten bereit.

Die Preise für GT-220-Karten liegen um die 60 Euro. Eine Geforce 210 liegt bei etwa 40 Euro. Die Karten sollen in den kommenden Tagen langsam in die Regale der Händler gelangen. Viele Händler listen die Karten verschiedener Hersteller bereits.

Quelle : www.golem.de
Titel: Radeon HD 5700: Sparsame DirectX-11-Karten mit viel Leistung
Beitrag von: SiLæncer am 13 Oktober, 2009, 09:52
AMD legt den vor kurzem gestarteten DirectX-11-Radeons der 5800er-Serie nun bereits zwei neue Performance-Grafikkarten nach. Zur neuen 5700er-Serie gehören die Radeon HD 5770 und HD 5750, die sich in ihrer 3D-Leistung zwischen den Radeon HD 4850 und Radeon HD 4870 einordnen. Beide Grafikkarten gibt es jeweils mit 512- und 1024 MByte GDDR5-Speicher. Entsprechend gestaltet sich auch der Preisrahmen: Zwischen 109 US-Dollar (HD 5750, 512 MByte) und 159 US-Dollar (HD 5770, 1024 MByte) sollen die Performance-Modelle laut AMD kosten

(http://www.heise.de/imgs/18/4/2/0/0/5/0/5750-22932bab375e9efb.jpg)

Die Radeon HD 5770 besitzt 800 Shader-Einheiten und damit halb soviel wie eine Radeon HD 5870. Die Kerne laufen bei 850 MHz Taktfrequenz und erreichen damit eine theoretische Rechenleistung von 1,36 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit. 40 Textureinheiten sorgen für eine Füllrate von zirka 34 GTexel/s. Der Speicher arbeitet mit 1200 MHz und ist über 128 Datenleitungen angebunden, was zu einer Datentransferrate von 76,8 GByte/s führt. Eine SIMD-Einheit weniger, und damit 720 Shader- und 36 Textureinheiten, besitzt die billigere Radeon HD 5750, deren GPU mit 700 MHz (1,008 TFlops) arbeitet. Der Speicher läuft mit 1150 MHz (73,6 GByte/s).

Für aktuelle Spiele bieten beide Grafikkarten zumindest bis zur Auflösung 1680 × 1050 genügend Leistung. In unseren Messungen berechnet eine Radeon HD 5770 bei der Arcade-Flugsimulation HAWX in der Auflösung 1680 × 1050 mit vierfacher Kantenglättung und sechzehnfachem anisotropen Filter noch 30 Bilder pro Sekunde (fps). Die HD 5750 schafft in dieser Einstellung 24 fps. Zum Vergleich: Die Radeon HD 4850 erreicht 21 fps, eine HD 4870 stellt 31 fps dar. Möchte man bei extrem anspruchsvollen Spielen wie Crysis oder Stalker Clear Sky bei maximalen Details noch Antialiasing hinzuschalten, so sollte man bei hohen Auflösungen lieber auf die HD-5800-Serie schielen.

(http://www.heise.de/imgs/18/4/2/0/0/5/0/0550cf7e0c44d833.jpg)

Beide Grafikkarten haben einen zusätzlichen sechspoligen Stromanschluss und sind besonders im Windows-Desktop-Betrieb sehr sparsam. So verbraucht die Radeon HD 5770 dabei nur gemessene 18 Watt. Bei 3D-Spielen zieht sie durchschnittlich 70 Watt aus dem Netzteil. AMD gibt als Spitzenleistungsaufnahme 108 Watt an. Die Radeon HD 5750 (TDP: 86 Watt) verbraucht im Leerlauf zirka 15 Watt und in 3D-Spielen im Mittel 57 Watt. Angenehm leise ist die Radeon HD 5770 mit Referenzkühler im Leerlauf (0,4 Sone). Die Radeon HD 5750 ist bei 0,7 Sone merklich lauter. Unter Last hört man die Radeon HD 5770 (0,9 Sone) und HD 5750 (1,1 Sone) auch aus einem geschlossenen Gehäuse heraus.

Die 1-Gigabyte-Modelle sind bereits ab 115 Euro (HD 5750) beziehungsweise 135 Euro (HD 5770) in den Preissuchmaschinen gelistet. Bis die 512-MByte-Varianten erhältlich sind, dürften noch einige Wochen vergehen.

Quelle : www.heise.de
Titel: Nvidia GF100 "Fermi" Mainstream-Karten im März
Beitrag von: SiLæncer am 14 Oktober, 2009, 15:07
Nvidia wird wahrscheinlich im März die ersten Mainstream-Grafikkarten auf Basis seiner neuen "Fermi"-Chips auf den Markt bringen, die auch als GF100 bezeichnet werden. Mit der Einführung der High-End-Varianten wird unterdessen noch 2009 gerechnet.

Nvidia will die neuen Fermi-Grafikkarten nach Angaben von 'Fudzilla' in drei Varianten anbieten - es wird sowohl Mainstream-Modelle, als auch eine Single-Chip High-End-Variante und eine Ausgabe mit zwei Grafikprozessoren geben, heißt es. Die Einführung der Mainstream-Versionen soll noch bis März dauern.

Angeblich dauert es einige Zeit, bis Nvidia abgespeckte Varianten des Original-Designs anbieten kann. Bis dahin kann sich ATI mit seinen schon jetzt erhältlichen DirectX11-Grafikkarten wahrscheinlich bereits umfangreiche Marktanteile sichern. Nvidia kann aber offenbar auf ein reges Interesse seiner Partner hoffen.

So hat das Unternehmen angeblich bereits zahlreiche Bestellungen für die neuen Chips erhalten, weil die Board-Fertiger hoffen, mit Fermi ein passendes Gegenstück zu ATIs neuen Produkten zu erhalten. Derzeit nimmt Nvidia zudem die aktuelle GT200-Serie nach und nach vom Markt, weshalb die Konkurrenz immer mehr Spielraum bekommt.

Quelle : http://winfuture.de
Titel: Re: Neue High-End-Grafikkarten von AMD und Nvidia
Beitrag von: Snoop am 14 Oktober, 2009, 15:47
Die 5770 von ATi scheint so ein richtiges kleines Juwel zu sein, was man so liest. Sparsam beim Strom, billig an Geld und doch ganz nett Leistung. Bis jetzt habe ich nichts negatives gelesen.
Titel: Fermi: AMD schimpft über Nvidias neue Grafikkarte
Beitrag von: SiLæncer am 15 Oktober, 2009, 17:23
In einer Präsentation seiner neuen DirectX-11-Grafikkarte Radeon HD 5870 hat AMD die kommende Grafikchip-Generation Fermi von Nvidia heftig kritisiert. Zuerst lobte man das eigene Produkt in den höchsten Tönen.

So zitiert man den Nvidia-Chef Jen-Hsun Huang, als dieser über den Intel-Grafikchip Larrabee sprach. Demnach handelt es sich dabei um eine Powerpoint-Folie, auf der man alle Produkte gut aussehen lassen kann. Wer gegenwärtig nichts Neues bieten kann, muss eben über die Zukunft reden. Als Marktführer hat man dies allerdings nicht nötig, so Huang. Laut AMD legt Nvidia dieses Verhalten nun selbst an den Tag.

AMD bezeichnet den Fermi-Chip als einen Papiertiger, der im Vergleich zur Radeon HD 5870 40 Prozent mehr Transistoren auf einer 60 Prozent größeren Fläche benötigt, da das Design für das High Performance Computing (HPC) ausgelegt ist. Zudem kritisiert man, dass es keine Informationen über die Grafikleistung gibt und auch die Produktion noch nicht anlaufen kann. Fermi soll laut AMD nur ein Nischenprodukt für den Supercomputing-Sektor werden und ist für normale Verbraucher irrelevant.

Anschließend zieht AMD noch einige technische Vergleiche, die allerdings nicht sehr aussagekräftig sind. So soll die Radeon HD 5870 mehr als 3 Mal so viele Shader bieten wie der Fermi-Chip. Die Anzahl allein hat allerdings keine Aussagekraft, wie der Vergleich zwischen Radeon HD 4870 (800 Shader) und GeForce GTX 285 (240 Shader) zeigt.

Quelle : http://winfuture.de
Titel: Fermi: Zahlreiche Vorbestellungen bei Nvidia
Beitrag von: SiLæncer am 15 Oktober, 2009, 19:47
Nachdem Nvidia vor wenigen Wochen seinen neuen Grafikchip Fermi offiziell vorgestellt hat, reißen die Meldungen rund um den (zumindest auf dem Papier) leistungsfähigen Chip nicht ab. Offenbar sind bereits zahlreiche Vorbestellungen eingegangen.

So berichtet die Internetseite 'Fudzilla (http://www.fudzilla.com/content/view/15955/1/)', dass die Grafikkarten-Hersteller bereits große Mengen des Fermi-Chips geordert haben. Sie machen sich offenbar große Hoffnungen, dass sich die neue Architektur als Verkaufsschlager erweist.

Allerdings haben die Hersteller aber auch keine andere Wahl. So sind die Chips aus der aktuellen GT-200-Serie so gut wie gar nicht lieferbar und sollen nach und nach auslaufen.

Sowohl Nvidia als auch die Partnerunternehmen sind davon überzeugt, dass Fermi bei seinem Marktstart für einen gewaltigen Verkauseinbruch bei AMD sorgen wird. Vor allem die derzeit sehr erfolgreichen Modelle Radeon HD 5850 und 5870 will man in den Schatten stellen.

Quelle : http://winfuture.de
Titel: Grafik-Gerüchte: EVGA bringt Dual-GPU-Grafikkarte für PhysX
Beitrag von: SiLæncer am 22 Oktober, 2009, 17:58
Die Firmen Nvidia und EVGA laden derzeit öffentlich zu einer auf 300 Teilnehmer begrenzten Halloween-Party am 30. Oktober ins Nvidia-Hauptquartier in Santa Clara ein. Dort wollen die Unternehmen Gerüchten zufolge eine EVGA-Grafikkarte vorstellen, auf deren Platine neben einem GT200b-Grafikchip auch eine ausschließlich für PhysX-Berechnungen bestimmte G92-GPU arbeiten soll. Die Webseite Bright Side of News geht davon aus, dass dafür die Platine einer GeForce GTX 295 zum Einsatz kommt.

Nachdem AMD die ersten DirectX-11-Radeons der HD-5800-Serie bereits im September und vor Kurzem gar HD-5700-Mittelklassekarten vorstellte, steht Nvidia unter Druck, da die Kalifornier wohl nicht vor Januar 2010  DirectX-11-fähige GeForce-Karten mit Fermi-Grafikchips liefern können. Unterdessen gibt sich AMD alle Mühe, diesen Umstand zu betonen, bezeichnet Nvidias im Rahmen der GPU Technology Conference präsentierte Fermi-Architektur als reinen Papiertiger ("Paper Dragon") und vergleicht die kommende Nvidia-GPU mit der bereits mehr oder weniger erhältlichen Radeon HD 5870. So unterstreicht AMD, dass der Fermi-Chip teuer und primär auf HPC-Anwendungen ausgerichtet sei.

Bis dato ist unklar, wie leistungsfähig Nvidias kommender DirectX-11-Chip tatsächlich beim 3D-Rendering ist – dennoch lassen die bekannten Daten erahnen, dass er schneller als AMDs RV870 sein dürfte. Daher stellt AMD wohl seine für 20. November angekündigte Dual-GPU-Grafikkarte Radeon HD 5900 (Codename: Hemlock) gegen Nvidias GeForce-Karten mit Fermi-Chips. Am gleichen Tag scheint AMD auch die Auslieferung der bereits angekündigten Eyefinity6-Spezialversion der Radeon HD 5870 beginnen zu wollen. Diese steuert via DisplayPort bis zu sechs Bildschirme gleichzeitig an.

Unterdessen sieht es mit der Grafikkarten-Verfügbarkeit im Performance- und High-End-Segment sowohl bei AMD als auch Nvidia düster aus. Erst vor kurzem räumte Nvidia Lieferengpässe bei GT200b-Grafikchips ein, wovon derzeit besonders GTX-285-Grafikkarten betroffen sind. AMDs Radeon HD 5850 und 5870 sind noch immer nur in sehr kleinen Mengen verfügbar. Laut AMD-CEO Dirk Meyer soll sich das innerhalb der nächsten Wochen ändern. Doch auch bei AMDs HD-4800-Karten leeren sich die Lager: So soll sich Apple nach Angaben von BSN einen großen Vorrat an HD-4800-Chips zugelegt haben. Apple bietet die Radeon HD 4850 in den neuen (27-Zoll-)iMacs als Aufrüstoption an.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: Radeon HD 5970 kommt am 19. November
Beitrag von: SiLæncer am 29 Oktober, 2009, 17:57
Die ersten zu DirectX 11 kompatiblen Dual-GPU-Grafikkarten auf Basis der HD-5000-Architektur stellt AMD am 19. November vor, wie heise online aus Branchenkreisen erfuhr. Zwar könne es auch sein, dass sich der Launch um ein oder zwei Tage nach vorn oder hinten verschiebe. Doch wolle AMD nach derzeitigen Planungen am 19. November den Vorhang für die HD-5900-Karten lüften.

Auf diesen rechnen zwei RV870-Grafikchips, die AMD unter dem Codenamen Hemlock führt. AMD plane zunächst lediglich eine Variante einzuführen, etwa die Radeon HD 5970. Wahrscheinlich obliegt es den Boardpartnern, auch eigens entwickelte Dual-GPU-Varianten, beispielsweise eine langsamere Radeon HD 5950, herauszubringen. Das war damals bereits bei der Radeon HD 4850 X2 der Fall, die nur Sapphire anbot.

Doch dass die Hemlock-Karten dann auch in ausreichenden Stückzahlen im Handel erhältlich sein werden, ist sehr unwahrscheinlich. Schließlich sind selbst die Ende September vorgestellten Radeon HD 5870 und HD 5850, auf denen ebenfalls RV870-GPUs werkeln, noch immer nur in  nur sehr geringen Mengen verfügbar. Zumindest AMD-CEO Dirk Meyer zeigte sich optimistisch, dass sich dies innerhalb der nächsten Wochen ändern wird.

Mit der HD-5900er-Serie dürfte AMD auch an Nvidias Dual-GPU-Karte GeForce GTX 295 vorbeiziehen, die schneller als eine einzelne Radeon HD 5870 ist. Ob sich die HD-5900-Modelle auch gegen die im Januar erwarteten Fermi-Grafikkarten von Nvidia behaupten können, bleibt unklar. Anhand der derzeitigen Fakten zur Fermi-Architektur ist es aber wahrscheinlich, dass die DirectX-11-fähigen GeForce-Karten in 3D-Anwendungen zumindest etwas leistungsfähiger als AMDs Radeon HD 5870 sein werden.

Doch Nvidia hat nicht nur die langerwarteten Fermi-Transistormonster in der Hinterhand, sondern will am 17. November, also 2 Tage vor AMD, die DirectX-10.1-fähige GeForce GT 240 vorstellen. Diese Grafikkarte besitzt 96 Shader-Einheiten und GDDR5-Speicher, der bei 850 MHz Taktfrequenz über 128 Datenleitungen angebunden ist. Die 3D-Leistung soll unterhalb einer GeForce 9800 GT liegen.

Quelle : www.heise.de
Titel: EVGA: Grafikkarte mit dediziertem PhysX-Grafikchip
Beitrag von: SiLæncer am 02 November, 2009, 17:55
Wie erwartet hat EVGA im Rahmen von Nvidias Halloween-Party eine Grafikkarte vorgestellt, auf der neben einem GT200b-Grafikchip einer GeForce GTX 275 zusätzlich eine G92b-GPU arbeitet. Diese ist ausschließlich für PhysX-Berechnungen bestimmt. Als Unterbau dient die Platine einer GeForce GTX 295.

(http://www.heise.de/imgs/18/4/3/5/0/1/1/Optional_EVGA_PhysX-fe7cd124879f48a5.png)

Der GT200b-Grafikchip läuft mit 633 MHz, die 240 Shader-Kerne rechnen mit 1296 MHz. Die GPU kann über 448 Datenleitungen auf 896 MByte (1134 MHz) DDR3-Speicher zugreifen. Der "PhysX-Grafikchip" (738 MHz) besitzt 128 Kerne (1836 MHz) und entspricht dem einer GeForce GTS 250. Lediglich das Speicherinterface ist etwas beschnitten: Die 384 MByte fassenden Speicherbausteine (1100 MHz) sind insgesamt über 192 Leitungen angebunden. Je ein sechs- und ein achtpoliger Stromanschluss versorgen die knapp 27 Zentimeter lange Karte.

Um die Wärme abzuführen, kommt der bekannte GTX-295-Referenzkühler zum Einsatz. Über zwei DVI-I-Ausgänge führt die Geforce GTX 275 CO-OP PhysX Edition ihre Bildsignale zu maximal zwei Bildschirmen gleichzeitig. EVGA legt das Spiel Batman: Arkham Asylum bei und veranschlagt die zu DirectX 10.0 kompatible Karte in seinem Online-Shop für 350 US-Dollar .

Derzeit lassen sich nur bei einem Bruchteil der erhältlichen Spiele GPU-beschleunigte PhysX-Effekte optional zuschalten. Prominente Beispiele sind neben Batman: Arkham Asylum auch Mirrors Edge und Sacred 2. Der große Durchbruch ist GPU-beschleunigter Physik noch nicht gelungen, was auch daran liegt, dass Nvidia mit PhysX bis dato sein proprietäres Süppchen kocht und die Schnittstelle nicht für GPUs anderer Hersteller öffnet. AMD hat zumindest in der Vergangenheit die GPU-Spielephysik-Entwicklung verschlafen und will nun mit der OpenPhysics-Initiative die quelloffene Bullet-Physik-Engine auf allen OpenCL-fähigen Grafikprozessoren (und CPUs) lauffähig machen.

Quelle : www.heise.de
Titel: Grafikkarten-Knappheit bei Nvidia & AMD: Ursachen
Beitrag von: SiLæncer am 02 November, 2009, 21:43
AMD hat es, Nvidia wird es bekommen: Ein Problem bei der Herstellung der Grafikchips. So sind die neuen DirectX-11-Grafikkarten aus dem Hause AMD derzeit kaum lieferbar. Die kommenden Karten auf Basis von Nvidias Fermi wird das gleiche Schicksal ereilen.

Laut einem Bericht des taiwanischen Branchdienstes 'DigiTimes' ist daran der Auftragsfertiger TSMC Schuld. Der Chef des Unternehmens, Morris Chang, erklärte, dass die Fertigungsausbeute (yield) bei den 40-Nanometer-Produkten stark gefallen ist. Derzeit soll sie bei rund 40 Prozent liegen - zu Spitzenzeiten war es 60 Prozent. Laut Chang sollen es im zweiten Quartal nur 20 bis 30 Prozent gewesen sein.

Dadurch sind die verfügbaren Anlagen stark ausgelastet - neue Aufträge kann TSMC derzeit nicht annehmen. Trotz der hohen Belastung gibt es nur wenig brauchbare Chips, die AMD in den Grafikkarten seiner Partner verbauen lassen kann. Deshalb sind die Grafikkarten der Radeon-HD-5000-Serie derzeit knapp. Nvidia wird mit dem Fermi-Chip vor den selben Problemen stehen.

Bis zum Ende des Jahres will TSMC die Probleme in den Griff bekommen, versprach der Chef. Bis dahin wird es auch weiterhin Lieferengpässe geben, denn kein anderes Unternehmen kann die Chipfertigung übernehmen. TSMC ist derzeit die einzige Firma, die komplexe Prozessoren im 40-Nanometer-Verfahren herstellen kann und Aufträge entgegen nimmt.

Quelle : http://winfuture.de
Titel: Umbruch im Grafikkarten-Markt
Beitrag von: SiLæncer am 05 November, 2009, 12:54
Der Markt für Grafikkarten war schon immer ein heißes Pflaster: Nvidia und AMD liefern sich hier mit immer neuen Chips seit Jahren eine heiße Schlacht. Bislang konnte sich Nvidia in dieser Auseinandersetzung recht gut behaupten, was sich auch sehr gut im heise resale Preisradar ablesen lässt: In den jüngsten Monaten belegten Produkte mit Geforce-Chips stets die vorderen Plätze in Sachen Käufernachfrage. So wundert es kaum, dass auch im 3-Monats-Überblick unter den meistgesuchten Grafikkarten auf der Preissuchmaschine Geizhals.at und dem Preissucher auf Heise online ein Produkt mit Nvidia-Chip (Palit/XpertVision GeForce GTX 275) auf Platz eins stehen.

Ist also alles in Ordnung für Nvidia? Wohl kaum, denn betrachtet man die aktuelle Interessenlage potenzieller Grafikkartenkäufer, so stehen ganz klar Produkte von AMD im Fokus. Erst auf Platz 28 taucht ein Modell mit Nvidia-Baustein auf. Das in den vergangenen Monaten so gefragte GeForce-GTX-275-Modell liegt inzwischen weit abgeschlagen auf Rang 83. Wirklich überrascht dürfte Nvidia von diesem Wandel allerdings nicht sein, schließlich kann das Unternehmen derzeit keinen konkurrenzfähigen Baustein mit DirectX-11-Unterstützung vorweisen. Zudem sind die neuen AMD-Modelle auch noch energieeffizienter als die aktuellen Nvidia-Chips. Besonders im Desktop-Betrieb sind sie vergleichsweise sparsam.

Auch eine Analyse der Top-100-Grafikkarten geht klar zu Gunsten von AMD aus. Am gefragtesten ist derzeit AMDs Radeon HD 5850, dicht gefolgt von der Radeon HD 5870. Auf Platz drei immer noch gut im Rennen liegt die Radeon HD 5770. Mit deutlichem Abstand folgen dann Karten mit dem Radeon HD 4870 und 4890. Erst auf Rang 6 taucht Nvidias GeForce GTX 260 auf.

Weniger spannend sieht das aktuelle Hersteller-Ranking unter den Top-100-Grafikkarten aus: Produkte von Sapphire werden von den Kaufinteressenten am häufigsten abgefragt – kein Wunder, fertigt Sapphire doch ausschließlich Modelle aus AMD-Basis. Mit deutlichem Abstand folgen PowerColor – ebenfalls ein Unternehmen, das voll auf AMD gesetzt hat. Platz drei belegt XFX, die sowohl Grafikkarten mit Nvidia- als auch mit AMD-Chips produzieren. Von MSI schafften es immerhin neun Produkte unter die Top 100, was dem taiwanischen Hersteller knapp den vierten Platz vor Club 3D sicherte.

Hohes Käuferinteresse bedingt freilich nicht automatisch auch gute Verkaufszahlen. Gerade die besonders gefragten Modelle Radeon HD 5870 und 5850 von AMD sind nach wie vor nur schlecht lieferbar. Gleiches gilt freilich auch für Nvidias GeForce GTX 285. Dennoch muss sich Nvidia auf weiter schrumpfende Marktanteile einstellen. Bereits im dritten Quartal 2009 sank der Grafikchip-Anteil laut einer Studie von Jon Peddie Research von 29,2 auf 24,9 Prozent bei 29,74 Millionen Einheiten. Besserung dürften erst die für Anfang Januar 2010 avisierten GeForce- und Tesla-Grafikkarten mit Fermi-Architektur bringen. Ob diese allerdings termingerecht auf dem Markt kommen, wird von vielen bezweifelt. AMD freut sich unterdessen – zumindest im Grafikchip-Segment – über steigende Marktanteile. Im dritten Quartal kletterte AMD von 18,4 (Q2/09) auf 19,8 Prozent. Größter Spieler im Grafikchip-Markt ist freilich weiterhin Intel durch die schiere Masse der in Chipsätzen integrierten Grafikkerne.

Quelle : www.heise.de
Titel: Re: Umbruch im Grafikkarten-Markt
Beitrag von: Snoop am 05 November, 2009, 13:08
Ich finde, bei Intel sollte man mal die alle aus der Statistik rausschmeißen, die den Onboard-Chip nicht benutzen. Bei mir ist der noch nie verwendet worden. Ich kann nichts dafür, dass da einer auf dem Board ist.
Titel: Nvidia - Unliebsame Konkurrenz per Treiber blockiert?
Beitrag von: SiLæncer am 07 November, 2009, 14:07
Nachdem das MSI-Mainboard »Big Bang« nicht wie angekündigt mit dem Lucid Hydra-Chip erschienen ist, vermehren sich Meldungen, dass Nvidia den Hydra-Chip boykottieren wird.

Der Hydra-Chip, der die Zusammenarbeit zwischen mehreren Grafikkarten erlaubt, auch wenn diese von verschiedenen Herstellern stammen, würde das Geschäft mit SLI-Lizenzen gefährden, so Expreview. Aus diesem Grund habe man sich entschieden, gegen den Hydra-Chip vorzugehen und bereits auf Treiberlevel eine Zusammenarbeit zu blockieren.

Außerdem habe man, wie bereits gemeldet, MSI auf bisher unbekannte Weise gezwungen, das »Big Bang«-Mainboard zu verschieben. Dazu meldet VR-Zone jedoch, dass MSI die Verschiebung in das 1. Quartal 2010 damit erklärt, dass man noch ein paar Monate für die Entwicklung von Windows-7-Treibern benötige.

Doch auch VR-Zone geht davon aus, dass Nvidia und der Kampf gegen den Hydra-Chip der wahre Grund sind. Eventuell handelt es sich nur um einen weiteren Bereich, in dem Nvidia gegen Intel ins Feld zieht, schließlich hat Intel die Entwicklung des Hydra-Chips bei Lucid finanziert.

Quelle : www.gamestar.de
Titel: Nvidia Fermi - Offiziell: Massenproduktion erst 2010
Beitrag von: SiLæncer am 08 November, 2009, 17:42
Seit der Vorstellung des Fermi-Grafikchips durch Nvidia wird darüber spekuliert, wann entsprechende Produkte im Handel erscheinen werden.

Nvidias CEO Jen Hsun-Huang hat im Rahmen der Bekanntgabe der Geschäftszahlen nun jedoch klargestellt, dass die Massenproduktion des Fermi-Chips erst im 1. Quartal 2010 anlaufen wird. Nvidia werde im 1. Quartal mehr 40nm-Wafer benötigen als je zuvor, denn dann werde man den Fermi-Chip für drei verschiedene Produktreihen herstellen: Geforce, Quadro und Tesla.

Das erste Quartal bedeutet in diesem Fall die ersten drei Monate des nächsten Geschäftsjahres, bei Nvidia ist dies der Zeitraum vom 26. Januar bis 26. April 2010. Damit dürften Gerüchte, nach denen Nvidia noch in diesem Monat oder zumindest noch in diesem Jahr DirectX-11-kompatible Geforce-Karten auf den Markt bringen soll, wohl als wiederlegt gelten. Eine Vorstellung nicht erhältlicher Karten bleibt natürlich weiterhin denkbar.

Über die »revolutionären», grafischen Fähigkeiten des Fermi-Chips werde man erst sprechen, wenn Geforce- und Quadro-Karten angekündigt werden, so Huang.

Quelle : www.gamestar.de
Titel: Nvidia nennt erste Leistungswerte zu Fermi
Beitrag von: SiLæncer am 16 November, 2009, 15:59
Zu Beginn der Supercomputer-Konferenz "SC09" hat Nvidia erste konkrete Angaben zu Rechenleistung und Strombedarf seiner neuen GPU "Fermi" gemacht. Gegenüber den bisherigen Tesla-Beschleunigern soll eine Fermi-Karte bis zu achtmal schneller sein, allerdings auch über 200 Watt Leistung aufnehmen.

Nvidia hat sein neues GPU-Design Fermi, das bisher nur angekündigt ist, nicht nur für Spielegrafikkarten entwickelt, sondern mit zahlreichen Funktionen für Rechenanwendungen ausgestattet. Dass dieser Bereich für GPUs zunehmend wichtiger wird, zeigt der chinesische Rechner "Tianhe", der sich in der aktuellen Liste der schnellsten Supercomputer aus dem Stand auf Platz fünf platzieren konnte. In dieser Maschine rechnen neben 6.144 Xeons auch 5.120 AMD-GPUs.

(http://scr3.golem.de/screenshots/0910/Fermi-Tesla/thumb480/Image6.png)

Fermi soll in diesem Markt nicht nur durch eine gegenüber der GT200b-Architektur drastisch gesteigerte Rechenleistung punkten, sondern auch durch mehr Speicher, der auch mit Fehlerkorrektur nach ECC betrieben werden kann. Wie schnell Fermi wirklich ist, hat Nvidia bisher nur angedeutet.

Nun teilte das Unternehmen erste konkrete Zahlen mit. So soll die für Rechenaufgaben vorgesehene Karte "Tesla C2050" bei doppelter Genauigkeit bis zu 630 Gigaflops erreichen. Das entspricht einer Verachtfachung der Rechenleistung gegenüber der bisher schnellsten Tesla-Karte C1060 mit G200b-Design. Daraus direkte Rückschlüsse auf die Spielekarten zu ziehen, die nach inoffiziellen Informationen erst im Januar 2010 verkauft werden sollen, ist jedoch schwer möglich.

Nvidia hat die bei doppelter Genauigkeit so stark gesteigerte Leistung unter anderem durch mehr Caches in der GPU erreicht, wovon bei Spielen nur Shaderprogramme, nicht aber der Großteil der Geometrie-Pipeline profitieren kann. Bei Vorstellung der Fermi-Architektur schätzte Golem.de eine Leistung von 4 Teraflops bei einfacher Genauigkeit, was bisher noch gut mit den Angaben von Nvidia korreliert. Zum Vergleich: AMD gibt für seine 5870 bei einfacher Genauigkeit 2,71 Teraflops an und 544 Gigaflops bei doppelter Genauigkeit.

Zudem hat Nvidia den Speicher bei den neuen Tesla-Karten wieder erweitert. Statt bisher maximal 4 GByte dürfen es bei der zweiten Tesla, der C2070, schon 6 GByte sein, die 2050 muss mit 3 GByte auskommen. Sie soll auch zuerst auf den Markt kommen, allerdings erst im zweiten Quartal des Jahres 2010 für rund 2.500 US-Dollar, die 2070 dann im dritten Quartal 2010 für rund 4.000 US-Dollar. Auch bei den anderen Nvidia-Produkten für den professionellen Bereich kamen zuerst die Consumerprodukte mit gleicher Architektur auf den Markt.

Die Tesla- und Quadro-Karten waren in der Regel etwas geringer getaktet als die Spielekarten, so dass die Angaben zur Leistungsaufnahme für die neuen Teslas auch noch keinen direkten Schluss erlaubt. C2050 und C2070 sollen bei typischen Aufgaben um 190 Watt aufnehmen, maximal 225 Watt.

Im Gegensatz zu bisherigen Tesla-Karten bringen die beiden neuen Modelle auch einen Monitoranschluss mit, der Entwicklern das Leben einfacher machen soll, weil keine zweite Grafikkarte mehr nötig ist. Die Bilder stellen übrigens laut Nvidia die tatsächlichen Karten dar, es soll sich nicht mehr um Attrappen handeln.

Für den Einsatz in Rechenzentren und Supercomputern gibt es im selben Zeitraum auch Rackeinschübe mit je einer Höheneinheit und zwei Fermi-GPUs. Sie heißen Tesla S2050 (13.000 US-Dollar) und Tesla S2070 (19.000 US-Dollar), wie bei den einzelnen Karten unterscheiden sie sich durch 3 beziehungsweise 6 GByte je GPU.

Besonders für den Einsatz in Supercomputern können die neuen GPUs auch direkt per Infiniband an den Chipsatz des Hostcomputers angebunden werden. Bisher war dafür stets noch die CPU notwendig, mit der neuen Direktverbindung sollen Latenzen vermieden werden.

Quelle : www.golem.de
Titel: Nvidias präsentiert GeForce GT 240
Beitrag von: SiLæncer am 17 November, 2009, 16:17
Zu den im Oktober vorgestellten [Link auf Beitrag 420118] GeForce GT 220 und 210 gesellt sich nun Nvidias GeForce GT 240, die ebenfalls zu DirectX 10.1 kompatibel ist. Auf ihrer Platine arbeitet ein GT215-Grafikchip (550 MHz), der 96 Shader-Rechenkerne (1340 MHz), 32 Textureinheiten und 8 Rasterendstufen besitzt. Die Speicherbausteine fassen entweder 512 MByte oder 1 GByte an Daten und sind mit 128 Leitungen angebunden. Bei einer Taktfrequenz von 1700 MHz führt das bei GDDR5-Modellen zu einem Speicherdurchsatz von 54,4 GByte/s. Bei den langsamen DDR3-Varianten arbeitet der Speicher mit 1000 MHz, was die Datentransferrate auf nahezu die Hälfte reduziert (32 GByte/s). Die für universelle Berechnungen interessante theoretische Rechenleistung liegt bei 386 GFlops bei einfacher Genauigkeit, spezielle Einheiten zum Rechnen mit doppelter Genauigkeit sind nicht vorhanden.

(http://www.heise.de/imgs/18/4/4/2/9/2/7/Image1.jpg-942b68af3043f34d.jpeg)

Anhand eines von Zotac zur Verfügung gestellten Testexemplars konnten wir vorab einige technische Werte überprüfen. Die Leistungsaufnahme bekommt Nvidia auch bei der GeForce GT 240 gut in den Griff: Lediglich 9 Watt verbraucht die Testkarte im Leerlauf, und damit so wenig wie die schwächeren GeForce GT 220 und 210. Schließt man zwei Monitore an, klettert der Idle-Wert architekturbedingt auf 25 Watt, unter Volllast verheizt die Karte in unseren Tests nicht mehr als durchschnittlich 60 Watt. Laut Nvidia ist die GeForce GT 240 mit maximal 70 Watt spezifiziert. Daher ist sie auf keine externen Stromanschlüsse angewiesen. Leider stört der kleine Lüfter bei der Zotac-Karte permanent mit einer Lautheit von rund 1,1 Sone. Die VP4-Videoeinheit unterstützt den Hauptprozessor bei der Wiedergabe von hochaufgelösten Videos.
 
Die GDDR5-Version ist in unseren Benchmarks durchgängig etwas schneller als die GeForce 9600 GSO, kommt an die GeForce 9800 GT jedoch nicht heran. Für Gelegenheitsspieler, die nicht unbedingt maximale Detaileinstellungen nutzen wollen, reicht die Karte aus. Auch bei den immerhin drei interessanten PhysX-Spielen Mirror’s Edge, Sacred 2 und Batman Arkham Asylum lassen sich die zusätzlichen Physikeffekte aktivieren. Detaillierte Benchmarks finden Sie in der c’t 25/09, die am 23. November erscheint.

Jedoch ist die GeForce GT 240 mit rund 90 Euro schlicht zu teuer, um gegen die Konkurrenz bestehen zu können. Für 100 Euro gibt es bereits die Radeon HD 4870 zu kaufen,  die deutlich leistungsfähiger ist und auch aktuelle Spiele mit hohen Details flüssig darstellt. Zur Wiedergabe von hochaufgelösten Videos reicht im Vergleich mit der GT 240 auch eine 25 Euro teure Radeon HD 4350 oder auch die GeForce 210, die ab 35 Euro zu haben ist.

Quelle : www.heise.de
Titel: AMD Radeon HD 5970: Teraflops-Monster und 3D-Leistungskönigin
Beitrag von: SiLæncer am 18 November, 2009, 11:21
Auf die Kraft der zwei Herzen setzt AMD bei der Radeon HD 5970, auf deren Platine zwei RV870-Grafikchips mit je 1600 Shader-Rechenkernen arbeiten. Diese laufen mit 725 MHz, was zu einer theoretischen Rechenleistung von 4,64 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit führt. Bei doppelter Genauigkeit knackt die Radeon HD 5970 als erste Grafikkarte die 1-TFlops-Schallmauer (1,088 TFlops).

(http://www.heise.de/imgs/18/4/4/3/2/0/1/1.jpg-42b947ac52a092c9.jpeg)

Pro GPU sind die Shader-Rechenkerne in 20 SIMD-Einheiten zu je Fünfergruppen angeordnet. An jede SIMD-Einheit ist vierfaches Texturcluster gekoppelt, so dass die Radeon HD 5970 insgesamt 2 × 80 Textureinheiten besitzt. Auch die Zahl der Rasterendstufen hat sich im Vergleich zu einer herkömmlichen Radeon HD 5870 auf 2 × 32 verdoppelt. Der 2 x 1 GByte fassende GDDR5-Speicher läuft mit 2000 MHz (Write-Clock) und ist über jeweils 256 Datenleitungen mit den RV870-Chips verbunden, was zu einer Datentransferrate von insgesamt 256 GByte/s führt. Da die zu verarbeitenden Bilddaten jedoch immer in den Speichern beider Grafikchips liegen müssen, ist effektiv nur 1 GByte Grafikspeicher nutzbar.

Bei der Leistungsaufnahme gibt sich die Radeon HD 5970 laut AMD mit 42 Watt für eine Dual-GPU-Grafikkarte vergleichsweise sparsam. Der Lüfter unseres Referenzdesign-Testsamples störte im Desktop-Betrieb bei gemessenen 0,5 Sone nicht. Bei anspruchsvollen 3D-Szenen lärmte er mit 1,7 Sone jedoch beträchtlich, im Furmark kletterte der Wert gar auf unerträgliche 2,7 Sone. Unter Maximallast verheizt die Radeon HD 5970 laut AMD bis zu 294 Watt. Daher ist sie auf einen sechs- und achtpoligen Stromanschluss angewiesen. Bei 31 Zentimetern Länge kann es in einigen Gehäusen zu Platzproblemen kommen.

In ersten Tests lässt die zu DirectX 11 kompatible Radeon HD 5970 Nvidias bisherige Dual-GPU-Königin, die GeForce GTX 295, hinter sich. Während die HD 5970 beispielsweise in Crysis bei 1920 × 1080 Bildpunkten mit zweifachem Antialiasing noch 56 Bilder pro Sekunde (fps) darstellt, schafft die GeForce GTX 295 in gleicher Einstellung nur 38 fps. Maximal drei Displays bindet die Radeon HD 5970 über zwei Dual-Link-DVI-Anschlüsse und eine Mini-DisplayPort-Buchse an. Die UVD2-Videoeinheit unterstützt den Hauptprozessor bei der Wiedergabe von hochaufgelösten Filmen.

Rund 500 Euro dürfte die Radeon HD 5970 kosten, mit der Verfügbarkeit dürfte es jedoch problematisch werden. Schließlich kann AMD selbst für die im September vorgestellte HD-5800-Serie nicht ausreichend RV870-Chips, die ja auch auf der neuen Dual-GPU-Karte zum Einsatz kommen, bereitstellen.

Quelle : www.heise.de
Titel: Nvidia zeigt Bild von Fermi-Karte GF100 mit DirectX-11
Beitrag von: SiLæncer am 19 November, 2009, 11:16
Über seine Seiten bei Facebook, in Twitter und in seinem Blog hat Nvidia ein Bild einer ersten seriennahen Grafikkarte mit Fermi-Architektur verbreitet. Weitere Daten zu dem Modell, das als "GF100" auf den Markt kommen soll, gibt es noch nicht. Sie sollen nun wöchentlich bis zum Marktstart nachgereicht werden.

Im Gegensatz zur ersten gezeigten Fermi-Karte, die eine Attrappe war, soll es sich bei dem jetzt gezeigten Gerät um ein lauffähiges Muster handeln. Dazwischen gab es noch die "Bring-up-Boards", von denen keine öffentlichen Bilder existieren. Derartige Karten, auf welche die ersten Exemplare einer GPU gesetzt werden, sehen nicht recht nach Grafikkarten aus, zahlreiche Testanschlüsse, Messpunkte und große Kühler verunzieren sie.

(http://scr3.golem.de/screenshots/0911/Geforce-GF100/thumb480/Fermi-G100.jpg)

Laut Nvidia stellt das aktuelle Bild eine Fermi-Karte dar, die als "Geforce GF100" auf den Markt kommen soll. Sofern der Name so bleibt, bestätigen sich frühere Gerüchte, nach denen Nvidia das Kürzel "GTX" für seine High-End-Modelle abschafft. Die gezeigte Karte soll Nvidia zufolge den Benchmark der Grafikdemo 'Heaven' mit der Engine von Unigine unter DirectX-11 ausführen.

Der Bildausschnitt ist freilich so gewählt, dass der Framecounter des Programms nicht sichtbar ist. Die Originalauflösung des Bildes von 600 x 398 Pixeln erlaubt auch keine verlässlichen Rückschlüsse auf die eingeschalteten Grafikfunktionen. Immerhin sind nur ein 8-poliger und ein 6-poliger Stromanschluss zu sehen, so dass die Karte gemäß den PCIe-Spezifikationen nicht mehr als 300 Watt elektrischer Leistung aufnehmen darf.

Über die verschiedenen sozialen Netzwerke will Nvidia ab sofort jede Woche Informationen, "FunFacts" genannt, über Fermi-Produkte verbreiten. Für wie viele Wochen das geplant ist, steht noch nicht fest. Das Unternehmen nennt für den Marktstart der Geforce-Karten mit Fermi bisher nur das erste Quartal 2010.

Quelle : www.golem.de
Titel: Aus GeForce 210 wird 310
Beitrag von: SiLæncer am 27 November, 2009, 17:21
Nvidia bringt mit der GeForce 310 eine vermeintlich neue Grafikkarte in den OEM-Markt. Unter der Haube ist sie jedoch nichts weiter als eine umbenannte GeForce 210. Ihr GT218-Grafikchip (589 MHz) besitzt 16 Recheneinheiten, die mit 1402 MHz laufen. Die DDR2-Speicherbausteine fassen 512 MByte an Daten, sind mit 64 Datenleitungen angebunden und arbeiten mit 500 MHz. Dies führt zu einer Datentransferrate von 8 GByte/s.

(http://www.heise.de/imgs/09/4/4/8/3/6/9/1-efdddf186d11d318.png)

Die Low-Profile-Grafikkarte belegt im Referenzdesign einen Steckplatz und ist kompatibel zu DirectX 10.1 und OpenGL 3.1. Bildschirme bindet sie im Referenzdesign über einen Dual-Link-DVI-, VGA- und einen DisplayPort-Anschluss an. Die Grafikkarte reicht zur Wiedergabe von hochaufgelösten Videos aus und ist im Desktop-Betrieb sehr sparsam. Für die meisten aktuellen 3D-Spiele ist sie zu schwachbrüstig. Beispielsweise bietet Hewlett-Packard eine GeForce 310 DP mit je einem DVI- und DisplayPort-Ausgang im HP-Store  für rund 51 Euro an. GeForce-210-Karten sind bereits ab rund 35 Euro zu haben.

Quelle : www.heise.de
Titel: Nvidia-Grafikkarten dekodieren 3D-Blu-rays
Beitrag von: SiLæncer am 10 Dezember, 2009, 06:19
Die Spezifikation für die 3D-Blu-ray-Disc ist noch nicht einmal verabschiedet, da preschen die  Grafikkartenhersteller bereits mit Ankündigungen vor: Sowohl Nvidia als auch AMD wollen auf der CES in Las Vegas stereoskopische Filme von Blu-ray vorführen. Doch während AMD unkonkret bleibt, geht es bei Nvidia schon ans Eingemachte: So sollen aktuelle GeForce-Grafikkarten mit VP4-Videoengine die 3D-Inhalte von Blu-ray in Echtzeit abspielen können. Konkret nennt Nvidia neben der GT 220 und der GT 240 die angekündigten "Fermi"-Grafikkarten mit GF100-Chip. In der Nvidia-Auflistung fehlt die preisgünstige GeForce 210 – auch diese hat die VP4-Engine an Bord.

(http://www.heise.de/imgs/18/4/5/4/1/8/8/c0a4dfca1da64317.jpeg)
Die 3D-Vision-Shutterbrille von Nvidia erfordert ein Anzeigegerät, das 120 Bilder pro Sekunde entgegennehmen kann.

Kurios: In welchem Format die 3D-Filme auf der Blu-ray liegen sollen, wurde offiziell noch gar nicht bekanntgegeben. Der Vorsitzende der 3D-Arbeitsgruppe der Blu-ray Disc Association, Benn Carr, offenbarte allerdings schon im Sommer auf der IFA gegenüber heise online, dass man wohl auf den MVC (Multiview Codec) setzen wird, eine Erweiterung von H.264/MPEG-4 AVC, an der die Moving Pictures Expert Group (MPEG) bereits seit einigen Jahren arbeitet. Das "normale" MPEG-4 AVC (ohne MVC-Erweiterung) gehört neben VC-1 und MPEG-2 zu den für (2D-)Blu-rays erlaubten Codecs. Nvidia schreibt in seiner Pressemitteilung dann auch von dem "Codec, der voraussichtlich die Basis dafür sein wird, wie 3D-Inhalte auf der Blu-ray Disc kodiert werden".

Auch die Softwarehersteller sind gerüstet: Sowohl Cyberlink (PowerDVD Ultra), Roxio (CinePlayer BD) und ArcSoft (TotalMedia Theatre) wollen 3D-fähige Versionen ihrer Blu-ray-Abspielprogramme fertig haben, wenn die ersten räumlichen Scheiben erscheinen – das wird aber wohl vor dem dritten Quartal 2010 nicht passieren, laut Disney wird es 3D-Blu-rays sogar erst zum nächsten Weihnachtsfest zu kaufen geben.

Zwar wird bis dahin auch die Unterhaltungselektronik-Branche vermutlich entsprechende 3D-Standalone-Player und -Fernseher in den Regalen stehen haben – doch für Computer sind bereits jetzt 3D-Monitore und -Projektoren erhältlich. Die meisten Geräte basieren auf Nvidias 3D-Vision-Technik, die aus einer schnurlosen Shutterbrille und einem per USB angeschlossenen Infrarot-Emitter zur Synchronisation bestehen. Erforderlich ist hier ein Anzeigegerät, das 120 Bilder in der Sekunde entgegennehmen kann. Entsprechende 22-Zoll-Monitore von Samsung und ViewSonic sind bereits im Handel, einen 23,6-Zöller mit Full-HD-Auflösung hat Acer für Februar angekündigt. Von Asus gibt es zudem ein Notebook mit 3D Vision. Acer, ViewSonic und DepthQ haben Projektoren im Angebot, die mit der Nvidia-Brille zusammenarbeiten sollen.

Alle genannten Abspielprogramme werden Nvidias 3D-Vision-Brille unterstützen, ob es auch für andere 3D-Monitore (zum Beispiel von iZ3D, Zalman und Wazabee) Player-Software geben wird, ist noch unklar.

Quelle : www.heise.de
Titel: Nvidia verschiebt Fermi angeblich auf März 2010
Beitrag von: SiLæncer am 28 Dezember, 2009, 16:13
Nvidias kommende Grafikchipgeneration Fermi wird auf März 2010 verschoben, meldet die taiwanische Hardware-Website Digitimes unter Berufung auf Grafikkartenhersteller. Konkurrent AMD hingegen werde schon im Januar 2010 neue und vor allem günstigere Grafikkarten für DirectX 11 auf den Markt bringen.
Ursprünglich habe Nvidia den Marktstart von Fermi schon für November 2009 geplant, dann aber auf die CES Anfang Januar 2010 in Las Vegas verschoben. Nun informierte Nvidia seine Grafikkartenpartner über eine weitere Verschiebung, auf März 2010, meldet Digitimes.

Starten soll Fermi als 40-Nanometerchip mit GDDR5-Speicher als Fermi-GF100 im März 2010. Im zweiten Quartal 2010 soll dann die High-End-Version GF104 folgen.

Derweil steht AMD dem Bericht zu Folge kurz vor der Einführung der Grafikchips Radeon HD 5670/5570 (Redwood) und HD 5450 (Cedar), die ebenfalls in 40-Nanometertechnik gefertigt werden. Sie sollen bereits Ende Januar 2010 bzw. im Februar 2010 zu haben sein, heißt es unter Berufung auf nicht näher genannte Quellen.

Offizielle Stellungnahmen zu den Gerüchten gibt es weder von Nvidia noch von AMD.

Quelle : www.golem.de
Titel: Re: Nvidia verschiebt Fermi angeblich auf März 2010
Beitrag von: Snoop am 28 Dezember, 2009, 17:13
Also wenn die jetzt nochmal verschieben, dann ist der DX11-Zug erst mal abgefahren.

Aber kein Wunder, bei dem, was da so aus der Gerüchteküche herausweht. Probleme mit der Hitze, Probleme mit der Leistung, Probleme mit ... ach einfach mit allem.
Titel: Re: Nvidia verschiebt Fermi angeblich auf März 2010
Beitrag von: McCom am 28 Dezember, 2009, 18:25
Hm schade. An sich wollte ich mir nächstes Jahr mal wieder einen "Zukunftssicheren" Desktop gönnen. Dicke CPU, viel RAM, dicke GPU und dann Spaß haben... Aber so? Hm weiter warten...
Titel: Re: Nvidia verschiebt Fermi angeblich auf März 2010
Beitrag von: Snoop am 28 Dezember, 2009, 18:27
Eine "dicke GPU" kannst Du auch von ATI bekommen ... die 5970 oder so ...
Titel: Nvidia - Geforce 300M-Serie angekündigt
Beitrag von: SiLæncer am 31 Dezember, 2009, 12:09
Nvidia hat auf einer neuen Seite Notebook-Grafikprozessoren angekündigt, die die Bezeichnung Geforce 300M-Serie tragen.

Wie inzwischen fast schon zu erwarten war, handelt es sich dabei nicht um neue Chips, sondern wieder einmal um eine diesmal sehr umfangreiche Umbenennung der Chips, die durch den neuen Namen wohl den Eindruck einer neuen Generation vermitteln sollen.

Aus den von Nvidia auf der Seite veröffentlichten Daten wird jedoch klar, dass dies nicht der Fall ist. An der Spitze der »neuen« Chips steht sogar noch die Geforce GTX 280M, die nicht einmal umbenannt wurde.

Damit ist eindeutig, dass die »neuen« 300M-Chips weder neu noch schneller als die bisherigen Grafikchips sind.


Quelle : www.gamestar.de
Titel: Re: Nvidia - Geforce 300M-Serie angekündigt
Beitrag von: Snoop am 31 Dezember, 2009, 12:20
Das, was NVidia da abzieht, klingt ziemlich verzweifelt. Wenn mich nicht alles täuscht, dann gibt es die Firma nicht mehr lange, weil sie insolvent werden ...
Titel: Nvidia - Dual-Karte kurz nach GF100-Geforce?
Beitrag von: SiLæncer am 12 Januar, 2010, 17:06
Die Gerüchteküche brodelt weiter. Nach zwei Geforce-Karten mit, die wohl Geforce GTX 360 und GTX 380 heißen sollen, könnte eine Dual-GPU-Karte folgen.

Laut Fudzilla sollen zwischen dem Erscheinen der Einzelkarten und der Dual-Karte ein oder zwei Monate vergehen. Dies würde vermutlich Mai bedeuten, wenn man März oder April als Erscheinungsdatum für die ersten DirectX-11-Karten von Nvidia annimmt und es keine weiteren Probleme gibt.

Doch gerade bei einer Dual-Karte könnte sich ein Problem andeuten, denn angeblich werden die neuen Grafikkarten mit dem Fermi-basierten GF100-Grafikchip heißer als die bisherigen DirectX-10-Karten von Nvidia. Fudzilla schreibt, man habe die Karte selbst bereits zwei Mal gesehen und sie sei trotz eines Dual-Slot-Kühlers recht heiß gewesen.

Eine Dual-Karte müsste aber, abgesehen von eventuellen Taktsenkungen, mit der doppelten Hitze zurechtkommen. Vielleicht werden die Vorab-Modelle des GF100 aber auch schlicht heißer als die fertigen Varianten, beispielsweise wegen einer höheren, benötigten Spannung für stabilen Betrieb.

Quelle : www.gamestar.de
Titel: AMD Radeon HD 5670: DirectX 11 für unter 100 Euro
Beitrag von: SiLæncer am 14 Januar, 2010, 08:17
AMD baut seine Serie DirectX-11-fähiger Grafikkarten weiter aus: Die Radeon HD 5670 ist für die meisten 3D-Spiele ausreichend und vergleichsweise sparsam. Sie eignet sich außerdem zur Wiedergabe von Blu-ray-Filmen und unterstützt unter anderem Dolby True HD und DTS HD Master Audio. Die Grafikkarte ist je nach Speicheraustattung ab 80 Euro (512 MByte) beziehungsweise 95 Euro (1024 MByte) zu haben. AMD stellte uns ein Referenzmodell vorab zur Verfügung, das nur einen Steckplatz belegt.

(http://www.heise.de/imgs/18/4/6/6/3/9/6/HD5670.jpg-7c86e2948f794332.jpeg)

Auf der 17 Zentimeter langen Platine sitzt ein aus 627 Millionen Transistoren bestehender und mit 40-Nanometer-Strukturen gefertigter RV830-Grafikchip (Codename: Redwood), dessen 400 Shader-Prozessoren mit 775 MHz arbeiten – wie auch die 20 Textureinheiten und acht Rasterendstufen. Die GPU unterstützt universelle Berechnungen via DirectCompute 11 sowie OpenCL 1.0 und erreicht in der Theorie eine Rechenleistung von 620 Milliarden Gleitkommaoperationen pro Sekunde (GFlops) bei einfacher Genauigkeit – in der Praxis werden diese Werte jedoch nicht erreicht. Die GDDR5-Speicherbausteine laufen mit 2000 MHz (64 GByte/s) und sind wie bei den teureren HD-5700er-Karten  über 128 Datenleitungen mit dem Grafikchip verbunden.

Für anspruchsvolle Spiele ist die Radeon HD 5670 zumindest in Verbindung mit Antialiasing (AA) and anisotropem Filter (AF) zu schwachbrüstig. Im DirectX-11-Rennspiel "Colin McRae: Dirt 2" erreicht die Grafikkarte durchschnittlich 26 Bilder/s (fps) bei 1680×1050 Bildpunkten und maximalen Details (ohne AA/AF). Das ist jedoch noch immer zu wenig, um Slowdowns bei anspruchsvollen Situationen mit vielen Fahrzeugen und Partikeleffekten zu vermeiden. Dagegen hilft nur, die Details oder auch die Auflösung zu reduzieren. Beim Arcade-Flugsimulator "Hawx" verdoppelt sich in unseren Tests die Bildrate auf 38 fps bei 1280×1024 Pixeln (SXGA), wenn man auf 4xAA und 16xAF verzichtet. Für Crysis reicht es auch ohne Kantenglättung nicht für die "sehr hohe" Detailstufe, selbst bei "hoch" sind bei SXGA nur 30 fps drin. In mittleren Detaileinstellungen sind es bereits 55 fps; eine GeForce GTS 240 erreicht ähnliche Bildraten. Das beliebte Echtzeitstrategiespiel Anno 1404 stellt die Radeon HD 5670 selbst in der Full-HD-Auflösung 1920 × 1080 bei hoher Detailstufe flüssig dar (40 fps). Im 3DMark Vantage erreicht sie in unseren Tests 6293 Punkte (Preset: Performance). Insgesamt ist eine Radeon HD 5750 , die bereits ab 100 Euro zu haben ist, in Spielen durchschnittlich satte 40 Prozent schneller.

Haben Grafikchip und Speicher im Windows-Betrieb nur wenig zu tun, dann laufen sie mit reduzierten Taktfrequenzen (157/300 MHz) und Spannungen. Die Radeon HD 5670 zieht dann lediglich 14 Watt aus dem PCIe-Slot. Mit sehr leisen 0,5 Sone war der Lüfter aus dem geschlossenen Gehäuse dann kaum zu hören. Schließt man einen weiteren Monitor an eine der drei Buchsen an (DVI/DisplayPort/HDMI), dann sind es immer noch zufriedenstellende 27 Watt. Beim Spielen (0,9 Sone) klettert die Leistungsaufnahme auf durchschnittlich 50 Watt, beim Belastungstest Furmark (1,1 Sone) maßen wir Peaks über 60 Watt. Die Grafikkarte kann ihren gesamten Strombedarf also allein durch den PCIe-Slot decken und besitzt daher keine externen Stromanschlüsse.

Die Radeon HD 5670 ist für die meisten aktuellen Spiele, wenn auch teilweise nicht mit maximalen Details, ausreichend und steuert bis zu drei Monitore gleichzeitig an. Kein Schnäppchen ist zumindest die 1-GByte-Variante für 95 Euro, für fünf Euro mehr gibt es bereits die deutlich schnellere Radeon HD 5750. Außerdem ist bei den Herstellerkarten der Radeon HD 5670 hinsichtlich der Geräuschentwicklung Vorsicht geboten, da der relativ leise AMD-Referenzkühler wohl lediglich auf den Presse-Testexemplaren zum Einsatz kommt.

Mitte Februar plant AMD zudem die HD-5500- und HD-5400-Serie zu veröffentlichen und damit seine DirectX-11-Desktopserie zu komplettieren. Die Low-Profile-Karten sollen weniger als 50 Watt verbrauchen und auch als lüfterlose Varianten zu haben sein.

Vom Konkurrenten Nvidia sind vor Mitte März keinerlei DirectX-11-fähige Grafikkarten zu erwarten – und selbst dann dürfte zunächst ausschließlich der High-End-Markt bedient werden. Demgegenüber kündigte AMD vor kurzem im Rahmen der CES an, bereits zwei Millionen HD-5000-Grafikchips ausgeliefert zu haben.

Quelle : www.heise.de
Titel: Nvidias GF100: 512 Shader-Kerne und 64 Textureinheiten
Beitrag von: SiLæncer am 18 Januar, 2010, 09:15
Während AMD seit September 2009 bereits über 2 Millionen zu DirectX 11 kompatible Grafikchips abgesetzt hat, sind Nvidias GeForce-Konkurrenzkarten mit GF100-Grafikchips noch immer nicht erhältlich. Zumindest die neuentwickelte Architektur der zukünftigen Tesla-Rechenkarten hat Nvidia bereits zu deren Ankündigung im vergangenen Jahr erläutert. Nun gab die kalifornische Firma am Rande der CES in Las Vegas einige Details zu den ab Mitte März erwarteten GeForce-Grafikkarten mit DirectX-11-Unterstützung preis, verschwieg jedoch die finalen Taktfrequenzen, machte keine Angaben zur Leistungsaufnahme und zeigte auch keine aussagekräftigen Vergleichsbenchmarks.

(http://www.heise.de/imgs/18/4/6/8/2/1/8/GF100Ar.jpg-1495e08dc8436482.jpeg)
Die GF100-GPU nutzt 32 Streaming Multiprocessors mit jeweils 32 Shader-Rechenkernen.

Der GF100-Grafikchip besteht im Vollausbau aus insgesamt vier sogenannten Graphics Processing Clusters (GPC), die jeweils über eine eigene Raster-Engine verfügen und vier Streaming Multiprocessors (SM) enthalten. Die insgesamt 16 SMs besitzen jeweils einen 64 KByte großen konfigurierbaren Zwischenspeicher (Shared Memory/L1) und teilen sich einen 768 KByte fassenden, vereinheitlichten L2-Cache (Read/Write) sowie sechs 64-Bit-Speicherkanäle. Der Grafikchip ist dadurch über 384 Datenleitungen an den GDDR5-Speicher angebunden. Zum Vergleich: AMD koppelt GDDR5-Speicher und Grafikchip auf der Radeon HD 5870 mit 256 Leitungen. Hinsichtlich der verfügbaren Speicherbandbreite liegt Nvidia hier zumindest vorn.

 Jede SM beherbergt 32 Shader-Einheiten, die Nvidia als CUDA-Kerne bezeichnet. Insgesamt besitzt der GF100-Chip, zumindest im höchsten Ausbau, also 512 solcher Kerne – der aktuelle GT200b-Chip kommt auf maximal 240 Einheiten. 16 Load/Store-Einheiten sorgen pro SM für den Transfer der Daten zwischen den Rechenkernen und den Zwischenspeichern.

An jedem der 16 SMs ist ein Cluster aus vier Textureinheiten (TMUs) angedockt, die nun effizienter arbeiten sollen und unter anderem auch spezielle DirectX-11-Texturkompressionsformate und Gather4-Operationen unterstützen. Insgesamt verfügt der GF100 also über lediglich 64 TMUs. Dies scheint für einen Chip, mit dem Nvidia die Leistungskrone beanspruchen will, zu wenig, besaß doch bereits der GT200b einer GeForce GTX 285 gleich 80 TMUs. Der Knackpunkt scheint hierbei jedoch die Taktfrequenz zu sein. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz ansteuern. Unbestätigten Gerüchten zufolge sollen die Textureinheiten gar so flott wie die Shader-Rechenkerne laufen („Hotclock“), was ihre geringe Anzahl mehr als kompensieren würde. Diese Taktfrequenz betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen.

Die unter anderem für die Kantenglättung (Antialiasing/AA) wichtigen ROPs dürften jedoch weiterhin mit der langsameren "Graphics Clock" laufen, im GF100-Grafikchip sind davon 48 vorhanden (GeForce GTX 285: 32, Radeon HD 5870: 32), unterteilt in insgesamt 6 ROP-Partitionen. Die Kantenglättungsleistung will Nvidia deutlich verbessert haben, besonders beim achtfachen Antialiasing soll die Bildrate nicht mehr so drastisch einbrechen wie noch beim GT200b-Chip. So sei der GF100 um bis zu den Faktor 2,3 schneller als der GT200b einer GeForce GTX 285. Zudem unterstützt die GF100-GPU nun auch 32x Coverage Sampling Antialiasing, bei dem acht Farb- und 24 Coverage-Samples zur Kantenglättung genutzt werden, und bietet zudem verbessertes Transparency Multisampling.

Um den Anforderungen von DirectX 11 gerecht zu werden, müssen Grafikchips Tessellation unterstützen, durch das sich geometrische Details von Polygonmodellen verfeinern lassen. Beim GF100-Chip beinhaltet jeder Streaming Multiprocessor eine eigene Tessellation-Engine (PolyMorph Engine). Laut Nvidia bearbeiten die 16 Tessellation-Engines geometrische Daten parallel, dadurch soll die Tessellation-Leistung der GF100-GPU bis zu sechsmal höher sein als die des RV870-Chips der AMD-Konkurrenzkarte Radeon HD 5870. Diese Behauptungen fußen jedoch auf speziell für den GF100-Chip selektierten Geometrie-Benchmarks. Wie hoch die tatsächliche Spieleleistung der GF100-Grafikkarte im Vergleich zu den derzeitigen AMD-Spitzenmodellen sein wird, steht weiterhin in den Sternen.

Auch wann die ersten GF100-Karten in den Handel kommen sollen, ist noch immer unklar. Brancheninsider gehen jedoch nicht von einem Marktstart vor Mitte März aus. Zumindest die Anfang März in Hannover stattfindende IT-Messe Cebit dürfte Nvidia nutzen, um die finalen Spezifikationen der GF100-Grafikkarten zu veröffentlichen. Bis dahin hat Konkurrent AMD seine DirectX-11-Serie von HD-5000-Karten bereits komplettiert.

Quelle : www.heise.de
Titel: Nvidia: DirectX-11-Spitzenmodell heißt GeForce GTX 480
Beitrag von: SiLæncer am 02 Februar, 2010, 13:10
Nvidia hat die Namen der kommenden DirectX-11-Grafikkarten mit GF100-Grafikchip bekannt gegeben: GeForce GTX 480 und GTX 470 sollen die im März erwarteten High-End-Modelle heißen. Dabei wird der Grafikchip der 480er-Variante über 512 Shader-Rechenkerne und wohl 1,5 GByte GDDR5-Grafikspeicher verfügen. Die GPU ist dabei mit 384 Datenleitungen angebunden. Weiterführende Details zu den Chip-Innereien hat Nvidia bereits Mitte Januar verraten. Die GeForce GTX 470 ist etwas langsamer und dürfte 448 Rechenkerne und ein 320-Bit-Speicherinterface besitzen. Zu den Preisen und zum genauen Erscheinungsdatum äußerte sich Nvidia  nicht.

Dass Nvidia die DirectX-11-Grafikkarten als 400er-Serie laufen lässt, ist eine kleine Überraschung, schließlich rechnete man beim High-End-Modell bis vor Kurzem noch mit einer Namensgebung in der 300er-Klasse, etwa GeForce GTX 380. Dies deutet darauf hin, dass Nvidia die GeForce-300-Grafikkarten lediglich mit DirectX-10.1-fähigen GPUs bestückt. Vor Kurzem brachten die Kalifornier etwa die GeForce 210 als GeForce 310 in den OEM-Markt. Und auch die DirectX-10.1-fähigen Notebook-Grafikchips lässt Nvidia als 300M-Serie laufen.

Quelle : www.heise.de
Titel: Radeon HD 5450: Die erste DirectX-11-Einsteigergrafikkarte
Beitrag von: SiLæncer am 03 Februar, 2010, 19:00
Da ja hier sonst kaum wer was macht ... 

Als erste Low-End-Grafikkarte der HD-5000-Serie stellt AMD die Radeon HD 5450 vor. Die Grafikkarte ist zu DirectX 11 kompatibel und für die Blu-ray-Wiedergabe geeignet. Für anspruchsvolle Spiele ist der aus 292 Millionen Transistoren bestehende Cedar-Grafikchip mit seinen lediglich 80-Shader-Prozessoren (650 MHz), 8 Textureinheiten und 4 Rasterendstufen jedoch zu langsam. So erreichte die Radeon HD 5450 in unseren Tests beispielsweise 1291 Punkte im 3DMark Vantage (Preset: Performance) und ist damit etwas schneller als eine Radeon HD 4350 (848 Punkte) oder auch Nvidias GeForce 210 (735 Punkte).

(http://www.heise.de/imgs/18/4/7/6/6/5/6/5450.jpg-bdba39513d02f8ee.jpeg)

Insgesamt 64 Datenleitungen binden den DDR3-Speicher an, der – je nach Hersteller – mit bis zu 800 MHz Taktfrequenz arbeitet und 512 oder 1024 MByte an Daten fasst. Es wird auch Modelle mit etwas langsamerem DDR2-Speicher geben. Die Radeon HD 5450 ist kompatibel zu DirectCompute 11 und OpenCL 1.0 und damit für entsprechende universelle Berechnungen geeignet.

Besonders niedrig ist die Leistungsaufnahme der Low-Profile-Grafikkarte: So verbrauchte unser lüfter- und damit lautloses Testexemplar von Sapphire unter Last nicht mehr als 15 Watt, im Leerlauf gar nur knappe 7 Watt. Mit zwei und mehr Monitoren erhöhte sich die Leistungsaufnahme auf 9 Watt. AMD gibt für sein Referenzmodell eine TDP von 19,1 Watt an. Daher kommt die Radeon HD 5450 ohne externe Stromanschlüsse aus und deckt ihren gesamten Strombedarf aus dem PCIe-x16-Slot. Die sparsame DirectX-11-Grafikkarte bindet bis zu drei Displays gleichzeitig an und dürfte in den kommenden Tagen für um die 50 Euro verfügbar sein.

Quelle : www.heise.de
Titel: AMD enthüllt die Radeon HD 5570
Beitrag von: SiLæncer am 09 Februar, 2010, 09:33
Neue Woche, neue Karte: AMD geht das Vorstellen neuer DirectX-11-fähiger Grafikkarten derzeit flink von der Hand. Nun bringt das Unternehmen eine abgespeckte Variante der Radeon HD 5670 heraus und nennt die neue Pixelschleuder Radeon HD 5570. Wie alle Grafikkarten aus der HD-5000-Serie unterstützt sie die Blu-ray-Wiedergabe, ist kompatibel zu DirectCompute 11, OpenCL 1.0 und ATI Stream – und unterstützt damit universelle Berechnungen, wie beispielsweise das Transkodieren von Videomaterial.

(http://www.heise.de/imgs/18/4/7/8/3/8/1/HD5570_ctonline.jpg-a6fdb3efaa655010.jpeg)

Auf der Low-Profile-Platine der Radeon HD 5570 werkelt – wie bei der Radeon HD 5670 – ein im 40-Nanometer-Verfahren gefertigter und aus 627 Millionen Transistoren bestehender Redwood-Grafikchip mit 400 Shader-Rechenkernen. Diese arbeiten mit 650 MHz etwas langsamer als bei der Radeon HD 5670 (775 MHz), wie auch die 20 Textureinheiten und acht Rasterendstufen. Doch der für die 3D-Leistung wichtigste Unterschied zur großen Schwesterkarte ist die wesentlich geringere Datentransferrate. So sieht AMD keine schnellen GDDR5-, sondern billigere und langsame DDR3-Speicherbausteine vor, die bei einer 128-Bit-Anbindung mit 900 MHz arbeiten (28,8 GByte/s). Zum Vergleich: Die Radeon HD 5670 profitiert vom 2000 MHz schnellen GDDR5-Speicher (64 GByte/s) und ist in Spielen bis zu 20 Prozent flinker.

Dennoch ist die Radeon HD 5570 für aktuelle Spiele geeignet – sofern man bereit ist, bei den anspruchsvollen Action-Krachern auf die volle Detailstufe und hohe Auflösungen zu verzichten. Im für die Grafikkarte eher genügsamen Echtzeitstrategiespiel Anno 1404 erreicht die Radeon HD 5570 beispielsweise bei 1680×1050 Bildpunkten in hohen Details noch spielbare 33 Bilder pro Sekunde (fps) im Durchschnitt (ohne Antialiasing). Beim Rennspiel Dirt 2 reicht es zumindest in der mittleren Detailstufe noch für 35 fps in besagter Auflösung. 4497 Punkte schafft sie im 3DMark Vantage, eine Radeon HD 5670 immerhin 6293, die GeForce GT 240 liegt mit 5483 Punkten dazwischen.

(http://www.heise.de/imgs/18/4/7/8/3/8/1/HD5570_Arch.jpg-8c5b89ed0005c308.jpeg)

Mit durchschnittlich 9 Watt gibt sich die Radeon HD 5570 im Leerlauf bescheiden, bei mehreren gleichzeitig angesteuerten Monitoren sind es sehr gute 12 Watt. In 3D-Spielen verheizt sie nicht mehr als 30 Watt im Mittel. Mit kurzzeitigen Spitzen von maximal 38 Watt blieben die Werte im Test noch unter der von AMD angegebenen TDP von knapp 43 Watt. Das uns von AMD zugeschickte Referenzmodell war im Windows-Betrieb bei 0,6 Sone lauter als nötig, schließlich blieb die GPU mit knapp über 40 Grad vergleichsweise kühl. Beim Spielen drehte der Lüfter schneller und verursachte bis zu 0,9 Sone; ein noch erträglicher Wert.

Maximal drei Bildschirme bindet die Radeon HD 5570 gleichzeitig an und ermöglicht via Eyefinity das Strecken des (Spiel-)Bildes über alle angeschlossenen Bildschirme. Damit sind extrem hohe Auflösungen wie 5760×1080 kein Problem, sofern man die Displays zuvor im Catalyst-Grafiktreiber als Display Group zusammengefasst hat. Laut AMD unterstützen über 80 Spiele, etwa Microsofts Flight Simulator X oder auch Call of Juarez 2 solche hohen Auflösungen. Doch genau dafür reicht die Rechenleistung von AMDs neuester DirectX-11-Karte in Verbindung mit aktuellen Spielen nicht aus.

(http://www.heise.de/imgs/18/4/7/8/3/8/1/Anno_ctonline.jpg-9d3f286dec05dd07.jpeg)
Anno 1404 läuft auch auf einer Radeon HD 5570 mit hohen Details noch flüssig, wenn man die Kantenglättung ausschaltet.

Die Radeon HD 5570 ist bei einem Preis von 75 Euro kein Schnäppchen. Wem die DirectX-11-Unterstützung nicht wichtig ist, bekommt bereits ab 80 Euro die deutlich schnellere Radeon HD 4850 mit 800 Shader-Rechenkernen. Wie uns etwa Powercolor bestätigte, soll die Radeon HD 5570 bis spätestens Anfang nächster Woche in ausreichenden Stückzahlen verfügbar sein. Ende des Monats will AMD voraussichtlich noch die Radeon HD 5830 vorstellen, die rund 200 Euro kosten und deren 3D-Leistung etwa 20 Prozent unter der einer Radeon HD 5850 liegen soll, wie heise online aus gut unterrichteten Branchenkreisen erfuhr.

Quelle : www.heise.de
Titel: Nvidia - Geforce GTX 480 angeblich auf der CeBIT
Beitrag von: SiLæncer am 10 Februar, 2010, 13:29
Die Wartezeit auf die neuen Nvidia-Karten könnte in weniger als vier Wochen zu Ende gehen, denn angeblich sollen die Geforce GTX 470 und GTX 480 auf der CeBIT präsentiert werden.

Zumindest behauptet dies Fudzilla, schränkt aber gleichzeitig ein, dass es sich dabei wohl nicht um die offizielle Markteinführung handeln dürfte. Einige Grafikkarten-Herstellen sollen die neuen Karten jedoch mit Segen von Nvidia auf jeden Fall auf der Messe vorführen.

Sollte dies stimmen, könnte der Vorstellungstermin dann ebenfalls in greifbarer Nähe liegen. In der Gerüchteküche gibt es allerdings Zweifel daran, dass Nvidia gleich zum Start ausreichend Karten in den Handel bringen kann.
Dann würden die Nvidia-Nutzer neben der langen Wartezeit bisher wohl einige Zeit auch noch das gleiche Schicksal erleiden wie potentielle Käufer der ATI Radeon HD 5870, die erst 2,5 Monate nach der Vorstellung wirklich bei vielen Händlern vorrätig war.

Quelle : www.gamestar.de
Titel: Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen?
Beitrag von: Snoop am 19 Februar, 2010, 10:45
Ich hätte wirklich drauf gewettet:... die 480 kommt später bzw. gar nicht - dann wird meine nächste Graka wohl eine ATi ein:

Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen?
Eigentlich soll es nun nur noch ein paar Wochen dauern, bis Nvidia seine neuen DirectX-11-Grafikkarten vorstellt und sich der Konkurrenz von AMD stellt.
Nvidia Geforce GTX 480 Nvidia Geforce GTX 480 Doch was SemiAccurate schreibt, klingt alles anderes als positiv. Der GF100-Chip sei defekt und irreparabel, heiß, langsam, zu spät und kaum zu produzieren. Schlimmer noch, Charlie Demerjian hält es für wahrscheinlich, dass Nvidia nur die 9000 bereits bezahlten Wafer für die Herstellung der GF100-Grafikchips verwenden wird und die damit produzierten Karten mit hohen Verlusten verkauft.

Danach würde sich Nvidia auf den »Fermi 2« konzentrieren, der aber in 28nm produziert werden müsste, um die Probleme zu lösen. Nvidia hätte dann bis 2011 nur PR zu bieten, so SemiAccurate, denn die kleineren Grafikchips auf Fermi-Basis für Mainstream-Karten gäbe es bisher nur auf dem Papier.
An dieser Stelle muss man natürlich erwähnen, dass Demerjian alles andere als ein Nvidia-Freund ist, was sich auch auf die Meldungen auswirkt. Doch was die neuen Grafikchips von Nvidia und deren Verzögerung angeht, waren die Vorhersagen bisher erstaunlich zutreffend. NordicHardware meldet in diesem Zusammenhang, dass selbst Nvidia-Partner nur sehr wenig über die Grafikkarten oder deren Markteinführung wissen. Wir haben Nvidia um eine Stellungnahme gebeten, doch dort gab man keinen Kommentar dazu ab.

Quelle: Gamestar (http://anonym.to/?http://www.gamestar.de/hardware/news/grafikkarten/2312781/nvidia_geforce_gtx_480.html)
Titel: Nvidia präsentiert Fermi-Grafikkarten am 27. März
Beitrag von: SiLæncer am 22 Februar, 2010, 20:07
Nvidia will die mehrfach verschobenen, zu DirectX 11 kompatiblen Grafikkarten mit GF100/Fermi-Grafikchips am 27. März offiziell vorstellen. Dies geht zum einen aus einer Facebook-Mitteilung als auch aus Gesprächen von heise online mit Nvidia-Boardpartnern hervor. Die Hüllen sollen im Rahmen der dreitägigen Spieleveranstaltung PaxEast  im US-amerikanischen Boston fallen – um 1 Uhr nachts in Deutschland. Ebenfalls zu dieser Zeit dürften die ersten Testberichte von den GeForce-Karten ins Internet gelangen.

Am Rande der CES gab Nvidia in Las Vegas zwar bereits einige Details zur Architektur der GF100-Grafikchips bekannt. Jedoch verschwiegen die Kalifornier die finalen Taktfrequenzen, zeigten keine aussagekräftigen Vergleichsbenchmarks und machten keinerlei Angaben zur tatsächlichen Leistungsaufnahme. Als gesichert gilt, dass Nvidia zunächst zwei High-End-Modelle vorstellen wird. Die GeForce GTX 480 arbeitet mit 512 Shader-Rechenkernen und 64 Textureinheiten, eine GeForce GTX 470 rechnet mit 448 Rechenkernen etwas langsamer.

Quelle : www.heise.de
Titel: Re: Nvidia präsentiert Fermi-Grafikkarten am 27. März
Beitrag von: Snoop am 22 Februar, 2010, 20:20
In mehreren Ecken des Internets munkelt man, dass die neuen Fermi-Chips sauheiß werden und für ein Flaggschiff nicht wirklich viel können:

Nvidia Geforce GTX 480 - Kaum schneller als die Radeon HD 5870? - Quelle Gamestar (http://anonym.to/?http://www.gamestar.de/hardware/news/grafikkarten/2312855/nvidia_geforce_gtx_480.html)

Nvidia Geforce GTX 480 - Keine Massenproduktion wegen Problemen? - Quelle Gamestar (http://anonym.to/?http://www.gamestar.de/hardware/news/grafikkarten/2312781/nvidia_geforce_gtx_480.html)

Die bekommen ihren A**** einfach nicht hoch ... traurig, traurig! Und ich habe mich schon so auf einen Preiskampf gefreut. Endlich mal wieder eine schnelle Karte für erschwingliche €uros ... wenn schon der Speicher zur Zeit in schwindelnden Höhen kursiert ...
Titel: GeForce GT 330: Nvidias Verwirr-Karte für den OEM-Markt
Beitrag von: SiLæncer am 23 Februar, 2010, 19:51
Für den OEM-Markt bringt Nvidia wieder einmal vermeintlich neue Grafikkarten: Neu scheinen an der GeForce GT 320 , GT 330 und GT 340 allerdings nur die Bezeichnungen zu sein. Die GPU der GeForce GT 340 besitzt 96 Shader-Rechenkerne (1340 MHz) und ist mit 128 Datenleitungen an den 512 beziehungsweise 1024 MByte fassenden GDDR(5)-Speicher angebunden, der bei 1700 MHz für eine Datentransferrate von knapp 55 GByte/s sorgt. Die Grafikkarte (TDP: 69 Watt) entspricht damit einer herkömmlichen GeForce GT 240 und unterstützt DirectX 10.1.

Soll es ein Rechner werden, in dem eine GeForce GT 330 (TDP: 75 Watt) steckt, dann muss man genau auf deren technische Daten achten. Denn die GeForce GT 330 gibt es sowohl mit 96 als auch 112 Shader-ALUs, die jeweils zwischen 1250 und 1340 MHz Taktfrequenz erreichen. Textureinheiten und Rasterendstufen laufen mit 500 beziehungsweise 550 MHz. Beim Speicher verbaut Nvidia 800 MHz DDR3- oder nur 500 MHz langsame DDR2-Bausteine. Diese fassen entweder 1024 oder 2048 MByte an Daten und werden mit 128, 192 oder 256 Leitungen angebunden.

Mit dieser Vielfalt an Möglichkeiten dürfte es den Kaliforniern gelingen, auch den letzten Kunden zu verwirren. Allein aus der Bezeichnung GeForce GT 330 lässt sich also nicht mehr präzise die Spieleleistung ablesen. Welche Chips verbaut sind, kommt laut Nvidia ganz auf das jeweilige Modell an. Höchstwahrscheinlich handelt es sich um den altbekannten G92(b) – schließlich unterstützt die GeForce GT 330 nach Aussagen von Nvidia Deutschland lediglich DirectX 10.0. Damit ist nun zumindest klar, dass Nvidia bei der GeForce-300-Serie im OEM-Markt nicht ausschließlich Grafikkarten anbieten wird, die mindestens DirectX 10.1 unterstützen.

Bilderstrecke : http://www.heise.de/newsticker/bilderstrecke/bilderstrecke_938502.html?back=938483

Die GeForce GT 320 ist die schwächste der frisch gelisteten Grafikkarten und verheizt maximal nur 43 Watt. Ihr zu DirectX 10.1 kompatibler Grafikchip rechnet mit 540 MHz, die 72 Recheneinheiten laufen mit 1302 MHz. Der 1 GByte große Speicher (790 MHz) ist mit 128 Leitungen angebunden; die Datentransferrate liegt bei 25,3 GByte/s.

Quelle : www.heise.de
Titel: Radeon HD 5830: AMDs teurer Lückenfüller
Beitrag von: SiLæncer am 25 Februar, 2010, 09:28
AMD schließt mit der zu DirectX 11 kompatiblen Radeon HD 5830 die Performance-Lücke zwischen der Radeon HD 5770 und Radeon HD 5850. Die Grafikkarte stellt auch aktuelle Spiele flüssig in der Full-HD-Auflösung dar und unterstützt bei der Blu-ray-Wiedergabe auch die Bild-in-Bild-Funktion. Außerdem lassen sich bis zu drei Bildschirme via Eyefinity-Technik mit je bis zu 2560×1600 Pixeln gleichzeitig ansteuern. Auch universelle Berechnungen übernimmt die Karte via OpenCL 1.0, DirectCompute 11 und ATI Stream (SP-Rechenleistung: 1,79 TFlops).

(http://www.heise.de/imgs/09/4/8/6/8/3/7/Gigabyte.jpg-1550db9530e5bb0c.jpeg)

Auf der 28-Zentimeter langen Platine sitzt ein Cypress-Grafikchip, dessen 1120 Shader-Rechenkerne, 56 Textureinheiten und 16 Rasterendstufen mit 800 MHz rechnen – und damit etwas schneller als die der Radeon HD 5850 (725 MHz), welche jedoch über jeweils mehr Einheiten verfügt (1440/72/32). Den 1 GByte großen und 2000 MHz schnellen GDDR5-Speicher bindet AMD mit 256 Datenleitungen an.

Besonders die im Vergleich zu den restlichen HD-5800er-Karten halbierte Anzahl der Rasterendstufen limitiert die Performance der Radeon HD 5830, die dadurch in einigen Spielen lediglich so schnell wie eine Radeon HD 4890 ist. So erreichten beide genannten Karten in Crysis jeweils gleiche Bildraten; beispielswiese 24 Bilder pro Sekunde (fps) in der Full-HD-Auflösung 1920×1080 bei sehr hohen Details und zweifachem Antialiasing. In Stalker Clear Sky ist die neue AMD-Karte der Radeon HD 4890 maximal um zwei Bilder pro Sekunde überlegen, gleiches gilt bei der Arcade-Flugsimulation HAWX. Lediglich in World in Conflict kann die Radeon HD 5830 etwas Abstand gewinnen.

Mit maximal 175 Watt verheizt die Radeon HD 5830 unter Last laut AMD etwas mehr als die schnellere Radeon HD 5850 (151 Watt), die Chiptemperatur kletterte in unseren Tests dann auf über 80 Grad Celsius. Die Stromversorgung stellt AMD über zwei sechspolige Anschlüsse sicher. Im Leerlauf senkt die Radeon HD 5830 GPU- und Speicher-Taktfrequenzen (157/300 MHz) und ist mit 25 Watt vergleichsweise sparsam; ihr Lüfter mit 0,5 Sone angenehm leise. Jedoch werden AMDs Boardpartner, etwa Gigabyte, HIS, Powercolor, Sapphire und XFX, alle auf eigene Designs setzen.

Die Radeon HD 5830 soll laut AMD ab kommender Woche in ausreichenden Stückzahlen erhältlich sein – jedoch ist sie beim anvisierten Preis von zirka 230 Euro deutlich zu teuer. Schließlich ist eine ähnlich schnelle Radeon HD 4890 bereits für rund 150 Euro zu haben, bietet dafür jedoch keine DirectX-11- und Eyefinity-Unterstützung.

Mitte März will AMD zudem die spezielle Eyefinity-Variante der Radeon HD 5870 in den Handel bringen, die bis zu sechs Monitore via Mini-DisplayPort-Buchsen ansteuert. Über die Eyefinity-Technik lassen sich die Auflösungen der angeschlossenen Monitore auch zusammenfassen, sodass Spiele etwa mit 5760 × 2160 Bildpunkten darstellbar sind. Gleich fünf Adapter legen die Hersteller laut AMD bei: je zweimal MiniDP zu DP und DVI (Single Link) sowie einmal zu HDMI. Die 1600 Shader-Prozessoren arbeiten mit 850 MHz, der 2 GByte große GDDR5-Speicher mit 2400 MHz. Die Multimonitor-Karte soll im Leerlauf 34 Watt Leistung aufnehmen und wird voraussichtlich ab 11. März für nicht weniger als 400 Euro erhältlich sein.

Quelle : www.heise.de
Titel: Re: Radeon HD 5830: AMDs teurer Lückenfüller
Beitrag von: Snoop am 26 Februar, 2010, 15:31
Schade - von der hätte ich mir mehr erwartet, aber solange Nvidia nur Mist raus bringt (oder gar nichts), kann AMD machen, was sie wollen. Die 5830 ist überteuert bzw. kann für den Preis eindeutig zu wenig.
Titel: Nvidia Geforce GTX 480 - Neue Bilder mit entferntem Kühler
Beitrag von: SiLæncer am 03 März, 2010, 10:43
Obwohl Nvidia auf der CeBIT die neue Geforce GTX 480 streng bewacht, sind nun Bilder der Karte mit abgenommenem Kühler aufgetaucht.

Wie TechPowerUp meldet, stammen die an mehrere Internetseiten geschickten Bilder von einer Quelle, die anonym bleiben möchte. Einige Stellen der Fotos sind daher auch mit schwarzen Balken versehen.

(http://images.idgentertainment.de/images/idgwpgsgp/bdb/2100435/800x600_prop.jpg)

Abgebildet ist die Referenz-Platine der Geforce GTX 480 mit dem GF100-Grafikchip und seinem sehr großen Heatspreader. Insgesamt verfügt die Karte über 12 Speicherchips für insgesamt 1.536 MByte Grafikspeicher, die über ein 384-Bit-Speicherinterface angebunden sind.
Über einen 8-Pin- und ein 6-Pin-Anschluss wird die Karte mit Strom versorgt. Die Karten sollen außerdem auf der Oberkannte ein beleuchtetes Geforce-Logo besitzen. Der Kühler, dessen Kontaktseite zur Karte ebenfalls zu sehen ist, verwendet Heatpipes und wirkt ansonsten recht unspektakulär.

Quelle : www.gamestar.de
Titel: Nvidias Fermi: Leistung der GeForce GTX 470 enthüllt
Beitrag von: SiLæncer am 04 März, 2010, 16:17
Nvidias Fermi-Grafikkarten lassen noch bis Ende März auf sich warten, dennoch liegen heise online exklusiv erste Benchmark-Werte einer Vorabversion der GeForce GTX 470 vor. Demnach liegt die DirectX-11-Grafikkarte im 3DMark Vantage leistungsmäßig zwischen der Radeon HD 5850 und der HD 5870. So erreichte die GTX 470 im 3DMark Vantage (X-Mode) 7511 Punkte, eine Radeon HD 5870 mit 8730 Punkten deutlich mehr. Eine HD 5850 lag bei 6430 Punkten, die GeForce GTX 285 im gleichen Testsystem erreichte 6002 Punkte. In der Performance-Voreinstellung zeigt sich ein ähnliches Bild, jedoch liegt die Radeon HD 5870 (17303) nur noch leicht vor der GeForce GTX 470 (17156). Eine Radeon HD 5850 erreichte 14300 Punkte.

Interessant sind insbesondere auch die Ergebnisse des Unigine-Benchmarks, der auf DirectX 11 und Tessellation setzt. Nvidia hatte im Vorfeld angekündigt, die Fermi-Grafikkarten würden mit aktiviertem Tessellation die HD-5800er-Karten deutlich überflügeln. Dies konnten wir mit den vorläufigen Benchmark-Resultaten auf der CeBIT in Hannover nachstellen. So erreichte bei vierfachem Antialiasing die GeForce GTX 470 durchschnittlich 29 Bilder pro Sekunde (fps), eine Radeon HD 5870 rund 27 fps, die HD 5850 nur 22 fps. Bei achtfachem Antialiasing allerdings bricht die Leistung der GeForce GTX 470 stark ein. Sie erreicht dann nur noch 20 fps, eine Radeon HD 5870 ist bei knapp 23 fps deutlich schneller, die Radeon HD 5850 (19 fps) unterliegt nur knapp.

Auch in das BIOS der vorläufigen Testkarte konnten wir einen Blick werfen. Die Shader-Rechenkerne liefen dabei mit 1255 MHz, der GDDR5-Speicher mit lediglich 1600 MHz (Read-Write-Clock). Nvidia scheint also den Speicher deutlich langsamer als AMD zu takten, gleicht das jedoch durch die höhere Anzahl an Datenleitungen wieder aus. Jedoch sind die Spezifikationen der Testkarte noch nicht final, daher sind die Testresultate auch mit Vorsicht zu genießen, in der 3D-Leistung sind jedoch keine großen Veränderungen mehr zu erwarten.

Derzeit gehen sogar Gerüchte um, dass der Grafikchip der GeForce GTX 480 nicht über die vollen 512 Shader-Rechenkerne verfügen wird. Selbst Nvidia wollte uns im Gespräch nicht bestätigen, dass der GTX 480 tatsächlich 512 Kerne besitzt. So wies man darauf hin, dass man im Januar zwar den GF100 im Vollausbau vorgestellt habe (also 512 Kerne), jedoch nie explizit angekündigt hätte, dass der GeForce GTX 480 tatsächlich über diese Zahl von Rechenkernen verfügt. Tatsächlich hat Nvidia einige Zeit nach der Architekturvorstellung im Januar lediglich die Namen der ersten beiden High-End-Grafikkarten angekündigt.

Klarheit wird es also erst am 27. März geben, wenn Nvidia die Karte offiziell vorstellen will. Noch scheinen selbst die Boardpartner nicht viel über die kommenden Karten zu wissen, worüber sich einige Hersteller verärgert zeigten. So will Nvidia seine Partner erst am kommenden Montag über die endgültigen Spezifikationen informieren, die ersten Karten sollen zwei Wochen später in deren Lagern eintreffen. Zwar zeigten sich einige Partner bereits zuversichtlich, dass durchaus ausreichende Stückzahlen der neuen Karten ab dem 29. März vorrätig sein werden. Sorgen bereitet ihnen jedoch das Preis-Leistungs-Verhältnis.

Quelle : www.heise.de
Titel: Nvidia zeigt GTX 480 mit Benchmark "Heaven"
Beitrag von: SiLæncer am 08 März, 2010, 12:18
Nach der Cebit gibt es ein neues Informationshäppchen zu Nvidias kommendem Grafikflaggschiff. Diesmal zeigt das Unternehmen die GTX 480 mit dem DirectX-11-Test "Heaven" sowie mit drei Monitoren im 3D-Betrieb.

Nachdem Nvidia auf der Cebit erfolglos versucht hatte, die ersten Grafikkarten mit Fermi-Architektur vor der Presse zu verstecken, erschien am Wochenende unmittelbar nach der Messe ein neues Video im Youtube-Kanal des Chipherstellers.

Marketingdirektor Tom Peterson zeigt darin ein Testsystem mit einer serienreif wirkenden GTX 480. Zu den Spezifikationen - Takte, Leistungsaufnahme und Zahl der Rechenwerke stehen noch nicht fest - macht Peterson keine Angaben. Allein der Prozessor wird dokumentiert, ein Core i7 960 mit 3,2 GHz steckt in der Plattform.

Damit wirkt das Unigine-Demo "Heaven", das auch einen Benchmarkmodus bietet, recht flüssig. Im Video ist aber zu sehen, dass Nvidia dabei Antialiasing ausgeschaltet hat. Den ersten unabhängigen Benchmarks mit einer GTX 470 zufolge, also dem kleineren Modell, brechen die Fermi-Karten mit Antialising stärker ein als die Serie Radeon 5000.

Das auf der Cebit nur als 3D-Darstellung gezeigte Diagramm, das die Überlegenheit der neuen Nvidia-Karten bei Tesselation zeigen soll, ist in dem Video in einer besser lesbaren Version vorhanden. Darin ist zu sehen, dass die 5870 zu Beginn und am Ende von "Heaven" kaum langsamer ist, in der Mitte, wo von Tesselation stark Gebrauch gemacht wird, ist die GTX 480 aber deutlich schneller. Nvidia gibt für diesen Bereich sogar die doppelte Leistung an.

Das Endresultat des Benchmarks zeigt Nvidia in dem Video nicht. Den inoffiziellen Tests zufolge ist eine GTX 470 dabei mit Tesselation etwas schneller als eine Radeon 5850. Gegen Ende des Clips ist aber noch eine kurze Vorführung von dem zu sehen, was Nvidia "3D Vision Surround" nennt. Mittels drei 120-Hertz-Monitoren von je 1.920 x 1.080 Pixeln und LCD-Shutterbrille sollen so unter anderem Rennspiele das gesamte Gesichtsfeld des Anwenders füllen.

Wie Nvidia bereits bestätigte, sollen GTX 480 und 470 ab dem 29. März 2010 im Hardware-Versandhandel zu haben sein. Zu den Preisen gibt es noch keine offiziellen Angaben.

Quelle : www.golem.de
Titel: Nvidias GTX 480 soll kurz vor der Auslieferung stehen
Beitrag von: SiLæncer am 12 März, 2010, 11:07
Keine Woche ohne eine gezielte Indiskretion zu Nvidias kommendem Grafikflaggschiff Geforce GTX 480: Diesmal gibt es Fotos. Aber nicht von der Karte selbst, die Nvidia mehrfach zeigte, sondern von ihrer Verpackung. Der Nvidia-Partner Inno3D hat sie kommentarlos in sein Facebook-Album gestellt.

Nachdem Nvidias erste DirectX-11-Grafikkarten nun schon über ein halbes Jahr Verspätung seit dem Marktstart von AMDs Radeon 5000 haben, hat sich das Unternehmen für eine Hackfleischtaktik entschieden. Wie Nvidia im November 2009 erklärte, wird es über Kanäle wie Twitter, Facebook und Blogs wöchentlich Informationskrümelchen geben. Diese Strategie ging auf der Cebit 2010 schief - ob mit Absicht oder nicht, wird ein Geheimnis der PR-Strategen bleiben.

(http://scr3.golem.de/screenshots/1003/Inno3D-Fermi/thumb480/inno-geforce-gtx480-1.jpg)

Es ist auch nicht etwa so, dass ein übereifriger Mitarbeiter des Grafikkartenherstellers Inno3D dieses Facebook-Album erstellt hat. Vielmehr wies das Unternehmen Journalisten mit einer E-Mail direkt auf den Link hin. In drei gering aufgelösten Bildern gibt es dort Darstellungen der Einzelhandelsverpackung einer GTX 480 zu sehen. Auch Kartons zu je zehn Karten wurden abgelichtet, in dieser Konfektionierung werden Grafikkarten üblicherweise an Distributoren verschickt. Auf einem weiteren Bild gibt es ganze Paletten dieser Kartons zu sehen. Die Karte selbst ist aber nicht zu sehen, so dass unklar bleibt, was in den Schachteln steckt.

Offenbar soll also der Eindruck vermittelt werden, die Serienproduktion der GTX 480 sei in vollem Gange - das muss sie auch sein, wenn Nvidia die selbst gesetzten Termine halten will. Wie das Unternehmen auf der Cebit bestätigte, sollen die Grafikkarten ab dem 29. März 2010 von Hardwareversendern verschickt werden. Für die in China und Taiwan hergestellten Karten heißt das, dass sie seit Mitte März fertiggestellt sein müssen.

Ein technisches Detail hat Inno3D in seinen Bildern auch noch versteckt. Der Aufkleber auf der Vorderseite der Retail-Verpackung gibt 1,5 GByte Speicher für die Karten an. Diese Speicherausstattung hatte Nvidia noch nicht bestätigt, entsprechende Gerüchte gab es aber schon auf der Cebit.

Quelle : www.golem.de
Titel: Preise und Spezikationen der Fermi-Grafikkarten
Beitrag von: SiLæncer am 21 März, 2010, 12:29
Es war ja klar, dass noch vor dem geplanten Launch Ende März irgendwo die endgültigen Spezifikationen und Preise der Nvidia-Fermi-Grafikkarten auftauchen werden, wie jetzt auf vr-zone.com (http://ttp://vr-zone.com/articles/nvidia-geforce-gtx-480-final-specs--pricing-revealed/8635.html) geschehen. Im Forum befindet sich zudem auch ein Foto der finalen GT480-Grafikkarte.

Danach soll die GeForce GTX 480 wie vorab  schon vermutet nur mit 480 Shadern arbeiten und mit 700 MHz Kernfrequenz laufen (Shader 1401 MHz, Speicher 1848 MHz). Der GDDR5-Speicher von 1536 Mbyte ist über 384 Bit angeschlossen. Der Preis soll bei 500 US-Dollar liegen. Mit 250 Watt TDP liegt der Energieverbrauch relativ hoch – etwa so hoch wie der der ATI Radeon 5970 mit zwei 5870-GPUs. Die Performance soll aber nur knapp über einer Radeon 5870 liegen.

Die kleinere GTX 470 beschränkt sich gemäß VR-Zone auf 448 Shader mit 607 MHz Kern-, 1215 MHz Shader- und 1674 MHz Speichertakt. Der mit 320 Bit angeschlossene GDDR5-Speicher ist 1280 MByte groß. Der Preis soll bei rund 350 US-Dollar liegen und der maximale Verbrauch (TDP) bei 225 Watt. Ihre Performance liegt nach VR-Zone etwa 5 bis 10 Prozent über denen der ATI Radeon 5850, was auch den Werten entspricht, die heise online anlässlich der CeBIT veröffentlicht hat.

Eine mit allen 512 vorhandenen Shadern laufende GF100 würde laut VR-Zone bei 700/1400/1848 MHz Takt etwa 295 Watt (TDP) verbrauchen.

Quelle : www.heise.de
Titel: Re: Preise und Spezikationen der Fermi-Grafikkarten
Beitrag von: Snoop am 21 März, 2010, 12:42
War ja irgendwie klar, dass NVidia wieder keine konkurrenzfähige Karte auf den Markt bringt:
Zu heiß, zu teuer, zu wenig Leistung - von der Verfügbarkeit mal ganz zu schweigen!
Klar, bei so einer Aussicht würde ich die Produktion auch nicht voll auslasten. Wer will schon zu dem Preis einen zusätzlichen lauten Heizkörper im Rechner?

Das einzig Gute daran ist, dass dadurch hoffentlich die Radeon 5-er ein wenig im Preis rutschen, um den wirklich letzten eingefleischten NVidia-Enthusiasten die Wahl schwer zu machen, denn die Karten von AMD sind im Moment mangels Konkurrenz auch zu teuer.
Die für Spieler interessanten 5850 und 5870 sind bei über 300€ schon echt an der Schmerzgrenze.

Wenn es AMD im ersten Halbjahr 2010 nicht schafft, mit den Grafikkarten endlich einen satten Gewinn einzufahren, dann weiß ich echt nicht mehr! So wenig Konkurrenz hatten sie noch nie!
Bleibt nur zu hoffen, dass der nächste Chip von NVidia (dann wohl Ende des Jahres) endlich mal wieder die Versprechen halten kann und das ganze Segment wieder in Preisregionen rückt, in der man Leistung auch bezahlen kann.
Titel: Re: Preise und Spezikationen der Fermi-Grafikkarten
Beitrag von: Theos am 21 März, 2010, 15:53
Wenn es AMD im ersten Halbjahr 2010 nicht schafft, mit den Grafikkarten endlich einen satten Gewinn einzufahren, dann weiß ich echt nicht mehr! So wenig Konkurrenz hatten sie noch nie!
der umsatz mit standalone-graphikkarten macht man heutezutage nur einen bruchteil des gesamt-umsatzes aus.
aber die offensichtlich gute leistung/verbrauch bilanz macht den chip für die cpu-gpu kombis äußerst interessant.
allerdings stellt sich dort auch wieder die frage, ob DX11 überhaupt gefragt ist.

Bleibt nur zu hoffen, dass der nächste Chip von NVidia (dann wohl Ende des Jahres) endlich mal wieder die Versprechen halten kann und das ganze Segment wieder in Preisregionen rückt, in der man Leistung auch bezahlen kann.
der "nächste" chip kommt frühestens 2011. dann stellt TSMC auf 28nm um und vielleicht hilft das.
bis ende des jahres stehen höchstens abgespeckte modelle an, wenn nicht sogar weiter auf die G92/G200 chips gesetzt wird.
Titel: Re: Preise und Spezikationen der Fermi-Grafikkarten
Beitrag von: Snoop am 21 März, 2010, 17:19
Ich meinte ja speziell die Grafiksparte mit dem Umsatz. Aber Du hast Recht, bei AMD liegt da schon größeres im Argen.

Ich glaube nicht, dass sich NVidia so ein Desaster leisten kann, die werden unter Hochdruck an der neuen Architektur arbeiten. Die Pläne sind bestimmt schon lange in der Schublade.
Titel: Re: Preise und Spezikationen der Fermi-Grafikkarten
Beitrag von: McCom am 22 März, 2010, 09:37
Und wieder steht die Frage im Raum, verflucht welchen Chip kann ich denn nun nutzen wenn ich meinen Desktop endgültig aufs Altenteil schieben wollte... Und ich hoffte doch auf Nvidia wegen CUDA... Grml...
Titel: Nvidia präsentiert GeForce GTX 470 und GTX 480
Beitrag von: SiLæncer am 27 März, 2010, 10:08
Mit einem halben Jahr Verspätung hat Nvidia nun endlich seine besonders von vielen Spielern heiß erwarteten DirectX-11-Grafikkarten vorgestellt. Die GeForce GTX 470 und die rund 25 Prozent schnellere GTX 480 sind grundsätzlich auch in hohen Auflösungen für aktuelle Spiele ausreichend schnell und unterstützen zudem die stereoskopische 3D-Darstellung. Ihre VP4-Videoeinheit entlastet den Hauptprozessor beim Abspielen von hochaufgelösten Videomaterial und ist auch für kommende 3D-Blu-rays gerüstet.

(http://www.heise.de/imgs/18/5/0/1/5/3/6/MFI.jpg-7eef8937f4626d65.jpeg)
Die GeForce GTX 480 (links) und GTX 470 sind Nvidias erste DirectX-11-Grafikkarten.


Der GF100-Grafikchip einer GeForce GTX 480 besitzt 15 Streaming-Multiprozessoren mit insgesamt 480 Shader-Rechenkernen (1401 MHz). Die 60 Textureinheiten und 48 Rasterendstufen betreibt Nvidia mit 700 MHz. Der 1536 MByte große GDDR5-Speicher läuft mit 1848 MHz und ist über 384 Datenleitungen an den GF100-Grafikchip angebunden, sodass eine Datentransferrate von 177,4 GByte/s erreicht wird. Die GPU der GeForce GTX 470 besitzt einen Streaming-Multiprozessor weniger und kommt dadurch auf insgesamt 448 Shader-Rechenkerne, die 186 MHz langsamer laufen als bei der GeForce GTX 480. Auch bei den Textureinheiten (56) und Rasterendstufen (40) fallen ein paar Einheiten im Vergleich zur GTX 480 weg; zudem rechnen sie nur mit 607 MHz. Die GDDR5-Speicherbausteine der GeForce GTX 470 fassen 1280 MByte und werkeln mit 1674 MHz; das führt im Zusammenspiel mit dem 320-Bit-Interface zu einer Speicherbandbreite von 133,9 GByte/s.

(http://www.heise.de/imgs/18/5/0/1/5/3/6/gf100.jpg-00ababb2cfda77a3.jpeg)
Der GF100-Grafikchip besteht aus drei Milliarden Transistoren.

Die GeForce GTX 480 besitzt einen sechs- und einen achtpoligen Stromanschluss und soll laut Nvidia maximal 250 Watt aufnehmen. In unseren Messungen traten jedoch sogar Spitzen von bis zu 302 Watt auf. Durchschnittlich verheizt sie beim Spielen 207 Watt. Im Desktop-Betrieb (0,3 Sone) setzt die High-End-Grafikkarte mit 45 Watt ungefähr doppelt soviel wie ihr AMD-Konkurrent Radeon HD 5870 um, im Multimonitorbetrieb sind es bei der GTX 480 sogar inakzeptable 100 Watt. Nvidia empfiehlt ob der hohen Leistungsaufnahme mindestens ein 600-Watt-Netzteil, für die GeForce GTX 470 ein Exemplar mit 550 Watt. Letztere ist im Leerlauf ebenfalls sehr leise, beim Spielen liegt sie mit 1,6 Sone noch immer unter der GTX 480; wie auch bei der durchschnittlichen Leistungsaufnahme von 170 Watt (Idle: 35 Watt). Die Grafikchips beider Grafikkarten wurden in unseren Tests bis zu 96 °C heiß.

In aktuellen 3D-Spielen ist eine GeForce GTX 480 in den meisten Fällen etwas schneller als eine Radeon HD 5870, viel nehmen sich beide Karten jedoch oft nicht. Beispielsweise kommt die GeForce-Karte auf 9115 Punkte im 3DMark Vantage (Extreme-Preset), eine Radeon HD 5870 auf 8855. Gleiches gilt für das Verhältnis zwischen GeForce GTX 470 (X7283) und Radeon HD 5850 (X7166).

In Crysis schafft die GTX 480 selbst bei 1920×1080 Bildpunkten und zweifacher Kantenglättung durchschnittlich 37 fps (2×AA, DX10),  eine Radeon HD 5870 kommt bei gleichen Einstellungen auf 35 fps, die GeForce GTX 470 liegt mit 31 fps noch knapp vor der Radeon HD 5850 (30 fps). Immerhin bricht die GeForce in den kritischen Stellen nicht so stark ein und erreicht höhere Min-FPS. Besonders in sehr hohen Auflösungen bremst die vergleichsweise geringe Zahl von Textureinheiten jedoch die beiden neuen GeForce-Modelle aus. Im Vergleich zum Vorgänger, der GeForce GTX 285, rechnet eine GeForce GTX 480 je nach Spiel normalerweise zwischen 30 und 70 Prozent schneller.

Deutlich fixer sind Nvidias neue GeForce-Karten, wenn Tessellation (Video: Nvidias Tom Petersen erklärt Tessellation) zum Einsatz kommt. Im Unigine-Benchmark rechnet die GeForce GTX 480 bei vierfachem Antialiasing rund 40 Prozent flinker als die AMD-Konkurrenzkarte HD 5870. Daher dürfte Nvidias neue GeForce-Serie erst in zukünftigen DirectX-11-Spielen, die auf Tessellation und DirectCompute setzen, ihre Trümpfe voll ausspielen können. Beim Rennspiel Dirt 2 sind die neuen GeForce-Karten schon deutlich schneller als ihre HD-5800-Pendants.

Die GeForce GTX 480 bindet bis zu zwei Monitore gleichzeitig an und kostet rund 480 Euro, eine oft ähnlich schnelle Radeon HD 5870 ist bereits für zirka 370 Euro zu haben. 350 Euro soll die GeForce GTX 470 kosten, die sich leistungsmäßig zwischen Radeon HD 5850 und HD 5870 einpendelt.

Quelle : www.heise.de
Titel: Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis
Beitrag von: SiLæncer am 31 März, 2010, 13:27
Seit ihrer Vorstellung steht Nvidias Geforce GTX 480 vor allem wegen ihrer Leistungsaufnahme und der Lautstärke des Lüfters in der Kritik. Da die Grafikkarte noch nicht erhältlich ist, können sich die Interessenten darüber kein eigenes Bild machen. Ein Video von Golem.de soll helfen.

Nvidia gibt für die GTX 480 eine typische Leistungsaufnahme (TDP) von 250 Watt an. Schon das wäre ein neuer Rekord für eine Grafikkarte mit einer GPU. Bei Messungen des Gesamtsystems, also inklusive Mainboard, CPU, RAM und SSD, nahm unsere Testplattform aber schon deutlich mehr elektrische Leistung auf als mit einer Radeon 5970, die mit 294 Watt angegeben ist.

Messungen anderer Medien bestätigen den Verdacht, dass die GTX 480 ihre TDP auch deutlich überschreiten kann. So kommt die c't für die Grafikkarte alleine - also ohne den Rest des PCs - auf Werte über 300 Watt in der Spitze.

Video: Lautstärkevergleich Geforce GTX 480 vs. Radeon 5870 (1:13)

So viel Energie, die fast ausschließlich in Wärme umgesetzt wird, muss abgeführt werden. Und dafür kann der 65-Millimeter-Lüfter der GTX 480 sehr laut werden. Diese Lautstärke und das sie verursachende Geräusch zu dokumentieren ist jedoch nicht trivial, da vor allem einfache Mikrofone das Frequenzbild anders darstellen als das menschliche Gehör.

Der Krach einer Grafikkarte setzt sich im Wesentlichen aus drei Teilen zusammen: dem Motorgeräusch des Lüfters, dem Rauschen der Luft, die von ihm durch den Kühlkörper gepresst wird sowie den Verwirbelungen an Kanten wie dem Luftauslass an der Slotblende. Subjektiv erscheint das als ein mehr oder weniger hochfrequentes Rauschen, manchmal auch als ein metallisches Rattern.

Zudem nimmt jeder Mensch Geräusche individuell verschieden als störend wahr oder nicht. Die bisweilen noch verwendete Einheit Dezibel gibt nur den Schalldruck wieder, die bessere Einheit ist Sone, weil sie auch das Frequenzempfinden des Menschen berücksichtigt.

Nach einigen Experimenten haben wir uns für unser Video, das Radeon 5870 und GTX 480 im direkten Vergleich zeigt, für ein Großmembranmikrofon entschieden, das mit 80 Prozent Empfindlichkeit für alle Aufzeichnungen gleich eingepegelt war. Es ist für Sprache und Gesang entworfen und gibt nach unser Meinung die Unterschiede der Geräusche gut wieder. Da es eine starke Richtcharakteristik aufweist, nimmt es nur in Abständen von etwa zehn Zentimetern die Frequenzen gleichmäßig auf, daher ist es für die Aufzeichnungen stets acht Zentimeter von der Mitte der Grafikkarte entfernt.

Im Ergebnis ist die GTX 480 zwar deutlich lauter, ihr Geräusch ist jedoch nur ein deutliches Rauschen. Die Radeon 5870 zeigt auch noch tiefere Frequenzen, die wir auf ein Vibrieren der Plastikummantelung zurückführen. Das liegt bei dieser Karte vor allem am engen Luftauslass, da die Hälfte der sonst zur Verfügung stehenden Fläche auf der Slotblende vom zweiten DVI-Port verdeckt ist.

Für die Aufzeichnungen verwenden wir den 3DMark Vantage in der Einstellung "Extreme". Er zeigt reproduzierbar die Last, die auch bei typischen Spielen entsteht. Wesentlich mehr Leistungsaufnahme kitzelt Furmark 1.8 aus Grafikkarten. Das Programm ist bei Grafikkartenherstellern äußerst unbeliebt, weil es vor allem als "Power Virus" teils unsinnige Codefolgen verwendet, die auch nicht für bessere Bildqualität sorgen. Wir konnten bisher mit keinem anderen Programm auf Grafikkarten alleine derart hohe Lasten erzeugen.

(http://scr3.golem.de/screenshots/1003/GTX480-Lautstaerke/thumb480/Temperaturkurve.png)

Bei den Versuchen zeigte sich zudem, dass der Bildaufbau auf AMD-Karten mit Furmark 1.8 stockt und zudem die Temperatur weniger schnell steigt als bei Nvidia-Karten. Es liegt der Verdacht nahe, dass AMD seine Grafikkarten hier absichtlich drosselt, um Beschädigungen zu vermeiden. Eine kurzfristige Anfrage bei AMD nach diesem Phänomen ist bisher noch unbeantwortet. Schon mit älteren Versionen des Furmark konnten wir aber bisher keine einzige Grafikkarte beschädigen.

Da unsere Messungen wie bei den meisten Grafikkartentests mit einer offenen Plattform stattfinden, kann zudem die Kühlung der Karten in einem PC durch die Gehäuselüfter so viel besser sein, dass die Grafikkarten selbst ihre Lüfter nicht so weit aufdrehen. Das ist jedoch individuell verschieden. Gehäuse, die über einen Lüfter in der Seitenwand die Karten anfächeln, sind dabei zu empfehlen.

Der Kühlkörper der GTX 480 liegt zudem offen, so dass sich hier direkt ein weiterer Lüfter anbringen lässt. Wir haben das mit einem recht leisen Modell von Lian Li mit 12 Zentimetern Durchmesser und 900 U/Min. - geregelt durch das Mainboard - ausprobiert. Bei 3DMark Vantage wird die GTX 480 subjektiv etwa halb so laut und ist dann noch gut auszuhalten. Bei Furmark bringt dieser Lüfter jedoch keinerlei Verbesserung.

Einige Anfragen von Lesern drehten sich zudem auch um die tatsächliche Leistungsaufnahme bei Spielen. Wir reichen die Werte für einige Titel, die auch Teil unseres Benchmark-Parcours für Grafikkarten sind, im Folgenden nach. Auch dabei wurde jedoch das Gesamtsystem vermessen, vor allem die CPU-Last ist je nach Spiel unterschiedlich.

(http://img31.imageshack.us/img31/30/87258583.png)

Synthetische Tests, insbesondere die zweite Szene des 3DMark Vantage, die wir verwenden, haben eine viel geringere CPU-Last, so dass die Leistungsaufnahme dabei geringer als mit Spielen ist. Daher eignen sie sich aber auch besser zum Vergleich der Grafikkarten alleine.

(http://scr3.golem.de/screenshots/1003/GTX480-Lautstaerke/thumb480/z000006-Heatpipes.jpg)

Insgesamt ist die GTX 480 zwar deutlich lauter als die Radeon 5870, sie erzeugt aber auch ein anderes Geräuschspektrum. Bei mittleren Lasten liegt sie noch im Rahmen von anderen High-End-Karten. Für eine Grafikkarte mit einer GPU ist sie aber dennoch zu laut.

Quelle : www.golem.de
Titel: Re: Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis
Beitrag von: Snoop am 31 März, 2010, 19:36
Ich habe mir jetzt eine Gigabyte Radeon 5770 bestellt, sollte morgen oder am Samstag kommen - ich werde dann mal über meine Ergebnisse berichten.
Titel: AMD: DirectX-11-Profikarte mit 2 GByte Speicher
Beitrag von: SiLæncer am 07 April, 2010, 08:43
AMD zeigt eine neue FirePro-Grafikkarte für den professionellen CAD- und DCC-Markt (Digital Content Creation), auf der ein zu DirectX 11 kompatibler Cypress-Grafikchip arbeitet. Die ATI FirePro V8800 wird zunächst mit 2 GByte Grafikspeicher verfügbar sein, laut AMD ist auch eine 4-GByte-Version geplant. Die V8800 unterstützt neben DirectX 11 auch OpenGL 4.0 sowie OpenCL 1.0 und entspricht technisch weitgehend dem bekannten Consumer-Pendant Radeon HD 5870.

(http://www.heise.de/imgs/18/5/0/4/2/0/6/v8800.jpg-65b46ca25509dd17.jpeg)

Das Herz der FirePro V8800 ist ein Cypress-Grafikchip mit 1600 Shader-Prozessoren, die mit 825 MHz laufen. Dies ergibt eine theoretische Rechenleistung von 2,64 TFlops (Single Precision) beziehungsweise 532 GFlops bei doppelter Genauigkeit. Damit markiert die V8800 derzeit die Leistungsspitze der erhältlichen Profi-Grafikkarten. Der 2 GByte große GDDR5-Speicher läuft mit 2300 MHz und ist über 256 Datenleitungen angebunden (147 GByte/s). Die 10,5 Zoll (26,7 cm) lange Grafikkarte besitzt zwei sechspolige Stromanschlüsse. Zur genauen Leistungsaufnahme äußerte sich AMD nicht.

Über vier Displayport-Ausgänge lassen sich ebenso viele Bildschirme gleichzeitig anbinden, auch die Synchronisationsfunktionen Framelock und Genlock werden unterstützt; ein Anschluss für Shutterbrillen ist ebenso dabei. Durch die 10-Bit-Verarbeitung stellen die FirePro-Karten bis zu 1,07 Milliarden Farben dar, was besonders bei medizinischen Anwendungen und fürs Film-Rendering wichtig ist, jedoch spezielle Monitore voraussetzt. Die FirePro V8800 mit 4 Anschlüssen soll laut AMD 1499 US-Dollar kosten.

Quelle : www.heise.de
Titel: Nvidias DirectX-11-Grafikkarten weiterhin nicht verfügbar
Beitrag von: SiLæncer am 13 April, 2010, 17:27
Ende März stellte Nvidia seine ersten DirectX-11-fähigen Grafikkarten vor, doch noch immer sind die GeForce GTX 470 und GTX 480 nicht verfügbar. Und das, obwohl die Kalifornier bereits für den Marktstart ausreichende Stückzahlen versprachen. Ein Blick in die Online-Preisvergleiche offenbart zumeist unbekannte Liefertermine, teilweise findet man den 26.4. oder 28.4. als Verfügbarkeitsangaben.

Nvidia Deutschland erklärte gegenüber heise online, dass man Ende April mit einer breiten Verfügbarkeit rechne. Dagegen äußerte sich ein Boardpartner, der nicht näher genannt werden möchte, und zeigte sich sehr unzufrieden mit der aktuellen Situation. So sei die erste Lieferung Nvidias zum einen zu spät eingetroffen und zum anderen quantitativ unbefriedigend gewesen. Nun warte man auf die nächste Lieferung und hoffe, dass Nvidia ausreichende Mengen tatsächlich bereitstellen könne. Nvidia habe jedoch versprochen, dass sich die Verfügbarkeit noch im zweiten Quartal verbessern werde. Insgesamt darf bezweifelt werden, dass tatsächlich bereits Ende April größere Stückzahlen in die Regale der Händler gelangen.

Die Erwartungen an die GeForce GTX 470 und die rund 25 Prozent schnellere GTX 480 waren besonders bei Spielern groß: Sie erhofften sich deutlich mehr Leistung als von AMDs Radeon-Konkurrenzkarten, deutlich höher war jedoch nur die Leistungsaufnahme. Außerdem werden die GeForce-Karten im 3D-Betrieb sehr heiß und laut. Flinker als die HD-5800er-Karten sind sie bei Tessellation-Berechnungen, die derzeit jedoch nur in sehr wenigen Spielen optional eingesetzt werden.

Quelle : www.heise.de
Titel: Nvidia Geforce GTX 470 und 480 - Kleinere Mengen endlich erhältlich
Beitrag von: SiLæncer am 21 April, 2010, 16:55
Die neuen DirectX-11-Grafikkarten von Nvidia sind drei Wochen nach der Vorstellung endlich im Handel erhältlich.

Die neuen Nvidia Geforce GTX 480  und Nvidia Geforce GTX 470  sind inzwischen bei einigen Händlern auf Lager, allerdings verbessert sich die Situation nur langsam. Die nach wie vor knappen Stückzahlen sorgen leider auch für erhöhte Preise. So soll beispielsweise die Geforce GTX 470 aktuell rund 380 Euro kosten, während für die Geforce GTX 480 knapp unter 500 Euro verlangt werden.

Während der Kauf der neuen Nvidia-Grafikkarten also vereinzelt möglich ist, könnten nun die über Preise mögliche Kunden abschrecken. Immerhin kostet eine ATI Radeon HD 5870 inzwischen unter 350 Euro und ist problemlos lieferbar. Das ATI-Flaggschiff Radeon HD 5970 liegt bei knapp 550 Euro.
Natürlich können sich die Preise schnell ändern. Sollten sich die Gerüchte über die geringen Mengen an hergestellten Geforce-Karten aber bewahrheiten, ist eine Preissenkung bei der Geforce GTX 480 und Geforce GTX 470 kurzfristig eher unwahrscheinlich.

Quelle : www.gamestar.de
Titel: Nvidia Geforce GTX 470 und 480 - Kleinere Mengen erhältlich (Update)
Beitrag von: SiLæncer am 22 April, 2010, 13:03
Update 22.04.2010

Aus einer unerwarteten Richtung kommt eine Bestätigung für die geringe verfügbare Anzahl der neuen Nvidia-Grafikkarten. Die Finanzexperten von Needham und Company haben die Aktien von Nvidia herabgestuft, da die Produktion der Fermi-Grafikchips schlecht laufe und es weitere Verzögerungen geben könnte.
Nach den Recherchen der Finanzberater kann Nvidia nur eine »sehr begrenzte« Anzahl an Desktop- und Notebook-Grafikchips liefern, deren Ausbeute bei der Produktion bei nur 20-30% liegen soll. Die Rede ist von rund 10.000 Fermi-Chips insgesamt.
Dass Nvidia mit dem neuen WHQL-Treiber 197.55 ein Update für die neuen Geforce-Karten veröffentlicht hat, das nur die Unterstützung für 4-Wege-SLI mit vier Grafikkarten hinzufügt, passt da wie die Faust aufs Auge. Immerhin könnten nun weltweit ungefähr 2.500 Rechner die neue Funktion nutzen, sofern deren Besitzer in der Lage ist, gleich vier der neuen Karten zu finden und ein Netzteil besitzt, dass genug Strom für deren Betrieb liefern kann.

Quelle : www.gamestar.de
Titel: Grafik-Gerüchte: GeForce GTX 460 mit 384 Shader-Rechenkernen
Beitrag von: SiLæncer am 23 April, 2010, 10:39
Nun ist es bald einen Monat her, dass Nvidia die GeForce GTX 470 und GTX 480 vorgestellt hat. Für seine ersten DirectX-11-Karten mussten sich die Kalifornier viel Kritik aus der Fachpresse gefallen lassen. Die vorab hoch gesteckten Erwartungen wurden enttäuscht, die neuen GeForce-Modelle sind teurer und nur wenig schneller als die AMD-Pendants, werden im 3D-Betrieb sehr heiß und machen dazu noch ordentlich Krach – von der exorbitanten Leistungsaufnahme mal abgesehen.

(http://www.heise.de/imgs/18/5/1/1/3/8/3/8ad1c9a8a22f4948.jpeg)

Auch bezüglich der Lieferbarkeit der DirectX-11-Karten sieht es derzeit noch sehr dürftig aus, ein Grund dafür soll in der schlechten Ausbeute (Yield) funktionsfähiger GF100-Grafikchips liegen, die von der taiwanischen Chipschmiede TSMC im 40-Nanometer-Verfahren gefertigt werden. Zumindest die Analysten von Needham & Company zogen daraus Konsequenzen und stuften die Nvidia-Aktie (NVDA) am 16. April von "Strong Buy" auf "Hold" herab – sie begründeten dies mit schlechten Yields von um die 20 bis 30 Prozent und der Gefahr weiterer Verzögerungen. Die Aktie brach seit der Herabstufung von zirka 18 US-Dollar auf aktuell 16,38 US-Dollar ein.

Doch Nvidia lässt sich nicht lumpen und stellt wohl bereits in gut fünf Wochen eine weitere DirectX-11-Grafikkarte vor: So wollen die Kalifornier am 1. Juni, pünktlich zum Beginn der Computex, die GeForce GTX 460 präsentieren, wie heise online heute aus Ostasien geflüstert bekam. Ihr Grafikchip besitzt demnach 384 Shader-Rechenkerne und es soll zumindest die Chance bestehen, weitere funktionsfähige Shader-Rechenkerne "freizuschalten". Wie Expreview bereits vor rund zwei Wochen erfahren haben will, ist die GPU über 256 Datenleitungen mit den insgesamt 1 GByte fassenden GDDR5-Speicherbausteinen verbunden. Preislich dürfte sich die GeForce GTX 460 ungefähr auf dem Niveau der Radeon HD 5850 ansiedeln. Wann es erste Exemplare der GeForce GTX 460 tatsächlich zu kaufen gibt, bleibt ungewiss.

Tatsächlich verfügbar ist seit heute zumindest ein WHQL-Treiber (197.55) für die GeForce GTX 470 und GTX 480, der den gleichzeitigen Betrieb von vier solcher Grafikkarten (Quad-SLI) unter Windows 7 und Vista erlaubt (32 Bit | 64 Bit ). Mit Luft ist ein solches Gespann wohl nicht mehr kühlbar, schließlich empfohl Nvidias Tom Petersen bereits zur ersten Vorstellung der Karten in Paris selbst bei einem Triple-SLI-System Wasserkühlung.

Quelle : www.heise.de
Titel: AMD legt nach: DirectX-11-Profikarten für alle Segmente
Beitrag von: SiLæncer am 26 April, 2010, 15:55
AMD erweitert seine Serie DirectX-11-fähiger Profigrafikkarten für CAD- und DCC-Anwendungen (Digital Content Creation) um fünf Modelle: die High-End-Karte FirePro V7800, eine FirePro V5800 für das Mid-Range-Segment und die beiden Einstiegs-Varianten FirePro V4800 und V3800, außerdem die FirePro 2460 Multi-View für Multimonitor-Konfigurationen. Die Pixelbeschleuniger sind kompatibel zu OpenGL 4.0 sowie OpenCL 1.0. Der Speicherausbau variiert je nach Modell zwischen 512 MByte und 2 GByte. Als Grafikchips kommen die von den Radeon-Pendants bekannten Evergreen-GPUs zum Einsatz. FirePro-Karten stellen durch die 10-Bit-Verarbeitung bis zu 1,07 Milliarden Farben dar, dies setzt jedoch spezielle Monitore voraus.

(http://www.heise.de/imgs/18/5/1/2/3/2/1/4ddcde2d23d4b509.jpeg)
Die FirePro V7800 besitzt einen sechspoligen Stromanschluss und belegt nur einen Gehäusesteckplatz.

Die FirePro V7800 belegt nur einen Steckplatz, verheizt laut AMD  maximal 138 Watt und steuert über zwei DisplayPort-Buchsen und einen Dual-Link-DVI-Anschluss bis zu drei Displays mit maximal 2560 ×1600 Bildpunkten an. Der Grafikchip (Cypress Pro, 2,02 TFlops) besitzt 1440 Shader-Rechenkerne und ist über 256 Datenleitungen an die 2 GByte fassenden GDDR5-Speicherbausteine (128 GByte/s) angebunden. Die Grafikkarte unterstützt zudem die Synchronisationsfunktionen Gen- und Framelock. Sie ähnelt von den technischen Spezifikationen einer Radeon HD 5850 und soll rund 800 US-Dollar kosten.

Für die Mittelklasse bietet AMD die FirePro V5800 (TDP: 74 Watt), deren Juniper-Grafikchip 800 Rechenkerne besitzt und 1,1 Billionen Gleitkommaoperationen pro Sekunde bei einfacher Genauigkeit schafft. Im Vergleich zur V7800 halbiert AMD die Speichergröße (1 GByte) und dessen Anbindung (128 Bit) an die GPU; durch letzteres halbiert sich außerdem die Datentransferrate (64 GByte/s:). Frame- und Genlock unterstützt die rund 470 US-Dollar kostende Profi-Karte nicht.

Auch die FirePro V4800 setzt auf GDDR5-Speicher, die Redwood-GPU besitzt jedoch nur 400 Rechenkerne und erreicht daher ungefähr nur die halbe Rechenleistung der V5800. Kaum Unterschiede gibt es hinsichtlich der Leistungsaufnahme (69 Watt), beim Preis jedoch sehr wohl: AMD veranschlagt die Firepro V4800 mit 189 US-Dollar.

Leistungsmäßig weit abgeschlagen ist die FirePro V3800, deren Grafikchip zwar ebenfalls über 400 Rechenkerne verfügt, jedoch durch langsamen DDR3-Speicher stark ausgebremst wird. Dieser limitiert die Datentransferrate auf lahme 14,4 GByte/s. Dafür kommt die FirePro V3800 in halber Bauhöhe daher und passt somit auch in sehr kleine Gehäuse. Maximal zwei Bildschirme lassen sich jeweils über einen DisplayPort-Ausgang und eine DVI-Buchse anbinden. Die durchschnittliche Leistungsaufnahme beträgt laut AMD 43 Watt, das Einstiegsmodell kostet rund 110 US-Dollar.

Ebenfalls in halber Bauhöhe präsentiert sich die FirePro 2460 Multi-View , die über vier Mini-DisplayPort-Anschlüsse bis zu vier Bildschirme gleichzeitig anzusteuern vermag. Die für Multimonitor-Anwendungen im Finanzbereich gedachte Karte kommt ohne Lüfter aus und besitzt 512 MByte Speicher. Sie soll rund 300 US-Dollar kosten, wie AMD erklärte.

Erst Anfang April 2010 hat das Unternehmen mit der FirePro V8800 die bis dato schnellste Profi-Grafikkarte vorgestellt, und bestückt nun also die restlichen Marktsegmente mit DirectX-11-fähigen Grafikbeschleunigern. Bei Konkurrent Nvidia dürfte es noch eine Weile dauern, bis entsprechende Quadro-Karten mit DX-11-Grafikchips das Licht der Welt erblicken. Gerüchte gehen von einem Marktstart nicht vor November 2010 aus. AMD will bereits im Juli mit einer weiteren FirePro-Grafikkarte nachlegen, die über 4 GByte Speicher verfügt und bis zu sechs Displays anbindet. Im Gespräch mit heise online teilte AMD mit, dass man plane, die heute vorgestellten FirePro-Grafikkarten in ungefähr zwei Wochen auszuliefern.

Quelle : www.heise.de
Titel: Nvidia Fermi 2 - Neue Geforce-Architektur im Juni?
Beitrag von: Snoop am 28 April, 2010, 16:53
Und weiter köchelt es in der Gerüchteküche ...:

Nvidia Fermi 2 - Neue Geforce-Architektur im Juni?

Laut Gerüchten im Internet stellt Nvidia auf der Computex im Juni mit dem GF104-Grafikchip bereits den Fermi 2 vor.
Nvidia Fermi 2 Nvidia Fermi 2 Wir haben bereits darüber berichtet, dass Nvidia angeblich auf der Computex in Taiwan, die im Juni stattfindet, die neue Geforce GTX 460 vorstellen wird, die den GF104-Grafikchip verwendet. Laut Fudzilla ist der GF104 aber mehr als »Restverwertung« der bisherigen Fermi-Produktion, sondern stellt sogar eine neue Architektur dar, die man als »Fermi 2« bezeichnen könnte.

Der Grafikchip soll keinen Cache mehr besitzen und dadurch kleiner und günstiger sein als die bisherigen GPUs auf Fermi-Basis. Nvidia konzentriert sich laut der Meldung bei diesem Chip besonders auf die DirectX-11-Leistung.
Auch die Probleme bei der Verfügbarkeit der neuen Nvidia Geforce GTX 480 und Nvidia Geforce GTX 470 sind laut Drew Henry von Nvidia nicht so schlimm wie behauptet. In einem Interview mit DigiTimes erklärte Henry, dass Behauptungen über eine Ausbeute von unter 20% unwahr seien und man auch »eine Chance hat, zukünftig einen Grafikchip mit 512 Kernen« auszuliefern. Nvidia habe alles unter Kontrolle.

Quelle: Gamestar (http://anonym.to/?http://www.gamestar.de/hardware/news/grafikkarten/2314531/nvidia_fermi_2.html)
Titel: Spekulationen um Grafikkarte für zwölf Monitore
Beitrag von: SiLæncer am 02 Mai, 2010, 16:32
Im Netz wird derzeit wild spekuliert, ob der taiwanische Grafikkartenhersteller Powercolor  tatsächlich eine  Radeon HD 5970 mit zwölf Mini-DisplayPort-Buchsen herausbringen möchte. Auslöser der Spekulationen ist ein auf der Facebook-Seite des Unternehmens veröffentlichtes Foto einer Platine. Die zu DirectX 11 kompatible Dual-GPU-Grafikkarte belegt demnach drei Gehäusesteckplätze und soll bis zu 12 Displays gleichzeitig ansteuern können.

(http://www.heise.de/imgs/18/5/1/4/7/5/6/22334.jpg-b612c309ed6ded00.jpeg)

Doch ob dies tatsächlich auch im Windows-Betrieb funktioniert, ist fraglich. Wie AMD gegenüber heise online erklärte, lassen sich selbst im Multi-GPU-Betrieb unter Windows derzeit maximal acht Displays gleichzeitig ansteuern – etwa sechs in einer Display Group und zwei im erweiterten Modus. Lediglich Linux erlaube es, bis zu 24 Bildschirme anzubinden, vorausgesetzt man hat entsprechend viele Grafikkarten und Zeit für eine Menge Frickelarbeit.

Daher ist es fraglich, ob Powercolors vermeintliche Spezialversion der Radeon HD 5970 tatsächlich 12 Displays im Windows-Betrieb gleichzeitig ansteuern kann. Ob und wann die Grafikkarte erscheinen soll, dürfte sich spätestens zur Computex in Taipei Anfang Juni klären. Powercolor war für eine Stellungnahme nicht zu erreichen.

Quelle : www.heise.de
Titel: Grafik-Gerüchte: GeForce GTX 465 mit 352 Rechenkernen
Beitrag von: SiLæncer am 04 Mai, 2010, 18:24
Verwirrung herrscht derzeit bezüglich der Frage, welche Grafikkarte Nvidia als nächstes vorstellen wird. Nachdem es Ende April in Ostasien noch hieß, dass die Kalifornier eine GeForce GTX 460 mit 384 Shader-Einheiten präsentieren wollten, schwirren nun geschützte PDF-Dokumente von Nvidia bei einigen Herstellern herum, in der die Spezifikationen einer GeForce GTX 465 hinterlegt sind.

Mit ostasiatischer Hilfe konnte heise online bereits vorab einen Blick auf die Spezifikationen werfen. Demnach hat der Grafikchip (607 MHz) nur 352 Shader-Einheiten, die bei 1215 MHz genauso schnell laufen wie auf der GeForce GTX 470; diese ist jedoch mit 448 Rechenkernen ausgestattet. Der 1024 MByte große Grafikspeicher arbeitet mit 1603 MHz und ist mit 256 Datenleitungen an den Chip angebunden (102,6 GByte/s).

Die Texturfüllrate wird mit 26,7 Milliarden Texel/s angegeben. Damit dürfte die DirectX-11-Grafikkarte es nicht mit einer Radeon HD 5850 aufnehmen können. Nvidia plant demnach, die GeForce GTX 465 am 1. Juni im Rahmen der Computex vorzustellen. Ob die Firma dann überhaupt noch eine GeForce GTX 460 herausbringen will, ist unklar.

(http://www.heise.de/imgs/18/5/1/5/7/3/6/3d8565263c607f2f.png)
Nvidia-Tabelle mit den Spezifikationen der stark abgespeckten GeForce GTX 465

Quelle : www.heise.de
Titel: AMD benennt Notebook-Grafikchips um
Beitrag von: SiLæncer am 07 Mai, 2010, 14:48
AMD lässt einige alte, zu DirectX 10.1 kompatible Notebook-Grafikchips unter neuem Namen laufen. Es handelt sich um die Mobility Radeon HD 530v, HD 540v und HD 560v, die allesamt zumindest für die Blu-ray-Wiedergabe geeignet sind. Die HD 530v und HD 540v entsprechen der altbekannten Mobility Radeon HD 4300/4500 mit 80 Shader-Rechenkernen und unterscheiden sich je nach Notebook-Hersteller nur hinsichtlich der Taktfrequenz oder dem Speichertyp und -ausbau. Die HD 560v hütet in ihrem Inneren 320 Rechenkerne und kommt der Mobility HD 4600 gleich, die auch genug Leistung für das eine oder andere Spiel mitbringt.

Komischerweise stellte AMD vor nicht allzu langer Zeit bereits die Mobility HD 5165 und HD 5145 vor, die beide wiederum technisch zur HD 560v beziehungsweise HD 540/530v identisch sind. Im Gespräch mit heise online erklärte AMD Deutschland, dass der verwendete Name der gleichen Chips von Hersteller des jeweiligen Notebooks abhängen wird. Damit scheint AMD nun auf den Zug von Nvidia aufzuspringen, die mit Umbenennungen ihrer Grafik-Hardware schon oft in die Kritik geraten sind.

Quelle : www.heise.de
Titel: Nvidia Geforce - Erste Informationen zu neuen Mittelklasse-Karten
Beitrag von: SiLæncer am 18 Mai, 2010, 12:59
Nvdia wird von der aktuellen Fermi-Generation wohl vier Modellreihen auf den Markt bringen. So wird der kommende GF104-Chip nach unten hin noch vom GF106 und GF108 abgerundet.

Während der GF104 die kommende obere Mittelklasse darstellt, sollen die Karten mit dem GF106 den eigentlichen Massenmarkt bedienen. Der GF108 wiederum soll für absolute Einsteigekarten weit unter 100 Euro dienen. Dazu wird er, wie bei Nvidia üblich, massivst beschnitten und dadurch mit dem Ursprungs-Fermi kaum noch etwas zu tun haben.

Genauere technische Daten sickerten allerdings noch keine durch. Marktreif sollen die neuen Chips etwa im Hoch- bis Spätsommer werden.
Neuigkeiten gibt es auch zum kommenden GF104. So soll die erste Karte mit diesem Chip »Geforce GTX 460« heißen. Dies würde auch die Verwirrung um den kommenden GF100-Ableger »Geforce GTX 465« erklären, bei dem lange über den Namen spekuliert wurde. Es wird schlicht beide geben. Wobei nicht ganz schlüssig ist, warum Nvidia für Karten unterschiedlicher Baureihen so eng zusammen liegende Modellbezeichnungen verwenden wird.

Quelle : www.gamestar.de
Titel: Nvidia GeForce GTX 480M bringt "Fermi" in Laptops
Beitrag von: SiLæncer am 26 Mai, 2010, 10:03
Der Grafikchiphersteller Nvidia hat seine neue GeForce 400M Serie von Grafikprozessoren für Notebooks offiziell vorgestellt. Den Anfang macht das High-End-Modell GeForce GTX 480M, das fast drei Mal so viele Kerne zur Berechnung von Shader-Effekten hat wie sein Vorgänger.

Mit der GeForce GTX 480M hat Nvidia erstmals einen DirectX11-kompatiblen Grafikchip für Notebooks im Programm, der die neuen Funktionen wie etwa Hardware-Tessellation unterstützt. Nvidia behauptet, die neue GPU könne bis zu fünf Mal mehr Grafikleistung und bis zu zehn Mal mehr Leistung bei der Nutzung von Technologien wie CUDA und OpenCL bieten als ATIs aktuelle Mobility Radeon HD 5000-Serie.

(http://screenshots.winfuture.de/Nvidia-GeForce-GTX-480M-1274856244.jpg)

Um den "Fermi"-Grafikchip in Notebooks unterzubringen, wird der Takt auf 425 Megahertz heruntergesetzt, die einzelnen Shader-Kerne arbeiten allerdings mit 850 MHz. Der Speicher arbeitet mit 1,2 Gigahertz und ist über einen 256-Bit-Bus angeschlossen. Die GeForce GTX 480M unterstützt laut Nvidia 3D Vision und soll mit den neuen "Verde"-Treibern regelmäßig mit Updates versorgt werden.

Als erster Hersteller wird der taiwanische Vertragsfertiger Clevo Notebooks mit der neuen GeForce GTX 480M einführen, die von verschiedenen Marken angeboten werden. Der neue Chip wird wahrscheinlich bald in diversen Desktop-Replacement-Notebooks und kleinen Spiele-Desktops zu finden sein. Die Mittelklasse- und Low-End-GPUs der GeForce 400M-Reihe kommen erst zu einem späteren Zeitpunkt auf den Markt.

Quelle : http://winfuture.de
Titel: Nvidia Geforce GTX 465 - Erster Test im Internet
Beitrag von: SiLæncer am 26 Mai, 2010, 13:59
XbitLabs hat die neue Nvidia Geforce GTX 465 schon vor ihrem offiziellen Erscheinen in die Hände bekommen. Die technischen Daten stimmen mit den letzten Gerüchten überein: der Grafikchip besitzt 352 Shader-Einheiten und die Taktfrequenzen wurden auf 607 MHz für den Grafikchip, 1.215 MHz für die Shader und 3.208 MHz für den 1 GByte großen GDDR5-Videospeicher.

XbitLabs hat die Grafikarte mit einigen Spielen und dem synthetischen Benchmark 3DMark Vantage getestet und dabei mit der Geforce GTX 470, Geforce GTX 480, der Geforce GTX 275, der ATI Radeon HD 5870 und den vermeintlichen Hauptkonkurrenten ATI Radeon HD 5850 verglichen. Das Fazit von XbitLabs: die Geforce GTX 465 soll zwar für einen Preis von 279 US-Dollar günstiger sein als eine Radeon HD 5850, die 299 US-Dollar kostet, kommt aber an deren Leistung nicht heran und ist eher mit der Geforce GTX 275 vergleichbar. Daher müsste Nvidia eigentlich den Preis senken oder die Taktraten erhöhen, so die Webseite.

Allerdings wurden die Tests nicht mit dem neuen Nvidia-Grafiktreiber 257.15, mit deaktivierten Treiber-Optimierungen und nur mit den höchsten Qualitätseinstellungen durchgeführt. Unter anderen Bedingungen könnte sich also ein deutlich positiveres Bild ergeben.

Quelle : www.gamestar.de
Titel: Nvidia Geforce-Grafikkarten - Gerüchte über neue Modelle
Beitrag von: SiLæncer am 10 Juni, 2010, 17:49
Auch nach der Computex gibt es Gerüchte über weitere Grafikkarten von Nvidia.

Die eben erst erschienene Geforce GTX 465 wird laut Informationen von HardOCP spätestens Mitte Juli für viele PC-Nutzer uninteressant. Zu diesem Zeitpunkt erscheint demnach die Geforce GTX 460 mit dem neuen GF104-Grafikchip. Diese Grafikkarte soll 230 US-Dollar (190 Euro) kosten und ein sehr hohes Übertaktungspotential besitzen.

Danach folgen Grafikkarten mit den Modellnummern 450 und 455, die die GF106-GPU verwenden und die Geforce GTS 250 ersetzen sollen. Der Preis liegt zwischen 129 und 179 US-Dollar (107 und 149 Euro). Der GF108-Grafikchip findet auf einem weiteren Modell Platz, das im August oder September erscheint.

Alle diese Angaben sind laut HardOCP Gerüchte, trotzdem hält man die Geforce GTX 460 für einen möglichen »Wolf im Schafspelz«, auf den Nvidia-Kunden warten.

Quelle : www.gamestar.de
Titel: Nvidia Geforce GTX 485 - Angeblich in den Startlöchern
Beitrag von: SiLæncer am 12 Juni, 2010, 16:28
Die Nvidia Geforce GTX 480  wurde vor allem wegen ihre Hitzeentwicklung und des lärmenden Lüfters kritisiert. Laut KitGuru soll eine neue Geforce GTX 485 diese Probleme lösen und dabei auch noch etwas schneller sein.

Möglich wird dies laut den nicht genannten Quellen der Webseite durch Verbesserungen bei der Produktion. Nvidia plant die neue Grafikkarte angeblich als Konter gegen die neuen ATI-Grafikkarten mit Codenamen Southern Islands, die laut Gerüchten im Herbst erscheinen sollen.
Die Existenz einer neuen, schnelleren Nvidia-Grafikkarte scheint nicht unmöglich, da die Geforce GTX 480 nicht die kompletten 512 Shader-Einheiten des GF100-Grafikchips verwendet. Nvidia-Manager Drew Henry hatte im Mai die Möglichkeit einer Geforce mit 512 Shadern bestätigt. Das Gerücht von KitGuru über die Geforce GTX 485 enthält jedoch keinen Hinweis auf die Anzahl der Shader.

Quelle : www.gamestar.de
Titel: Nvidia Geforce - Die Gerüchteküche brodelt
Beitrag von: SiLæncer am 17 Juni, 2010, 19:43
Die Spekulation über eine mögliche Geforce GTX 475, über die wir heute schon berichtet haben, ist in China in abgewandelter Form aufgetaucht. Dort heißt die Grafikkarte bei gleichen technischen Daten Nvidia Geforce GTX 468. Diese Bezeichnung wäre für Nvidia allerdings recht ungewöhnlich, da die Namen von Geforce-Grafikkarten seit Jahren nur Zahlen enthalten, die auf 5 oder Zehnerpotenzen enden.

Doch die Geforce GTX 475 und die Geforce GTX 468 sind nicht die einzigen Varianten der Geforce GTX 460, über die spekuliert wird. Laut Fudzilla wird die Geforce GTX 460 am 12. Juli 2010 in zwei Versionen erscheinen: einmal mit 768 GByte Videospeicher und einem 192 Bit breiten Speicherinterface und mit 1024 GByte, die über ein 256-Bit-Interface angesprochen werden. Auch dieses Gerücht wirkt seltsam, denn durch das breitere Speicherinterface wäre die zweite Karte trotz gleicher Bezeichnung schneller.
Woher diese Gerüchte ursprünglich stammen, ist nicht bekannt, aber zumindest besteht kein Zweifel daran, dass Nvidia irgendwann demnächst neue Geforce-Karten vorstellen wird.

Quelle : www.gamestar.de
Titel: Nvidia Geforce - Die Gerüchteküche brodelt (Update)
Beitrag von: SiLæncer am 19 Juni, 2010, 13:50
 Fudzilla schürt mit einer neuen Meldung das Feuer in der Gerüchteküche weiter an. Die allgemein erwartete neue Geforce mit den kompletten 512 Shader-Einheiten des GF100-Grafikchips, die oft Geforce GTX 485 genannt wird, und die ebenfalls immer wieder genannte Dual-GPU-Geforce mit zwei GF104-Grafikchips sind demnach vielleicht identisch.

Zwei GF104-Grafikchips besitzen zusammen ebenfalls 512 Shader, verbrauchen aber weniger Speicher und dürften auch günstiger herzustellen sein. Aus diesem Grund hätte Nvidia auch alle weiteren Planungen für neue GF100-Abkömmlinge eingestellt und würde sich auf den GF104 und dessen kleinere Versionen konzentrieren.

Nvidia wartet angeblich mit der Veröffentlichung der schnelleren Geforce, um auf neue ATI-Grafikkarten reagieren zu können, die angeblich noch dieses Jahr erscheinen.

Quelle : www.gamestar.de
Titel: Endgültige Spezifikationen der GeForce GTX 460 enthüllt
Beitrag von: SiLæncer am 22 Juni, 2010, 14:37
Von einer vertrauenswürdigen Quelle hat heise online die endgültigen Spezifikationen der zu DirectX 11 kompatiblen Performance-Grafikkarte GeForce GTX 460 erfahren, die Nvidia im Juli offiziell vorstellen will. Demnach wird es zwei Varianten der GeForce GTX 460 geben, die sich hinsichtlich der Speicherbandbreite und -anbindung unterscheiden. Als Grafikchip kommt auf beiden Nvidias neuer GF104 mit 336 Shader-Rechenkernen zum Einsatz. Er ist kleiner als der bisherige GF100, billiger zu fertigen, kommt mit weniger elektrischer Energie aus und soll sich deutlich besser übertakten lassen.

(http://www.heise.de/imgs/18/5/3/4/7/2/0/9177cee1726f3bb5.jpeg)
Der GF104-Grafikchip soll sparsamer und besser übertaktbar sein als der GF100 (siehe Bild), der auf den bisherigen DirectX-11-Grafikkarten von Nvidia rechnet.

Sowohl auf der GeForce GTX 460 mit 1 GByte als auch auf der Variante mit 768 MByte laufen die 56 Textureinheiten sowie die Rasterendstufen mit 675 MHz und die Shader-Rechenkerne mit 1350 MHz. Der Speicher arbeitet mit 1800 MHz Taktfrequenz. Der GF104-Chip beim 1-GByte-Modell kommuniziert über 256 Datenleitungen mit dem Speicher und erreicht so eine theoretische Datentransferrate von 115,2 GByte/s.

Bei der 768-MByte-Variante sind es durch das 192-Bit-Speicherinterface maximal 86,4 GByte/s. Ihre 3D-Leistung soll in etwa auf dem Niveau einer GeForce GTX 465 liegen, im 3DMark Vantage sind in der Extreme-Voreinstellung ungefähr 6000 Punkte drin. Wie Übertaktungsexperimente in Ostasien bereits zeigten, lief der Grafikchip einer GTX-460-Testkarte (768 MByte, 192 Bit) ohne Erhöhung der Kernspannung mit 830 MHz noch stabil, bei einer leichten Spannungsanhebung waren sogar 900 MHz möglich. Damit erreichte die Karte rund 8000 Punkte (3DMark Vantage Extreme) und überflügelte sogar eine über 300 Euro teure GeForce GTX 470. Letztere schafft rund 7650 Punkte.

(http://img682.imageshack.us/img682/4460/bild2q.png)

Im Unterschied zum GTX-480-Launch ist es sehr wahrscheinlich, dass die GeForce GTX 460 bereits zum Marktstart vor Mitte Juli in ausreichenden Stückzahlen erhältlich ist. Die Boardpartner verfügen bereits über GF104-Chips und dürften bereits in der kommenden Woche größere Grafikkarten-Bestände ihr Eigen nennen.

Preislich liegen die GTX-460-Karten unter der GeForce GTX 465. So ist die 1-GByte-Variante mit rund 250 US-Dollar angesetzt, das 768-MByte-Modell soll zirka 230 US-Dollar kosten. Daher steht auch die weitere Existenz der GeForce GTX 465 in Frage.

Quelle : www.heise.de
Titel: Gerüchte um Fermi-Karte: Geforce GTX 460 soll nur 199 US-Dollar kosten
Beitrag von: SiLæncer am 02 Juli, 2010, 12:43
Nvidia fehlt unter seinen Grafikkarten mit Fermi-Architektur noch ein echtes Mittelklassemodell. Das soll die GTX 460 werden, die nach unbestätigten Angaben eine Preisempfehlung von 199 Dollar erhalten soll.
Der "sweet spot" des Marktes für Grafikkarten liegt nach Angaben der Hersteller im Bereich um 200 US-Dollar. Hier ist das Preis-Leistungsverhältnis nicht nur für die Anwender besonders günstig. Da die Fermi-Karten anhaltend knapp sind, konnte Nvidia bisher aber kein entsprechendes Produkt auf den Markt bringen, weil das die Nachfrage weiter anheizt.

So war die GTX 460 eigentlich schon für den Juni 2010 erwartet worden, nun scheint sie aber Mitte Juli auf den Markt zu kommen. Die türkische Webseite Donanimhaber veröffentlicht wieder einmal Vorabinformationen ohne Angabe der Quelle.

Demnach soll es zwei Varianten der Karte geben, ob sich auch die Modellnummer unterscheidet, ist noch nicht klar. Das kleinere Modell soll mit Takten von 625 MHz für die GPU und effektiv 3.600 MHz für den Speicher versehen sein. Der Speicherbus kann 192 oder 256 Bit breit sein, die Speicherausstattung 768 oder 1.024 MByte umfassen. Ob sich durch diese Unterschiede bereits die beiden verschiedenen Modelle ergeben, ist noch nicht bekannt. Ebenso steht die Zahl der Rechenwerke wohl noch nicht endgültig fest.

Donanimhaber zeigt aber einige Bilder einer mutmaßlichen GTX 460. Die Karte ist recht kurz und belegt zwei Slots. Die Strombuchsen sind nicht zu erkennen - vor allem in puncto Sparsamkeit liegt Nvidia weit hinter AMDs DirectX-11-Karten. Die 200-Dollar-Modelle der Serie Radeon HD 5700 kommen mit einer sechspoligen Buchse aus.

Quelle : www.golem.de
Titel: Asus Ares - Grafikmonster mit zwei GPUs und 450 Watt
Beitrag von: SiLæncer am 09 Juli, 2010, 12:58
Was AMD vermieden hat, um die PCIe-Spezifikationen nicht zu verletzen, bringt Asus bald auf den Markt: eine Grafikkarte mit zwei GPUs, die den gleichen Takt wie eine Radeon HD 5870 aufweist. Da das mit maximal 450 Watt Leistungsaufnahme ohnehin teuer wird, sind auch gleich 4 GByte GDDR5-Speicher an Bord.

Ares heißt die neue Monstergrafikkarte von Asus, nach dem griechischen Gott des Krieges. Das römische Pendant, Mars, gibt es schon länger, es ist mit Nvidia-GPUs bestückt. Die Tester von HardOCP haben die schlicht "Ares" getaufte Karte noch vor ersten Messungen zerlegt.

(http://scr3.golem.de/screenshots/1007/Asus-Ares/thumb480/Ares-03.jpg)

Die Platine ist noch größer als die der Radeon HD 5970. Sie ist mit 29 Zentimetern zwar nicht länger, aber 12 Zentimeter Höhe passen nur in sehr voluminöse Gehäuse. Da ein mit Heatpipes versehener Kupferblock auf jeder GPU sitzt, kommt die Ares auf über zwei Kilogramm Gewicht. Zwischen den Kühlkörpern sitzt ein 100-Millimeter-Lüfter, der folglich über die Hälfte der Abluft ins Gehäuse bläst.

Diese Maßnahmen sind nötig, um die Abwärme der beiden GPUs unter Kontrolle zu halten. Statt mit 725 und 1.000 MHz für GPU und Speicher wie bei AMDs Doppel-GPU-Karte laufen die beiden Cypress-Chips der Ares mit 850 MHz und der Speicher mit 1.200 MHz. Damit entspricht die Karte zwei Radeon HD 5870 auf einer Platine. Im Gegensatz zu diesen Beschleunigern im Referenzdesign sind aber je GPU 2 GByte GDDR5-Speicher verbaut, was die Leistungsaufnahme weiter nach oben treibt.

Stromversorgung für 450 Watt

Daher hat Asus auch zwei 8-polige PCIe-Buchsen sowie eine 6-polige verbaut. Zusammen mit dem PEG-Slot kann die Karte so laut den PCIe-Spezifikationen maximal 450 Watt Leistung aufnehmen. Genau genommen darf sie sich damit auch nicht mehr als Gerät nach PCI-Express bezeichnen, da dabei höchstens 300 Watt für eine Karte erlaubt sind. Diese Vorgabe betrifft jedoch vor allem PC-Hersteller, die so viel Wärme aus dem Gehäuse abführen können müssen.

Technikfans und Übertakter, die ihre Rechner selbst zusammenbauen, schrecken solche Werte meist nicht ab - aber im Fall der Ares tut das vielleicht der Preis. Unbestätigten Angaben zufolge soll die Grafikkarte mit über 1.000 US-Dollar so viel kosten wie ein gut ausgestatteter Gaming-PC. Dass das Gerät damit nicht nur das technisch Machbare demonstrieren soll, sondern auch für Hardwaresammler gedacht ist, beweist die Ausstattung. Die Ares wird in einem Metallkoffer samt Zubehör wie einer Spielemaus geliefert.

Asus will nur eine geringe Zahl der Ares-Karten herstellen. Wie viele es sein sollen und wann sie in Deutschland zu welchem Preis auf den Markt kommen, verriet das Unternehmen auch auf Nachfrage nicht. Offenbar soll mit den nun verschickten Mustern getestet werden, ob es für solche Top-End-Produkte einen Markt gibt.

Quelle : www.golem.de
Titel: Nvidia präsentiert GeForce GTX 460
Beitrag von: SiLæncer am 12 Juli, 2010, 08:30
Nvidia hat die GeForce GTX 460 vorgestellt. Die zu DirectX 11 kompatible Performance-Grafikkarte wird es in zwei Varianten geben, die sich vor allem hinsichtlich Größe und Anbindung des Speichers voneinander unterscheiden.

Beide Modelle setzen auf den neuen GF104-Grafikchip (675 MHz) mit 336 Shader-Rechenkernen (1350 MHz). Im Vergleich zum bisherigen GF100-Chip ist er sparsamer, lässt sich besser übertakten, ist kleiner (1,95 Milliarden Transistoren) und billiger zu fertigen. Außerdem hat Nvidia noch an ein paar Stellschrauben gedreht: So liegt die Filterleistung des GF104 durch seine 56 Textureinheiten sogar über der einer GeForce GTX 470 – bei Tessellation-Berechnungen hat er aber das Nachsehen.

(http://www.heise.de/imgs/18/5/4/1/3/0/1/GTX460.jpg-085cf965dadbe169.jpeg)
Die GeForce GTX 460 ist rund 21 Zentimeter lang und hat zwei sechspolige Stromanschlüsse.

Beim 768-MByte-Modell binden drei 64-Bit-Speichercontroller den Grafikchip über insgesamt 192 Datenleitungen an. Der GDDR5-Speicher läuft mit einer Taktfrequenz von 1800 MHz und erreicht damit eine Datentransferrate von 86,4 GByte/s. Bei der 1-GByte-Variante läuft der Speicher ebenso schnell, kommuniziert mit dem Grafikchip jedoch über 256 Leitungen und erreicht damit sogar eine höhere Datentransferrate (115,2 GByte/s) als die teurere GeForce GTX 465.

Das reicht auch in den neuesten Spielen für sehr hohe Auflösungen in Verbindung mit Kantenglättung (Antialiasing/AA) und anisotroper Filterung. So ist etwa das Rennspiel Dirt 2 mit dem 1-GByte-Modell noch bei 2560 × 1600 Bildpunkten mit 38 Bildern pro Sekunde spielbar – im DirectX-11-Modus mit vierfacher Kantenglättung und sechzehnfachem anisotropen Filter. Battlefield Bad Company 2 bewältigt die Karte mit 41 fps und gleichen AA/AF-Einstellungen bei 1920 × 1080 Pixeln.

Die 1-GByte-Variante ist in Spielen durchschnittlich 10 Prozent schneller als die beim Speicherinterface beschnittene 768er-Karte und sogar etwas flinker als eine GeForce GTX 465. Im 3DMark Vantage erreicht die GeForce GTX 460 in der Extreme-Voreinstellung rund 6000 (768 MByte) beziehungsweise 6600 Punkte (1024 MByte). Grafikchip und Speicher unserer GeForce GTX 460 (1 GB) ließen sich ohne Spannungserhöhung um rund 20 Prozent übertakten. Damit rechnete die Karte sogar auf GTX-470-Niveau.

Im Leerlauf arbeitete unser Testexemplar der GeForce GTX 460 von Zotac deutlich sparsamer als alle vorherigen DirectX-11-Karten mit Nvidias GF100-Chip und kommt mit 16 Watt aus, war aber leider zu laut (1,5 Sone). Für den Lastbetrieb (2,5 Sone) gibt Nvidia eine TDP von 150 Watt (768 MByte) beziehungsweise 160 Watt an. In unseren Messungen wurden diese Werte kurzzeitig teilweise um rund 10 Watt überschritten.

Die GeForce GTX 460 mit 1 GByte Speicher kostet rund 230 Euro, das kleinere Modell zirka 30 Euro weniger.

Quelle : www.heise.de
Titel: Nvidia Geforce GTS 450 - Neue Geforce ab August
Beitrag von: SiLæncer am 22 Juli, 2010, 13:03
Wie mehrere Webseiten melden, wird Nvidia nächsten Monat ein weiteres Geforce-Modell veröffentlichen.

Die neue Nvidia Geforce GTS 450 verwendet nach Informationen der türkischen Webseite Donanimhaber den GF106-Grafikkchip, 1 GByte GDDR5-RAM und ein 128 Bit breites Speicherinterface.

Genauere technische Daten fehlen zwar noch, doch alleine die Verwendung des Kürzels GTS statt GTX und das kleinere Speicherinterface deuten darauf hin, dass die neue Geforce wohl den unteren Mittelklasse-Bereich abdecken wird.
Direkte Konkurrenten wären in diesem Fall wohl die ATI Radeon HD 5770, die momentan rund 130 Euro kostet oder die ATI Radeon HD 5750 für knapp unter 100 Euro. Der Preis der Geforce GTS 450 dürfte sich also bei Erscheinen im August ebenfalls in diesem Bereich bewegen.

Quelle : www.gamestar.de
Titel: AMDs neue Grafikchips kommen Ende Oktober
Beitrag von: SiLæncer am 23 Juli, 2010, 15:38
Viel spekuliert wurde in den vergangenen Wochen über AMDs kommende Grafikchips. Fest steht, dass das Unternehmen gleich zwei neue Serien in Planung hat und diese als Southern Islands und Northern Islands bezeichnet. Die bisherige HD-5000-Architektur soll Northern Islands komplett ersetzen: viel flinker und effizienter sollen die zukünftigen, DirectX-11-kompatiblen Chips werden und eine höhere Tessellation-Leistung mitbringen. Doch derzeitigen Erkenntnissen zufolge wird man sich frühestens im dritten Quartal nächsten Jahres Grafikkarten mit entsprechenden Chips in den Rechner stecken können – optimistisch gesehen.

(http://www.heise.de/imgs/18/5/4/7/0/3/8/RV870.jpg-8938488c54f742ab.jpeg)
Southern Islands soll auf der derzeitigen HD-5000-Architektur (im Bild: Cypress-GPU) aufbauen und sie in einigen Punkten verbessern.

Anders die Southern-Islands-Grafikchips, bei der AMD die bestehende HD-5000-Architektur nur an einigen Stellen verbessert. Unbestätigten Gerüchten zufolge will AMD die neuen Karten dann als HD-6000-Serie vermarkten. Um den Veröffentlichungstermin gab es im Internet in den letzten Wochen teils heftige Spekulationen, oft sprach man dabei vom Monat Oktober. Intern war AMD aber wohl gerade erst dabei, Pläne für den Marktstart zu schmieden.

Wie heise online heute aus verlässlicher, unternehmensinterner Quelle erfuhr, steht der Termin erst seit kurzem fest. Tatsächlich will AMD die Southern-Islands-Chips wohl zwischen dem 15. und 29. Oktober vorstellen. Die Presse könnte bereits Anfang des Monats eingeweiht werden. Bis erste Grafikkarten dann tatsächlich in ausreichenden Stückzahlen verfügbar sind, dürfte es aber noch etwas dauern.

Konkurrent Nvidia ist noch dabei, die Fermi-Architektur ins Mittelklasse- und Einstiegssegment zu hieven. Hierfür kommen die GF106- und GF108-Chips zum Einsatz. Die erste Grafikkarte mit GF106-GPU wird die GeForce GTS 450, die Ende August offiziell vorgestellt wird. Bestätigt wurde heise online heute aus Asien zunächst nur Speicherausbau und -anbindung. So soll auf der GTS 450 insgesamt 1 GByte Speicher sitzen, der über 128 Datenleitungen an die GF106-GPU angebunden ist. In frühen Tests entspreche die 3D-Leistung einer solchen GeForce GTS 450 ungefähr der einer Radeon HD 5770, wie ein ostasiatischer Hersteller mitteilte. Daher müsste die GeForce-Karte für weniger als 150 Euro über den Ladentisch wandern, um konkurrenzfähig zur Radeon HD 5770 zu sein. Nvidias Einsteiger-Grafikkarten mit GF108-GPUs werden wohl frühestens im September erwartet.

Quelle : www.heise.de
Titel: Gerücht: Kommt AMDs Serie Radeon 6000 schon im November 2010?
Beitrag von: SiLæncer am 13 August, 2010, 15:06
Eine unbestätigte Meldung aus Taiwan verspricht einen Grafik-Showdown zum Ende des Jahres 2010. Dann soll AMD  seine Serie Radeon 6000 vorstellen, zu der bisher noch kaum technische Details bekannt sind. Die Gründe für diese Eile klingen jedoch plausibel - wieder einmal ist TSMC in der Kritik.

(http://www.golem.de/1008/77195-3438-70001-aufmacher.jpg)
Unter Berufung auf Grafikkartenhersteller in Taiwan meldet Digitimes, AMD wolle die Serie Radeon 6000 bereits im Oktober vorstellen und die Auslieferung im November beginnen. Zuvor sollen die Preise für die erfolgreichen Radeon 5000 gesenkt werden - vermutlich, weil Nvidia nach den enttäuschenden High-End-Modellen der Serie Geforce 400 bei den Mittelklassekarten mit Fermi-Architektur AMD inzwischen kräftig Konkurrenz macht.

Dem Bericht zufolge plante AMD, seine nächste GPU-Generation mit dem Codenamen "Northern Islands" erst mit Verfügbarkeit des 32-Nanometer-Prozesses beim Chiphersteller TSMC auf den Markt zu bringen. Die aktuellen Radeon 5000 alias "Cypress" werden mit 40 Nanometer breiten Strukturen ebenfalls bei TSMC hergestellt. Dieser weltgrößte Auftragshersteller für Halbleiter hatte aber mit dem 40-Nanometer-Prozess lange andauernde Probleme.

Daher hat TSMC, wie das Unternehmen bereits bestätigte, 32 Nanometer gestrichen und konzentriert sich bereits auf 28-Nanometer-Technik. Dieser Prozess soll aber erst im Laufe des Jahres 2011 einsatzreif sein, was für AMDs nächste GPU-Generation viel zu lange dauern würde.

Digitimes zufolge sollen die Radeon-Macher deshalb unter dem Codenamen "Southern Islands" einen Ableger der Cypress-GPUs dazwischengeschoben haben. Sie sollen weiterhin mit 40 Nanometer breiten Strukturen hergestellt werden, welche Verbesserungen der Architektur - und damit mehr Tempo - sie bringen könnten, ist bisher noch unbekannt.

Quelle : www.golem.de
Titel: Radeon HD 5750 in halber Bauhöhe
Beitrag von: SiLæncer am 20 August, 2010, 11:53
Für besonders kleine Gehäuse bietet Powercolor  nun eine Radeon HD 5750 in halber Bauhöhe an. Jedoch belegt die Mittelklasse-Grafikkarte durch ihren großen Kühler insgesamt zwei Steckplätze. Zwei kleine Lüfter führen die über einen großen Aluminum-Lamellenkühler vom RV840-Grafikchip abgeleitete Wärme ab.

(http://www.heise.de/imgs/18/5/5/8/9/8/0/7a570cf553e055f9.jpeg)
Zwei kleine, hoffentlich leise Lüfter führen die Wärme ab.
Die technischen Spezifikationen ensprechen den AMD-Referenzvorgaben. Der DirectX-11-Chip beherbergt 720 Shader-Rechenkerne, die mit 700 MHz laufen und daher eine theoretische Rechenleistung von 1008 GFlops (SP) erreichen. Über 128 Datenleitungen ist der 2300 MHz flinke und 1 GByte fassende GDDR5-Speicher angebunden. Das reicht aus, um viele aktuelle Spiele auch bei 1920 × 1080 Bildpunkten flüssig wiederzugeben – oft muss man jedoch auf Multisampling-Kantenglättung verzichten. Bei der Blu-ray-Wiedergabe hilft die UVD2-Videoeinheit.

Displays lassen sich über je einen Dual-Link-DVI-, HDMI- und VGA-Anschluss verbinden. Laut Powercolor soll die Radeon HD 5750 Low Profile Edition in Kürze erhältlich sein, zum Preis äußerte sich man jedoch nicht.

Quelle : www.heise.de
Titel: GeForce GTS 450 kommt am 13. September
Beitrag von: SiLæncer am 26 August, 2010, 14:57
Nvidia plant nach derzeiten Erkenntnissen die zu DirectX 11 kompatible GeForce GTS 450 am 13. September als Konkurrenzkarte zu AMDs Radeon HD 5770  vorzustellen. In 3D-Spielen ist die HD 5770 nach uns vorliegenden Informationen durchschnittlich etwas schneller, bei einigen speziellen DirectX-11- oder Nvidia-freundlichen Titeln setzt sich wiederum die kommende GTS 450 in Front.

Hinsichtlich der Spezifikationen der GeForce GTS 450 wurde in der Szene in den letzten Wochen eine Menge spekuliert. Wie uns heute ein Kontaktmann flüsterte, der bereits über ein Vorabexemplar verfügt und auch schon einige Benchmarks durchführte, soll der GF106-Grafikchip mit 783 MHz laufen, die insgesamt 192 Shader-Rechenkerne entsprechend mit 1566 MHz. Der 1 GByte fassende GDDR5-Speicher ist über 128 Datenleitungen an den Grafikchip angebunden und schafft bei einer Taktfrequenz von 1804 MHz eine Datentransferrate von 57,8 GByte/s – eine HD 5770 bietet mit 76,8 GByte eine höhere Bandbreite.

Bei einem unverbindlichen Verkaufspreis von 129 US-Dollar wäre die GTS 450 zunächst auch etwas billiger zu haben als derzeit die Radeon HD 5770. Damit scheint auch das Auslaufen der lediglich zu DirectX 10 kompatiblen GeForce GTS 250 wahrscheinlich. Konkurrent AMD wird nach derzeitigen Erkenntnissen bereits im Oktober seine neue Grafikkartengeneration mit zwei Performance-Grafikkarten einläuten, im November dürfte AMD schließlich noch ein High-End-Modell auf den Markt werfen.

Quelle : www.heise.de
Titel: GeForce GT 420: Preiswerte Fermi-Grafikkarte für den OEM-Markt
Beitrag von: SiLæncer am 04 September, 2010, 13:20
Heimlich, still und leise hat Nvidia die GeForce GT 420 vorgestellt, die erste Einsteiger-Grafikkarte mit Fermi-Architektur. Auf der nur für OEM-Kunden wie PC-Hersteller und Systemintegratoren erhältlichen Karte sitzt ein auf 48 Shader-Kerne beschnittener GF108-Grafikchip. Er ist mit 700 MHz getaktet, die Shader arbeiten mit 1400 MHz. Dies ist etwas schneller als bei der Mobil-Grafikkarte GeForce GT 415M mit gleichem Chip.

(http://www.heise.de/imgs/18/5/6/5/1/9/6/GeForce_GT_420_oem_med_3qtr-f0cfeb7b2fa9befa.png)
Passend für das übliche Marketing von Komplett-PCs lötet Nvidia mit 2 GByte DDR3-RAM vergleichsweise viel Grafikspeicher auf, wovon die GPU aber in den meisten 3D-Spielen kaum profitiert kann. Er bindet über 128 Datenleitungen an den DirectX-11-tauglichen GF108-Chip an. Die Performance der GeForce GT 420 dürfte in etwa im Bereich der Vorgänger GeForce GT 320 und GT 330  liegen. Die Leistungsaufnahme der Single-Slot-Karte beziffert der Hersteller auf 50 Watt, sodass sie ohne einen Stromstecker auskommt.

Quelle : www.heise.de
Titel: GeForce GTS 450: Fermi für die Mittelklasse
Beitrag von: SiLæncer am 13 September, 2010, 07:37
(http://www.heise.de/imgs/18/5/6/8/4/5/6/f2091409f3d7b8c4.jpeg)
Nvidias neue Mittelklasse-Grafikkarte GeForce GTS 450 setzt auf den GF106-Grafikchip, der zu DirectX 11, OpenGL 4 und OpenCL 1.0 kompatibel ist. Er nutzt 192 Shader-Rechenkerne und kann über 128 Datenleitungen mit dem 1 GByte großen GDDR5-Speicher kommunizieren.

Die GeForce GTS 450 ist in Spielen etwas schneller als die AMD-Konkurrenzkarte Radeon HD 5750. Bei einigen DirectX-11- oder Nvidia-freundlichen Titeln überholt sie sogar eine Radeon HD 5770. Im 3DMark Vantage erreicht die GeForce GTS 450 in der Performance-Voreinstellung rund 9500 Punkte, eine Radeon HD 5750 zirka 8500, die HD 5770 etwas über 10.000. In Crysis liegt die neue GeForce-Karte mit der Radeon HD 5750 bei 1680×1050 Bildpunkten und sehr hoher Detailstufe etwa gleich auf, bei HAWX setzt sich die GTS 450 deutlich ab.

Der GF106-Grafikchip (1,17 Milliarden Transistoren) mitsamt der 32 Textureinheiten und 16 Rasterendstufen läuft mit 783 MHz, die Shader-Rechenkerne mit 1566 MHz. Von Letzteren sitzen jeweils 48 in insgesamt 4 Streaming-Multiprozessoren. Für aufwendige Tessellation-Berechnungen sind entsprechend vier Polymorph-Engines zuständig. Der GDDR5-Speicher schafft bei einer Taktfrequenz von 1800 MHz eine Datentransferrate von 57,6 GByte/s – die HD 5770 bietet mit 76,8 GByte eine höhere Bandbreite.

(http://www.heise.de/imgs/18/5/6/8/4/5/6/11.jpg-6f249f6fea10ce10.jpeg)

Bringen aufwendige Programme die GeForce GTS 450 zum Schwitzen, dann soll sie laut Nvidia bis zu 106 Watt verheizen und bringt daher auch einen sechspoligen Stromstecker mit. Unsere Messungen ergaben etwas über 90 Watt mit kurzzeitigen Spitzen von bis zu 135 Watt. Im Leerlauf ist die Mittelklassegrafikkarte sogar genügsamer als eine Radeon HD 5750 und kommt mit rund 12 Watt (Dual-Monitor-Betrieb: 15 Watt) aus, sie arbeitet mit 0,4 Sone zudem sehr leise. Beim Spielen drehte der Lüfter auf über 1800 U/min hoch und war bei 0,9 Sone noch zu ertragen. Die Grafikchip-Temperatur kletterte nicht über 70 °C.

Die GeForce GTS 450 unterstützt laut Nvidia auch die Wiedergabe von Blu-Rays mit stereoskopischen Inhalten und kommt mit den Tonformaten DTS-HD Master Audio und Dolby TrueHD zurecht. Rund 120 Euro soll die Mittelklassekarte kosten.

Quelle : www.heise.de
Titel: Nvidias Roadmap - GPUs sollen bis 2013 achtmal effizienter werden
Beitrag von: SiLæncer am 21 September, 2010, 21:17
In San Jose hat Nvidia-Chef Jen-Hsun Huang zur Eröffnung der GPU Technology Conference eine Roadmap für künftige Grafikprozessoren vorgelegt. Nach dem aktuellen Fermi kommen Kepler und Maxwell. Das größte Problem dabei: Performance pro Watt.

Huang betonte zum Ende seiner Keynote-Ansprache, dass Nvidia noch nie seine Roadmap vorgelegt habe und das nun eine Premiere für das Unternehmen darstellen würde. Die Motivation ist klar: Die gegenwärtige Begeisterung für GPU-Computing soll aufrechterhalten werden.

(http://scr3.golem.de/screenshots/1009/Nvidia-Roadmap/thumb480/Nvidia-Roadmap.jpg)

Harte Zahlen zur Rechenleistung künftiger Nvidia-GPUs gab es jedoch nicht, die Einheit, in der Huangs Roadmap auf der Vertikalen skaliert ist "GFlops pro Watt". Wie der Nvidia-Mitbegründer betonte, ist die Rechenleistung nicht das Problem, sondern die "Power Wall". Schon mit den ersten Fermi-Grafikkarten kratzte Nvidia an der Grenze von 300 Watt.

Den Codenamen von Astronomen bleibt Nvidia treu: Nach Fermi kommt Kepler, und danach dann Maxwell. Wie auch Intel will Nvidia also alle zwei Jahre eine neue Architektur vorstellen. Kepler wird dabei eher evolutionär ausfallen, nämlich nur etwas mehr als doppelt so viel Leistung aus derselben Energie ziehen können.

2013 plant Nvidia dann mit Maxwell einen großen Sprung: achtmal effizienter als Fermi. Da Nvidia die vorherige Generation, Tesla mit GT200-Architektur, als Basis anlegt, steht auf der Roadmapfolie sogar 16x. Erste Features zu Kepler verriet Huang auch: Die GPU soll präemptiv und von der CPU unabhängig arbeiten können.

Quelle : www.golem.de
Titel: Nvidia-Chef nennt Gründe für Fermi-Verspätung
Beitrag von: SiLæncer am 23 September, 2010, 12:17
Nvidias unter dem Codename "Fermi" entwickelter GF100-Chip ließ lange auf sich warten. Jetzt äußerte sich der Nvidia-Chef Jen-Hsun Huang erstmals über die aufgetretenen Probleme, die zur Verspätung geführt haben.

Eigentlich sollten bereits 2009 die ersten Grafikkarten mit dem DirectX-11-Chip in den Handel kommen, doch es dauerte noch bis April diesen Jahres, bis man die ersten derartigen Grafikkarten bestellen konnte. Laut Huang lag dies an technischen Fehlern, aber auch an Problemen im Management.


Man stellte bei den ersten Prototypen fest, dass die Kommunikation zwischen den einzelnen Streaming-Multiprozessoren und dem Speicher nicht funktionierte. Es traten elektrische Interferenzen zwischen den sehr eng aneinander liegenden Verdrahtungen auf. Diese Fabric genannte Verdrahtung musste also komplett neu entwickelt werden. Der Zeitplan war damit hinfällig.

Dafür macht der Nvidia-Chef auch sein Management verantwortlich. So kümmerten sich zwar alle Abteilungen um ihre Aufgaben, doch für die Verdrahtung wollte keiner verantwortlich sein. Aus diesem Fehler habe man nun gelernt, erklärte Huang. Jedoch könne man nicht garantieren, dass bei den geplanten Chips Kepler und Maxwell der Zeitplan exakt eingehalten wird. Fehlschläge kann es immer geben.


Quelle : http://winfuture.de
Titel: GeForce GT 430 kommt voraussichtlich am 11. Oktober
Beitrag von: SiLæncer am 05 Oktober, 2010, 14:52
Voraussichtlich am 11. Oktober will Nvidia  die DirectX-11-fähige Einsteiger-Grafikkarte GeForce GT 430 auf den Markt bringen. Einige Händler listen bereits erste Exemplare, etwa von Gigabytes GeForce GT 430 OC. Die Karte besitzt 1024 MByte DDR3-Speicher und setzt auf den GF108-Grafikchip mit 96 Shader-Rechenkernen. Zwei Shader-Multiprozessoren enthalten daher jeweils 48 Kerne und 8 Textureinheiten.

Die Webseite BSN meldet derweil, dass sich in den USA bereits GT430-Karten von Galaxy im Handel befinden und beruft sich auf einen Beitrag aus dem EVGA-Forum: So soll der Grafikchip mit 700 MHz laufen und mit 128 Datenleitungen an den 1 GByte großen DDR3-Speicher angebunden sein, der mit 800 MHz arbeitet. Zur Leistungsaufnahme gibt es noch keine offiziellen Angaben. Zumindest soll es von der GT 430 auch Low-Profile-Varianten geben. Zum Marktstart dürfte die Grafikkarte in ausreichend großen Stückzahlen zwischen 75 und 90 Euro erhältlich sein.

Quelle : www.heise.de
Titel: Radeon 6850 und 6870 - Nächste AMD-Grafikkarten mit 3D-Treiber und Eyefinity?
Beitrag von: SiLæncer am 08 Oktober, 2010, 12:14
Dass AMD noch im Jahr 2010 neue Grafikkarten vorstellen  will, hatte das Unternehmen bestätigt - sonst schweigt der Chiphersteller dazu. Aus Asien gibt es nun immer mehr vermeintliche Datenblätter, Bilder und Werbeanzeigen, was die Spekulation antreibt.

Selten zuvor kochten die Gerüchte über neue Grafikkarten so hoch wie bei der Serie Radeon 6000, Codename: Northern Islands. Sogar die Codenamen der einzelnen GPUs und die Zuordnung zu den tatsächlichen Produktnamen ist noch nicht ganz klar. Bei Chiphell  sind nun aber Screenshots eines chinesischen PDFs aufgetaucht, die zumindest "Barts XT" für die Linie 6800 und "Barts Pro" für Radeon HD 6850 und 6870 zu bestätigen scheinen. Die Bilder sollen vom Einkaufsportal IT.com.cn stammen.

Dazu gibt es auch noch eine professionell gestaltete Anzeige für eine 6870, auf der die Karte zu sehen ist. Sie wirkt, wenig überraschend, wie eine 5870 mit einem gekapselten Kühler über die gesamte Länge der Karte. Das Besondere: zwei Ports für DVI, zwei für Mini-Displayport und einmal HDMI sind vorhanden. Das würde darauf hindeuten, dass die teuren Eyefinity-Karten für mehr als drei Monitore nun abgelöst werden. Wer die AMD-Technik für bis zu sechs Monitore aber voll ausreizen will, dürfte weiterhin die Eyefinity-Karten brauchen, denn nur diese bieten sechs Mini-Displayports.

Außerdem sollen die Radeon 6800 eine Funktion namens "HD3D" beherrschen, was als Alternative zu Nvidias 3D Vision gewertet wird. Der AMD-Konkurrent hat diese Funktion für stereoskopische Darstellung auf entsprechenden Monitoren und Beamern inzwischen für hunderte Spiele aufgebohrt, sodass die Anwendungen nicht mehr von vornherein darauf ausgelegt sein müssen. Der 3D-Effekt ist aber bei nativen 3D-Anwendungen viel ausgeprägter. Vermutlich zieht AMD hier nun nach.

Neben den Nachfolgern für die Radeon 5000 wird auch über eine neue Karte mit zwei GPUs spekuliert, die "Antilles" oder 6970 heißen soll. Sie soll ebenfalls noch 2010 erscheinen. Wenig Neues gibt es bisher zu den preislich attraktiveren Karten der Serie 6700, bisher auch als "Barts" gehandelt. Bereits vor zwei Wochen gab es Berichte, AMD habe die Barts-GPUs zur Serie 6800 befördert. Was dann aber die neue Mittelklasse darstellen soll, so es denn eine gibt, ist noch unklar.

Verfügbarkeit erst im November 2010

Wann all diese Karten auf den Markt kommen sollen, ist Gegenstand der meisten Diskussionen. VR-Zone will erfahren haben, dass AMD die Geräte zwar im Oktober 2010 vorstellen will, aber bis Mitte November 2010 keine hohen Stückzahlen liefern könne. In diesem Punkte hatte sich AMD bisher sehr bemüht, zumindest eine konstante Verfügbarkeit sicherzustellen, was aber schon bei den Radeon 5000 und vor allem der 5970 kaum gelang.

Der Meldung von VR-Zone zufolge soll TSMC weiterhin mit Kapazitätsproblemen und geringer Ausbeute der 40-Nanomter-Fertigung kämpfen, was AMDs Zeitplan durcheinanderbringt. Nicht nur die Radeon-Macher lassen ihre GPUs bei TSMC fertigen, auch Nvidia stellt seine Grafikprozessoren dort her. Beide Konkurrenten haben derzeit rund ein Dutzend verschiedene Chips in Produktion und dürften sich kräftig um die Kapazitäten streiten.

Quelle : www.golem.de
Titel: Nvidia präsentiert die GeForce GT 430
Beitrag von: SiLæncer am 11 Oktober, 2010, 15:07
(http://www.heise.de/imgs/18/5/8/0/8/5/7/a455101fc8e2db2f.jpeg)
Die GeForce GT 430 passt dank Low-Profile-Bauform
auch in sehr kleine Gehäuse.
Nvidia-Grafikkarten mit Fermi-Grafikchip sind nun in Form der GeForce GT 430 für rund 80 Euro erhältlich. Wie alle Fermi-Grafikkarten ist sie kompatibel zu DirectX 11 und OpenGL 4 und unterstützt außerdem OpenCL und CUDA – dadurch lassen sich auch universelle Berechungen, wie beispielsweise Video-Transcoding, auf den Grafikchip auslagern. Durch ihre integrierte Videoeinheit eignet sich die GT 430 für die Wiedergabe von Blu-ray-Filmen – auch für solche mit stereoskopischen Inhalten. Bei anspruchsvollen 3D-Spielen muss man teilweise deutliche Abstriche im Detailgrad und bei der Auflösung machen.

Nvidias GF108-Grafikchip (700 MHz) besteht aus 585 Millionen Transistoren und wird im 40-Nanometer-Verfahren von TSMC gefertigt. Verteilt auf 2 Streaming-Multiprozessoren beherbergt er insgesamt 96 Shader-Rechenkerne und 16 Textureinheiten. Mit nur 4 Rasterendstufen lässt man in aktuellen Spielen lieber generell die Finger von Kantenglättung. Auch die langsame Datentransferrate zum Speicher fungiert als Bremsklotz: Denn die GPU ist im Referenzdesign über 128 Datenleitungen nur mit langsamem DDR3-Speicher (1 GByte, 900 MHz, 28,8 GByte/s) angebunden.

(http://www.heise.de/imgs/18/5/8/0/8/5/7/f9966ef8e0ff6f7b.jpeg)
Der GF108-Grafikchip ist der bisher
kleinste und schwächste, aber auch
 sparsamste aus der Fermi-Serie.
In Spielen ist die GeForce GT 430 zwischen 15 und 25 Prozent schneller als eine GeForce GT 220. Eine GeForce GT 240 mit GDDR5-Speicher ist deutlich flinker. Im 3DMark Vantage erreicht unsere GeForce GT 430 rund 4300 Punkte in der Performance-Voreinstellung, AMDs Radeon HD 5570 rund 4500 Punkte (GT 240: 5483, GTS 450: 9532). Das Echtzeitstrategiespiel Anno 1404 ist bei hohen Details mit 1680 ×1050 Bildpunkten gerade noch so spielbar (28 fps), das Rennspiel Colin McRae Dirt 2 läuft ohne Kantenglättung in gleicher Auflösung ähnlich. Crysis und Konsorten verlangen nach potenteren Grafikkarten.

(http://www.heise.de/imgs/18/5/8/0/8/5/7/08941752720bbdaa.jpeg)
96 Kerne, 16 Textur- und 2 Tessellation-Einheiten:
für anspruchsvolle DirectX-11-Spiele zu langsam.
Dank moderner Videoeinheit aber gerade
richtig für die Blu-ray-Wiedergabe.
Hinsichtlich der Leistungsaufnahme ist die GeForce GT 430 sehr sparsam und verbraucht beim Arbeiten auf dem Windows-Desktop nur 9 Watt, bei zwei gleichzeitig betriebenen Displays 14 Watt. In anspruchsvollen Spielen zieht sie 35 Watt im Mittel aus dem Netzteil – mit kurzzeitigen Spitzen von bis zu 52 Watt. Der Lüfter unserer Asus-Testkarte blieb mit knapp 0,5 Sone immer sehr leise. Die GeForce GT 430 kommt ohne zusätzlichen Stromstecker aus und passt dank Low-Profile-Bauform auch in sehr kleine Gehäuse.

Über jeweils einen Dual-Link-DVI, HDMI- und VGA-Anschluss bindet sie maximal zwei Displays gleichzeitig an. Die Grafikkarte soll mit DDR3-Speicher rund 80 Euro kosten und in ausreichenden Mengen verfügbar sein. Später dürfte es auch Modelle mit GDDR5-Speicher geben.

Quelle : www.heise.de
Titel: Radeon 6850 und 6870 - AMD bestätigt neue Grafikkarten für nächste Woche
Beitrag von: SiLæncer am 15 Oktober, 2010, 07:54
Ende Oktober 2010 will AMD eine neue Serie von Grafikkarten auf den Markt bringen. Dies bestätigte das Unternehmen bei der Vorstellung seiner jüngsten Quartalszahlen.

Die nach unbestätigten Angaben "Radeon HD 6850" und "Radeon HD 6870" genannten Grafikkarten mit dem Codenamen "Northern Islands" kommen planmässig auf den Markt. Dies sagte Dirk Meyer im Rahmen einer Telefonkonferenz zu den jüngsten Quartalszahlen von AMD.

Weitere Informationen gab es zu den neuen Modellen noch nicht. Damit steht auch noch nicht fest, welche Grafikkarten AMD in der kommenden Woche auf den Markt bringen will. Die Gerüchteküchen sehen ausser 6850 und 6870 auch eine Dual-GPU-Karte vor, die aber erst etwas später vorstellen will. Ebenso ist noch ungeklärt, ob die neuen Grafikkarten von Anfang an in ausreichenden Stückzahlen verfügbar sein werden.

Quelle : www.golem.de
Titel: AMD Radeon HD 6800 - Offizielle Bilder von AMD
Beitrag von: SiLæncer am 19 Oktober, 2010, 11:01
Nachdem im Internet mehr und mehr Informationen zu den neuen AMD-Grafikkarten auftauchen, hat AMD nun offiziell Bilder freigegeben.

Obwohl die vielen Meldungen im Internet das große Interesse an der AMD Radeon HD 6850 und AMD Radeon HD 6870 belegen, sind geleakte Informationen dem Hersteller meistens ein Dorn im Auge.

(http://images.idgentertainment.de/images/idgwpgsgp/bdb/2184880/800x600_prop.jpg)

Umso erstaunlicher ist es, dass AMD sich diesmal dazu entschieden hat, den potentiellen Kunden das Warten mit der Vorab-Veröffentlichung offizieller Bilder der beiden neuen Radeon-Grafikkarten zu verkürzen.
Zwar gibt es nach wie vor bis zur offiziellen Veröffentlichung keine technischen Daten, doch zumindest kann man sich nun von der Existenz der Grafikkarten und deren Design überzeugen. Wie sich die neuen Radeons schlagen, werden unsere Benchmark-Tests demnächst zeigen.

Quelle : www.gamestar.de
Titel: Geforce GTX 580 - Kommt Nvidias Fermi-Refresh noch 2010?
Beitrag von: SiLæncer am 19 Oktober, 2010, 12:54
Die Vorstellung neuer Grafikkarten von AMD steht kurz bevor, und schon gibt es die ersten Gerüchte um eine neue High-End-Karte von Nvidia. Die GTX 580 soll mehr Rechenwerke und Fixed-Function-Units enthalten und mit 2 GByte Speicher ausgestattet sein. Noch im Dezember 2010 könnte sie auf den Markt kommen.

(http://www.golem.de/1010/78733-4806-gf100-die.jpg)
Bereits in der vergangenen Woche gab es eine kurze Notiz zur GTX 580 mit ihrer neuen GPU GF110 bei Expreview, inzwischen sind auch einige weitere inoffizielle Informationen dazu aufgetaucht. Sie alle drehen sich um ein größeres Redesign des GF100, der sich zu einem Marktstart als GTX 480 und 470  vor allem eine Kritik gefallen lassen musste: Die Zahl der Fixed-Funktion-Units mit fest verdrahteten Aufgaben für Grafikanwendungen war gegenüber bisherigen GPUs recht gering ausgefallen.

So gibt es beim GF100 nur 64 Texturierungseinheiten, beim GF110 sollen es gleich 128 sein. Das Speicherinterface der neuen GPU soll von 384 auf 512 Bit erweitert worden sein, zusammen damit ergeben sich 2 GByte GDDR-Speicher. Die Zahl der Rechenwerke soll Nvidia ebenfalls erhöht haben. Sie beträgt zwar beim GF100 theoretisch schon 512 Einheiten, davon hat Nvidia bisher aber nur 480 aktiviert.

Beim GF110 sollen es gleich 512 Shader sein. Aus eigener Quelle will 3DCenter erfahren haben, dass auch größere Dies mit 576 und sogar 768 Rechenwerken geplant sind. All das will Nvidia noch im 40-Nanometer-Prozess bei TSMC fertigen lassen - wie die Leistungsaufnahme ausfallen wird, geht aus den inoffiziellen Daten noch nicht hervor.

Noch im Dezember 2010 soll die GTX 580 auf den Markt kommen, meint PC Games Hardware. Sollte das so eintreten, ist der Gegner der Grafikkarte klar: Es wird die Radeon 6970 alias "Cayman XT" sein, die den schon bestätigten 6870 und 6850 im November folgt. Wenn Nvidias Plan aufgeht, hat AMD also vermutlich nur einige Wochen lang die schnellste GPU, unabhängig vom Preis, denn: Die Kosten aller neuen bis Jahresende erwarteten Grafikkarten sind noch nicht bekannt.

Auch bei den bereits erhältlichen Karten befinden sich die Preise derzeit ständig im Fluss, Nvidias aktuelles Flaggschiff GTX 480 ist schon unter 370 Euro erhältlich. Zum Marktstart im April 2010 lag diese Karte noch bei rund 100 Euro mehr, obwohl inzwischen keine schnellere GPU erschienen ist.

Quelle : www.golem.de
Titel: Fermi billiger - Nvidia senkt Preisempfehlungen für GTX 460 und 470
Beitrag von: SiLæncer am 21 Oktober, 2010, 16:31
Jetzt ist es offiziell: Kurz bevor AMD seine neuen Grafikkarten Radeon HD 6850 und 6870 vorstellt, senkt Nvidia die Preise für die Konkurrenzmodelle. Die GTX 470 und GTX 460 sind ab sofort billiger - was sich in Onlineshops bereits ausgewirkt hat.

(http://www.golem.de/1010/78808-4863-76361-2944-aufmacher.jpg)
Konkurrenz belebt das Geschäft, und diesmal dürfen sich Technikfans und PC-Spieler wirklich freuen. Die neuen Preisempfehlungen für eine GTX 470 oder 460 lauten 219 beziehungsweise 199 Euro. Bei der im Verhältnis von Preis zu Leistung besonders interessanten GTX 460 bezieht sich der Preis auf die Version mit 1 GByte Speicher - es gibt auch eine billigere Variante mit 768 MByte.

Die GTX 460 mit 1 GByte ist seit kurzem auch in den Onlineshops von Alternate, Atelco, Arlt und K&M zu leicht abweichenden Preisen unter 170 Euro zu haben. Besonders günstige GTX 470 haben derzeit unter anderem Alternate und Arlt im Angebot. Bereits seit etwas mehr als einer Woche gibt es auch Nvidias Flaggschiff, die GTX 480, zu Preisen unter 380 Euro - rund 100 Euro weniger als zum Marktstart im April 2010.

Mit den Preissenkungen reagiert Nvidia ungewöhnlich früh auf neue Grafikkarten von AMD - noch sind Radeon HD 6850 und 6870 noch nicht einmal offiziell vorgestellt, die Zahl der Leaks, wie beispielsweise bei HardOCP, nimmt jedoch von Tag zu Tag zu. Offenbar hält auch Nvidia diese Veröffentlichungen für authentisches Material von AMD.

Quelle : www.golem.de
Titel: Re: Fermi billiger - Nvidia senkt Preisempfehlungen für GTX 460 und 470
Beitrag von: ritschibie am 21 Oktober, 2010, 17:50
Für meine GTX 460 habe ich vor 10 Tagen noch 188 € gezahlt - tempora mutantur et nos graficos in illis!
Titel: Re: Fermi billiger - Nvidia senkt Preisempfehlungen für GTX 460 und 470
Beitrag von: SiLæncer am 21 Oktober, 2010, 18:06
Tja...so ist das halt ...wenn du dir nen neuen Rechner kaufst ist der ein paar Monate später auch nur noch die Hälfte wert ;)
Titel: Re: Fermi billiger - Nvidia senkt Preisempfehlungen für GTX 460 und 470
Beitrag von: dvb_ss2 am 21 Oktober, 2010, 18:18
Ging mir ähnlich mit meiner SSD, die ich mir vor einigen Wochen zugelegt habe. Statt 140 Euro kostet die auch nur noch EUR 104,xx.

http://geizhals.at/deutschland/a534348.html

Such is life!

dvb_ss2 :)
Titel: Radeon HD 6850 und 6870: AMD läutet HD-6000-Serie ein
Beitrag von: SiLæncer am 22 Oktober, 2010, 07:37
(http://www.heise.de/imgs/18/5/8/5/8/4/1/4d70d451b6aafd65.jpeg)
Die Radeon HD 6850/70 bringt im AMD-Referenzdesign
je einen Dual- und Single-Link-DVI-Ausgang,
eine HDMI-1.4a-Buchse und
zwei Mini-DisplayPorts (DP 1.2) mit.
Die Gerüchteküche kochte in den vergangenen Wochen nahezu über, was die neuen HD-6800-Grafikkarten anging. Nun lüftet AMD den Vorhang und stellt die zu DirectX 11 kompatiblen Radeon HD 6850 (170 Euro) und 6870 (220 Euro) vor. Doch wer ob der Namensgebung davon ausgeht, dass die neuen Karten ihre "Pendants" aus der HD-5800-Serie in der 3D-Performance übertrumpfen, liegt falsch. Immerhin bringen ihre auf den Codenamen Barts getauften Grafikchips (GPU) eine verbesserte Video-Einheit für Blu-ray-Filme mit stereoskopischen Inhalten mit; eine HDMI-1.4a-Buchse dient zur Ausgabe auf HD-Fernsehgeräten. Ursprünglich ging man davon aus, dass die HD-6800-Serie auf eine umgekrempelte Architektur setzt, die sich insbesondere hinsichtlich der Shader-Organisation von der Vorgängerserie abhebt. Doch die neuen Grafikchips bringen diesbezüglich nur marginale Änderungen mit.

(http://www.heise.de/imgs/18/5/8/5/8/4/1/b7d74bd69b664932.jpeg)
Die Barts-Grafikchips setzen weiterhin auf die
von der HD-5800-Serie bekannte Architektur.
Die Tessellation-Einheit hat AMD einem Tuning unterzogen. Sie soll durch ein verbessertes Thread-Management und Buffering effizienter und schneller als ihr Vorgänger arbeiten – zumindest bei kleinen Tessellation-Faktoren. Im Unigine-Benchmark wiederum ist eine GeForce GTX 470 (30,6 fps) jedoch weiterhin schneller als die Radeon HD 6870 (27,7 fps) im DirectX-11-Modus. Die Performance im OpenGL-4-Modus ist mit dem uns vorliegenden Treiber bei gleichen Einstellungen im Vergleich zur Vorgängergeneration jedoch katastrophal, hier erreichte die HD 6870 nur 10,3 fps.

(http://www.heise.de/imgs/18/5/8/5/8/4/1/103689452e463725.jpeg)
Die HD-6800-Serie unterstützt auch Tessellation, was etwa in der Arcade-Flugsimulation Hawx 2 die Umgebungsdarstellung durch zusätzliche Polygone verbessert.

Ein überarbeiteter anisotroper Filter sorgt für weichere Übergänge zwischen den verschiedenen Filter-Stufen. Die bisher mit dem Aktivitätszustand von Catalyst A.I. gekoppelten Filteroptimierungen lassen sich nun auch manuell deaktivieren. Laut AMD soll auch Morphological Antialiasing (MLAA) künftig direkt im Treiber aktivierbar sein. Dieser Kantenglättungsmodus ist hinsichtlich der Bildqualität dem Supersampling unterlegen, kostet jedoch nicht so viel Leistung. Der Wermutstropfen: AMD plant MLAA erst im Dezember in den Treiber zu integrieren – nämlich in Catalyst 10.12.

(http://www.heise.de/imgs/18/5/8/5/8/4/1/e928c9b71a4ac866.jpeg)
Die 23 Zentimeter lange Radeon HD 6850
beherbergt 960 Shader-Rechenkerne.
Schnell genug sind die neuen HD-6800-Karten, um aktuelle 3D-Spiele in der Full-HD-Auflösung mit 1920×1080 Bildpunkten flüssig darzustellen. Die meisten Spiele laufen auch auf 30-Zoll-Bildschirmen oder im Eyefinity-Betrieb mit mehreren Displays flüssig. In unseren Tests ist die Radeon HD 6870 (3DMark Vantage Extreme: 7665) schneller als eine Radeon HD 5850, kommt jedoch an die HD 5870 nicht heran, liegt aber etwa in den Spielen Anno 1404 und Crysis teilweise fast gleichauf. Nvidias GeForce GTX 470 lässt sie in Anno 1404, Battlefield Bad Company 2 und Crysis hinter sich, bei den auf Tessellation setzenden Titeln Metro 2033 und Colin McRae Dirt 2 kehrt sich das Bild jedoch um. Die Radeon HD 6850 (3DMark Vantage Extreme: 6161) ordnet sich zwischen einer Radeon HD 5830 und HD 5850 ein, teilweise ist sie auch schneller als die 1-GByte-Variante von Nvidias GeForce GTX 460. Ausführliche Benchmarks finden sich in c't 23/10.

(http://www.heise.de/imgs/18/5/8/5/8/4/1/e4a963ef87d85c3d.jpeg)
Die verbesserte Video-Einheit UVD3 beherrscht die
Wiedergabe von Blu-ray-Filmen mit stereoskopischen Inhalten.
Durchschnittlich 102 Watt verbrauchte unser Testexemplar der Radeon HD 6870 beim Spielen (HD 5870: 119 Watt), kurzzeitig traten Spitzen von bis zu 158 Watt auf. AMD geht daher auf Nummer sicher und liefert die Karte mit zwei sechspoligen Stromsteckern aus, die inklusive des PEG-Slots eine Leistungsaufnahme von bis zu 225 Watt erlauben. Die langsamere Radeon HD 6850 ist entsprechend genügsamer und kommt bei durchschnittlich 89 Watt (Spitzen: bis 125 Watt) mit nur einem sechspoligen Stromstecker aus. Leider funktionierte im Leerlauf der Stromsparmodus aufgrund eines Firmwareproblems nicht und führte bei ruhendem Windows-Desktop zu einer Leistungsaufnahme von 44 Watt; bei der HD 6870 funktionierte alles ordnungsgemäß (19 Watt). Beide Referenzkarten waren im Leerlauf überdies kaum zu hören (0,3 Sone), im 3D-Betrieb jedoch sehr wohl (1,2 bzw. 1,7 Sone).

(http://www.heise.de/imgs/18/5/8/5/8/4/1/b4746420b9875ed1.jpeg)
Die HD-6900-Serie will AMD Ende November vorstellen. Schneller als die bisherigen Dual-GPU-Karten HD 5970 dürften sie jedoch nicht werden, sofern man den AMD-Folien Glauben schenkt.

Bereits in einem Monat will AMD die leistungsfähigere HD-6900-Serie vorstellen, deren Cayman-Grafikchips dann tatsächlich eine umgekrempelte SIMD-Archiektur mitbringen.

Quelle : www.heise.de
Titel: Re: Fermi billiger - Nvidia senkt Preisempfehlungen für GTX 460 und 470
Beitrag von: Theos am 22 Oktober, 2010, 18:11
Ging mir ähnlich mit meiner SSD, die ich mir vor einigen Wochen zugelegt habe. Statt 140 Euro kostet die auch nur noch EUR 104,xx.

http://geizhals.at/deutschland/a534348.html

Such is life!

dvb_ss2 :)
Interessanterweise sind die SSD (oder auch ram) preise sehr stark vom dollar-euro wechselkurs abhängig.
Steigt der dollar kann es daher sein, dass die festplatte teurer wird...
Titel: Nvidia Geforce GTX 580 - Neue Bilder und Hinweise im Treiber
Beitrag von: SiLæncer am 31 Oktober, 2010, 12:57
Im Internet sind erste Bilder aufgetaucht, die eine Nvidia Geforce GTX 580 zeigen sollen.

Nachdem Nvidia selbst die Geforce GTX 580 kurz auf seiner Webseite aufgeführt hatte, ist die Existenz dieses neuen Modells kein Gerücht mehr, auch wenn weitere Informationen zu dieser Grafikkarte fehlten.

(http://images.idgentertainment.de/images/idgwpgsgp/bdb/2186622/800x600_prop.jpg)

Auf der chinesischen Webseite PCinlife sind nun neue Bilder veröffentlicht worden, auf denen die Nvidia Geforce GTX 580 zu sehen sein soll. Allerdings ist darauf nur ein Referenzmodell von Nvidia samt Kühler zu sehen, das nicht viel über die Grafikkarte selbst verrät.

(http://images.idgentertainment.de/images/idgwpgsgp/bdb/2186625/800x600_prop.jpg)

Ein weiteres Bild zeigt jedoch die Platine der Geforce GTX 580, die demnach wie eine Geforce GTX 480 aufgebaut ist. Das schürt die Spekulationen, dass die Geforce GTX 580 sich vom Vorgänger vor allem durch das Freischalten aller 512 CUDA-Cores und einen etwas höheren Takt unterscheidet.

(http://images.idgentertainment.de/images/idgwpgsgp/bdb/2186624/800x600_prop.jpg)

Auf diese Weise könnten die 20% Mehrleistung in Benchmark-Tests, die die Grafikkarte laut Gerüchten bieten wird, erreicht werden. Allerdings sind weder diese Angaben über die Geforce GTX 580 noch die Echtheit der Fotos gesichert.



Auf Expreview sind neue Bilder veröffentlicht worden, die diesmal den Kühler der Geforce GTX 580 zeigen, der einen großen Kühlkörper mit fünf Kupfer-Heatpipes besitzt. Ob die Geforce GTX 580 aber heißer oder kühler sein wird als der Vorgänger, lässt sich alleine durch die Größe des Kühlers nicht beurteilen.
Neben den Fotos bestätigt nun auch ein neuer Nvidia-Grafikkartentreiber für Entwickler die Existenz der neuen Geforce. Der Treiber mit der Versionsnummer 261.00 vergibt die ID 1080 für die Geforce GTX 580 und enthält außerdem Hinweise auf eine Geforce GTS 455 und einen mobilen Grafikchip namens Geforce GT 555M.



Im Internet sind auf mehreren asiatischen Webseiten die angeblichen Spezifikationen der Geforce GTX 580 aufgetaucht. Die Quelle scheint IT168.com zu sein. Wie in vielen Gerüchten behauptet, besitzt der GF110-Grafikchip 512 Shader-Einheiten und damit 32 CUDA-Cores mehr als die Geforce GTX 480.

Der GF110 wird angeblich mit 772 MHz statt 700 MHz betrieben, die Shader sind mit 1.544 MHz ebenfalls knapp 10 Prozent schneller. Das Speicherinterface hat sich nicht geändert, es bleibt bei 384 Bit, doch der 1.5 GByte große Videospeicher ist mit effektiven 4 GHZ rund 300 MHZ schneller als bei der Geforce GTX 480. Da die Geforce GTX 580 bis zu 20 Prozent schneller sein soll als der Vorgänger, müsste Nvidia neben diesen Takterhöhungen auch Verbesserungen am Chip selbst vorgenommen haben.
Die neue Geforce soll laut Gerüchten im November vorgestellt werden, auch wenn unklar ist, ob die Grafikkarte dann schon erhältlich sein wird.

Quelle : www.gamestar.de
Titel: Nvidia präsentiert GeForce GTX 580
Beitrag von: SiLæncer am 09 November, 2010, 16:15
(http://www.heise.de/imgs/18/5/9/2/4/7/2/c953f3c7631f13c0.jpeg)
Nvidia bringt mit der GeForce GTX 580 die derzeit schnellste Single-GPU-Grafikkarte auf den Markt, deren 3D-Performance auch zum Spielen auf großen 30-Zoll-Bildschirmen mit 2560 × 1600 Bildpunkten und maximaler Detailstufe ausreicht. Wie Nvidia gegenüber heise online erklärte, wird das Unternehmen bis zur Vorstellung der Kepler-Grafikchips in der zweiten Hälfte des kommenden Jahres keine schnelleren Single-GPU-Grafikkarten mehr vorstellen.

Ein Blick auf die Spezifikation der GeForce GTX 580 offenbart einen GF110-Grafikchip mit 512 Shader-Rechenkernen, 64 Textureinheiten und 48 Rasterendstufen. Bis auf die Tatsache, dass er wie der GF104-Chip auch FP16-Texturen in einem Taktzyklus verarbeitet, ist der GF110 hinsichtlich seiner Architektur nichts weiter als ein GF100-Grafikchip im Vollausbau. Zusätzlich hat Nvidia die Leckströme der Transistoren und damit die Leistungsaufnahme etwas besser im Griff als noch beim GF100, der für Rekordwerte bei Leistungsaufnahme und Hitzeentwicklung auf der GeForce GTX 480 sorgte.

(http://www.heise.de/imgs/18/5/9/2/4/7/2/ba47d4fc148133ba.jpeg)
Die aus rund 3 Milliarden Transistoren gefertigte GF110-GPU (40 nm) der GeForce GTX 580 läuft mit 772 MHz rund 10 Prozent schneller als die einer GeForce GTX 480, die Shader-Rechenkerne entsprechend mit 1544 MHz. Insgesamt 1536 MByte Speicher sind mit über 384 Datenleitungen angebunden, was zu einer maximalen Datentransferrate von 192,4 GByte/s führt. Die Video-Engine entspricht weiterhin der des GF100; die verbesserte Variante des GF104, die etwa DTS-HD Master Audio und Dolby True HD unterstützt, hat Nvidia nicht integriert.

In den meisten anspruchsvollen Spielen ist die GeForce GTX 580 zwischen 15 und 20 Prozent schneller als die GeForce GTX 480. Einige Titel profitieren stark von der verbesserten FP16-Leistung, etwa das auf HDR-Effekte setzende Rennspiel Dirt 2. Dann sind auch Performance-Gewinne von über 20 Prozent drin: So schafft die GeForce GTX 580 in Dirt 2 bei 2560 × 1600 Pixeln mit vierfacher Kantenglättung und sechszehnfachem anisotropen Filter 69 Bilder/s (fps), eine GTX 480 kommt auf 54 fps (Radeon HD 5870: 50 fps). Metro 2033 – einer der derzeit anspruchsvollsten First-Person-Shooter – stellt die neue Karte in gleicher Auflösung und sehr hoher DirectX-11-Detailstufe mit 27 fps dar, eine GTX 480 kommt durchschnittlich auf 23 fps, die AMD-Konkurrenzkarte Radeon HD 5870 auf 21 fps. Crysis lässt sich mit einer GeForce GTX 580 in Full-HD-Auflösung und sehr hoher Detailstufe bei zweifacher Kantenglättung mit 46 fps flüssig genießen.

(http://www.heise.de/imgs/18/5/9/2/4/7/2/ef6b8d8bf37c46c2.jpeg)
Nvidias Technologiedemo Aliens vs. Tessellation demonstriert die Tessellation-Fähigkeiten der GeForce GTX 580.

Nvidia behauptet, dass die Leistungsaufnahme im Vergleich zur GeForce GTX 480 gesunken ist. Dies konnten wir mit unseren Messungen teilweise nachvollziehen: Im 3D-Spielebetrieb verheizt die GTX 580 durchschnittlich 181 Watt mit kurzzeitigen Spitzen von 297 Watt, die GeForce GTX 480 kam hierbei noch auf 207 Watt (Spitzen: 302 Watt). Beide Grafikkarten besitzen je einen sechs- und achtpoligen Stromanschluss. AMDs Radeon HD 5870 ist beim Spielen mit 120 Watt im Mittel deutlich sparsamer. Im Leerlauf gibt sich die GeForce GTX 580 mit 32 Watt Leistungsaufnahme etwas bescheidener als die GTX 480 (43 Watt).

Unter Furmark-Last zieht die GeForce GTX 580 aber 10 Watt mehr aus dem Netzteil, sofern man eine ältere Version als 1.8 verwendet. Denn bei Version 1.8 drosselt Nvidia die Grafikkarte auf die halbe Taktfrequenz, um nach eigenen Angaben die Grafikkarte vor zu hoher Last zu schützen. Laut Nvidia sollen zukünftige Treiber auch ältere Furmark-Versionen drosseln, die Möglichkeit zum Deaktivieren dieser Funktion soll den Nutzern nicht eingeräumt werden. Für anspruchsvolle Spiele sei Ähnliches zunächst nicht geplant: "So far we have not seen any real world games that are affected by power monitoring or need power throttling to stay within spec."

(http://www.heise.de/imgs/18/5/9/2/4/7/2/caaf1fc0fe1b2d17.jpeg)
Nvidia setzt beim GTX-580-Kühlsystem
auf Vapor-Chamber-Technik.
Beim Referenzkühler setzt Nvidia nun auf Vapor-Chamber-Technik, wie sie etwa bei Sapphires Vapor-X-Radeonkarten zum Einsatz kommt. Immerhin macht der Lüfter nicht mehr so viel Krach wie der in der GeForce GTX 480. Im Leerlauf ist er bei 0,3 Sone kaum hörbar, in Spielen noch erträglich (1,4 Sone). Über die zwei Dual-Link-DVI-Anschlüsse und die Mini-HDMI-Buchse lassen sich maximal zwei Bildschirme gleichzeitig betreiben. Die High-End-Grafikkarte soll rund 500 Euro kosten.

Quelle : www.heise.de
Titel: AMD verschiebt Radeon 6990 mit Dual-GPU
Beitrag von: SiLæncer am 10 November, 2010, 11:30
Im Rahmen seines Financial Analyst Day hat AMD neue Roadmaps für Grafikprodukte vorgelegt. Dabei ist nur eine Karte um ein Quartal verschoben worden: die Radeon HD 6990 mit zwei Grafikprozessoren. Das nährt die Gerüchte, dass sich auch andere Modelle der Serie 6900 verspäten könnten.

Die Radeon HD 6990 wird erst im ersten Quartal 2011 auf den Markt kommen, wie AMDs Grafikchef Matt Skynner in einem Vortrag in der Konzernzentrale in Sunnyvale sagte. Bei der Vorstellung der Serie Radeon 6800 Mitte Oktober 2010 hatte AMD noch eine Roadmap gezeigt, auf der diese Grafikkarte für das Ende des vierten Quartals 2010 vorgesehen war.

(http://scr3.golem.de/screenshots/1011/AMD-Roadmap/thumb480/AMD-GPU-Roadmap-new.png)

Gründe nannte Skynner für diese Verschiebung nicht. Es darf jedoch bezweifelt werden, dass AMD die Entscheidung wegen der guten Leistungen der Geforce GTX 580 von Nvidia gefällt hat; sie wurde erst einige Stunden nach Skynners Vortrag vorgestellt. AMD und Nvidia liefern sich seit Jahren ein Rennen um die schnellste Grafikkarte. Nvidia setzt dabei auf vergleichsweise große GPUs, AMD baut mit den früher X2 genannten Karten regelmäßig Geräte mit zwei GPUs.

Dabei brachte AMD bisher zuerst eine Karte der Oberklasse mit einer neuen GPU auf den Markt, wie zuletzt die Radeon HD 5870 mit dem Chip Cypress. Zwei dieser GPUs wurden etwas später - im Falle des Cypress mit etwas geringeren Takten - auf einer Grafikkarte vereint. Nvidia hingegen stellte immer zuerst das schnellste Modell einer neuen Serie vor, wie zuletzt die GTX 580, die bei den meisten Anwendungen sogar schneller als die Dual-GPU-Karte Radeon HD 5970 ist.

AMD will seine neue Architektur mit der Serie Radeon 6900 vorstellen, die Reihe 6800 ist eine nur leicht abgewandelte Version der Cypress-GPUs. Die ersten Modelle, 6950 und 6970 alias Cayman, sind dann die echten Nachfolger von Radeon 5850 und 5870. Letztere ist immer noch AMDs schnellste Single-GPU-Karte, sie wird inzwischen aber von der GTX 580 klar abgehängt. Bei der Vorstellung der GTX 480 konnte sich diese Karte nur selten deutlich von der 5870 absetzen.

Für AMD besteht also Handlungsbedarf, wenn das Unternehmen überhaupt wieder den prestigeträchtigen Titel der schnellsten Grafikkarte für sich beanspruchen will - egal ob mit einer oder zwei GPUs. Nötig ist dafür in jedem Fall die Cayman-Architektur, die mit Radeon 6850 und 6870 starten soll.

Dafür nannte AMD offiziell bisher keine Termine, hinter vorgehaltener Hand wurde aber von Ende November 2010 gesprochen. Dieser Termin wird jedoch immer unsicherer, wenn man den üblichen Hardwaregerüchten glauben will. So will Techeye, das neue Projekt der Register- und Inquirer-Gründers Mike Magee, erfahren haben, dass 6850 und 6870 nicht einmal vor Weihnachten 2010 auf den Markt kommen sollen. Grund sollen anhaltende Fertigungsprobleme bei TSMC sein, wo sowohl AMD als auch Nvidia ihre Grafikprozessoren herstellen lassen.

(http://scr3.golem.de/screenshots/1011/AMD-Roadmap/thumb480/Notebook-Roadmap.png)

Die Angabe, dass die Ausbeute im einstelligen Bereich liegen soll, wirkt dabei aber kaum glaubhaft. AMDs gesamte Serien 5000 und 6800 werden ebenso wie Nvidias GTX 400 in dieser Strukturbreite hergestellt, und zumindest von AMD gibt es auch eine Angabe zur Stückzahl: Über 25 Millionen dieser GPUs will das Unternehmen seit dem Marktstart der Radeon 5000 verkauft haben.

Doch im von Gerüchten und Verunsicherung geprägten Grafikmarkt sind solche Angaben über Produktionsprobleme gerade im derzeit hitzigen Konkurrenzkampf zwischen AMD und Nvidia ohnehin mit Vorsicht zu genießen. Auch für die GTX 580 hatten viele Beobachter einen "paper launch" vorhergesagt, die Grafikkarte war jedoch zum Marktstart verfügbar und ist auch am Tag danach noch nicht ausverkauft. Ähnlich war die Liefersituation auch bei den ersten Radeon 5000 und ebenso bei den Radeon 6800.

Quelle : www.golem.de
Titel: Verschiebung offiziell - AMD Radeon 6950 und 6970 kommen erst Mitte Dezember
Beitrag von: SiLæncer am 11 November, 2010, 12:01
AMD bestätigt: Die nächste GPU-Architektur mit Codenamen Cayman kommt einige Wochen später als geplant auf den Markt. Das Unternehmen nannte gegenüber Golem.de die Mitte Dezember 2010 als neuen Termin. Die Begründungen dafür klingen wenig glaubwürdig.

Gerüchte gab es schon länger, nun hat AMD bestätigt, dass die Grafikkarten Radeon HD 6950 und 6970 erst "in der Woche ab dem 13. Dezember" vorgestellt werden sollen. Dann fällt die Sperrfrist für technische Informationen und Tests. Ob die Karten dann verfügbar sein sollen, hat das Unternehmen noch nicht erklärt. Im Interview mit Golem.de sagte jedoch AMD-Vize Rick Bergman Mitte Oktober 2010: "Man muss heute einen 'hard launch' durchführen". Die Grafikbranche versteht darunter, dass zum Termin der Vorstellung zumindest begrenzte Stückzahlen der Produkte bei den Händlern stehen.

Video: Interview mit AMD-Vize Rick Bergman (3:23)

Von angeblichen Fertigungsproblemen bei TSMC ist in AMDs E-Mail zum neuen Termin keine Rede, vielmehr versucht das Unternehmen, die Verschiebung mit dem Marktgeschehen zu erklären: Die Nachfrage nach der Serie 5800, welche durch die Reihe 6900 abgelöst werden soll, sei immer noch hoch, und die neue Serie 6800 gut verfügbar. Zudem ist nach AMDs Meinung die Radeon HD 5970 immer noch die schnellste Grafikkarte der Welt. Das stimmt jedoch in dieser Absolutheit nicht mehr, AMDs Dual-GPU-Karte wird von Nvidias neuer Geforce GTX 580 in einigen Tests geschlagen.

Während das Preis-Leistungs-Verhältnis von AMDs aktuellen Serien von der 5700 bis zur 6800 zwar noch als gut zu bezeichnen ist, stellt die Verschiebung der 6900 einen Rückschlag dar. AMD will damit eine neue Architektur einführen, von der ein deutlicher Leistungsschub erwartet wird. Ob damit wieder die schnellste Single-GPU-Karte herauskommt, wie es bei der 5870 der Fall war, ist aber noch nicht abzusehen.

Spätestens mit der Radeon 6990 sollte AMD die Performancekrone zurückerobern. Auch diese Grafikkarte wurde aber nach den neuen Grafik-Roadmaps des Unternehmens aber um mindestens einen Monat verschoben - kein Wunder: Sie basiert auf zwei Cayman-GPUs, und derzeit tut sich AMD offenbar schon schwer damit, diese Bausteine für Single-GPU-Karten in ausreichender Stückzahl herzustellen.

Quelle : www.golem.de
Titel: Geforce GTX 460 SE - Nvidia erweitert Grafikkarten-Mittelklasse
Beitrag von: SiLæncer am 16 November, 2010, 11:22
Nvidia und Partner bringen die neue Mittelklasse-Fermi Geforce GTX 460 SE auf den Markt. Die Grafikkarte verfügt über 1 GByte Grafikspeicher zum Preis einer GTX 460 mit 768 MByte, ist dafür aber auch langsamer.

Die Fermi-basierte Geforce GTX 460 SE verfügt über weniger Rechenwerke, geringere Taktraten und entsprechend weniger Leistung als die anderen GTX-460-Modelle. Statt 336 Rechenwerken sind es nur 288. Außerdem wurde der GPU-Takt von 675 auf 650 MHz gesenkt, und die Shadereinheiten arbeiten nicht mit 1.350 MHz, sondern mit 1.300 MHz. Beim GDDR-5-Speicher sind es 1.700 statt 1.800 MHz.

(http://scr3.golem.de/screenshots/1011/Geforce-GTX-460-SE/thumb480/ZT-40409-10P_image1.jpg)

Als Alternative zur Geforce GTX 460 mit 768 MByte Grafikspeicher kann sie dennoch interessant sein, da die Geforce GTX 460 SE nicht nur mehr Speicher, sondern einen größeren Speicherdurchsatz bietet. Wie die GTX 460 mit 1 GByte und GDDR5-Speicher verfügt auch die GTX 460 SE über eine 256-Bit- anstatt eine 192-Bit-Speicheranbindung.

Kosten soll die GTX 460 SE mit 1 GByte Speicher etwa so viel wie die GTX 460 mit 768 MByte. Die neuen Karten sollen in den kommenden Wochen auf den Markt kommen. Wie die anderen Mittelklasse-Fermis werden sie damit mit AMDs Radeon HD 6850 und 6870 konkurrieren, von denen immer mehr übertaktete Varianten auf den Markt kommen.

Quelle : www.golem.de
Titel: AMD benennt weitere Mobil-Grafikchips um
Beitrag von: SiLæncer am 26 November, 2010, 15:18
Bereits im Frühjahr 2010 hatte AMD einige ältere Notebook-Grafikchips der Serie Mobility Radeon HD 4000 unter Modellnummern der 5000er-Generation in den Handel gebracht, nun wiederholt sich das Spielchen: Bis auf den Namen entsprechen die heute vorgestellten Familien Radeon HD 6500 und HD 6300M den bekannten Mobility Radeon HD 5700/5600 und HD 5400: Sie unterstützen DirectX 11, haben 400 (6500M) beziehungsweise 80 (6300M) Shader-Prozessoren und den Videobeschleuniger UVD 2 – bei den Desktop-Grafikchips der HD-6000-Serie ist dagegen die neuere UVD 3 an Bord. Das einzig Neue an den neuen Notebook-Grafikchips ist somit das Namensschema ohne das sperrige "Mobility", aber mit "M" hinter der Modellnummer.

Angesichts der engen Verwandschaft zu bisherigen Chips wundert es nicht, dass Notebooks mit 6500M und 6300M bereits in Kürze in den Handel kommen. So will beispielsweise Acer ab Dezember seine Aspire Timeline X 3820TG (13,3 Zoll), 4820TG (14 Zoll) und 5820TG (15,6 Zoll) in Konfigurationen mit HD 6370M und HD 6550 verkaufen; bisherige Konfigurationen nutzten die Mobility Radeon HD 5470 und HD 5650.

Quelle : www.heise.de
Titel: GeForce-500-Serie bekommt Zuwachs
Beitrag von: SiLæncer am 07 Dezember, 2010, 15:55
Nvidia ergänzt die Grafikkartenserie GeForce 500 mit der GeForce GTX 570 um einen zweiten Vertreter. Auf der High-End-Grafikkarte, die flüssiges Spielen auch bei der für 30-Zoll-Displays gebräuchlichen Auflösung von 2560 ×1600 Pixeln ermöglichen soll, sitzt ein GF110-Grafikchip. Im Unterschied zur seit Anfang November erhältlichen GeForce GTX 580 deaktiviert der Chiphersteller allerdings einen Shader-Cluster und einen Speicherkanal.

Somit stehen der GTX 570 480 Shader-ALUs sowie 60 Textur- und 40 ROP-Einheiten zur Verfügung. Der 1280 MByte große GDDR5-Speicher ist über 320 Datenleitungen an die GPU angebunden. Im Vergleich zur teureren Schwesterkarte arbeitet sie außerdem mit um 5 Prozent geringeren Taktfrequenzen von 732/1464/1900 MHz (GPU/Shader/RAM).

(http://www.heise.de/imgs/18/6/0/3/4/8/9/601d2785ca8ce47f.jpeg)
Der Kühler der GeForce GTX 570 belegt
zwei Steckplätze.
Die GeForce GTX 570 ordnet sich mit 21075 Punkten (Performance-Profil) im 3DMark Vantage zwischen der GTX 580 (P23299) und der GTX 480 (P19211) ein. Im Vergleich zur Konkurrenz von AMD muss sie sich lediglich der Dual-GPU-Karte Radeon HD 5970 geschlagen geben.

Ihren Energiebedarf deckt die DirectX-11-taugliche Grafikkarte über zwei sechspolige Stromanschlüsse. Im 3D-Spielebetrieb verheizt die GeForce GTX 570 im Schnitt 160 Watt mit kurzzeitigen Spitzen von 304 Watt. Im Leerlauf bei ruhendem Windows-Desktop konsumiert sie 28 Watt und ist somit minimal sparsamer als die GTX 580 (32 Watt). Die GeForce GTX 570 kostet 370 Euro und kann zwei Monitore über 2 DVI und 1 ×(Mini-)HDMI ansteuern.

Quelle : www.heise.de
Titel: AMD präsentiert Radeon HD 6950 und HD 6970
Beitrag von: SiLæncer am 15 Dezember, 2010, 07:12
(http://www.heise.de/imgs/18/6/0/6/6/8/1/ee3c3c532fa2e4f6.jpeg)
Die Radeon HD 6970 kommt mit sechs- und
achtpoligem Stromanschluss und belegt
zwei Steckplätze.
AMD präsentiert gut drei Wochen nach dem ursprünglich anberaumten Termin die Radeon HD 6950 und 6970. Beide High-End-Grafikkarten bringen 2 GByte schnellen GDDR5-Speicher mit. Die Radeon HD 6950 soll es laut AMD ab rund 270 Euro geben, die HD 6970 werde ab 340 Euro erhältlich sein. Ihre 3D-Performance reicht auch für moderne DirectX-11-Spiele aus. Filmfreunde freut die Videoeinheit UVD3, die sich auch für Blu-ray-Filme mit stereoskopischen Inhalten eignet. Zudem beherrscht sie MPEG4-Part 2 für die beschleunigte Wiedergabe von DivX- und Xvid-Videos.

Beide Grafikkarten setzen auf den Cayman-Grafikchip, der im Unterschied zu seinen Vorgängern eine effizientere Shader-Architektur (VLIW4 ohne Special Function Unit) bietet und von zwei Graphics Engines und somit zwei Tessellation-Einheiten angetrieben wird. Somit lassen sich die Shader-Rechenkerne besser auslasten – die neuen Cayman-Grafikchips erzielen dadurch eine höhere 3D-Leistung, auch wenn sie insgesamt weniger Shader-ALUs als die Vorgänger haben. Die reine Tessellation-Leistung soll im Vergleich zur Radeon HD 5870 deutlich steigen (bis Faktor 3).


(http://www.heise.de/imgs/18/6/0/6/6/8/1/6ac5870a4a0136df.jpeg)
Die 1536 Shader-Rechenkerne der Radeon HD
6970 sind in 24 SIMD-Einheiten organisiert.
Cayman-GPUs werden im 40-Nanometer-Verfahren gefertigt und bestehen aus 2,64 Milliarden Transistoren. Auf der Platine der Radeon HD 6950 sitzt eine Variante mit 1408 Shader-Prozessoren, welche mit 800 MHz rechen und somit theoretisch bis zu 2,25 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit erreichen können (DP: 563 TFlops). 88 Textureinheiten und 32 (verbesserte) Rasterendstufen stehen den Shader-Kernen zur Seite. Über 256 Datenleitungen ist der 2500 MHz (Read/Write-Clock) flinke GDDR5-Speicher angebunden. Beim Chip der Radeon HD 6970 legt AMD noch einige Einheiten drauf: 1536 Shader-Kerne (24 SIMD-Engines) und 96 Textureinheiten hat er insgesamt, die Zahl der Rasterendstufen bleibt bei 32. Außerdem laufen die Grafikeinheiten 10 Prozent schneller (880 MHz) als bei der Radeon HD 6950 – der Speicher arbeitet sogar mit 2750 MHz.

(http://www.heise.de/imgs/18/6/0/6/6/8/1/3212de166da9258d.jpeg)
EQAA erweitert bereits aktives Multisampling
Antialiasing um einige Speicherplatz sparende
Coverage-Samples.
Neben dem bereits von den HD-6800-Karten bekannten Morphological Antialiasing spendiert AMD der HD-6900-Serie einen weiteren Kantenglättungsmodus: Enhanced Quality Antialiasing (EQAA) ist über das Catalyst Control Center aktivierbar und funktioniert im Ansatz ähnlich wie Nvidias Coverage Sampling (CSAA). EQAA erweitert bereits aktives Multisampling Antialiasing um einige Speicherplatz sparende Coverage-Samples, mit denen die störenden Treppeneffekte an Polygonkanten noch besser und mit nur einem geringen Plus an Rechenaufwand geglättet werden sollen.

Hinsichtlich der Bildqualität des anisotropen Filters hat AMD im Vergleich zur HD-6800-Serie nichts geändert und bestätigte dies auch auf Nachfrage. Übergänge zwischen verschiedenen Filterstufen kaschiert der Algorithmus gut. Jedoch kommt es in seltenen Fällen zu wahrnehmbarem Texturflimmern. Gegenüber heise online erklärte das Unternehmen, AMDs Treiberteam arbeite derzeit an einer treiberseitigen Lösung. Vor Mitte Januar erwartet man aber keine Resultate.

(http://www.heise.de/imgs/18/6/0/6/6/8/1/3d429bc9a6457596.jpeg)
Die Radeon HD 6950 ist 27,5 Zentimeter lang
und arbeitet im Leerlauf sehr leise.
Wer in 3D-Spielen auf einen kräftigen Leistungsschub im Vergleich zur Vorgängergeneration gehofft hat, wird enttäuscht sein. In anspruchsvollen Spielen ist die Radeon HD 6950 oft nur geringfügig schneller als die bereits seit über einem Jahr erhältliche Radeon HD 5870. Im DirectX-11-Spiel Battlefield Bad Company 2 rechnen die genannten Karten gleichschnell und stellen bei maximaler Detailstufe in der Full-HD-Auflösung (1920×1080) 55 Bilder/s (fps) bei vierfacher Kantenglättung und sechzehnfachem anisotropen Filter dar. Eine Radeon HD 6970 kommt bei gleichen Einstellungen auf 60 fps, Nvidias GeForce GTX 570 (66 fps) und GTX 580 (76 fps) sind dabei deutlich schneller. Bei Metro 2033 ist die Radeon HD 6950 um bis zu 15 Prozent flotter als die HD 5870, das ist jedoch die Ausnahme. Die Radeon HD 6970 ist in Spielen gut 10 Prozent fixer als die HD 6950. Im Vergleich zu Nvidias GTX 570 ist sie je nach Anwendung mal geringfügig schneller (Metro 2033, Crysis), mal langsamer (Dirt 2).

Im Leerlauf ist die Leistungsaufnahme der Radeon HD 6950 und HD 6970 mit 20 beziehungsweise 22 Watt vergleichsweise gering. Durchschnittlich 113 Watt (Peak: 195 Watt) verbrauchte unser Testexemplar der HD 6950 beim Spielen, die HD 6970 verheizte durchschnittlich sogar 157 Watt (Peak: 248 Watt). Zum Vergleich: Eine Radeon HD 5870 gibt sich mit rund 120 Watt zufrieden. Die Lüfter beider Referenzkarten arbeiten dann dank reduzierter Taktfrequenzen und Spannungen von Grafikchip und Speicher auch sehr leise (0,3 Sone), im 3D-Betrieb jedoch waren sie aber klar wahrnehmbar (1,4/2,2 Sone).

(http://www.heise.de/imgs/18/6/0/6/6/8/1/bf88c94d7eb1cd31.jpeg)
Mithilfe von PowerTune will AMD die Grafikkarten-Leistungsaufnahme bei Stresstests in Grenzen halten.

Für die 6900er-Serie führt AMD außerdem eine auf PowerTune getaufte Technik ein, welche die maximale Leistungsaufnahme des Grafikchips künstlich begrenzt. Übersteigt etwa die Leistungsaufnahme den hinterlegten Maximalwert, reduziert PowerTune automatisch die Taktfrequenz des Grafikchips. Im Normalfall schreitet Powertune bei einer Leistungsaufnahme von 250 Watt (HD 6970) beziehungsweise 200 Watt (HD 6950) ein, die Grenze lässt sich über den AMD-Treiber aber noch um 20 Prozent nach oben verschieben – wichtig für Übertakter. PowerTune limitiert vor allem bei synthetischen Stresstests, etwa beim Perlin-Noise-Test von 3DMark Vantage. In unseren Tests kam es mit der Radeon HD 6970 aber auch beim DirectX-11-Spiel Metro 2033 bei 2560×1600 Bildpunkten und maximaler Bildqualität zu kurzzeitigen Drossellungen, die sich aber nur im Nachkommabereich auf die Bildrate auswirkten.

Quelle : www.heise.de
Titel: DirectX-11-Grafikkarte für PCI-Steckplatz
Beitrag von: SiLæncer am 23 Dezember, 2010, 17:44
Ist zwar keine High-End Karte aber Leute mit alten Rechnern oder als Zweitkarte vielleicht ganz interessant ....



(http://www.heise.de/imgs/18/6/1/0/7/5/5/fdef8da44f4ce580.jpeg)
HIS bietet die erste DirectX-11-fähige Grafikkarte
für den alten PCI-Steckplatz an.
Für den altehrwürdigen PCI-Steckplatz bietet Hersteller HIS eine zu DirectX 11 kompatible Radeon HD 5450 an. Auf der Platine der Low-End-Grafikkarte sitzt ein Cedar-Grafikchip (650 MHz) mit 80 Shader-Rechenkernen und einer UVD-2-Videoeinheit, die auch bestimmte HD-Formate dekodieren kann. Der 1000 MHz schnelle und 512 MByte große DDR3-Speicher ist mit 64 Datenleitungen angebunden. Durch die geringe Leistungsaufnahme kommt die Grafikkarte ohne Lüfter aus und passt dank ihres Low-Profile-Bauformates auch in sehr kleine Gehäuse. Zwei Slotblenden sind im Lieferumfang enthalten.

Neben einem Dual-Link-DVI- und VGA-Anschluss sitzt auch eine HDMI-Buchse am Slotblech. Damit lässt sich beispielsweise eine Verbindung mit einem HD-Fernseher herstellen. Maximal zwei Displays lassen sich gleichzeitig nutzen. Bislang ist die Karte noch nicht in Deutschland erhältlich. In den USA ist sie für rund 95 US-Dollar gelistet, in einem norwegischen Internet-Shop für umgerechnet 96 Euro auf Lager. Herkömmliche PCI-Express-Varianten der Radeon HD 5450 gibt es bereits ab 30 Euro.

Quelle : www.heise.de
Titel: Re: DirectX-11-Grafikkarte für PCI-Steckplatz
Beitrag von: Jürgen am 24 Dezember, 2010, 01:09
Die könnte ich als AGP brauchen...
Titel: Re: DirectX-11-Grafikkarte für PCI-Steckplatz
Beitrag von: Dippes am 24 Dezember, 2010, 08:12
schade das sowas nicht als nvidiakarte gibt
Titel: Radeon HD 6950 lässt sich zur HD 6970 machen
Beitrag von: SiLæncer am 27 Dezember, 2010, 12:33
Vor einigen Wochen hat AMD seine neuen Grafikkarten Radeon HD 6950 und 9670 in den Handel gebracht. Wie seit einigen Jahren üblich, sind die beiden Modelle baugleich, jedoch werden für das kleinere und günstigere Modell Funktionen deaktiviert. Dieser Vorgang lässt sich rückgängig machen.

Beim Hersteller wird in den meisten Fällen nach der Platzierung der GPU entschieden, welches Modell am Ende entstehen soll. AMD verwendet zwei Methoden, um die Deaktivierung diverser Funktionen zu realisieren. Entweder wird das VGA BIOS entsprechend eingestellt, oder es wird eine spezielle Sicherung in der Hardware verbaut. Letztere Variante lässt sich nicht einfach entfernen. Der Austausch des BIOS dagegen ist relativ einfach.

(http://screenshots.winfuture.de/Radeon-HD-9650-to-Radeon-HD-9670-1293444307.jpg)

Auf der Grafik kann man den Aufbau der GPU erkennen. Der rot eingerahmte Bereich markiert die Shader, die bei einer Radeon HD 9650 deaktiviert sind. Wie 'Techpowerup' herausgefunden hat, sind alle Modelle der Radeon HD 9650, die derzeit verkauft werden, über ein neues BIOS in eine Radeon HD 9670 umwandelbar. Normalerweise ist dies lediglich bei Vorserienmodellen möglich, die zu Testzwecken verteilt werden.

Techpowerup stellt eine Anleitung (http://www.techpowerup.com/articles/overclocking/vidcard/159) bereit, die erklärt, wie man das VGA BIOS austauscht. Zudem werden verschiedene BIOS-Varianten zum Download bereitgestellt. Man sollte jedoch beachten, dass man durch Fehler beim Flashen des BIOS dafür sorgen kann, dass die Grafikkarte unbrauchbar wird. Zudem verliert man sämtliche Gewährleistungsansprüche.

Quelle : http://winfuture.de
Titel: KFA2 GeForce GTX460 WHDI: Drahtlose Grafikkarte
Beitrag von: SiLæncer am 14 Januar, 2011, 16:29
Die europäische Premiummarke KFA2 des Grafikkartenherstellers Galaxy hat mit der KFA2 GeForce GTX460 WHDI 1024MB PCIe 2.0 die erste Grafikkarte für Desktop-PCs vorgestellt, die das Bild per WLAN auf mehrere Displays bringt.

Im Grunde genommen handelt es sich um eine normale Nvidia GeForce GTX460 Grafikkarte, deren Prozessor mit 675 Megahertz taktet. Die Shadereinheiten arbeiten mit 1350 MHz, während der Speicher mit 900 MHz läuft. Die Karte hat 1024 Megabyte Speicher, der über eine 256-Bit-Interface angebunden ist.

Die Besonderheit ist die Möglichkeit, die Bildschirminalte mit Hilfe der WHDI-Technologie der Firma AMIMOMS drahtlos an entsprechende Display zu übertragen. Dazu ist die Grafikkarte mit immerhin fünf Antennen ausgestattet. Es soll damit möglich sein, Full-HD-Video über einen Abstand von bis zu 30 Metern auf ein hochauflösendes Display zu bringen, wobei HDCP-Unterstützung gegeben ist.

(http://screenshots.winfuture.de/KFA2-GeForce-GTX460-WHDI-1024MB-PCIe-2.0-1295017366.jpg)

KFA2 liefert die GTX460 WHDI Grafikkarte zusammen mit einem WHDI-Empfänger aus, der an das jeweilige Display angeschlossen wird. Neben der WHDI-Übertragung ist auch der kabelgebundene Anschluss mehrerer Monitore per DVI-, HDMI- oder Mini-USB-Ausgang möglich.

Quelle : http://winfuture.de
Titel: Gainward: Geforce GTX 580 mit 3 GByte Grafikspeicher
Beitrag von: SiLæncer am 21 Januar, 2011, 12:17
Gainward will in Kürze eine Geforce-GTX-580-Grafikkarte mit 3 GByte Grafikspeicher anbieten. Das entspricht einer Verdopplung des Arbeitsspeichers, was durch ein eigenes Boardlayout möglich ist.

Gainwards Geforce GTX 580 3072MB Phantom ist die laut Hersteller bisher einzige GTX-580-Grafikkarte mit 3 GByte Speicher, üblich sind 1,5 GByte. Vom größeren Speicher profitiert allerdings nur, wer bei sehr hohen Auflösungen - etwa 2.560 x 1.600 Pixel - mit maximalen Details, aufwendiger Kantenglättung und anisotrophischer Filterung spielt. Dann sollen die Vorteile des größeren Speichers aber umso deutlicher ausfallen.

Die über einen 384-Bit-Bus angebundenen 3 GByte GDDR5-Speicher taket Gainward mit 2.010 MHz. Die 512 CUDA-Kerne der Fermi-GPU GF110 werden mit 783 MHz und die Shader-Einheiten mit 1.566 MHz getaktet. Im Vergleich zu den Referenz-Grafikkarten liegen die Taktraten damit nur einen Hauch höher.

(http://scr3.golem.de/screenshots/1101/gainward-geforce-gtx-580-3072-phantom/thumb480/GW1794_GTX580_DDH_3072MB_01.jpg)

Im Vergleich zum Referenzdesign von Nvidia soll Gainwards Geforce GTX 580 3072MB Phantom leiser arbeiten. Dazu setzt Gainward auf ein Kühlsystem mit drei 8-cm-Lüftern, sechs Heatpipes und großem Kühlkörper. Im 2D-Modus soll die Geräuschemission damit bei 33,3 statt 39,6 dB liegen. Unter Last, also im 3D-Modus, scheint der Abstand nicht mehr so groß zu sein, hier macht Gainward keinen Lautstärkevergleich sondern spricht nur noch von einer deutlich besseren Kühlung und geringeren GPU-Betriebstemperaturen.

Es werden die üblichen Ausgänge geboten, zweimal Dual-Link-DVI-I, einmal Displayport und einmal HDMI. Ein DVI-zu-VGA-Adapter liegt der PCI-Express-2.0-Grafikkarte bei.

Laut Gainward Deutschland wird die Geforce GTX 580 3072MB Phantom ab Ende Januar/Anfang Februar 2011 ausgeliefert. Zum Preis wollte der Hersteller auf Nachfrage noch nichts sagen.

Quelle : www.golem.de
Titel: Nvidia enthüllt GeForce GTX 560 Ti
Beitrag von: SiLæncer am 25 Januar, 2011, 15:53
(http://www.heise.de/imgs/18/6/2/1/3/7/8/7394d15b2f88ac4e.jpeg)
Nvidia bietet die GeForce GTX 560 Ti nun als dritten Vertreter der GeForce-500-Grafikkartenserie an. Die Referenzkarte ist 23 Zentimeter lang und belegt durch ihr Kühlsystem zwei Gehäusesteckplätze. Im Vergleich zur GeForce GTX 460 ist sie rasend schnell und konkurriert hinsichtlich der 3D-Performance sogar mit der Radeon HD 5870, die bis vor kurzem noch AMDs schnellste Single-GPU-Grafikkarte war.

Auf der GeForce GTX 560 Ti werkelt ein GF114-Grafikchip mit 384 Shader-Rechenkernen – also ein vollausgebauter GF104-Grafikchip der GTX-460-Serie. Außerdem laufen die Kerne mit 1644 MHz deutlich flinker als die 336 des GF104, sodass der GF114 eine theoretische Rechenleistung von 1,26 Milliarden Gleitkommaoperationen pro Sekunde erreicht. Außerdem beherbergt der Grafikchip unter anderem noch 64 Textureinheiten, die FP16-Texturen in einem Rutsch verarbeiten, und 32 Rasterendstufen. Zunächst wird die GeForce GTX 560 mit 1 GByte schnellem GDDR5-Videospeicher ausgeliefert, der über 256 Datenleitungen ausreichend flink mit dem Chip kommunizieren kann.

(http://www.heise.de/imgs/18/6/2/1/3/7/8/94981cddaad02cf1.jpeg)
In aktuellen DirectX-Spielen ist die GeForce GTX 560 Ti zwischen 30 und 40 Prozent schneller als die 1-GByte-Variante der GeForce GTX 460 und bewegt sich im Vergleich mit der AMD-Konkurrenz in etwa auf dem Leistungsniveau der Radeon HD 5870. Die GeForce GTX 570 ist wiederum durchschnittlich 15 Prozent flinker als die GTX 560 Ti. In 3DMark 11 schafft eine GeForce GTX 560 Ti in der Performance-Voreinstellung rund 4250 Punkte, eine HD 5870 ein paar Punkte weniger, eine HD 6950 knapp 4900.

Nvidia hat die Leistungsaufnahme der GeForce GTX 560 Ti im Leerlauf gut in den Griff bekommen: lediglich 15 Watt verheizt sie im Windows-Betrieb – und ist mit dem Referenzkühlsystem bei 0,3 Sone kaum zu hören. Im Dual-Monitor-Betrieb waren es nur ein paar Watt mehr, sofern der zweite Bildschirm mit der gleichen Auflösung und Bildwiederholfrequenz angesteuert wird, sonst giert die GeForce nach 60 Watt. In Spielen verheizt sie mit durchschnittlich 135 Watt (0,6 Sone) noch mehr als die Radeon HD 5870 oder HD 6950.

Die GeForce GTX 560 Ti kostet rund 240 Euro und steuert bis zu zwei Displays gleichzeitig an, eine Radeon HD 5870 gibt es bereits für 20 Euro weniger.

Quelle : www.heise.de
Titel: AMD zeigt Dual-GPU-Karte Radeon HD 6990 "Antilles"
Beitrag von: SiLæncer am 27 Januar, 2011, 15:02
In Japan hat AMD auf einer Veranstaltung erstmals den letzten noch erwarteten Vertreter der Serie Radeon 6000 gezeigt. Die Grafikkarte mit zwei GPUs ist sehr groß ausgefallen, dürfte aber die Spezifikationen gerade noch erfüllen.

Wie auf den von 4Gamer.net veröffentlichten Bildern der Radeon HD 6990 zu sehen ist, kommt AMDs nächste High-End-Karte mit einer 6-poligen und einer 8-poligen PCIe-Buchse aus. Zusammen mit dem Slot kann sie so maximal 300 Watt Leistung aufnehmen, was die Spezifikationen auch vorschreiben.

Die halten inzwischen aber andere Grafikkarten, allen voran die Asus Ares, ohnehin nicht mehr ein. Vermutlich hat AMD deshalb die beiden Stromports im Referenzdesign voneinander abgesetzt, um Grafikkartenherstellern mit eigenen Entwicklungen noch Spielraum zu lassen.

Ob die bisher auch unter dem Codenamen "Antilles" geführte Karte noch in aktuelle Gaming-Gehäuse passt, ist noch nicht abzusehen - Vergleichsmaßstäbe zur Länge gibt es nicht. Schon die 5970, AMDs letzte Dual-GPU-Karte, ist mit knapp 31 Zentimetern für viele Rechner zu lang. Erkennbar ist aber immerhin die Bestückung mit Displayschnittstellen: einmal DVI und viermal Mini-Displayport hat AMD verbaut. Wie viele sich davon parallel nutzen lassen, ist noch nicht bekannt.

Konkrete technische Daten zur "Antilles" nannte AMD auch bei der Vorstellung der Grafikkarte in Japan nicht. Da schon eine Radeon 6970 mit einer GPU bis zu 250 Watt aufnehmen darf, müssen die Taktfrequenzen der baugleichen Grafikprozessoren auf der 6990 deutlich unter den 880 MHz der 6970 liegen. Wann das neue High-End-Monster auf den Markt kommt, steht noch nicht genau fest. AMD hatte den Termin dafür vom vierten Quartal 2010 auf das erste Quartal 2011 verschoben.

Quelle : www.golem.de
Titel: Nvidia: Hinweise auf Geforce GTX 550 und GTX 590 mit Dual-GPU
Beitrag von: SiLæncer am 17 Februar, 2011, 12:49
In Betatreibern von Nvidia finden sich Einträge für zwei neue, noch nicht angekündigte Grafikkarten. Besonders interessant ist die GTX 590, mit der Nvidia angeblich AMD den Marktstart der Radeon 6990 vermiesen will.

(http://www.golem.de/1102/81502-7509-79240-5326-gtx-580-aufmacher-2a.jpg)
In einem bei Nvidia nicht veröffentlichten Treiber mit der Versionsnummer 266.7x hat VR-Zone Einträge für die Grafikkarten "GTX 550 Ti" und "GTX 590" gefunden. Solche Betatreiber enthalten oft die Produktbezeichnungen künftiger Modelle sowie deren Device-ID, weil diese Treiber unter anderem für den Test von noch nicht vorgestellten Geräten vorgesehen sind.

In Nvidias aktuellem Namensschema der Serie GTX 500 würde das Modell 550 Ti eine langsamere und vermutlich günstigere Grafikkarte darstellen, über die GTX 590 darf frei spekuliert werden. VR-Zone geht, auch anhand kurz von EVGA gezeigter Prototypen, von einer Karte mit zwei GF110-GPUs aus. Sie soll mit 3 GByte und zwei 8-poligen Strombuchsen versehen sein und damit die PCIe-Spezifikationen überschreiten, da sie über 300 Watt elektrischer Leistung aufnehmen kann. Das ist mittlerweile nicht mehr unüblich, solche Grafikkarten hat unter anderem Asus bereits auf den Markt gebracht.

Bereits seit längerem gibt es zudem unter anderem von Nordichardware verbreitete Gerüchte, dass Nvidia an einer GTX 590 mit zwei GPUs arbeitet. Diese soll so lange zurückgehalten werden, bis AMD seine verschobene Radeon HD 6990 mit zwei Grafikprozessoren vorstellt. Der Nvidia-Konkurrent gibt dafür bisher nur einen nicht genauer festgelegten Termin im ersten Quartal 2011 an.

GTX 590 kurz vor der Radeon HD 6990?

Schon bei der GTX 580 hatte Nvidia die Grafikkarte äußerst kurzfristig angekündigt, um dem Marktstart von AMDs Serie Radeon HD 6900 zuvorzukommen. Das Unternehmen gab damals selbst an, die Karte sei als "Überraschung" geplant gewesen. Das könnte nach den Nvidia-Traditionen auch mit der GTX 590 so ablaufen.

Schon seit Jahren baut Nvidia nämlich Dual-GPU-Karten nur im Notfall, wenn AMD gerade die schnellste Grafikkarte der Welt stellt. Die GTX-295 war der letzte solche Fall, als AMD mit der 4870 X2 vorne lag. AMD ist hier berechenbarer und führt seit vier Generationen Dual-GPU-Karten als Standardprodukte in seinen Roadmaps. Daneben gibt es aber immer wieder Eigenentwicklungen der Grafikkartenanbieter, die auch ohne den Segen der Chiphersteller zwei GPUs auf einer Karte vereinen.

Für beide Anbieter gilt: Die Dual-GPU-Karten sind mehr Prestigeprodukt für Presse und kompromisslose Hardwarefans als wesentlicher Umsatzträger. Zwar sind die Margen hoch, die Stückzahlen aber im Vergleich zu Mittelklassekarten verschwindend gering, wie immer wieder von Kartenherstellern zu hören ist.

Quelle : www.golem.de
Titel: Radeon HD 6990: Leistung um jeden Preis
Beitrag von: SiLæncer am 08 März, 2011, 12:46
(http://www.heise.de/imgs/18/6/3/8/9/6/9/f77580198008475f.jpeg)
AMD stellt die Radeon HD 6990 als derzeit schnellste Dual-GPU-Grafikkarte vor. Auf ihrer Platine sitzen zwei Cayman-Grafikchips mit jeweils 1536 Shader-Rechenkernen, die mit 830 MHz (1,12 V) um 50 MHz langsamer laufen als auf der Radeon HD 6970. Beide GPUs zusammen bieten eine theoretische Rechenleistung von 5,1 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher beziehungsweise 1,27 TFlops bei doppelter Genauigkeit. Jedem Grafikchip stehen 96 Textureinheiten und 64 Rasterendstufen zur Seite. 2-mal 2 GByte GDDR5-Speicher sind je über 256 Datenleitungen angebunden und arbeiten mit 2250 MHz (Read/Write-Clock). Laut AMD soll die Grafikkarte durchschnittlich 67 Prozent schneller sein als Nvidias Single-GPU-Grafikkarte GeForce GTX 580.

(http://www.heise.de/imgs/18/6/3/8/9/6/9/26cadb6db7a2d408.jpeg)
Wahrlich gigantisch ist die Leistungsaufnahme der Grafikkarte: Über zwei achtpolige Stromstecker darf sie bis zu 375 Watt aufnehmen, laut AMD sind es in der Praxis 350 Watt. Doch auch die Radeon HD 6990 besitzt wie ihre Single-GPU-Pendants einen kleinen Schalter an der Kartenseite, über den sich bei der Dual-GPU-Grafikkarte jedoch ab Werk ein Overclocking-BIOS (GPU: 880 MHz, 1,175 V) aktivieren lässt. Dann zieht die Grafikkarte laut AMD beim Spielen rund 415 Watt, der Treiber begrenzt die HD 6990 bei 450 Watt – sie läuft dann aber so oder so deutlich über der PCIe-Spezifikation. AMD unterstreicht daher, dass mit dem Umlegen des Schalters die Garantie verlorengeht.

Im Leerlauf zieht die Radeon HD 6990 nach AMD-Angaben 37 Watt. Bis zu fünf Displays gleichzeitig steuert die Grafikkarte über 4 Mini-DisplayPort- und einen Dual-Link-DVI-Anschluss an. Die Karten werden mit zwei passiven MiniDP-Adaptern für DVI und HDMI sowie einem aktiven Adapter zu Single-Link-DVI ausgeliefert. Die Radeon HD 6990 soll rund 550 Euro kosten. Nvidias Konkurrenzkarte, die GeForce GTX 590 mit zwei GF110-GPUs, dürfte noch etwas auf sich warten lassen.

Quelle : www.heise.de
Titel: Nvidias Mittelklasse: GeForce GTX 550 Ti
Beitrag von: SiLæncer am 15 März, 2011, 14:22
(http://www.heise.de/imgs/18/6/4/2/9/1/2/4ec1f060b1ce51fc.jpeg)
Nvidia enthüllt heute die GeForce GTX 550 Ti als Nachfolger der erst rund 6 Monate alten GeForce GTS 450. Die neue Mittelklasse-Grafikkarte ist zu DirectX 11 kompatibel und setzt auf einen GF116-Grafikchip mit 192 Shader-Rechenkernen, die mit 1800 Mhz laufen – die GF116-GPU mitsamt ihrer 32 Textureinheiten und 24 Rasterendstufen werkelt mit 900 MHz. Laut Nvidia soll der Grafikchip zudem sehr übertaktungsfreudig sein. Zum Vergleich: Der GF106-Chip der GTS 450 läuft mit 783 MHz und besitzt 8 Rasterendstufen weniger.

Insgesamt 1 GByte Speicher (2050 MHz) bindet Nvidia über 192 Datenleitungen an, bei der GTS 450 sind es 128. Entsprechend höher fällt die Datentransferrate aus, mit der Grafikchip und Speicher miteinander kommunizieren: schaffte eine GTS 450 noch 57,6 GByte (1800 MHz), sind es bei der GTX 550 Ti fast schon 100 GByte/s.

116 Watt elektrische Leistung soll die Grafikkarte unter Last aufnehmen und ist daher auch auf einen zusätzlichen, sechspoligen PCIe-Stromstecker angewiesen. Nvidia empfiehlt zum Betrieb der Karte mindestens ein 400-Watt-Netzteil. Die GeForce GTX 550 Ti wird etwa von Asus, EVGA, Gainward, Galaxy, Gigabyte, KFA2, Palit, PNY und Zotac angeboten. All jene belegen durch ihre Kühlsysteme insgesamt zwei Gehäusesteckplätze.

In Spielen soll die GeForce GTX 550 Ti zumeist etwas schneller sein als die Konkurrenzkarte Radeon HD 5770 von AMD. Allerdings ist letztere bereits ab 100 Euro zu haben, während die GeForce GTX 550 Ti in Abhängigkeit des Boardpartners mindestens 140 Euro kosten soll. Im Preisvergleich sind bereits erste Karten gelistet. AMD plant anscheinend bereits in Kürze die Radeon HD 6790 als Konkurrenzkarte zu veröffentlichen.

Quelle : www.heise.de
Titel: Nvidia Geforce GTX 590 - Vorstellung auf den 24. März verschoben?
Beitrag von: SiLæncer am 19 März, 2011, 16:43
Die Vorstellung der Nvidia Geforce GTX 590 soll verschoben worden sein.

Die Vorstellung der neuen Nvidia Geforce GTX 590 wird allgemein für den 22. März erwartet, soll nun jedoch kurzfristig auf den 24. März verschoben worden sein. Ursprung dieser Mitteilung ist die asiatische Webseite Xfastest, die sich dabei auf »Branchenquellen« bezieht. Einen Grund für die vermeintliche Verschiebung um zwei Tage kann aber auch Xfastest nicht nennen.

Die Nvidia Geforce GTX 590 soll gegen das AMD-Flaggschiff Radeon HD 6990 antreten. Laut inoffiziellen Informationen ist die Geforce GTX 590 mit zwei GF110-Grafikchips mit insgesamt 1.024 Shader-Einheiten ausgestattet. Die Taktrate der GPUs soll etwas über 600 MHz liegen, die Shader dürften damit über 1.200 MHz schnell sein.

Der insgesamt 3.072 MByte große GDDR5-Videospeicher ist über zwei 384-Bit-Interfaces angeschlossen und wird laut Gerüchten mit effektiv 3.400 MHz betrieben. Die Stromversorgung übernehmen zwei 8-Pin-Anschlüsse, der maximale Stromverbrauch soll bei 375 Watt liegen.

Quelle : www.gamestar.de
Titel: GeForce GTX 590: Nvidias Watt-Monster für 640 Euro
Beitrag von: SiLæncer am 24 März, 2011, 15:58
(http://www.heise.de/imgs/18/6/4/7/0/6/2/2452ae70fc7610fa.jpeg)
Nvidia präsentiert mit der GeForce GTX 590 ihre bislang schnellste Grafikkarte. Auf ihrer Platine sitzen zwei vollausgebaute GF110-Chips mit je 512 Shader-Rechenkernen, die allerdings im Vergleich zu ihren Verwandten auf der GeForce GTX 580 mit niedrigerer Taktfrequenz und Spannung arbeiten, um die Leistungsaufnahme noch im technisch möglichen Bereich zu halten.

Beide GF110-Chips mitsamt ihrer 64 Textureinheiten laufen mit 607 MHz, die Shader-Rechenkerne entsprechend mit der doppelten Taktfrequenz. Jede GPU kann auf jeweils 1536 MByte GDDR5-Speicher zugreifen, der mit 1707 MHz rund 300 MHz langsamer läuft als jener auf der GTX 580. Der Speicher ist mit 384 Datenleitungen angebunden – die hohe Datentransferrate von knapp 164 GByte/s für jede GPU reicht auch für sehr hohe Auflösungen mitsamt fordernder Kantenglättungseinstellungen aus. Für die Kommunikation der GPUs untereinander sorgt ein NF200-PCIe-Switch von Nvidia.

(http://www.heise.de/imgs/18/6/4/7/0/6/2/4842e4f35fb18951.jpeg)
Das frisch erschienene Crysis 2 läuft auf der GTX 590 selbst bei 2560×1600 Pixeln mit 60 fps.


Nvidias GeForce GTX 590 steht in direkter Konkurrenz zur vor Kurzem vorgestellten Radeon HD 6990 von AMD, auf der zwei Cayman-Grafikchips arbeiten. Allerdings ist Letztere in wichtigen Disziplinen weiterhin schneller als die neue Nvidia-Karte. In den DirectX-11-Spielen Battlefield Bad Company 2 und Metro 2033 produziert die Radeon HD 6990 je nach Auflösung um 5 bis 8 Prozent höhere Bildraten. Bei 2560 × 1600 Bildpunkten wird die Nvidia-Karte in Metro 2033 allerdings deutlich um knapp 20 Prozent abgehängt (36 : 43 fps). Beim Rennspiel Dirt 2 ist wiederum die GeForce flinker. In 3DMark Vantage (Voreinstellung: Extreme) erreicht die GTX 590 in unseren Tests 19134 Punkte, die HD 6990 18266. Bei 3DMark 11 wendet sich das Blatt, hier schafft die HD 6990 3257 Punkte, die GTX 590 nur 2666 (Voreinstellung: Extreme), eine GTX 580 noch 1937 Punkte.

(http://www.heise.de/imgs/18/6/4/7/0/6/2/9dd32e1fc44f9ed7.jpeg)
Mit Hilfe ihrer beiden 8-poligen Stromstecker darf die GeForce GTX 590 bis zu 375 Watt verheizen, Nvidia veranschlagt die TDP der Karte bei 365 Watt. Im Spielbetrieb maßen wir durchschnittlich 324 Watt – und damit sogar mehr als bei der Radeon HD 6990. Dafür macht der Nvidia-Lüfter mit 2 Sone weniger Krach. Im anspruchsvollen Perlin-Noise-Test von 3DMark06 verheizte die Karte durchschnittlich gar 394 Watt und wurde mit 4 Sone auch sehr laut. Die während unserer Tests höchste, kurzzeitig gemessene Spitzenleistungsaufnahme lag bei 502 Watt – Rekord. Im Leerlauf (0,6 Sone) maßen wir 55 Watt, bei zwei angeschlossenen Displays sogar über 100 Watt. Nvidia empfiehlt für den Betrieb der Grafikkarte ein 700-Watt-Netzteil.

Die GeForce GTX 590 wird von Nvidias Boardpartnern für rund 640 Euro erhältlich sein.

Quelle : www.heise.de
Titel: AMD - Streit um »die schnellste Grafikkarte der Welt«
Beitrag von: SiLæncer am 26 März, 2011, 11:45
Als AMD seine Radeon HD 6990 vorstellte, bezeichnete die Presseerklärung die neue Dual-GPU-Radeon »die schnellste Grafikkarte der Welt«. Genau das Gleiche hat nun Nvidia bei der Vorstellung seiner neuen Geforce GTX 590 gemacht. AMD hat nun in einem Blog-Beitrag dazu Stellung genommen.

Während man selbst Belege für die Behauptung, die Radeon HD 6990 sei die schnellste Grafikkarte der Welt, vorgebracht habe, könne man bei Nvidia dafür keinerlei Grundlage entdecken. Auch Vergleiche mit Standard-Benchmarks wie 3DMark 11 fehlten.

Doch die Behauptung, die Geforce GTX 590 sei nun die schnellste Grafikkarte der Welt, widerspreche vielen Tests der Grafikkarte von bekannten Webseiten wie HardOCP, Hexus und anderen. Daher fordert Dave Erskine, der Senior PR-Manager für den Grafikbereich bei AMD, Nvidia dazu auf, die Aussagen nicht nur zu machen, sondern auch zu belegen.

Quelle : www.gamestar.de
Titel: nVidia: GTX 590 stirbt bei OC durch Treiberfehler
Beitrag von: SiLæncer am 26 März, 2011, 18:55
(http://static.gulli.com/media/2011/03/thumbs/370/header-productshot1.jpg)
Scheinbar musste es kurz vor der Veröffentlichung der Karte schnell gehen. Die Testmuster wurden mit einem Treiber ausgeliefert, der die Stromschutzfunktion der Karte nicht unterstützt. Einige der Testkarten sind bereits bei moderaten OC-Versuchen zerstört worden. Ein Video vom Defekt einer GTX 590-Testkarte bei der schwedischen Seite SweClockers gibt es bei YouTube.

Noch nicht einmal zwei Tage ist es her, seit Marktführer nVidia sein neues Dual-GPU-Monster GTX 590 veröffentlichte. Unter Verwendung von zwei selektierten GF110-Chips und insgesamt 3GB Grafikspeicher erreicht die Karte eine Grafikleistung, die sehr nahe bei AMDs Konkurrenzprodukt HD 6990 liegt. AMD bietet dank Dual-Bios-Chip auf seinen Karten eine OC Einstellung, an bei der die beiden Grafikchips auf vollem HD 6970-Takt von 880 MHz statt der sonst für eine HD 6990 üblichen 800 MHz arbeiten. Nach offiziellen Angaben von AMD erlischt dabei die Garantie, was von einigen Rechtsexperten jedoch bezweifelt wird, da es sich bei dem AUSUM-Mode (Antilles Unlocking Switch for Uber Mode) um eine beworbene Produkteigenschaft handelt. Einige Boardpartner wie zum Beispiel XFX gehen derweil eigene Wege und sichern volle Garantie zu, auch wenn der OC Modus benutzt wird, bei dem die Leistungsaufnahme von 375 Watt unter extremer Belastung auf 450 Watt ansteigt. Von Defekten der HD 6990 liest man bisher auch unter Verwendung des OC-Bios glücklicherweise nichts.

Doch zurück zum grünen Lager. nVidia musste seine beiden Grafikchips handselektieren, damit diese mit niedrigen Spannungen von 0,91-0,96 Volt auf immerhin 608 MHz arbeiten können. Mit diesen Werten braucht die Karte schon 365 Watt unter extremer Last. Da die Karte für den Enthusiasten-Markt ist, haben einige Review-Seiten natürlich auch getestet, was passiert, wenn man die beiden GF110-Chips mit den vollen Settings einer GTX 580 - also 1,025 Volt und 772 MHz - betreibt. Das Ergebnis ist reproduzierbar: ein Verbrauch, der auf ca 480 Watt ansteigt, und der kurzfristige Defekt der Karte. Wie in einem Video von SweClockers zu sehen ist, spielt die 10-Phasen-GPU-Spannungsversorgung der Karte bei den Settings nicht mehr mit. Eigentlich sollte eine in den Treiber integrierte Schutzfunktion die Karte bei sehr hoher Belastung herunterregeln, um einen Defekt zu verhindern. Das passierte jedoch bei den Testkarten nicht.


Schuld ist laut nVidia der mitgelieferte GeForce 267.52-Treiber, der scheinbar die Sicherheitsfunktionen noch nicht implementiert hatte. Wer also eine GTX 590 kaufen will, sollte auf keinen Fall den mitgelieferten Treiber nutzen. Auch in einigen bereits ausgelieferten Retail-Verpackungen findet sich scheinbar eine CD mit dem 267.52 Treiber. Es wird also dringend dazu geraten, den neuesten Treiber von der nVidia-Homepage zu verwenden, auch wenn die Karte bei Standardsettings scheinbar auch ohne ihre Schutzfunktion keine Probleme verursacht. Spätestens wenn man plant, die Karte zu übertakten, solte man also sehr vorsichtig sein. Ab der version GeForce 267.71 ist das Problem behoben, so dass die Karte sich bei einem extrem ansteigenden Verbrauch ausserhalb der Spezifikation selbst heruntertaktet und somit keinen Schaden nimmt. nVidia selbst empfiehlt für OC die Verwendung eines Wasserkühlers. Selbst dann sollen Kunden, um die Spannungsversorgung nicht zu überlasten, die vGPU-Spannung der Karte maximal um 25 mV erhöhen. Boardpartner könnten diesem Problem jedoch mit eigenen Designs und einer stärkeren Umsetzung der Spannungsversorgung für die GPU entgegenwirken und so das Limit möglicherweise etwas erhöhen.

Quelle: www.gulli.com
Titel: Nvidia bringt GeForce GTX 560 ohne "Ti"
Beitrag von: SiLæncer am 29 März, 2011, 14:06
(http://www.heise.de/imgs/18/6/4/8/6/7/6/05f04d01ee377f17.jpeg)
Wie mehrere Quellen gegenüber heise online hinter vorgehaltener Hand bestätigten, will Nvidia in wenigen Wochen eine abgespeckte Variante der GeForce GTX 560 Ti herausbringen. Die neue Grafikkarte wird schlicht ohne das Kürzel "Ti" im Namen als GeForce GTX 560 laufen und wohl der direkte Nachfolger der seit Juli 2010 verfügbaren GeForce GTX 460 werden. Zu den technischen Daten gibt es noch keine genauen, bestätigten Informationen. Wahrscheinlich ist allerdings, dass sich die kommende GTX 560 hauptsächlich aufgrund ihrer Taktfrequenzen von ihrem GTX-460-Vorgänger (1024-MByte-Version) abhebt.

Die Zahl der Funktionseinheiten dürfte also bei 336 Shader-ALUs, 56 Textureinheiten und 32 Rasterendstufen bleiben, der Grafikchip allerdings schneller als 675 MHz laufen – beispielsweise mit mehr als 800 MHz. Dann wäre die kommende GeForce GTX 560 nicht viel mehr als eine beschleunigte GTX 460, deren Leistung in etwa auf dem Niveau der Radeon HD 6870 liegen könnte, die zurzeit für rund 170 Euro erhältlich ist.

(http://www.heise.de/imgs/18/6/4/8/6/7/6/3eab39896658f206.jpeg)
Genau in dieser Performance-Klasse hat Nvidia bis auf die wegen ihrer hohen Leistungsaufnahme unattraktive GeForce GTX 470 nichts zu bieten, die überdies aufgrund des Fermi-Grafikchips der ersten Generation für Nvidia teuer zu produzieren ist. Entsprechend könnte sich der Preis der GeForce GTX 560 bei etwa 170 bis 180 Euro bewegen, die derzeitige Performance-Lücke stopfen und Nvidias GeForce-500-Portfolio ergänzen. Nvidia wird die Grafikkarte nach uns vorliegenden Informationen zwischen Mitte April und Anfang Mai vorstellen.

Quelle : www.heise.de
Titel: AMD bringt Radeon HD 6790
Beitrag von: SiLæncer am 05 April, 2011, 06:17
(http://www.heise.de/imgs/18/6/5/1/0/2/9/8b2b800fece39fe3.jpeg)
Vor gut einem Monat flüsterten der Redaktion auf der CeBIT bereits einige gute Kontakte, dass AMD nach dem Marktstart der GeForce GTX 550 Ti eine Konkurrenzkarte auf den Markt werfen wird, nun ist es so weit: AMD präsentiert die Radeon HD 6790, auf der ein abgespeckter Barts-Grafikchip mit 800 Shader-Rechenkernen sitzt. Wie auch die 40 Textureinheiten laufen sie mit 840 MHz.

Im Vergleich zu den auf der Radeon HD 6850 sitzenden Barts-Chips reduziert AMD auch die Anzahl der für die Katenglättungsleistung wichtigen Rasterendstufen auf 16 Stück – und damit auf die Hälfte. An Speicherbandbreite wiederum mangelt es der Radeon HD 6790 nicht, denn der 1 GByte große GDDR5-Speicher ist mit 256 Datenleitungen an den Grafikchip angebunden. Bei einer Taktfrequenz von 2100 MHz erreicht die Radeon HD 6790 also eine Datentransferrate von gut 134 GByte/s, was auch für hohe Auflösungen mitsamt Kantenglättung ausreicht. Zum Vergleich: Nvidias GeForce GTX 550 Ti liegt mit knapp 100 GByte/s deutlich zurück und ist auch in Spielen langsamer.

Die 3D-Performance der Radeon HD 6790 liegt zwischen der einer Radeon HD 5770 und Radeon HD 6850. Das Echtzeitstrategiespiel Anno 1404 läuft selbst mit achtfacher Kantenglättung mit 37 fps in Full HD, auch Battlefield Bad Company 2 oder Dirt 2 machen bei 1920×1080 Pixeln Spaß. Im 3DMark Vantage erreicht die Radeon HD 6790 in der Extreme-Voreinstellung 6039 Punkte; im Tessellation-Benchmark Unigine Heaven 19,4 fps (OpenGL 4: 9,1 fps), eine HD 6850 schafft 22,8 fps.

(http://www.heise.de/imgs/09/6/5/1/0/6/3/6a10d85ca42602ca.jpeg)(http://www.heise.de/imgs/09/6/5/1/0/6/3/8010c9969b4f555d.jpeg)(http://www.heise.de/imgs/09/6/5/1/0/6/3/XFXHD6790.jpg-913adcfea20352d5.jpeg)
Bilderstrecke, 4 Bilder (http://www.heise.de/newsticker/bilderstrecke/bilderstrecke_1221201.html?back=1221148)

Im Leerlauf verheizte das Referenz-Testexemplar von AMD 18 Watt (0,4 Sone), mit zwei Displays waren es bereits 45 Watt (0,5 Sone). Beim Spielen nahm die Radeon HD 6790 durchschnittlich 91 Watt auf, maximal maßen wir 132 Watt. Der Lüfter nervte unter Last mit 1,6 Sone. Allerdings sind die Geräuschmesswerte mit Vorsicht zu genießen, da AMDs Referenzdesign nicht von den Boardpartnern angeboten werden wird – sie offerieren ihre Modelle mit selbstentwickelten Kühlsystemen für rund 130 Euro. Allerdings bieten diesmal offenbar nicht alle Boardpartner die Karte feil, darunter Asus.

Quelle : www.heise.de
Titel: Radeon HD 6450: Einsteigerkarte mit UVD3-Videoeinheit
Beitrag von: SiLæncer am 07 April, 2011, 09:21
AMD stellt mit der Radeon HD 6450 die erste Low-End-Grafikkarte der HD-6000-Serie vor, die dank UVD3-Videoeinheit sogar stereoskopische 3D-Blu-rays darstellt – und das via HDMI 1.4 auch auf HD-Fernsehgeräten. Auf der Low-Profile-Platine sitzt ein zu DirectX 11 kompatibler Grafikchip (Caicos), der 160 Shader-Rechenkerne hat und damit doppelt soviele wie der Chip der Vorgängerkarte Radeon HD 5450. Überdies beherbergt er 8 Textureinheiten und 4 Rasterendstufen.

Um aktuelle Spiele in Full-HD-Auflösung flüssig darzustellen, reicht die 3D-Performance der Karte nicht aus. Im 3DMark Vantage erreicht die Radeon HD 6450 2811 Punkte in der Performance-Voreinstellung und ist damit immerhin rund 30 Prozent flinker als Intels schnellster Prozessor-Grafikkern (HD 3000: 2157 Punkte). Die Vorgängerkarte Radeon HD 5450 schaffte 1291 Punkte, Intels HD-2000-Prozessorgrafik 1008.

(http://www.heise.de/imgs/18/6/5/2/4/2/8/9cf13f044dfdd572.jpeg)
Allerdings saß auf der uns von AMD zur Verfügung gestellten HD-6450-Referenzkarte auch GDDR5-Speicher (512 MByte), der mit 1800 MHz lief und über 64 Datenleitungen an den Grafikchip angebunden war (28,8 GByte/s). Im Handel soll es auch Varianten mit langsameren DDR3-Speicherbausteinen geben, durch die sich die Speicherbandbreite je nach Taktfrequenz laut AMD nur zwischen 8,5 und 12,8 GByte/s bewegen soll. Das würde die 3D-Performance noch weiter reduzieren.

Die Leistungsaufnahme der Radeon HD 6450 ist mit gemessenen 8 Watt im Leerlauf sehr niedrig, die Vorgängerkarte mit halb soviel Shader-Rechenkernen verheizte 2 Watt weniger. Mit zwei oder drei Displays waren es bereits 15 Watt (HD 5450: 9 Watt), unter Volllast bis zu 32 Watt (15 Watt). Aufgrund der geringen Leistungsaufnahme wird es im Handel auch lüfterlose Varianten geben, die um die 50 Euro kosten dürften. Ab 19. April sollen erste Exemplare der Radeon HD 6450 auf den Markt kommen.

Quelle : www.heise.de
Titel: GeForce GT 520: Fermi für Einsteiger
Beitrag von: spoke1 am 10 April, 2011, 21:52
(http://www.heise.de/imgs/18/6/5/4/5/4/1/346d7b47e930fd5e.jpeg)
Nvidia komplettiert seine aktuelle DirectX-11-Produktfamilie mit der Low-End-Grafikkarte GeForce GT 520. Ihr zu DirectX 11 kompatibler Fermi-Grafikchip (GF119, 810 MHz) beherbergt 48 Shader-Kerne und 8 Textureinheiten. Damit ist sie für aktuelle Spiele zu langsam, aber durch ihre PureVideo-HD-Einheit gut geeignet für die Wiedergabe von hochaufgelöstem Filmmaterial – selbst Blu-rays mit stereoskopischen Inhalten soll die Karte via HDMI 1.4a an entsprechende 3D-Fernsehgeräte ausgeben können.

Standardmäßig sitzt auf der Low-Profile-Platine 1 GByte Speicher, der über 64 Datenleitungen angebunden ist. Die Datentransferrate liegt daher auf einem für Einsteigerkarten üblichen Niveau (14,4 GByte/s). Laut Nvidia soll die Grafikkarte maximal 29 Watt verheizen. Dank der geringen Leistungsaufnahme können Asus und Gainward auch lüfterlose GT-520-Varianten anbieten.

(http://www.heise.de/imgs/18/6/5/4/5/4/1/81ab5d146cb9747e.jpeg)
Mit aktiviertem GPU-PhysX soll die GT 520 ungefähr so
schnell sein wie eine alte GeForce 9500 GT.
Maximal zwei Displays lassen sich gleichzeitig an einer GeForce GT 520 betreiben. Die meisten Herstellerkarten bieten dafür einen Dual-Link-DVI- und HDMI-Anschluss sowie eine VGA-Buchse. Dank ihrer geringen Bauhöhe passt die Karte auch in sehr flache Gehäuse.

Laut einer Nvidia-Grafik soll die GeForce GT 520 mit aktivierter GPU-PhysX-Beschleunigung zirka 2500 Punkte im 3DMark Vantage (Voreinstellung: Performance) erreichen, die kürzlich vorgestellte Radeon HD 6450 von AMD schaffte in unserer Messung rund 2811 Punkte. Die GeForce GT 520 wird ab sofort für rund 60 Euro von Nvidias Boardpartnern erhältlich sein.

Quelle : www.heise.de
Titel: AMD präsentiert Radeon HD 6570 und 6670
Beitrag von: SiLæncer am 19 April, 2011, 06:35
(http://www.heise.de/imgs/18/6/5/6/4/8/4/cb9ff00de3daba0f.jpeg)
AMD stellt gleich zwei neue Mittelklasse-Grafikkarten vor: die Radeon HD 6570 und HD 6670. Beide Modelle geben dank der UVD3-Videoeinheit auch Blu-rays mit stereoskopischen Inhalten wieder. Die Leistung ihrer zu DirectX 11 kompatiblen Grafikchips ist für Gelegenheitsspieler ausreichend, die auf Full-HD-Auflösung und hohe Detailstufen verzichten können. Im 3DMark Vantage erreicht die Radeon HD 6670 8430 Punkte und ist dabei somit rund ein Drittel flinker als die Vorgängerkarte Radeon HD 5670 (6293 Punkte).

480 Shader-Rechenkerne, 24 Textureinheiten und 8 Rasterendstufen beherbergt die 800 MHz schnelle GPU der Radeon HD 6670. Die je nach Hersteller 512 MByte oder 1 GByte fassenden GDDR5-Speicherbausteine sind über 128 Datenleitungen angebunden und laufen mit 2000 MHz (64 GByte/s). Laut AMD soll die Radeon HD 6670 im Leerlauf 12 Watt schlucken, unter Last maximal 66 Watt. Unsere Messungen mit der AMD-Referenzkarte zeigten sogar nur 11 Watt im Leerlauf und maximal 63 Watt unter Volllast. Im Leerlauf-Multimonitorbetrieb verheizte die Grafikkarte 22 Watt.

Auf der Radeon HD 6570 kann sowohl GDDR5- als auch langsamer DDR3-Speicher zum Einsatz kommen. Bei letzterem halbiert sich die Datentransferrate, was die 3D-Performance im Vergleich zur HD 6670 mindert. Wie bei der Radeon HD 6670 sitzen im Grafikchip 480 Shader-Rechenkerne, die allerdings wesentlich langsamer arbeiten (650 MHz). Dadurch reduziert sich auch die Leistungsaufnahme leicht auf von AMD angegebene 11 Watt im Leerlauf und 60 Watt unter Last. Modelle mit DDR3-Speicher sind etwas genügsamer und sollen mit 10 beziehungsweise 44 Watt auskommen. Leider hatten wir noch kein Testexemplar der Radeon HD 6570, um die angegebenen Werte überprüfen zu können.

Die Radeon HD 6670 steuert bis zu 4 Displays an und soll rund 90 Euro kosten, die Radeon HD 6570 kommt mit bis zu 3 Displays zurecht und soll für zirka 75 Euro über die Ladentheken gehen.

Quelle : www.heise.de
Titel: GeForce GTX 560: Aus Alt mach Neu
Beitrag von: SiLæncer am 17 Mai, 2011, 17:00
(http://www.heise.de/imgs/18/6/6/6/0/8/0/a91faa60792f689b.jpeg)
Nun ist es soweit: Nvidia stellt die GeForce GTX 560 vor, über die schon seit Ende März spekuliert wurde. Die Performance-Grafikkarte ist eine abgespeckte Variante der GeForce GTX 560 Ti und besitzt einen GF114-Grafikchip mit 336 statt 384 Shader-Rechenkernen, der mit 810 MHz läuft. Der 1 GByte fassende GDDR5-Speicher arbeitet mit 2004 MHz.

Die Bezeichnung "560" suggeriert, dass es sich um den direkten Nachfolger der seit Juli 2010 verfügbaren GeForce GTX 460 handelt. Wer allerdings technische Fortschritte erwartet, wird enttäuscht sein. Denn die GeForce GTX 560 hebt sich vor allem durch ihre etwas höheren Taktfrequenzen vom Vorgänger ab, dessen Chip und GDDR5-Speicher mit lediglich 675 MHz beziehungsweise 1800 MHz liefen.

Allerdings waren die GF104-Chips der GTX-460-Karten sehr taktfreudig – die meisten rechneten nach wenigen Klicks auch mit 810 MHz stabil. Das bewarb Nvidia sogar explizit: "GTX 460 is an overclocker's dream", hieß es damals auf den Präsentationsfolien. Nvidia betont allerdings, dass es – wie bei der GeForce GTX 560 Ti – auch einige Veränderungen auf Transistorebene gegeben habe, die die Performance pro Watt verbessern sollten.

Alle Boardpartner Nvidias haben vor allem übertaktete Modelle der GeForce GTX 560 im Angebot, um den höheren Preis zur älteren GeForce GTX 460 zu rechtfertigen. Die Hersteller betreiben die Grafikchips ihrer Karten mit bis zu 950 MHz (Zotac GeForce GTX 560 AMP!), den GDDR5-Speicher mit bis zu 2244 MHz Read-Write-Clock (Sparkle GeForce GTX 560 Calibre).

(http://www.heise.de/imgs/18/6/6/6/0/8/0/65a04c82bfd5f0d7.jpeg)

Mit den Referenztaktfrequenzen ist die GeForce GTX 560 im 3DMark Vantage knapp 20 Prozent schneller (Extreme-Preset: 8231 Punkte) als die GeForce GTX 460, im 3DMark 11 sind es sogar 24 Prozent (Performance-Preset: 4088 Punkte). Bei letzterem Test ist der Abstand zur GeForce GTX 560 Ti (4250 Punkte) nicht groß. In Spielen reicht die Performance der GeForce GTX 560 aus, um auch die anspruchsvollsten 3D-Shooter in Full HD flüssig darzustellen. So sind selbst bei Metro 2033 noch 30 fps im höchsten DirectX-11-Modus drin. Das Rennspiel Colin McRae Dirt 2 läuft sogar bei 2560×1600 Pixeln mit 45 fps.

Die Leistungsaufnahme pendelt sich bei rund 15 Watt im Leerlauf ein, bei manchen OC-Karten sind es allerdings sogar über 20 Watt (Gigabyte GV-N56GSO-1GI). Beim Spielen sind die Karten aber deutlich schluckfreudiger und kommen im Durchschnitt auf knapp 150 Watt – hier war sogar das Referenzmodell von Nvidias GeForce GTX 560 Ti sparsamer (135 Watt). Da die kurzzeitigen Spitzen deutlich höher liegen, sitzen an den GTX-560-Varianten zwei sechspolige Stromstecker.

Die GeForce GTX 560 soll knapp 170 Euro kosten.

Quelle : www.heise.de
Titel: Nvidia vervollständigt die GeForce-500-Serie
Beitrag von: SiLæncer am 21 Mai, 2011, 15:07
Nvidia erweitert die GeForce-500-Serie nach der GeForce GT 520 und GeForce GTX 560 um zwei preiswerte DirectX-11-Grafikkarten. Die GeForce GT 530 und GT 545 wird es vorerst aber nur in Komplett-PCs geben, da Nvidia die Karten lediglich an OEM-Herstellern liefert. Auf der GeForce GT 530 sitzt ein in 40 nm Strukturgröße gefertigter GF118-Chip (700 MHz) mit 96 Shader-Kernen (1400 MHz). Der 1 oder 2 GByte große DDR3-Grafikspeicher ist über 128 Datenleitungen an die GPU angebunden und wird mit 898 MHz angesteuert. Die technischen Daten sind mit denen der Vorgängerkarte GeForce GT 430 identisch.

Die GeForce GT 545 offeriert Nvidia in zwei Versionen mit DDR3- oder GDDR5-Speicher. Beiden Varianten gemein ist der GF116-Chip (40 nm), von dessen 192 Shader-Kernen aber nur 144 aktiv sind. Die Grafikkarten unterscheiden sich hinsichtlich der Taktfrequenzen und der Speicheranbindung: Bei der DDR3-Version arbeiten GPU und Shader mit 720 MHz beziehungsweise 1440 MHz. Der Speicher (900 MHz) kommuniziert über 192 Datenleitungen mit einer Transferrate von 43 GByte/s mit dem Grafikchip. Die GDDR5-Version kommt trotz eines 128-Bit-Speicherinterface auf 64 GByte/s, da die GDDR5-Chips mit 2 GHz deutlich schneller takten. Chip und Shader-Kerne laufen ebenfalls etwas flotter (870/1740 MHz).

(http://www.heise.de/imgs/09/6/6/7/9/4/6/0277dd5a1d5a9e18.jpeg)(http://www.heise.de/imgs/09/6/6/7/9/4/6/0039de553686a887.jpeg)(http://www.heise.de/imgs/09/6/6/7/9/4/6/f1655c6b2448aea4.jpeg)
Bilderstrecke, 3 Bilder (http://www.heise.de/newsticker/bilderstrecke/bilderstrecke_1247316.html?back=1247314)

Die GeForce GT 530 und die DDR3-Variante der GT 545 kommen ohne 6-poligen Stromanschluss aus, da ihre Thermal Design Power mit 50 und 70 Watt unterhalb der 75-Watt-Marke liegen, die der PEG-Slot des Mainboards liefert. Die maximale Leistungsaufnahme der GeForce 545 mit GDDR5-Speicher gibt Nvidia mit 105 Watt an.

Quelle : www.heise.de
Titel: GeForce GTX 560 Ti für Komplett-Systeme langsamer und stromhungriger
Beitrag von: SiLæncer am 06 Juni, 2011, 17:29
(http://www.heise.de/imgs/18/6/7/3/3/1/1/6c2aed8c13cf871b.png)
Nvidia hat auf seiner Firmen-Webseite eine weitere Variante der Performance-Grafikkarte GeForce GTX 560 Ti vorgestellt, die allerdings nur in Komplett-Systemen verbaut wird. Der Grafikchip dieser OEM-Version besitzt im Vergleich zur einzeln erwerbbaren Karte 352 anstelle von 384 Shader-Rechenkernen, die überdies nur mit 732 statt mit 822 MHz laufen.

Beim GDDR5-Speicher bekommt die GeForce GTX 560 Ti OEM etwas mehr ab: 1,25 oder 2,5 GByte sind laut Nvidia möglich, die mit 1900 MHz laufen und über 320 Datenleitungen angesteuert werden. Das ergibt eine Datentransferrate von 152 GByte/s. Zum Vergleich: die herkömmliche GTX 560 Ti kommt mit 1 GByte Speicher daher, der zwar etwa schneller läuft (2004 MHz), allerdings nur über 256 Leitungen kommuniziert (128 GByte/s). Für den Retailmarkt außerdem erhältlich ist seit Mitte Mai noch die GeForce GTX 560 "ohne Ti" , die wiederum nur 336 Shader-Kerne beherbergt.

Die OEM-Variante der GeForce GTX 560 Ti ist allerdings nicht nur langsamer, sondern auch stromhungriger als die herkömmliche GeForce GTX 560 Ti. So gibt Nvidia die maximale Leistungsaufnahme mit 210 Watt an – das sind satte 40 Watt mehr. Dafür verantwortlich ist der GF110-Grafikchip, den Nvidia auf der OEM-Variante verbaut. Das lässt vermuten, dass auch die Leerlauf-Leistungsaufnahme deutlich über den sehr guten 15 Watt einer herkömmlichen GTX 560 Ti liegen wird. Nvidia macht dazu auf der Webseite keine Angaben.

Die GPU-Architektur des GF110 unterscheidet sich stark von der des GF114, welcher auf den bereits erhältichen GTX-560-Karten sitzt. Dadurch hat die OEM-Variante auch weniger Textureinheiten (44 statt 64) und folglich eine viel geringere Texturierungsleistung. Im direkten Vergleich ähnelt die GeForce GTX 560 Ti OEM stark einer beschnittenen GeForce GTX 570, bei der nur 11 statt 15 Streaming-Multiprozessoren, von denen jeder 32 Shader-Rechenkerne enthält, funktionieren.

Quelle : www.heise.de
Titel: Nvidia bestätigt: Kepler kommt erst 2012
Beitrag von: SiLæncer am 06 August, 2011, 11:15
Die nächste Generation der Nvidia-Grafikchips (Codename: Kepler) wird erst im kommenden Jahr in Massenproduktion gehen. Das bestätigte ein Unternehmenssprecher gegenüber XBit Labs. Wann genau erste Grafikkarten mit Kepler-GPUs tatsächlich in den Handel kommen sollen, ist unbekannt. Die Chips sollen bereits mit Preemption- und Virtual-Memory-Funktionen ausgestattet sein.

Erst im Juni wurden Gerüchten zufolge die Designs der ersten Kepler-GPUs zum Auftragsfertiger TSMC gesandt (Tape-Out). Da solche Erstentwürfe komplexer Grafikchips üblicherweise noch einiges an Nachbesserung erfordern, vergehen normalerweise vom ersten Tape-Out bis zur finalen Produktion zwischen sechs und zwölf Monate. Da Nvidia bei Kepler ein neues beziehungsweise überarbeitetes Design mit einem neuen Fertigungsverfahren kombiniert, könnte es durchaus zwischen neun und zwölf Monaten dauern.

Dass der Hersteller seine für wichtige Ankündigungen dienende GPU Technology Conference auf Mitte Mai 2012 verschoben hat, könnte also durchaus mit der Kepler-Verspätung zu tun haben. Eines ist sicher: Nvidia hat bis zum Kepler-Marktstart noch eine lange Durststrecke zu überwinden.

Quelle : www.heise.de
Titel: Grafikgerüchte: Radeon 7970 kommt mit XDR2-Speicher und 2.048 Rechenwerken
Beitrag von: SiLæncer am 06 September, 2011, 13:04
Rambus-Speicher für Grafikkarten kehrt zurück - wenn man den inoffiziellen Daten zu AMDs nächster Radeon-Serie glauben will. Neben XDR2-DRAM sollen in der GPU "Tahiti" bis zu 2.048 Rechenwerke für Tempo sorgen.

Die asiatische Site Expreview hat recht detaillierte Daten zu AMDs nächster GPU-Generation veröffentlicht. Wenig überraschend sind dabei die Modellnummern: Radeon HD 7950 und 7970 sollen im üblichen Namensschema die schnellsten Single-GPU-Karten darstellen. Ihre Codenamen, die ebenfalls schon bekannt waren, lauten Tahiti und Tahiti Pro. Als "New Zealand" soll eine Dual-GPU-Karte als Radeon HD 7990 erscheinen.

Video: Rambus zeigt XDR2-Speicher im Betrieb (4:29)

Bei diesen drei Grafikkarten will AMD den unbestätigten Angaben zufolge erstmals bei hochwertigen Spielebeschleunigern auf XDR2-Speicher von Rambus setzen. 2 GByte je GPU sind vorgesehen. Bei der schnelleren 7970 soll so eine theoretische Speicherbandbreite von 256 GByte/s erreicht werden. Das wären gut 45 Prozent mehr als die 176 GByte/s des Vorgängers Radeon HD 6970.

Eine so hohe Steigerung der Speicherbandbreite gab es selten von einer GPU-Generation zur nächsten, und offenbar will AMD damit die Radeon-Chips auch interessanter für Rechenanwendungen machen. Beim GPU-Computing ist die Speicherbandbreite besonders wichtig. Nvidias GTX 580 und ihre Tesla-Ableger sind hier mit 192,4 GByte/s schon jetzt etwas schneller als AMDs Radeons. Wie AMD aber den durch Cuda geschaffenen Vorteil bei der Software einholen will, bleibt noch abzuwarten. Erste Ansätze hat AMD bereits gemacht.

GCN-Architektur und 1.000 MHz

Durch den Umstieg auf 28 Nanometer breite Strukturen will AMD außerdem die Zahl der Rechenwerke bei den Tahiti-GPUs erhöhen. Statt bisher höchstens 1.536 Einheiten wie bei der Radeon HD 6970 sollen es 2.048 Rechenwerke werden. Diese sind in der neuen Architektur "graphics core next" (GCN) gestaltet. Das neue Design soll dabei unter anderem die Zahl der Rasterprozessoren (ROPs) von 32 auf 64 glatt verdoppeln. Auch der GPU-Takt soll sich von bisher höchstens 880 MHz bei der 6970 auf 1.000 MHz bei der 7970 steigern.

Die GCN-Architektur bleibt aber nur der Serie 7900 vorbehalten. Die kleineren Modelle 7870 und 7850 (Thames) sowie 7670 und 7650 (Lombok) sollen laut Expreview auf die VLIW4-Shader der Serie 6900 setzen. Der bisher verbaute GDDR5-Speicher bleibt bei diesen Grafikkarten ebenfalls erhalten.

Angaben zur Leistungsaufnahme gibt es auch schon, 190 Watt sollen es bei der Radeon HD 7970 sein, für die Dual-GPU-Karte 7990 gibt es noch keinen Wert. Diese Zahlen sind aber ohnehin bei High-End-Grafikkarten nicht mehr eindeutig zu bewerten, weil sowohl AMD als auch Nvidia die Leistungsaufnahme noch dynamischer als früher regeln. Bei AMD gibt es hier auch eine Einflussnahme durch den Anwender namens Powertune. Das sorgt bei der ebenfalls mit 190 Watt angegebenen Radeon HD 6970 auch nach AMDs eigenen Daten für bis zu 250 Watt. In der Spielepraxis wird dieser Wert jedoch kaum erreicht.

Die Quellen von Expreview lassen sich noch nicht zu einem möglichen Verkaufsstart für die Serie Radeon HD 7000 aus. Dabei hängt, wie bei GPUs fast immer, vieles davon ab, wann der Auftragshersteller TSMC seinen 28-Nanometer-Prozess bis zur Serienreife entwickelt hat. AMD hat sich dazu bisher noch nicht konkret geäußert, einzig, dass es noch im Jahr 2011 so weit sein soll, steht bisher im Raum.

Quelle : www.golem.de
Titel: Geforce GTX 580 mit 3 GByte, hoher Taktung und Entstaubung
Beitrag von: SiLæncer am 15 September, 2011, 16:26
MSIs neue Geforce-Grafikkarte GTX580 Lightning Xtreme Edition (XE) wird ausgeliefert. Sie bietet hohe Taktraten, 3 GByte Speicher und ein sich selbst reinigendes Lüftungssystem.

Die PCI-Express-Grafikarte MSI GTX580 Lightning Xtreme Edition verfügt über 3 GByte GDDR5-Speicher, der mit effektiv 4.200 MHz getaktet ist. Auch der Geforce-GTX-580-Grafikchip liegt mit 832 MHz Core- und 1.747 MHz Shader-Takt über dem Standardtakt. Etwas Luft zur Übertaktung gibt es laut Hersteller noch, dafür sollen hochwertige Elektronikbauteile, eine 16-phasige Stromversorgung und ein leise arbeitendes Lüftungssystem ("Twin Frozr III") sorgen. Die Stromversorgung erfolgt über zwei 8-polige EPS-Stecker.

(http://scr3.golem.de/screenshots/1109/MSI-GTX580-Lightning-Xtreme-Edition/thumb620/neues-stromversorgungskonzept-verspricht-spitzenleistung-und-exzellente-overclocking-perfomance-1.jpg)

Das Lüftungssystem nutzt zwei aktive Lüfter, acht 8-mm-Heatpipes und große Kühlkörper. Es bietet zudem zwei Besonderheiten: Nach dem Einschalten des Rechners saugen die Lüfter erst einmal 30 Sekunden Staub vom Kühlkörper, danach wird die Drehrichtung geändert und der Lüfter pustet wieder. Und bei freiem Blick in das PC-Gehäuse wechseln die beiden Rotoren des Lüftungssystems ab einer Temperatur von 45 Grad Celsius ihre Farbe von Blau zu Weiß.

Overclocker ermöglicht MSI die unabhängige Konfiguration von Core-, Memory- und Gesamtspannung in Echtzeit. Zudem lassen sich alle wichtigen Spannungen und Clock-Einstellungen beobachten. Über integrierte Temperaturchips können zudem alle wichtigen Temperaturen von GPU/Speicher und MOSFET getrennt ausgelesen werden. Leicht zugängliche Spannungsmesspunkte ("V-Check Points") ermöglichen es, die exakten Spannungswerte von GPU, Clock Gen und Speicher per Multimeter auszulesen.

Der Standardausbau von GTX580-Grafikkarten liegt bei 1,5 GByte, mehr Speicher bringt aber selbst mit aktuellen grafisch aufwendigen Spielen kaum Vorteile. Anders sieht das bei SLI-Konfigurationen aus zwei oder mehr Grafikkarten aus, die für sehr hohe Auflösungen und aktive Kantenglättung eingesetzt werden.

Die MSI N580GTX Lightning XE ist laut Hersteller ab sofort für einen empfohlenen Verkaufspreis von 555,- Euro lieferbar. Bei Händlern ist sie laut Preisvergleichsdiensten zwar noch nicht vorrätig, aber zumindest Alternate will sie binnen 48 Stunden für 549 Euro liefern können.

Quelle : www.golem.de
Titel: Nvidia: Quad-Core-Tegra Kal-El hat fünften "Stromsparkern"
Beitrag von: SiLæncer am 21 September, 2011, 16:34
(http://www.heise.de/imgs/18/7/1/4/4/9/3/ee26e0219ef0e58d.jpeg)
Mit einem zusätzlichen Informationshäppchen will Nvidia das Interesse am kommenden Quad-Core-ARM-SoC Kal-El wachhalten, der noch vor dem Jahresende in Tablets zu kaufen sein soll. Der vermutlich als Tegra 3 erscheinende Kombiprozessor besitzt laut einem Blog-Eintrag und einem Whitepaper (PDF-Datei) nicht bloß vier Cortex-A9-Kerne, sondern gleich fünf. Der fünfte ist besonders sparsam und ausschließlich dann aktiv, wenn keiner der anderen Kerne läuft. Durch diesen Trick will Nvidia besonders lange Akkulaufzeiten erreichen.

Doch auch wenn alle vier Kal-El-Kerne mit 1 GHz Taktfrequenz laufen, sollen sie sparsamer sein als die beiden Kerne der Konkurrenten Texas Instruments OMAP4 oder Qualcomm MSM8660 – gleichzeitig verspricht Nvidia aber annähernd doppelte Rechenleistung im Coremark-Benchmark. Die komplette Leistungsaufnahme der ARM-SoCs inklusive ULP-GeForce-GPU und weiteren integrierten Prozessoren und Controllern verrät Nvidia dabei weiterhin nicht, sondern nur den Energiehunger der CPU-Teile: Dazu zieht Nvidia die Leistungsaufnahme unter Last von jener bei ruhendem System ab. Die vier Kal-El-Kerne schlucken demnach bei 1 GHz zusammen 1,261 Watt. Für die Dual-Core-Konkurrenten TI OMAP4 und Qualcomm MSM8660 hat Nvidia hingegen höhere Werte ermittelt, wobei letzterer etwas höher getaktet wurde, um einen vergleichbaren Coremark-Wert zu liefern. Der Coremark-Wert des Kal-El bei 1 GHz – möglicherweise kommen auch schnellere Versionen – liegt dabei sogar etwas höher als bei den ersten Angaben im Februar, vermutlich dank besserer Compiler-Optimierung.

(http://img225.imageshack.us/img225/8260/climsyclipboardl.jpg)

Nvidia hat die Konkurrenten OMAP4 und MSM8660 nicht zufällig ausgewählt, sondern diese ARM-SoCs gehören zu den wenigen, die Microsoft für die Spezialversion von Windows 8 auserkoren hat. Mit der Kal-El-Folgeversion Kal-El+ will Nvidia sogar in den Notebook-Markt einsteigen. In einem weiteren Whitepaper erläutert Nvidia, weshalb sich Quad-Cores besonders gut für Mobilgeräte eignen.

Das Konzept mit dem fünften Kern hat sich Nvidia nach eigenen Angaben patentieren lassen. Den besonders sparsamen Kern baut Nvidia aus sparsameren Transistoren auf, die aber nicht so hohe Schaltfrequenzen erreichen können wie jene der vier schnellen Kerne. Der gesamte Chip wird wie sein Vorgänger Tegra 2 (Tegra 250) mit 40-Nanometer-Technik bei TSMC produziert. Mehrere Auftragsfertiger bieten separate Herstellungsprozesse für Low-Power- oder für High-Performance-Transistoren an. Auch AMD und Intel nutzen für ihre ARM-Konkurrenten C-50/Ontario, E-350/Zacate oder Atom-SoCs spezielle Low-Power-Fertigungsprozesse.

Die Angaben von Nvidia zur Leistungsaufnahme der Cortex-A9-Kerne decken sich grob mit Angaben, die ARM 2009 veröffentlicht hat. Demnach sollen zwei A9-Cores bei 2 GHz mit 1,9 Watt auskommen, ebenfalls bei 40-nm-Fertigung von TSMC. Leider lässt sich kaum abschätzen, wie hoch der Leistungsbedarf der restlichen Funktionseinheiten eines Kal-El liegt. Zum Vergleich: Für den Tablet-Atom Z670, den Intel unter Android als leistungsfähiger einschätzt als einen Tegra 250, nennt der Hersteller 3,75 Watt TDP im Verbund mit dem Ein-Chip-"Chipsatz" SM35.

Quelle : www.heise.de
Titel: Zotac Geforce GT 520 PCI bringt alten PCs DirectX 11 bei
Beitrag von: SiLæncer am 29 September, 2011, 15:50
Zotac hat eine neue Grafikkarte für den aussterbenden PCI-Steckplatz angekündigt. Die Zotac Geforce GT 520 PCI ist für alte Rechner, Kompakt-PCs und Heimkino-PCs (HTPC) gedacht.

Zotac hat zwei neue Varianten der Zotac Geforce GT 520 angekündigt: eine mit PCI-Schnittstelle und eine für PCI Express x1 (PCIe x1). Beide sollen für Besitzer älterer PCs, Kleinst-PCs oder HTPCs interessant sein. Dazu tragen auch die niedrige Bauform (Low-Profile Design) und die passive Kühlung der Single-Slot-Karte bei.

Der DirectX-11-fähige Geforce-GT-520-Grafikprozessor wird mit 810 MHz getaktet und verfügt über 48 Shadereinheiten (1.620 MHz). 512 MByte DDR3-Speicher (1.333 MHz) sind über ein 64-Bit-Speicherinterface an die GPU angebunden.

(http://scr3.golem.de/screenshots/1109/Zotac-Geforce-GT-520-PCI/thumb620/ZT-50610-10L_image1%20800x600.jpg)

Die Grafikkarten bieten je einen HDMI-Ausgang, einen DVI-I-Ausgang und einen VGA-Ausgang. Mit einem beiliegenden DVI-nach-VGA-Adapter kann auch ein zweiter analoger Monitor angeschlossen werden. Eine Ausgabe auf zwei Bildschirmen gleichzeitig (Dual-Monitor-Betrieb) wird unterstützt. Über die HDMI-Schnittstelle kann die Grafikkarte auch 8-Kanal-Ton ausgegeben.

Die Grafikkarten sind von Zotac nur für Windows 7 zertifiziert. Sie dürften aber auch problemlos mit Windows XP oder Vista funktionieren, da Nvidia hierfür noch Treiber anbietet.

Preise und Verfügbarkeiten für die Zotac Geforce GT 520 PCI und die Zotac Geforce GT 520 PCIe x1 hat der Hersteller noch nicht angegeben.

Quelle : www.golem.de
Titel: AMD Radeon HD 7000 - Wohl definitiv nicht mehr in diesem Jahr
Beitrag von: SiLæncer am 02 Oktober, 2011, 16:04
Bereits Mitte September hab es Gerüchte, laut denen AMD die neue Grafikkarten-Serie Radeon HD 7000 auf Anfang 2012 verschoben hätte. Damals wurde als Hauptgrund die starke Nachfrage nach den AMD Radeon HD 6000-Grafikkarten genannt, wegen der keine Eile notwendig sei, einen Nachfolger einzuführen. Außerdem gäbe es schon bei diesen Modellen Probleme, alle Bestellungen aufgrund von Kapazitätsproblemen bei der Herstellung zu bedienen.

Laut Fudzilla sieht die Lage allerdings etwas anders aus. Zwar heißt es auch hier, dass vor dem 1. Quartal 2012 nicht mit den neuen Radeon HD 7000-Grafikkarten zu rechnen ist, doch der Grund sei die schlechte Ausbeute bei der problematischen Herstellung mit 28-nm-Strukturen bei TSMC und Globalfoundries.

Zwar sei es theoretisch denkbar, dass AMD dennoch Ende 2011 die neuen Modelle vorstellt, im Handel dürften sie aber laut Fudzilla dann noch einige Zeit nicht zu finden sein. Dieser Schritt seitens AMD wäre aber unlogisch, da sich nach der Vorstellung neuer Modelle die älteren Grafikkarten schlagartig schlechter verkaufen würden.

Quelle : www.gamestar.de
Titel: Passive Radeon HD 6670 mit Zalman-Kühler auf der Rückseite
Beitrag von: SiLæncer am 14 Oktober, 2011, 22:49
Eine der seltenen Grafikkarten ohne Lüfter bietet HIS an. Das von Zalman stammende Kühlsystem ohne Lüfter belegt dabei nur einen Slot, wenn auf der Rückseite der Karte noch genügend Platz ist.

Die Radeon 6670 iSilence4 DDR3 von HIS ist nach Angaben des Herstellers bereits verfügbar und kostet rund 80 Euro. Die verbaute GPU, eine Radeon HD 6670 mit 800 MHz, zählt zur gehobenen Einstiegsklasse von AMD und reicht für mittlere Auflösungen bis etwa 1.680 x 1.050 Pixel auch für DirectX-11-Spiele aus. Als Speicher kommen zwar nur DDR3-Bausteine zum Einsatz, sie erreichen aber immerhin 1 GByte Kapazität und sind effektiv 1,6 GHz schnell.

Monitore lassen sich per DVI, VGA und HDMI anschließen, alle Ports können gleichzeitig genutzt werden. Die maximale Auflösung eines Displays beträgt 2.560 x 1.600 Pixel. Eigentlich beherrscht die GPU auch den Betrieb von bis zu sechs Displays per Eyefinity, dann müsste aber ein Displayport auf der Karte vorhanden sein, und zudem die noch seltenen Monitore mit Daisy-Chaining-Funktion.

(http://scr3.golem.de/screenshots/1110/HIS-6670-Passiv/thumb620/6670iS4-F6.jpg)

Eine Besonderheit der neuen HIS-Karte ist der Kühler von Zalman, der anders als manche Lösungen in derselben Leistungsklasse nicht gleich zwei Slots in der Breite belegt. Dazu ist der Kühlkörper auf der Rückseite der Karte angebracht. Per Heatpipes gelangt die Wärme dorthin. Oberhalb der Karte muss in einem Towergehäuse also noch genügend Raum zur Verfügung stehen, der nicht etwa durch einen besonders großen CPU-Kühler belegt ist.

Passive Grafikkarten sind vor allem bei selbstgebauten Media-PCs (HTPC) beliebt. Dabei muss dann aber stets das gesamte Gehäuse gut durchlüftet werden. AMD gibt für das Referenzdesign einer Radeon HD 6670 eine typische Leistungsaufnahme (TDP) von 66 Watt an. Diese Wärme muss in einem Gehäuse auch abgeführt werden.

Quelle : www.golem.de
Titel: Re: Passive Radeon HD 6670 mit Zalman-Kühler auf der Rückseite
Beitrag von: Jürgen am 15 Oktober, 2011, 01:24
Zitat
Das von Zalman stammende Kühlsystem ... belegt dabei nur einen Slot, wenn auf der Rückseite der Karte noch genügend Platz ist.
Das erscheint mir als ein ziemlich an den Haaren herbeigezogenes Argument, zumindest stark simplifizierend formuliert.

Zwar wird bei einigen ATX-Boards der erste Gehäuseslot nicht für Steckkarten genutzt, gern z.B. bei ASUS, aber in solchen Fällen ist dies der Ort, der sich am besten für ein Durchführungsblech (z.B. für USB 3.0 zum Frontpanel oder einen CAM-Träger) oder zusätzliche Buchsen (Legacy-Ports, S/PDIF in usw. eignet.
So sollte ein rückwärtiger Grafikkühler wenigstens genug Platz lassen, um noch ein solches Durchführungs- oder Buchsenblech zu erlauben.
Besser wäre, sogar den Platz für PCIe x1 plus drei Millimeter frei zu lassen, um dort z.B. eine USB 3.0 Steckkarte zu erlauben.  

Nun gut, bei µATX ist meistens der erste Slot für die Grafik vorgesehen. Da passt es, ausser wenn der CPU-Kühler zu gewaltig ausfällt.

Andererseits gibt es auch ATX-Boards, bei denen der auf den (ersten) PCIe x16 Slot folgende gänzlich frei ist, dafür aber dann meist der erste Slot für PCIe x1 dient.
Obwohl manche Grafikkartenhersteller ihre normalen 2-Slot-Kühler wiederum bewusst so anordnen, dass trotzdem noch eine kurze PCIe x1 Karte passt...

Zusammengefasst bedeutet das einerseits, das Thema kollisionsfreies Einbauen wird sowieso stets komplizierter, und andererseits ist diese Bauform sicher für einige wenige Anwender eine willkommene Speziallösung.
Dementsprechend teuer wird sie wahrscheinlich bleiben.
Andererseits, wenn sich Vermarkter dazu durchringen könnten, Speziallösungen auch als solche anzupreisen, ist der Anwender in der Regel auch zu erhöhter Großzügigkeit zu motivieren.
Wenn er denn kann...

Insofern bleibe ich sicher bei der gerade günstig erstandenen passiven Single Slot Sapphire HD 6570 (DDR3, TDP 44Watt), die einzubauen ich am Wochenende beabsichtige. (p.s. done, siehe Sig.)
Die basiert auf einer LowProfile Platine, aber der Lamellen-Kühler ragt 25 mm darüber hinaus, bis etwa 7 mm unterhalb Ende Slotblech und oberhalb LP auch etwa 3 mm in den Bereich des vorigen Slots.
Für so eine Lösung ist die TDP der 6670 mit 66 Watt wohl etwas zu hoch, es sei denn, man überschreitet die Höhe des Slotblechs (was auch der Lüftströmung durch die Lamellen sehr zuträglich sein könnte) oder baut den Kühler deutlich über das Grafikboard nach vorne hinaus, wie bei aktiven Hochleistungskarten auch üblich.

Es gibt kaum etwas ärgerlicheres, als wenn es irgendwo an ein paar Millimetern Platz fehlt, um Hardware wie geplant einzubauen...

Da bin ich immer froh, wenn sich andere Ressourcen umnutzen lassen, die Gehäusebauer vorgesehen haben, wie Ausbrüche für Schläuche oder Legacy-Ports, oder ein achtes Slotblech, was Durchführungen ohne Verluste oder Bohren ermöglicht.
So gesehen kann die Karte manchen Leuten sicher sehr willkommen sein, aber nicht unbedingt allen.

Jürgen

p.s.
Mir fällt gerade ein, dass ich ein sehr ähnliches Kühlkonzept schon einmal gesehen habe, auf einer Sapphire HD 3850 Ultimate.
Die hat den RV 670 drin, TDP 106 Watt.
Die 6670 mit Turks Chip soll bei 66 Watt liegen, also deutlich darunter.
Das gibt Anlass zur Vermutung, dass es mit einer 6770 u.U. auch noch gehen könnte, bei TDP 108 Watt.

Wie auch immer, die Kühlung über die Rückseite der Grafikkarte dürfte einen grundsätzlichen Vorteil in ATX-Towern haben, der Wärmestau unter der Grafikplatine wird deutlich reduziert.
Das Thema war ja früher einmal einer der Gründe für das BTX-Konzept, das sich aber bekanntlich nicht wirklich durchsetzen konnte.

p.p.s. 29.11.2011
Nachdem ich auch rückseitige Abbildungen gesehen habe, möchte ich noch hinzufügen, dass sich bei der beschriebenen Karte der vom Kühlkörper beanspruchte vorherige Slot durchaus noch für viele Durchführungs- und Buchsen-Slotbleche eignet. Aber selbst eine PCIe x1 Karte passt da definitiv nicht mehr.
Titel: Grafikgerüchte: Nvidia plant GTX 560 Ti mit 448 Rechenwerken
Beitrag von: SiLæncer am 26 Oktober, 2011, 13:37
Da die ersten 28-Nanometer-GPUs weiter auf sich warten lassen, will Nvidia angeblich seine beliebte Oberklassegrafikkarte aufwerten. Ein neues Modell der GTX 560 Ti soll nicht nur mehr CUDA-Cores beherbergen.

Wie VR-Zone berichtet, soll die nächste GTX 560 Ti nicht wie das bisherige Modell auf der GPU GF114 basieren, sondern auf der GF110 der GTX 570. Dabei soll aber einer der SM-Blöcke abgeschaltet sein, so dass die neue 560 Ti auf 448 Rechenwerke kommen soll. Das noch aktuelle Modell hat 384 dieser Einheiten. Auch die Takte habe Nvidia bei der neuen GPU unter das Niveau der GTX 570 gesenkt, berichtet VR-Zone. Genaue Angaben zu den Frequenzen gibt es aber noch nicht.

Dass Nvidia die GPU verändert, aber den Namen der Grafikkarte bis auf einen Zusatz beibehält, ist bereits öfter vorgekommen. Der letzte Fall war die GTX 260, die 2008 ein halbes Jahr nach Erscheinen auch als Modell mit 216 statt 192 Rechenwerken auf den Markt kam. Die Hersteller nahmen damals meist die Zahl der Einheiten mit in die Modellbezeichnung auf.

Wann die überarbeitete GTX 560 Ti auf den Markt kommen soll, ist nicht einmal gerüchteweise bekannt. Sie soll VR-Zone zufolge rund 300 US-Dollar kosten und sich damit zwischen übertakteten Modellen der Radeon HD 6950 und der GTX 570 sowie der Radeon HD 6970 einordnen.

Quelle : www.golem.de
Titel: Grafikgerüchte: AMDs Radeon 7000 mit neuer Architektur - oder doch nicht?
Beitrag von: SiLæncer am 21 November, 2011, 12:57
TSMC fertigt bereits Grafikprozessoren mit 28 Nanometern Strukturbreite - das ist der einzige Fakt in den aktuellen Spekulationen um AMDs Serie Radeon HD 7000. Die Gerüchte reichen von Umbenennungen bis zur einer Verwendung der neuen Architektur GCN.

Dass AMD Ende 2011 oder Anfang 2012 eine neue Grafikkartenserie namens Radeon HD 7000 vorstellen wird, ergibt sich schon aus dem jährlichen Modellwechsel der Grafikbranche. Ungewöhnlich sind jedoch die zahlreichen sich widersprechenden Gerüchte, die derzeit auf Hardwarewebseiten kursieren.

Die größten Hoffnungen auf vollständig neue Grafikkarten macht Semiaccurate, das von einer Verwendung der Architektur "Graphics Core Next" (GCN) auf den Topmodellen mit den GPUs Tahiti XT, Tahiti Pro, Pitcairn XT und Pitcairn Pro ausgeht. Alle diese Codenamen gehören zur schon länger bekannten GPU-Familie Southern Islands.

3 GByte Speicher möglich

Neben der neuen Architektur sollen die GPUs einen 384 Bit breiten Speicherbus besitzen, der Grafikkarten mit 3 GByte lokalem Speicher ermöglicht. Ob auch für Spiele gedachte Modelle in großer Zahl mit so viel Speicher auf den Markt kommen, ist aber noch nicht bekannt. Möglich ist auch, dass AMD diese Option für seine professionellen Produkte vorgesehen hat.

Semiaccurate zufolge sollen Grafikkarten mit diesen GPUs ab Januar 2012 vorgestellt werden. Zuerst kommt demnach das Spitzenmodell Tahiti XT, jeweils einen Monat später folgen dann die anderen genannten GPUs. Auffällig: Welche Modellnummern die Karten tragen werden, also beispielsweise Radeon HD 7970 für die schnellste Version mit Tahiti XT, gibt der Bericht nicht an.

Radeon HD 7800 zuerst mit alter Technik?

Das mag daran liegen, dass einem Blog zufolge noch vorher, nämlich im Dezember 2011, eine Serie namens Radeon HD 7800 auf den Markt kommen soll. Diese soll aber nicht auf der GCN-Architektur, sondern dem Design VLIW4 basieren. Diese Architektur hatte AMD mit der Serie Radeon HD 6900 eingeführt, die Radeon HD 7800 sollen sie beibehalten, aber mit 28 statt vorher 40 Nanometern Strukturbreite bei TSMC hergestellt werden. Eine erste 28-Nanometer-GPU - ohne Angabe des Modells - hat AMD bereits Anfang Oktober 2011 vorgeführt.

Sollte AMD tatsächlich eine Serie 7800 mit der Technik der Reihe 6800 auf den Markt bringen, wäre das konsequent: Schon die Serie 6800 basierte auf den Radeon HD 5800. Damit verwirrte AMD den Markt Ende 2010, weil zuvor jahrelang stets zuerst die schnellsten GPUs mit neuer Architektur vorgestellt wurden, und zwar mit einer eindeutigen Modellnummer. So war früher eine Radeon HD 5870 die modernste Karte und hatte mit einer Radeon HD 4870 nicht viel gemein.

Erst mit der letzten Serie führte AMD eine Änderung an der zweiten Ziffer der Modellnummer ein, die Radeon HD 6970 - und eben nicht die 6870 - war das aktuelle Spitzenmodell. Die Serie 6800 kam zudem auch vor den 6900 auf den Markt, sofern sich die aktuellen Spekulationen bewahrheiten, will AMD diesen Rhythmus mit seiner nächsten Generation beibehalten.

Umbenennung im großen Stil auch bei AMD?

Ein echtes Novum wäre aber die Umbenennung von kleineren Grafikkarten, die Chiphell voraussagt. Dieses Hochstufen auf dem Papier hat bei Nvidia Tradition, kam bei AMD aber nur in Ausnahmefällen vor. Diesmal sollen aber mit Radeon HD 7350, 7450, 7570 und 7650 gleich vier AMD-Grafikkarten auf Basis der älteren GPUs Cedar, Caicos und Turks erscheinen. Auch eine Änderung der Strukturbreite ist offenbar nicht vorgesehen.

Angesichts dieser zahlreichen Gerüchte, die eine recht undurschaubare Produktpalette abbilden, wäre AMD gut beraten, bei der offiziellen Vorstellung der ersten Grafikkarten der neuen Serie für Klarheit zu sorgen. Eine bestätigte Roadmap mit den wichtigsten technischen Daten und einem zumindest auf den Monat genauen Vorstellungsdatum könnte die Kaufentscheidung erleichtern. Wichtig wäre das vor allem, wenn die ersten Radeon HD 7000 noch vor Weihnachten im Laden stehen sollten - dann könnten Grafikfans anhand von Fakten, nicht von Gerüchten entscheiden, ob sich ein Kauf oder weiteres Warten wirklich lohnt.

Quelle : www.golem.de
Titel: GeForce GTX 560 Ti mit 448 Shader-Kernen
Beitrag von: SiLæncer am 29 November, 2011, 17:00
Nvidia präsentiert eine schnellere Variante der Performance-Grafikkarte GeForce GTX 560 Ti, deren Grafikchip 448 statt 384 Shader-Rechenkerne beherbergt. Außerdem sitzen auf der Platine 1,28 statt 1,0 GByte GDDR5-Speicher, der über 320 Datenleitungen angebunden ist und mit 1900 MHz arbeitet (Read/Write-Clock). Der GF110-Grafikchip rechnet mit 732 MHz, die Shader-Kerne doppelt so schnell. Von den für die Kantenglättungsleistung wichtigen Rasterendstufen besitzt die Spezialversion 40 statt 32 allerdings nur 56 statt 64 Textureinheiten.

In Spielen ist die 448-Shader-Variante bis zu 15 Prozent schneller. Beispielsweise läuft das Rennspiel Dirt 3 auch mit 2560 × 1600 Bildpunkten flüssig (41 fps), der anspruchsvolle Shooter Metro 2033 immerhin noch in der Full-HD-Auflösung (39 fps). Im 3DMark 11 erreicht eine 448er GTX 560 Ti 5560 Punkte, im 3DMark Vantage 20.477. Damit kommt sie bis auf wenige Prozent an die Leistung einer GeForce GTX 570 heran.

(http://www.heise.de/imgs/18/7/4/1/4/1/5/f1961425283e69dc.jpeg)
Allerdings schluckt die aufgebohrte GTX 560 Ti vor allem durch den GF110-Grafikchip deutlich mehr Strom als die herkömmliche Variante. Während letztere im Leerlauf mit 15 Watt auskommt, verheizt die GTX 560 Ti mit 448 Kernen über 30 Watt. Unter Last sollen es laut Nvidia maximal 210 Watt sein – also 40 Watt mehr. Die werksseitig leicht übertaktete Variante von MSI schluckt in 3D-Spielen durchschnittlich 189 Watt, im Furmark maßen wir kurzzeitig Spitzenwerte von 262 Watt.

Über zwei sechspolige PCIe-Stromstecker verbindet man die Karte mit dem Netzteil. Im SLI-Betrieb lassen sich bis zu drei Exemplare zusammenschalten, allerdings braucht man dann auch ein sehr leistungsfähiges Netzteil. Verkauft wird die neue GeForce GTX 560 Ti von Asus, EVGA, Gainward, Gigabyte, Inno3D, Palit, MSI und Zotac. Der von Nvidia angegebene Verkaufspreis beträgt rund 280 Euro, die günstigsten 384-Shader-Varianten gibt es bereits für 100 Euro weniger.

Quelle : www.heise.de
Titel: Erste Termine für Radeon HD 7000
Beitrag von: SiLæncer am 01 Dezember, 2011, 12:49
Auf zwei Veranstaltungen will AMD Journalisten in der kommenden Woche seine nächste GPU-Generation vorstellen. Ob sie schon mit der Architektur GCN ausgestattet ist und wann die Grafikkarten in den Läden stehen, ist noch völlig offen.

Offenbar plant AMD, vor Weihnachten noch möglichst viel Wirbel um seine nächste Grafikgeneration Radeon HD 7000 zu machen. Zunächst berichtete Nordichardware von einer Presseveranstaltung in London am 5. Dezember 2011, Fudzilla plauderte dann den 8. Dezember 2011 als Termin einer ähnlichen Veranstaltung in München aus.

Beide Quellen geben aber nicht an, ob die Journalisten auf diesen Veranstaltungen auch die üblichen Referenzkarten für Tests erhalten werden und wann die auch NDA genannten Sperrfristen fallen werden. Für diese Abläufe gibt es keine festen Regeln, üblich ist jedoch ein Testzeitraum von ein bis zwei Wochen. Mit dem Fall der Sperrfrist stehen neue Grafikkarten dann auch in begrenzter Stückzahl im Handel zur Verfügung.

Dieses Prozedere wird in der Grafikbranche "Hard Launch" genannt. Das Gegenteil ist ein "Paper Launch", bei dem es nur technische Informationen, aber keine Testgeräte gibt. Auch eine Kombination ist möglich, wenn Journalisten zwar Testgeräte erhalten, diese Serienprodukte zum Ablauf der Sperrfrist aber nicht verfügbar sind. Die Chance auf einen Hard Launch 2011 hat AMD noch, wenn es in der kommenden Woche Testgeräte gibt und die Auslieferung vor Weihnachten erfolgt.

Hard Launch oder Paper Launch sind möglich

Für welchen Weg sich AMD entschieden hat, ist noch nicht bekannt. Sowohl AMD als auch Nvidia haben in den vergangenen Jahren beide Methoden praktiziert, häufiger kam bei beiden Unternehmen ein Hard Launch vor. AMDs Terminwahl deutet darauf hin, dass es zumindest noch vor Weihnachten harte Fakten zu den Karten gibt. Fudzilla will jedoch erfahren haben, dass die Geräte erst im Januar im Handel landen werden.

Ebenso ist noch unklar, welche Serien AMD vorstellen will und welche zuerst auf den Markt kommen werden. Frühere Gerüchte deuteten darauf hin, dass zuerst die Serie Radeon HD 7800 mit der von der Serie Radeon HD 6900 bekannten Architektur VLIW4 erscheint. AMDs neues Design, Graphics Core Next (GCN), soll der Serie Radeon HD 7900 vorbehalten sein.

Beide Linien sollen deutlich mehr leisten als ihre Vorgänger, weil sie nun in 28 Nanometern Strukturbreite hergestellt werden, was unter anderem höhere Taktfrequenzen erlaubt. Eine erste GPU mit diesen Herstellungsverfahren hat AMD Anfang Oktober vorgeführt. Dabei wurde aber nicht angegeben, zu welcher Modellreihe der Chip gehört.

Quelle : www.golem.de
Titel: Notebook-GPUs: Neue Namen, alte Chips
Beitrag von: SiLæncer am 10 Dezember, 2011, 11:35
(http://www.heise.de/imgs/18/7/4/5/7/7/2/ac4138e1ef4a3913.jpeg)
AMD hat die vermeintlich neuen Notebook-Einheiten Radeon HD 7400M, 7500M und 7600M vorgestellt. Allerdings nutzen sie die gleichen Grafikchips wie die Radeon HD 6470M, HD 6630M und HD 6750M, die bei den 7000er-Varianten aber möglicherweise etwas schneller laufen. Im Unterschied zu den 6000er-Einheiten, die es nur mit DDR3-Speicher gab, bietet AMD die 7000er-Varianten auch mit GDDR5-Speicher an. Diesen binden die Radeon HD 7400M und HD 7500M über 64 Datenleitungen an, die HD 7600M über 128. Im Vergleich mit DDR3 erreicht man mit GDDR5 bei gleicher Taktfrequenz die doppelte Datentransferrate, was besonders bei Spielen einen spürbaren Performance-Gewinn bringt

Auch Nvidia hat drei neue Notebook-Grafikeinheiten vorgestellt: die GeForce 610M, GT 630M und GT 635M. Ein Blick auf die technischen Daten offenbart, dass sie umbenannte Versionen der bereits erhältlichen GeForce 520MX, GT 540M und GT 555M sind. Einzig die Speicher-Taktfrequenz liegt bei der GDDR5-Variante der GT 635M um 231 MHz höher (1,8 GHz Read-/Write-Clock) – der daraus resultierende Performance-Unterschied ist mess-, aber nicht wahrnehmbar.

Quelle : www.heise.de
Titel: Re: Notebook-GPUs: Neue Namen, alte Chips
Beitrag von: berti am 11 Dezember, 2011, 12:48
wieso kommt mir bei der letzten meldung das folgende zitat in den sinn ?
Zitat
"Das ist nur, der gleichen Sache einen anderen Namen geben. Man kann einem Schwein Lippenstift auftragen, aber es bleibt ein Schwein. Man kann einen alten Fisch in ein Stück Papier namens Wandel einwickeln, aber nach acht Jahren wird er trotzdem stinken."
aber egal, es wird immer leuts geben, die jeden M.I.S.T kaufen, nur  weil es "neu" ist.
Titel: Re: Notebook-GPUs: Neue Namen, alte Chips
Beitrag von: Jürgen am 12 Dezember, 2011, 05:25
Hier geht's allerdings nicht um typische Nachrüst-Hardware, sondern um meist (zumindest durch den Kunden selbst) nicht austauschbare Onboard-Komponenten.
Obwohl der Notebook-Markt nach wie vor boomt, im Gegensatz zu den großen PCs, meinen die Hersteller offenbar, für eine vermeintlich neue Generation von Geräten wenigstens neue Nummern vergeben zu müssen, auch wenn sich unter der Haube eigentlich kaum etwas tut. OK, hat's bei normalen Grafikkarten auch ab und an gegeben. Aber wer die ersetzen will, der pflegt sich meist vorher schlau zu machen. Spontankäufe dürften da wohl eher selten sein. Und der F(l)achverkäufer wird wohl kaum eine Chance zum Belatschern bekommen.

Ich vermute einmal, dass das aber bei den Klapprechnern recht gut funktionieren dürfte, weil anzunehmen ist, dass der durchschnittliche Notebook-Käufer technisch noch ahnungsloser sein dürfte als der entsprechende Käufer eines Komplett-PCs, und sicherlich sogar sehr viel weniger beschlagen als der typische PC-Aufrüster.

Was mich angeht, werdet Ihr getrost davon ausgehen dürfen, dass ich Baukastensystemen schon immer den Vorzug gegeben habe, Kompaktanlagen dagegen gar nicht mag.
Zwar bemüht sich die Computerindustrie eifrig dafür zu sorgen, dass nach spätestens zwei - drei Jahren alle Bestandteile eines ausgewachsenen PCs rettungslos veraltet und inkompatibel geworden sein sollen, aber noch gelingt ihr das nicht wirklich.

Und so nutze ich seit langer Zeit fast ausschließlich gebrauchte Komponenten.

Bislang gelingt es dabei mir noch immer, über kurz oder lang etwas ganz nettes auf die Beine zu stellen, ohne regelmäßig ein Vermögen opfern zu müssen.

Auf der Basis Notebook wäre das schlicht unmöglich.
Titel: AMD: HD 7970 angeblich 60% schneller als GTX 580
Beitrag von: SiLæncer am 20 Dezember, 2011, 19:08
Wenige Tage vor dem wahrscheinlichen Release am 22 Dezember sind weitere Präsentationsfolien zu AMDs HD 7970 aufgetaucht, die von einer bis zu 60% besseren Spieleleistung in 2560*1600er Auflösung sprechen. Zum Vergleich dient nVidias aktuell schnellste Single-GPU-Karte GTX 580.

Wie immer sind diese anscheinend von AMD stammenden Folien mit Vorsicht zu genießen. Wenn die Ergebnisse sich jedoch in den kommenden Tests bewahrheiten sollten, sind das sicher gute Nachrichten für AMD. In den letzten Tagen sickerte bereits durch, dass die neue Generation einen Long-Idle Modus zum Strom Sparen in Crossfire-Systemen besitzen soll. Dieser deaktiviert die meisten Board-Komponenten inklusive GPU. Damit verbraucht im Crossfire-Betrieb nur noch eine der verbauten Karten nennenswert Strom im Leerlauf. Alle weiteren Karten werden nach einer gewissen Pause in den "long-idle"-Modus versetzt und brauchen noch circa drei Watt. Bisherige Karten konnten zwar auch in einen "Sleep-Modus" gesetzt werden. Es war jedoch nicht möglich, die GPU von der Stromversorgung zu trennen, so dass der Verbrauch deutlich über 3 Watt lag.

Besonders gut sieht die Lage laut Folien in sehr hohen Auflösungen und mit aktiver Kantenglättung (AA) sowiso anisotropischem Texturfilter (AF) aus. Letzterer soll des weiteren endlich den Qualitätsstandards der Konkurrenz entsprechen. AMDs aktuelle Kartengeneration HD 6000 und die Vorgängerchips der 5000er Serie hatten noch Bild-Qualitätsprobleme mit dem anisotropischen Filter. Dieser verursachte Texturfilmmern und war sehr winkelabhängig.

Wenn die Gerüchte stimmen, soll die neue Kartenserie bereits am Donnerstag (22. Dezember) vorgestellt werden. Breite Verfügbarkeit im Handel wird es aber wahrscheinlich erst im Januar geben. Dabei handelt es sich bei der HD 7900 / 7800 und 7700er Serie um neue Chips auf Basis der "GCN" Architectur, die kleineren Modelle der 7600/7500/7400 Serie werden durch Umbenennung bereits bekannter Chips ergänzt. Konkurrent nVidia will seine neuen Karten (GTX 7xx) Anfang nächsten Jahres vorstellen und auf den Markt bringen. Diese könnten nach dem aktuellen Stand der Gerüchte widerum etwas schneller sein als AMDs neue Generation. Es wäre also möglich, dass sich das Szenario der HD5000-Serie wiederholt: AMDs Karten sind früher am Markt, aber etwas langsamer. Endgültige Vergleiche werden wir wahrscheinlich am Ende des ersten Quartals ziehen können, wenn sich die Preise stabilisiert haben. In einem niederländlichen Onlineshop ist die HD 7970 bereits für 525,08 Euro aufgetaucht, lieferbar angeblich in 1 bis 4 Wochen.

Quelle : www.gulli.com
Titel: Radeon HD 7970 im Test
Beitrag von: spoke1 am 22 Dezember, 2011, 08:15
Die schnellste und sparsamste GPU kommt von AMD

Mit der Radeon HD 7970 stellt AMD nicht nur die erste Grafikkarte mit 28-Nanometer-Technik und PCIe 3.0 vor - sie ist auch das derzeit schnellste Modell mit einer GPU. Einziger Schönheitsfehler: AMD kündigt sie jetzt nur an, kaufen kann man sie aber erst im Januar 2012.
Einen solchen Paper Launch hat die Grafikbranche lange nicht mehr gesehen: Da hat AMD nach Jahren endlich einmal wieder den schnellsten Grafikprozessor zu bieten, kündigt ihn aber vorschnell an und verspielt viel Sympathie. Statt des ursprünglich vorgesehenen und auch gegenüber Journalisten und Grafikkartenherstellern genannten Termins 9. Januar 2012 hat AMD die Sperrfrist für die Radeon HD 7970 sehr kurzfristig auf den 22. Dezember 2012 vorverlegt.

(http://scr3.golem.de/screenshots/1112/Radeon-HD-7970/thumb620/z000039-Image15.png)

Zwar bemühte sich der Chiphersteller noch mit Erklärungsversuchen - unter anderem wolle AMD den Testern ein arbeitsfreies Weihnachtsfest ermöglichen -, wahrscheinlich ist aber ein ganz anderer Grund. Wer über die Feiertage seinen Rechner aufrüsten will und dazu möglicherweise Geldgeschenke erbeten hat, soll nach AMDs Willen lieber mit der Anschaffung einer Nvidia-Karte warten. Denn auch das Spitzenmodell des AMD-Konkurrenten mit einer GPU, die Geforce GTX 580, ist inzwischen unter 400 Euro gerutscht.
Gleich 499 Euro will AMD aber für die Radeon HD 7970 haben, jedenfalls ist das die Empfehlung. Wie auch bei anderen Produkten mit neuer Technik werden viele Händler einen satten Aufschlag verlangen, wenn die Karten im Januar 2012 verfügbar sind. Nach Informationen von Golem.de sind auch europäische Großhändler noch nicht beliefert worden, bei Angeboten vor dem 9. Januar 2012 gilt es, die Verfügbarkeit genau zu prüfen.
Der ganze Hype, der sich in den vergangenen Wochen in beispiellos vielen Gerüchten niederschlug, ist aber durchaus gerechtfertigt. Mit der unter dem Codenamen "Tahiti" entwickelten GPU der 7970 erhält der Kunde rundum neue Technik, die einige Funktionen bereithält, die noch nicht einmal genutzt werden können. Die 3GByte GDDR5-Speicher sind dabei nur eines dieser Details.

Wir testen im Folgenden ein von AMD gestelltes Referenzdesign der Radeon HD 7970, das so auch von zahlreichen Anbietern auf den Markt kommen wird.

Quelle: http://www.golem.de/1112/88610.html
Titel: AMD verschiebt Radeon HD 7950 auf Februar 2012
Beitrag von: SiLæncer am 03 Januar, 2012, 12:55
Nicht am 9. Januar 2012, wie bisher versprochen, sondern erst rund einen Monat später soll sie erscheinen: die Radeon HD 7950. Das nach AMDs schnellster Grafikkarte zweitgrößte Modell der Serie verspätet sich, und womöglich ist auch die 7970 noch länger kaum erhältlich.

Die eine kommt erst später, die andere noch später - AMDs Zeitplan für die Vorstellung der neuen Tahiti-GPUs ist kräftig durcheinandergeraten. In einer inzwischen zurückgezogenen Meldung berichtete Guru3D über eine offizielle Mitteilung von AMD. Dem Schreiben nach hat der Chiphersteller den Termin für die Vorstellung und Markteinführung der Radeon HD 7950 vom 9. Januar 2012 auf einen noch nicht genau bestimmten Tag im Februar 2012 verschoben.

Die Meldung ist derzeit noch im Google-Cache einzusehen, auch andere Medien zitieren gleichlautend aus der Mitteilung von AMD. Demnach will das Unternehmen "Bedenken" zerstreuen, wie sie die Trennung von Ankündigung und Verfügbarkeit bei der Radeon HD 7970 hervorgerufen hatte. Diese Grafikkarte war bereits am 22. Dezember 2011 angekündigt worden, soll aber erst ab dem 9. Januar 2012 verfügbar sein. Solche Aktionen werden in der Grafikbranche auch "Paper Launch" genannt.

Andere Gründe für die Verschiebung nennt AMD nicht. Wie jedoch Fudzilla von Grafikkartenherstellern erfahren haben will, gibt es von der Radeon HD 7950 schlicht noch kaum Exemplare. Da sowohl die GPUs Tahiti XT (7970) als auch Tahiti Pro (7950) auf demselben Die basieren, ist nicht ausgeschlossen, dass die Nachfrage nach dem größeren Modell derzeit die Fertigungskapazitäten bei TSMC übersteigt. Beide Grafikprozessoren sind die ersten ihrer Art, die mit 28 Nanometern Strukturbreite hergestellt werden.

Custom Designs schon zum Marktstart

Einige technische Daten der 7950 - die AMD auch noch unter Verschluss halten will - sind derweil auch schon längst bekannt. Statt den 2.048 Rechenwerken der 7970 besitzt die 7950 nur 1.792 der Funktionseinheiten, der Speicherbus bleibt aber 384 Bit breit. Damit sind Modelle mit 1,5- oder 3-GByte-Speicher möglich, AMD will den Kartenherstellern hier von Anfang an freie Hand lassen. Da diese "custom designs" auch ein anderes Kühlsystem umfassen können und diesmal schon zum Marktstart möglich sind, gibt es noch keine konkreten Angaben zu den Takten von GPU und Speicher.

Üblicherweise ist das kleinere Modell einer neuen GPU-Serie von AMD aber rund 10 Prozent langsamer als die Topversion, so dass sich statt der 925 MHz für die GPU der 7970 für die 7950 wohl ein Takt von rund 830 MHz ergeben könnte. Auch als Gerücht gibt es noch keinen Preis für die Radeon HD 7950. Da die 7970 mit einer Preisempfehlung von 499 Euro für eine Single-GPU-Karte überproportional teuer ist, dürfte die 7950 aber kaum mehr als 350 Euro kosten. Das bisherige Topmodell von AMD, die Radeon HD 6970, ist derzeit für etwas weniger als diesen Betrag zu haben, die GTX 580 von Nvidia für knapp 400 Euro. Genau dazwischen wäre die Lücke für eine 7950 mit kleiner Ausstattung von beispielsweise 1,5 GByte RAM und einfachem Kühler.

Quelle : www.golem.de
Titel: Radeon HD 7950: AMD schießt zweite DirectX-11.1-Karte nach
Beitrag von: SiLæncer am 31 Januar, 2012, 13:13
(http://www.heise.de/imgs/18/7/6/4/2/9/5/87378360f6d2787d.jpeg)
AMD stellt die High-End-Grafikkarte Radeon HD 7950 vor, die ab sofort für 450 Euro erhältlich sein soll. Sie setzt wie die rund 15 Prozent schnellere Radeon HD 7970 auf einen aus 28-Nanometer-Strukturen gefertigten Tahiti-Grafikchip (4,31 Milliarden Transistoren), der zu DirectX 11.1 kompatibel ist und auf die neue Graphics-Core-Next-Architektur (GCN) setzt. Seine 1792 Shader-Rechenkerne (HD 7970: 2048), 112 Textureinheiten und 32 Rasterendstufen laufen mit 800 MHz. Wie bei der Radeon HD 7970 verbaut AMD 3 GByte schnellen GDDR5-Speicher, der aber mit 2500 statt 2750 MHz (Read-/Write-Clock) arbeitet und mit 240 GByte/s Daten austauscht. Die maximale Leistungsaufnahme gibt AMD mit 200 Watt an.

Im 3DMark 11 erreicht die Radeon HD 7950 in der Performance-Voreinstellung 6651 Punkte (HD 7970: 7579), im Extreme-Modus noch 2248 Punkte. Nvidias Konkurrenzkarte, die GeForce GTX 580, schafft 6498 beziehungsweise 2114 Punkte, zudem ist die Leistungsaufnahme der GeForce-Grafikkarte mit ihrer Fermi-GPU (40 nm) wesentlich höher. Auch in vielen Spielen liegt die Radeon HD 7950 vor der GTX 580, in Batman Arkham City, Battlefield 3 und Dirt 3 bringen beide Karten aber eine ähnliche Performance. Battlefield 3 ist in Full HD bei maximalen Details und vierfacher Kantenglättung (Deferred) mit durchschnittlich 48 fps gut spielbar, bei 2560×1600 Bildpunkten sind es 30 fps. In Unigines Tessellation-Benchmark Heaven liegt die HD 7970 rund 9 Prozent vor der GTX 580, im OpenGL-4-Durchlauf dreht sich der Spieß um und die GeForce liegt plötzlich 20 Prozent vorn – Nvidia liefert noch immer den besseren OpenGL-4-Treiber.

(http://www.heise.de/imgs/18/7/6/4/2/9/5/9795e25a8b4fef07.jpeg)
Unsere HD-7950-Referenzkarte schluckte im Leerlauf 22 Watt und damit kurioserweise 5 Watt mehr als die schnellere Radeon HD 7970. Bei der Messung mit einer zweiten, identischen Karte kamen wir auf das gleiche Ergebnis. Im Multimonitor-Betrieb verheizte die Karte knapp 52 Watt, unter 3D-Last durchschnittlich 148 Watt: sie ist hierbei etwas sparsamer als die HD 7970 (198 Watt). Die kurzzeitig ermittelten Spitzenwerte lagen bei 225 Watt – also genau soviel, wie die Karte mithilfe ihrer zwei sechspoligen PCIe-Stromstecker aufnehmen darf.

Wem die Leistung der Radeon HD 7950 noch nicht ausreicht, kann ihre Taktfrequenzen noch weiter erhöhen. Unser Testexemplar funktionierte auch noch bei 1000 MHz Chip- und 3000 MHz Speichertaktfrequenz problemlos. Dann kletterte allerdings auch die Leistungsaufnahme im Furmark-Belastungstest weit über 225 Watt. Die Karte soll laut AMD 450 Euro kosten und bindet bis zu vier Displays gleichzeitig über einen Dual-Link-DVI-Anschluss, eine HDMI-Buchse und zwei Mini-DisplayPorts an.

Quelle : www.heise.de
Titel: Radeon HD 7870 kommt zur Cebit, Dual-GPU 7990 später
Beitrag von: ritschibie am 01 Februar, 2012, 12:11
(http://www.golem.de/1202/sp_89478-29415-i.png)
Die Radeon HD7970 soll bald kleine Ableger
bekommen (Bild: Nico Ernst/Golem.de)
Eine aktuelle Roadmap zu AMDs Grafikkarten der Serie Radeon HD 7000 zeigt die Termine für die Modelle der Ober- und Mittelklasse. Als nächstes stehen die Serien 7700 und 7800 an, für die Dual-GPU-Version Radeon HD 7990 gibt es noch keinen Termin.

Bei Bright Side of News wird eine angeblich von MSI stammende Präsentationsfolie wiedergegeben, die zuerst bei CPU-World veröffentlicht wurde. Dort ist das Dokument aber inzwischen entfernt worden. Aus der Folie gehen die Termine für die weiteren Modelle der GPU-Serie "Southern Islands" hervor.

Dass nach den Highend-Karten Radeon HD 7970 und 7950 weitere Modelle auf Basis der Architektur GCN folgen werden, hat AMD bereits selbst bestätigt. Nur die Termine waren noch nicht bekannt - sie ermöglichen einen guten Einblick in die Strategie, die auch von Nvidias noch völlig unbekannten Plänen für die Serie GTX 600 mit Kepler-GPUs abhängen dürfte. Bereits Mitte Februar 2012 will AMD der Folie zufolge die Grafikkarten Radeon HD 7750 (Cape Verde Pro) und 7770 (Cape Verde XT) vorstellen.

Als Vertreter der Mittelklasse werden sie vermutlich nicht groß angekündigt, weil sie vor allem für Komplett-PCs vorgesehen sind. So soll es sie in besonders günstigen Versionen auch mit einem von 128 auf 64 Bit verengten Speicherbus und nur 512 MByte DDR3-Speicher geben. Schnellere Modelle dürfen über bis zu 2 GByte GDDR5 verfügen, solche Versionen sind dann auch für den Einzelhandel zu erwarten. Je nach Ausstattung sollen sie zwischen 99 und 159 US-Dollar kosten.

Im März 2012 sollen dann die Radeon HD 7850 (Pitcairn Pro) und 7870 (Pitcairn XT) folgen, sie stellen AMDs neue Oberklasse dar und werden von den GPU-Herstellern auch "Performance-Grafikkarten" genannt. Mit Preisen bis zu 200 US-Dollar stellen sie ein attraktives Segment dar. Genaue technische Daten sind noch nicht bestätigt, Bright Side of News nennt aber den 6. März 2012 als Termin - das ist der erste Tag der Cebit. Mit zahlreichen Pitcairn-Grafikkarten von taiwanischen Herstellern ist also auf der Messe zu rechnen.

Radeon HD 7990 als Konter gegen Kepler

Mit "TBD" (to be determined, dt.: wird noch entschieden) ist auf der Folie der Termin für die Radeon HD 7990 bezeichnet. Es ist die Dual-GPU-Version der Radeon HD 7970, der Vorgänger 6990 war im vergangenen Jahr schon auf der Cebit zu sehen. Noch ist ungewiss, ob AMD diesen Messeauftritt wiederholen wird. Er verlief 2011 nicht ganz reibungslos. Wann die 7990 wirklich vorgestellt wird, dürfte auch maßgeblich davon abhängen, wann Nvidia seine Serie GTX 600 vorstellt, und wie schnell diese wird.

Da Nvidia zum Marktstart einer neuen GPU-Architektur bisher nie Dual-GPU-Karten angekündigt hat, könnte AMD mit der 7990 kontern und weiterhin behaupten, die schnellste Grafikkarte der Welt zu haben. Auch wenn eine vermeintliche GTX 680 mit einer GPU die schnellste Lösung mit nur einem Grafikprozessor werden könnte.

Quelle: www.golem.de
Titel: nVidia: Leak verrät "Kepler"-Spezifikationen und Release-Termine
Beitrag von: SiLæncer am 06 Februar, 2012, 21:30
(http://static.gulli.com/media/2012/02/thumbs/370/nVidia.jpg)
Nach den nun aufgetauchten Informationen sollen nVidias neue Grafikkarten im "Performance-" und "Enthusiasten"-Markt bereits im April an den Start gehen. Karten für Mainstream-Kunden sollen einen Monat später erhältlich sein. Bereits im Vorfeld hatte nVidia angekündigt, zum Release-Termin eine breite Verfügbarkeit von allen Boardpartnern sicherzustellen.

Wenn nVidia seine Versprechen halten kann, sollte es also keine Lieferengpässe zur Markteinführung geben. Auch einen "Paper Launch" wie zuletzt bei AMDs HD 7970 soll es nicht geben. AMD hatte seine Karten bereits im letzten Jahr präsentiert, verfügbare Exemplare im Handel gab es jedoch erst seit Mitte Januar.

Das neue Single-GPU-Flaggschiff wird demnach wenig überraschend den Namen GTX 680 erhalten. Es besitzt 1024 Shader-Einheiten, ein 512 Bit breites Speicherinterface sowie 2 GB Speicher. Laut der Folie geht nVidia von einer um 45% höheren Performance gegenüber AMDs HD 7970 aus. Diese Angaben sollten jedoch angesichts der fehlenden Einzelheiten (Testprogramme, Auflösung, Filtereinstellungen) mit Vorsicht betrachtet werden.

Etwas unterhalb soll die GTX 670 ebenfalls am 12 April an den Start gehen. nVidia rechnet mit einer Performance, die angeblich immerhin 20% oberhalb von AMDs 7970-Karten liegen soll. Die Karte besitzt 896 aktive Stream-Prozessoren, ein 448 Bit Speicherinterface und 1792 MB Speicher. Die spekulierten Taktraten liegen wie bei der großen Schwester GTX 680 bei 850 MHz Kern- und 1700 MHz Shadertakt.

Etwas erschwinglicher ist die ebenfalls am 12. April erscheinende GTX 660 diese soll einen US-Preis von 319 Dollar erhalten. Sie verflügt über 512 Stream-Prozessoren und 2 GB Speicher, der über ein 256-Bit-Interface angebunden ist. Wenig überraschend soll die Spielleistung mit einer GTX 580 vergleichbar sein.

Die kleinen Modelle sollen am 12. Mai erscheinen und auf die Namen GTX 640 beziehungsweise GTX 650 hören. Sie verfügen immerhin über 192- (GTX 640) beziehungsweise 256- (GTX 650) Stream-Prozessoren. Die finalen Taktraten sind noch nicht bekannt. Spekuliert wird jedoch mit einem Kern-Takt von 850 beziehungsweise 900 MHz. Daraus resuliert ein Shader Takt von 1,7 bis 1,8 GHz. Hinzu kommt bei der GTX 640 ein 128-Bit-Speicherbus, mit dem 2 GB Speicher angebunden werden sollen. Preiswertere Modelle sollten aber auch mit nur einem GB Speicher vergleichbare 3d-Leistung liefern können. Die schnellere GTX 650 erhält einen Speicherbus mit 192 Bit und soll mit 1,5 GB an den Start gehen.

Im dritten Quartal wird das Lineup dann planmäßig mit einer Dual GPU Karte (GTX 690) sowie zwei weiteren Single-GPU-Karten (GTX 660Ti und GTX 650Ti) ergänzt. Allen Karten gemeinsam ist die Unterstützung für den neuen PCIe-3.0-Standard und der Support für DirektX 11.1.

Die Einführungspreise liegen laut Leak bei:

    GTX 640 ~139 US-Dollar (ab 12. Mai)
    GTX 650 ~179 US-Dollar (ab 12. Mai)
    GTX 660 ~319 US-Dollar (ab 12. April)
    GTX 670 ~499 US-Dollar (ab 12. April)
    GTX 640 ~649 US-Dollar (ab 12. April)

Wie immer sind diese Daten noch mit einer gewissen Vorsicht zu betrachten, jedoch wirken alle angegebenen Daten durchaus realistisch. Für die finale Leistungseinschätzung sowie interessante weitere Aspekte wie Lautstärke und Stromverbrauch sollte man jedoch auf ausführliche Testberichte warten.

Quelle : www.gulli.com
Titel: AMD: Neuer HD-7770-Leak zeigt Benchmark und Spezifikationen
Beitrag von: SiLæncer am 14 Februar, 2012, 13:29
Auf der chinesischen Website von VR-Zone sind neue Benchmark-Ergebnisse einer HD 7770 aufgetaucht. AMDs neue Mainstream-Grafikkarte, die wahrscheinlich in wenigen Tagen im Handel erhältlich sein wird, sortiert sich demnach in Sachen 3D-Leistung zwischen der HD 6770 und einer HD 6850 ein. Ein genaues Release-Datum veröffentlichte AMD bisher jedoch nicht.

Wie bereits im Vorfeld spekuliert besitzt die auf der neuen CGN-Architektur basierende Grafikkarte laut veröffentlichtem GPU-Z Screenshot 640 (1D) Shader Einheiten. Nach diversen Marketing-Aktionen seitens AMD können auch die Taktraten nicht wirklich überrachen. So taktet die HD 7770 mit 1 GHz Chiptakt. Der 1 GB große GDDR-5-Videospeicher muss sich mit einer für Mainstream-Karten recht gebräuchlichen 128-Bit-Speicheranbindung zufrieden geben. Von den Rahmendaten her ist an der neuen Karte jedoch abgesehen vom Chiptakt und der mit 123mm^2 recht kleinen Chipfläche (die auf niedrige Produktionskosten hindeutet) wenig beeindruckendes.

So ist es auch nicht überraschend, dass die Karte mit einem 3D Mark 11 Performance Score von 3535 Punkten, installiert höchstwahrscheinlich auf einem Intel Core i5 2500, deutlich hinter einer HD 6850 (~3650 Punkte) und der HD 6870, die circa 4300 Punkte erreicht, landet. Immerhin wird eine HD 6770 und nVidias GTX 550Ti deutlich geschlagen; beide Karten schaffen es auf circa 2700 Punkte. Der durchschnittliche Energieverbrauch der Karte bei 3D-Spielen soll laut Leaks bei circa 80 Watt liegen. Dank einem 6-Pin-PCIe-Zusatzstecker wäre ein maximaler Vollast-Verbrauch von bis zu 150 Watt denkbar. Dieser wird jedoch wie schon bei der Vorgängergeneration, zumindest bei einem Betrieb innerhalb der Herstellerspezifikationen, wohl nie erreicht. Interessant dürfte die neue Grafikkarte also primär für preisbewusste Gelegenheitsspieler sein, die zur Zeit noch keine vergleichbar schnelle Karte ihr eigen nennen. Preislich sollte sich die HD 7770 recht schnell unterhalb einer HD 6870 wiederfinden.

Quelle : www.gulli.com
Titel: nVidia: GeForce GTX 560 SE neuer Konter zur Radeon HD 7770
Beitrag von: SiLæncer am 17 Februar, 2012, 18:15
(http://static.gulli.com/media/2012/02/thumbs/370/GTX560.jpg)
nVidia plant offenbar Grafikkarten mit teildeaktivierten GF114-Chips unter dem Namen GeForce GTX 560 SE in den Handel zu bringen. Mit immerhin 288 aktiven Shadereinheiten und einem Chiptakt von 776 MHz (1552 MHz Shader) zielt die Karte klar auf AMDs gerade veröffentlichte Radeon HD 7770. Diese hat sich Preislich mittlerweile bei gut 140 Euro eingependelt.

Nachdem AMDs neueste Grafikkarte Radeon HD 7770 trotz 1 GHz Chiptakt in Sachen 3D-Leistung zumindest zum von AMD empfohlenen Einführungspreis von 159 Euro nicht wirklich überzeugen konnte, plant die Konkurrenz von nVidia nun einen Konter auf Basis von teildeaktiverten GF114-Chips. Der GF114-Grafikprozessor ist die Basis der kompletten GeForce-GTX- 560-Serie mit Ausnahme einer Versionen mit 448 Shadereinheiten. Diese erst kürzlich eingeführte Karte mit dem Namen 560 Ti 448 (circa 230 Euro) basiert auf teildeaktivierten GF110-Chips, wie sie auch auf einer GTX 570 oder GTX 580 zu finden sind.

In Sachen 3D-Leistung sollte die "neue" Karte die Lücke zwischen der hauseigenen GTX 550Ti und GTX 560 schließen, die zur Zeit nur von alten GTX-460-Karten bedient wird. Damit liegt die Spieleleistung wohl etwas oberhalb von AMDs Radeon HD 7770. Auch preislich sollte die neue Karte in diese Lücke fallen, also zwischen 100 und 140 Euro kosten. Damit ist das Angebot auch preislich direkt gegen AMDs Neuerscheinung positioniert.

Wie schon bei AMDs neuen Modellen gilt jedoch, dass ein Kauf nur lohnt, wenn man nicht bereits eines der ähnlich schnellen Vorserienmodelle besitzt. So kann sich eine HD 7770 oder GTX 550Ti kaum von einer bereits zwei Jahre alten AMD Radeon HD 5770/6770 absetzen. Neuesten Gerüchten zufolge sollen die wirklich neuen nVidia Chips mit dem Codenamen "Kepler" frühestens im April erscheinen. nVidia beschwert sich auch über eine schlechte Ausbeute bei Auftragsfertiger TSMC. AMDs nächste Veröffentlichung wird die Radeon-HD-78xx-Serie, die das zur Zeit sehr große Loch zwischen 7770 und 7950 in der neuen Produktpalette schließen soll. Mit einer Veröffentlichung ist innerhalb der nächsten zwei Monate, wahrscheinlich Mitte März, zu rechnen.

Quelle : www.gulli.com
Titel: AMD: Radeon HD 7870 und HD 7850, Veröffentlichung zur CeBIT?
Beitrag von: SiLæncer am 20 Februar, 2012, 18:01
Dass AMD seine neue 3D-Mittelklasse im März ins Rennen schicken will, war bereits bekannt. So zeigte unter anderem eine Roadmap einen Releasetermin zum Ende des ersten Quartals. Fudzilla will nun aus eigenen Quellen erfahren haben, dass die Karten wahrscheinlich bereits in der ersten Märzwoche offiziell vorgestellt werden sollen - passend also zum Start der CeBIT die am 6.3. beginnt.

Zudem finden sich zunehmend mehr Quellen, die die bereits geleakten Spezifikationen bestätigen können. An sich scheinen diese auch durchaus stimmig, für AMD-GPUs Neuland und deshalb Grund für einige Disskusionen ist jedoch die Anzahl an Raster Operation Processoren (ROPs) in der neuen GPU. Diese sind maßgeblich für die Pixelfüllrate verantwortlich, die je nach Anwendung auch die Gesamtperformance einer Grafikkarte mit beeinflussen kann. Immerhin könnten sich die neuen Karten auch mit 24 ROPs dank eines höheren Chiptaktes (900 beziehungsweise 950 MHz) in diesem Punkt halbwegs auf dem Level der Vorgängergeneration mit 32 ROPs (HD 68x0/69x0) halten. So käme eine HD 7870 mit 950 MHz und 24 ROPs auf 22,8 GPixel/s, eine HD 6950 gewinnt hier trotz 32 ROPs mit einem Chiptakt von 800MHz (25,6 GPixel/s) nur knapp. Zudem ist der Einfluss der Pixelfüllrate auf die Gesamtperformance bei modernen Spielen wohl eher gering.

Die bisher geleakten Spezifikationen legen nahe, dass eine HD 7870 den direkten Vergleich mit einer HD 6970 oder nVidias Geforce GTX 570 nicht scheuen muss. So verfügt die neue Karte auf Basis der CGN-Architektur angeblich über 1408 1D Streamprozessoren, 88 TMUs (Texture Mapping Units), 24 ROPs und 2 Gigabyte GDDR5-Speicher (5,5 GHz Speichertakt), der über ein 256-Bit-Speicherinterface angebunden ist. Die schwächere HD 7850 muss mit 1280 1D-Steamprozessoren und 80 TMUs sowie einer auf 900 MHz reduzierten Taktfrequenz (5 GHz für den Speicher) auf etwas Power verzichten. Sie sollte jedoch immer noch gut mit einer HD 6950 konkurrieren können. Wie schon bei der HD 6950 soll auch die HD 7850 in zwei Versionen mit einem beziehungsweise zwei Gigabyte Videospeicher auf den Markt kommen.

Preise für die AMD Radeon HD 7870 und AMD Radeon HD 7850 Karten gibt es zur Zeit noch nicht. Ebenso fehlen Angaben zum Stromverbrauch. Nimmt man jedoch die sehr sparsamen anderen CGN-Karten zum Vergleich, sollte eine HD 7870 mit circa 160 Watt auskommen. Es wäre also denkbar, dass zumindest die etwas schwächere HD 7850 mit nur einem 6 Pin PCIe Stromstecker auskommen kann. Diese Konfiguration erlaubt einen maximalen Verbrauch von 150 Watt (75 Watt über den PCIe-6-Pin Zusatzstecker und 75 Watt über den PCI-Express-16*-Steckplatz des Mainboards). Preislich werden die neuen Karten wie schon bei der HD 7770 wahrscheinlich leicht oberhalb der vorhandenen HD 6950 bzw 6970 Karten positioniert, um einen Abverkauf nicht zu behindern. Zudem kann man vermuten, dass auch AMD unter den seitens nVidia beklagten 28nm-Fertigungsproblemen bei TSMC leidet.

Quelle : www.gulli.com
Titel: nVidia Geforce GTX 560SE: Relativ sparsam und schneller als HD 7770?
Beitrag von: SiLæncer am 28 Februar, 2012, 13:10
(http://static.gulli.com/media/2012/02/thumbs/370/GTX560.jpg)
Erste von einer chinesischen Website veröffentlichte Tests mit einer nVidia Geforce GTX 560 SE von Galaxy zeigen das erwartete Ergebnis: die Karte mit ihren 288 Shader-Einheiten liegt zwischen einer GTX 550Ti und der regulären GTX 560 (ohne SE). Damit befindet man sich knapp vor AMDs Radeon HD 7770.

Das wohl interessanteste Ergebnis der Tests: Die Gigabyte Geforce GTX 560 SE verbraucht unter mit Furmark erzeugter Vollast sogar 11 Watt weniger Energie als die schwächere GTX 550 Ti. Der Grund hierfür dürfte in der niedrigeren Taktfrequenz von nur 736 MHz liegen. Damit kann die GPU mit weniger Versorgungsspannung betrieben werden, was einen deutlichen Einfluss auf den Stromverbrauch hat. Der Verbrauch im idle sieht hingegen weniger gut aus, hier verliert die neue Karte sogar gegen die zum Vergleich herangezogene GTX 560. Der Grund für dieses Verhalten ist bisher nicht bekannt, im Prinzip sollte hier ein ähnlich niedriges Ergebnis zu erzielen sein. Bleibt also abzuwarten, ob die Ursache in Galaxys Bios und Platienenlayout zu finden ist oder auch bei anderen Herstellern auftritt. Insgesammt scheint die neue Karte auf Basis teildeaktivierter GF114 Chips genau als Konter zu AMDs "Cape Verde XT"-basierten Radeon-HD-7770-Grafikkarten entwickelt worden zu sein.

Auf der CeBIT gibt es dann mit etwas Glück weitere Informationen zu AMDs neuen, für Spieler wohl deutlich interessanteren HD 78x0-Modellen. Diese sollen in etwa das Leistungsniveau der alten HD-6950- beziehungsweise -6970-Karten erreichen, jedoch mit einem modernen Chip, besserem Texturfilter und niedrigerem Stromverbrauch. Mit nVidias neuen Karten ist nach wie vor erst ab April zu rechnen. Aktuelle Gerüchte sehen die zuerst erscheinende GTX 670Ti knapp vor einer Radeon HD 7950 oder GTX 580, was wiederum bedeuten würde, dass eine HD 7970 nicht erreicht werden kann. Die GTX 680 wird demnach wohl noch später in den Handel gelangen, sollte dann jedoch in der Lage sein, AMDs Radeon HD 7970 zu schlagen. Bis dahin hat AMD dann allerdings genug Zeit, entweder mit einem Dual-Chip-Design oder mit Takterhöhungen zu reagieren. Schließlich haben aktuelle HD-7970-Karten in Sachen Energieverbrauch und Taktbarkeit der GPUs durchaus noch Reserven.

Quelle : www.gulli.com
Titel: AMD Präsentationsfolien zeigen finale Spezifikationen von Radeon-HD-78x0-Karten
Beitrag von: SiLæncer am 03 März, 2012, 17:00
Bereits seit einiger Zeit geisterten angebliche Spezifikationen zu AMDs kommender Mittelklasse im Netz umher. Diese waren weitgehend richtig. Mit den auf einer japanischen Seite aufgetauchten Bildern von AMDs Präsentationsfolien sollten die Spektulationen nun ein Ende finden können.

Falsch war demnach wie bereits spekuliert die Anzahl an ROPs. Auch die vorhandenen Streamprozessoren fallen minimal geringer aus als angenommen und  die Taktraten waren nicht ganz korrekt. Interessante zusätzliche Information: Mit einer Typical Board Power von ~130 Watt sollte die HD 7850 wie bereits spekuliert mit einem einzelnen 6-Pin-Zusatzstecker auskommen. Die HD 7870 benötigt wohl nicht zuletzt wegen der mit 1 GHz hohen Taktrate wieder deutlich mehr Versorgungsspannung und bietet somit auch, wie schon zwichen HD 7850 und 7870 zu sehen, eine schlechtere Energieeffizienz. Ihre Typical Board Power liegt demnach immerhin bei 175Watt.

Hier ein Überblick der finalen Spezifikationen:

AMD Radeon HD 7850:

    Fertigungsprozess: 28nm
    Chiptakt: 860MHz
    Stream Prozessoren: 1024
    Compute Performance: 1.75TFLOPS
    TMUs: 64
    ROPs: 32
    Memory: 2GB GDDR5
    Memory Clock: 1200MHz (4,8GHz Effektiv)
    Typical Board Power: ~130 W (wahrscheinlich 1*6Pin PCIe)
    AMD ZeroCore Power: <3W

AMD Radeon HD 7870:

    Fertigungsprozess: 28nm
    Chiptakt: 1000MHz (GHz Edition wie HD 7770)
    Stream Prozessoren: 1280
    Compute Performance: 2,56TFLOPS
    TMUs: 80
    ROPs: 32
    Memory: 2GB GDDR5
    Memory Clock: 1200MHz (4,8GHz Effektiv)
    Typical Board Power: ~175W (wahrscheinlich 2*6Pin PCIe)
    AMD ZeroCore Power: <3W

Warten wir also, ob wir nächste Woche auf der CeBIT bereits erste Exemplare zu sehen bekommen und ob der Marktstart wirklich wie vermutet während oder zumindest kurz nach der CeBIT stattfindet. Auch sind wir gespannt, ob es ähnlich wie bei der Radeon HD 7770 bereits von Beginn an Eigendesigns der Boardpartner zu sehen geben wird. Erste OC-Edition-Karten der HD 7700 erreichten bereits von Beginn an Taktraten oberhalb von 1,1 GHz.

Quelle : www.gulli.com
Titel: Nvidias GeForce GTX 680 kommt am 22. März
Beitrag von: SiLæncer am 13 März, 2012, 19:20
(http://www.heise.de/imgs/18/7/8/5/8/0/8/ec240a2231539969.jpeg)
Die Firma Nvidia stellt ihre ersten Grafikkarten mit 28-Nanometer-Grafikchips am 22. März unter der Bezeichnung GeForce GTX 680 öffentlich vor. Ihre GPU namens Kepler soll 1536 Shader-Rechenkerne, 128 TMUs und 32 ROPs beherbergen. Über 256 Datenleitungen bindet die GPU 2 GByte GDDR5-Speicher an. Eine wesentliche Neuerung ist eine Art Turbo-Modus für den Grafikchip, das sogenannte Dynamic Clocking oder Dynamic Clock Adjustment. Kepler-Grafikkarten können ihre GPU-Taktfrequenz im laufenden Betrieb automatisch anheben, bis sie an den Grenzwert ihrer Leistungsaufnahme oder des im Grafik-BIOS festgelegten 3D-Maximaltakt stossen. Zum Marktstart soll es zunächst keine herstellerseitig übertakteten Grafikkarten geben.

Inzwischen sind auf der Webseite Chiphell erste Bilder einer vermeintlichen GeForce GTX 680 aufgetaucht. Sie zeigen, dass die Karte zwei sechspolige Stromanschlüsse besitzt und damit bis zu 225 Watt aufnehmen darf. Im 3D-Betrieb soll der GK104 vergleichsweise sparsam arbeiten. Gerüchten zufolge will Nvidia die GeForce GTX 680 für 549 US-Dollar verkaufen, die ersten Herstellermodelle sollen auf Nvidias Referenzdesign setzen. Im Vorfeld der anstehenden Produkteinführung fallen die Preise einiger Karten mit GeForce GTX 580 zurzeit deutlich.

Später folgt der besonders sparsame GK107-Chip, der wohl auch in zukünftigen Ultrabooks Einzug halten soll. Er soll 384 Kerne und 64 Textureinheiten beherbergen und den Speicher über 128 Datenleitungen anbinden.

Quelle : www.heise.de
Titel: Abgespeckte GeForce GTX 560 SE für 120 Euro
Beitrag von: SiLæncer am 17 März, 2012, 14:03
(http://www.heise.de/imgs/18/7/8/7/5/9/9/f1c6c0de726f51fd.jpeg)
Von Nvidias DirectX-11.0-Grafikkarte GeForce GTX 560 gibt es nun auch eine abgespeckte Version: die GeForce GTX 560 SE. Ihr GF114-Grafikchip beherbergt nur 288 statt 336 Shader-Rechenkerne. Eine GeForce GTX 560 Ti bietet sogar 384, ist aber auch 50 Euro teurer. Die GPU wird im 40-Nanometer-Verfahren hergestellt und erfüllt im Unterschied zu Nvidias zukünftigen Kepler-Grafikkarten GeForce GTX 600 und AMDs neuer 7000er-Serie nicht alle Anforderungen der zukünftigen Microsoft-Schnittstelle DirectX 11.1. Die neue Version soll mit Windows 8 in der zweiten Hälfte des Jahres ihr Debut feiern.

Auch beschnitten wurde die Speicheranbindung: So kommuniziert die GPU nur über 192 statt 256 Datenleitungen. Bei Gainwards, Palits und Zotacs Modellen arbeitet der 1 GByte fassende GDDR5-Speicher etwa mit 1914 MHz Read-Write-Clock. Der Grafikchip der Zotac-Karte läuft mit 736 MHz, Gainward und Palit lassen ihn um 10 MHz langsamer arbeiten. Die 3D-Leistung reicht aus, um viele Spiele noch in der Full-HD-Auflösung laufen zu lassen. Bei modernen Titeln wie Battlefield 3 muss man die Detailstufe und die Kantenglättungseinstellungen aber deutlich reduzieren.

Wie die anderen GTX-560-Modelle besitzen auch die SE-Versionen eine Videoeinheit, die den Hauptprozessor beim Abspielen hochaufgelöster Videos entlastet und sogar stereoskopische Blu-rays abspielen kann. Bis zu zwei Displays lassen sich mit der GTX 560 SE gleichzeitig ansteuern. Mit noch mehr Bildschirmen können derzeit nur AMDs Radeon-Grafikkarten der Familien HD 5000, HD 6000 und HD 7000 umgehen. Doch Nvidia wird mit der GTX-600-Serie in Kürze nachziehen und bis zu vier Displays pro Karte erlauben. Die GeForce GTX 560 SE ist ab 120 Euro erhältlich.

Quelle : www.heise.de
Titel: nVidia veröffentlicht GeForce GTX 680
Beitrag von: SiLæncer am 22 März, 2012, 16:22
(http://www.heise.de/imgs/18/7/9/0/1/9/4/4365180922a09e32.jpeg)
Die Firma Nvidia stellt heute ihre erste High-End-Grafikkarte mit 28-Nanometer-Grafikchip vor: die GeForce GTX 680. Sie tritt in Konkurrenz zur seit Januar erhältlichen Radeon HD 7970 von AMD und unterstützt ebenfalls PCI Express 3.0. In Spielen bringt das im Vergleich zu PCIe 2.0 allerdings keinen Performance-Vorteil.

Auf der zu DirectX 11.1 kompatiblen Grafikkarte sitzt Nvidias Grafikchip GK104. Der aus 3,5 Milliarden Transistoren bestehende und 294 mm² große Chip enthält insgesamt 1536 Shader-Rechenkerne, also dreimal so viele wie die GF110-GPU des bisherigen Spitzenmodells GeForce GTX 580. Im Unterschied zu den bisherigen Nvidia-GPUs arbeiten beim GK104 alle Funktionseinheiten gleich schnell, nämlich mit genau 1006 MHz (1,006 GHz). Außerdem beherbergt die GPU noch 128 Textureinheiten und 32 Rasterendstufen. Aufwendige Tessellation-Berechnungen sollen laut Nvidia nun viermal schneller ablaufen. Insgesamt 2 GByte GDDR5-Speicher bringt die GeForce GTX 680 mit. Er kommuniziert über 256 Datenleitungen mit der GPU. Der hohe Speichertakt von 3004 MHz sorgt für eine Datentransferrate von 192 GByte/s – das reicht auch für sehr aufwendige Spiele in hohen Auflösungen samt Kantenglättung aus.

Als erster Hersteller führt Nvidia eine automatische und nicht deaktivierbare Turbo-Technik für den Grafikchip ein. Sofern die GPU in Spielen nicht an die Leistungsaufnahmegrenze von 195 Watt (TDP) stößt, übertaktet sie sich laut Nvidia dynamisch auf bis zu 1058 MHz. In der Praxis erhöhte sich die Taktfrequenz unserer Asus GeForce GTX 680 aber auf bis zu 1097 MHz, etwa während des DirectX-11-Benchmarks 3DMark 11. Eine andere Karte ging auf bis zu 1110 MHz. 1059 MHz scheint also nur der von Nvidia im Referenzdesign garantierte Turbo-Wert zu sein, je nach individueller Leckleistung der jeweiligen GPU kann er auch höher ausfallen. Der Käufer muss also auch etwas Glück haben oder auf handverlesene Exemplare setzen, die der ein oder andere Hersteller wahrscheinlich anbieten wird. Bezogen auf die nominelle Taktfrequenz liegen die Unterschiede des Turbo-Taktes freilich bloß im einstelligen Prozentbereich, sind also nur in seltenen Situationen relevant.

(http://www.heise.de/imgs/18/7/9/0/1/9/4/3ad75aed9363aa94.jpeg)
Die GeForce GTX 680 bietet genügend 3D-Performance, um auch die modernsten DirectX-11-Spiele mit maximaler Detailstufe, Kantenglättung und in sehr hoher Auflösung ruckelfrei ablaufen zu lassen. Auch für Supersampling-Kantenglättung hat sie noch genug Power. Im Vergleich mit AMDs Radeon HD 7970 ist Nvidias GeForce GTX 680 meistens schneller, manchmal sogar deutlich. Im 3DMark 11 erreicht die GeForce 8772 Punkte (Performance-Voreinstellung) und damit rund 15 Prozent mehr als die AMD-Konkurrenz (7579). Im Extrem-Modus liegt Nvidia sogar noch einen Tick weiter vorn (3152 zu 2690), auch dank Turbo.

In Spielen kann die GeForce GTX 680 diesen Vorsprung nicht immer halten, hier und da ist sogar eine Radeon HD 7970 schneller, etwa in Anno 2070, Metro 2033 (beide bei 2560×1600) und Dirt 3 (Full HD). Anno 2070 zeigte im Test mit dem aktuellen Treiber starke Texturfehler. Deutlich ist der Vorsprung bei Battlefield 3 und Batman Arkham City (jeweils rund 17 Prozent). Im Tessellation-Benchmark Unigine Heaven liegt die GTX 680 rund 7 Prozent vor einer HD 7970, im OpenGL-4-Modus wegen des noch immer verhunzten Radeon-Treibers bereits um ein Drittel. Viel Übertaktungsspielraum bot unsere Karte nicht: es war bereits bei 110 MHz mehr GPU-Takt Schluss Das könnte auch am Turbo-Takt liegen, der sich im festen Verhältnis zum Standard-3D-Takt erhöht.

Außer mit sehr guter Performance überrascht die GeForce GTX 680 mit ihrer Leistungsaufnahme – im positiven Sinne. Denn sowohl im Leerlauf (14 Watt) als auch in Spielen (164 Watt) ist sie sparsamer als AMDs Radeon HD 7970 (17/198 Watt). Beim Arbeiten unter Windows bleibt ihr Kühlsystem außerdem mit 0,2 Sone sowohl im Einschirm- als auch Multimonitor-Betrieb (46 Watt) sehr leise, in Spielen ist sie hörbar (1,7 Sone).

Nvidia verlangt für die Karte rund 500 Euro. Sie soll ab sofort erhältlich sein.

Quelle : www.heise.de
Titel: nVidia: Zwei neue Grafikkarten für Komplett-PCs veröffentlicht
Beitrag von: SiLæncer am 04 April, 2012, 13:10
(http://static.gulli.com/media/2012/04/thumbs/370/500px-NVidia-new-Logo.jpg)
Mit der GeForce GT 620 und der GeForce 605 bietet nVidia zwei neue Grafikkarten für den OEM-Markt an. Zum Spielen sind die Karten allerdings nur bedingt geeignet, beide Modelle verfügen lediglich über 48 CUDA-Cores (nVidias Marketingbegriff für Stream-Prozessoren) und eine 64-Bit-Speicheranbindung.

Bei den beiden neuen Modellen handelt es sich allerdings, wie schon öfter gerade im Einsteiger- und OEM-Markt zu beobachten, nur um umbenannte Karten der Vorgängergeneration. So bietet die GeForce 620 die selben Rahmendaten wie der direkte Vorgänger GT 520, verzichtet allerdings sogar auf die Hälfte des Videospeichers. Noch härter hat es die GeForce 605 getroffen. Bei dieser handelt es sich um eine umbenannte Geforce 510, die jedoch nur noch halb so viel Grafikspeicher und satte 287 MHz weniger GPU-Takt bietet. Während die GeForce GT 520 und GeForce 510 mit einer TDP von 29 Watt vermarktet wurden, besitzen die beiden neuen Modelle eine TDP von 30 beziehungsweise 25 Watt. Das Einsatzgebiet der beiden "Neuerscheinungen" dürfte sich im wesetlichen im Bereich der Office- und HTPCs bewegen. Auch in einigen Supermarkt-PCs könnten die Modelle durchaus zu finden sein. Einen wirklichen Vorteil gegenüber Intels HD-Grafik in der Aktuellen Form bieten die Karten hierbei allerdings kaum. AMDs Llano-APUs bleiben Dank der bescheidenen Hardwareausstattung der Karten ohnehin außer Reichweite.

Dass nVidia, ähnlich wie Konkurrent AMD in diesem Marktsegment, kein Geld mehr in echte Neuentwicklungen steckt, erklärt sich durch die zunehmende Konkurrenz der immer stärker werdenden integrierten Grafikeinheiten. Sowohl Intels kommende HD-4000-Lösung der neuen Ivy-Bridge-Prozessoren (erhältlich ab dem 29. April) als auch AMDs bereits seit einiger Zeit erhältliche Llano-APUs besitzen bereits Grafikeinheiten, die schwächere Grafikkarten in Preisbereichen bis circa 50 Euro komplett überflüssig machen. Es ist also absehbar, dass eine separate Grafikkarte in naher Zukunft nur noch für Spiele- oder Render-Interessierte Kunden interessant sein wird. Passende, leistungsstarke Grafikkarten finden sich jedoch fast immer erst oberhalb der 100-Euro-Marke. Für den normalen Bedarf in Sachen Full-HD-Video-Playback und Multi-Monitor-Betrieb schwindet der Nutzen einer separaten Grafikkarte jedoch zusehens. So können die neuesten Integrierten Grafiklösungen von Intel und AMD bereits vollkommen problemlos HD-Videos abspielen, bieten Hardwarebeschleunigung für den Browser und können sogar zwei oder drei Bildschirme parallel ansteuern. Sogar einfache Spiele stellen mittlerweile kein ernsthaftes Problem mehr dar.

Die technischen Daten der beiden neuen Karten im Überblick:

nVidia GeForce GT 620

    GPU Takt: 810MHz
    Shader Takt: 1620MHz
    Shader Einheiten:48
    Speicheranbindung: 64bit DDR3
    Speichergroße: 512-1024MB
    Speichertakt: bis zu 898MHz
    TDP: 30Watt

nVidia GeForce 605

    GPU Takt: 523MHz
    Shader Takt: 1026MHz
    Shader Einheiten:48
    Speicheranbindung: 64bit DDR3
    Speichergroße: 512-1024MB
    Speichertakt: bis zu 898MHz
    TDP: 25Watt

Quelle : www.gulli.com
Titel: Preissenkungen bei AMDs Radeon HD 7900
Beitrag von: SiLæncer am 16 April, 2012, 19:20
(http://www.heise.de/imgs/18/8/2/3/3/0/5/27d3b769c58fcd10.jpeg)
AMD senkt die Preise seiner High-End-Grafikkarten der Familie Radeon HD 7900 deutlich. Das Flaggschiff Radeon HD 7970 soll laut offizieller Preisempfehlung nun für 479 US-Dollar statt bisher 549 US-Dollar verkauft werden, die etwas schwächere Radeon HD 7950 nur noch 399 statt 449 US-Dollar kosten. Auch der Preis der Radeon HD 7770 sinkt geringfügig auf 139 US-Dollar. AMD wies darauf hin, dass man die genauen Euro-Preissenkungen noch bekannt geben wolle.

In den deutschen Preissuchmaschinen sind die Änderungen schon nachvollziehbar. So gibt es die Radeon HD 7970 bereits ab rund 410 Euro zu kaufen, die HD 7950 ab zirka 360 Euro. Außerdem startet AMD zumindest in den USA die Aktion "Three for Free": Wer bis zu dem 30. April eine Radeon HD 7950 oder HD 7970 kauft, soll die Spiele Dirt Showdown, Deus Ex Human Revolution und Nexuiz kostenlos erhalten. AMD konnte uns allerdings noch nicht bestätigen, ob die Aktion auch für Deutschland gilt.

Nvidias Konkurrenzentwurf zur Radeon HD 7970 – die GeForce GTX 680 – gibt es ab 475 Euro zu kaufen, eine 28-nm-Konkurrenz zur Radeon HD 7950 bietet Nvidia noch nicht. Gerüchten zufolge soll sich das frühestens Ende des Monats mit der GeForce GTX 670 ändern.

Quelle : www.heise.de
Titel: Re: Preissenkungen bei AMDs Radeon HD 7900
Beitrag von: Snoop am 16 April, 2012, 21:31
Leider nicht die 7850 ... auf die schiele ich :D
Titel: GTX-670 oder 690: Nvidia kündigt irgendeine Grafikkarte an
Beitrag von: SiLæncer am 19 April, 2012, 12:43
"It's coming" - mehr als das und ein kleines Bild gibt Nvidia zu seinem nächsten Produkt nicht preis. Das reicht jedoch, um die Spekulationen anzuheizen. Bei der zweiten Grafikkarte nach der GTX-680 kann es sich nur um eines von drei möglichen Modellen handeln.

Auf seiner Facebook-Seite hat Nvidia wieder einmal seine Hackfleischtaktik angewandt: Eine kleine Andeutung reicht, um wieder ins Gespräch zu kommen. Diesmal gibt es - wie schon bei der GTX-480 - erstmal ein kleines Bild. Das ist mit 12,6 Kilobyte für 851 x 315 Pixel stark komprimiert, um Details zu verschleiern.

(http://scr3.golem.de/screenshots/1204/Nvidia-Ankuendigung/thumb620/Nvidia-Gamma.png)

Wenn man den Gamma-Faktor des Fotos in einem Bildbearbeitungsprogramm um den Wert 3,0 erhöht, zeigt sich auch, dass die Grafik stark bearbeitet wurde. Was im Original auf den ersten Blick nach einem Kühlkörper in der oberen Bildhälfte und einem Lüfter in der unteren aussieht, kann alles Mögliche sein. Diese Bildteile wurden nämlich ganz offensichtlich freigestellt oder der Kontrast so weit erhöht, dass der Rest in sattem Schwarz erscheint. Die Suche nach Metadaten wie EXIF-Informationen erübrigt sich natürlich auch, sie sind nicht vorhanden.

Damit sagt Nvidia nur, dass es demnächst irgendein neues Produkt vorstellen will. Wie aus der Grafikbranche aber zu hören ist, können damit nur drei Modelle gemeint sein. Zum einen eine GTX-670, die auf einer abgespeckten GPU GK104 basiert. Jener Chip treibt auch die GTX-680 an, welche die Radeon HD 7970 in vielen Tests schlägt. Da AMD aber schon die Radeon HD 7990 mit zwei Grafikprozessoren angekündigt hat, ist auch eine GTX-690 mit ebenfalls zwei GPUs wahrscheinlich.

Als GTX-670M soll schließlich auch bald eine neue mobile GPU von Nvidia erscheinen. Intels Marktstart der ersten Ivy-Bridge-CPUs, der für den kommenden Montag, den 23. April 2012 erwartet wird, wäre dafür ein guter Termin.

Quelle : www.golem.de
Titel: AMD: Neue Mobil-Grafikkarten bereits ab morgen?
Beitrag von: SiLæncer am 23 April, 2012, 13:06
Auf der Investoren-Konferenz hatte AMDs CEO Rory Read bekannt gegeben, dass AMD in Kürze neue Grafikkarten für den Mobile-Markt anbieten will. Die neuen GPUs basieren auf der Southern-Islands-Architektur und sollen wie üblich im 28nm-Fertigungsverfahren bei TSMC hergestellt werden.

Im Wesentlichen handelt es sich jedoch um umbenannte und niedriger getaktete Chips der Desktop-Grafikkarten. So wandert die "Pitcairn"-GPU, die sich auf AMD-Radeon-HD-7850- und -7870-Grafikkarten im Desktop-Segment findet, unter dem Namen AMD Radeon HD 7900M mit dem Codenamen "Thames", höchstwahrscheinlich mit deutlich gesenkten Taktraten und Spannungen, ins Mobile-Segment.  Der von AMDs Radeon-HD-7700-Serie bekannte "Cape Verde"-Chip wandert in die neue HD-7800M-Serie, wird hier jedoch sicherlich nicht mit einem GHz getaktet. Die Modellserien Radeon HD 7600M und Radeon HD 7700M sollen derweil von "Trinity"-APUs und deren integrierten Grafiklösungen abgedeckt werden. Eine Veröffentlichung könnte bereits am 24. April, also am morgigen Dienstag, stattfinden.

Die Radeon HD 7970M hat gute Chancen, zumindest vorerst den Titel der schnellsten mobilen Grafikkarte einzusammeln. Ernsthafte Konkurrenz kommt seitens nVidia in Form der GTX 670M beziehungsweise GTX 680M. Beide Karten sind jedoch noch nicht erhältlich. Entschieden wird das Duell wohl im wesentlichen durch die innerhalb der verfügbaren Leistungsaufnahme möglichen Taktraten. Angesichts der sehr effizienten "Kepler"-GPU, die bereits auf der nVidias GeForce GTX 680 mit einer hohen Spieleleistung bei vergleichsweise geringem Verbrauch überzeugte, stehen die Chancen nicht schlecht, dass nVidia auch die mobile Leistungskrone bei Verfügbarkeit der GeForce GTX 680M wieder einsammelt.

Für die meisten Kunden wohl deutlich Interessanter sind jedoch die "Trinity"-APUs, die laut Blogpost eines AMD-Mitarbeiters bereits an diverse Laptop-Hersteller ausgeliefert wurden. Erst die ersten Modelle sollten also in Kürze erhältlich sein. "Trinity" stellt in Sachen CPU-Leistung zwar keine ernsthafte Alternative zu Intels neuen "Ivy Bridge"-Mobil-CPUs dar, besitzt jedoch eine recht potente integrierte GPU, die durchaus stark genug sein dürfte, Titel wie das kommende Diablo 3, Counterstrike Global Offensive oder StarCraft 2 spielbar wiederzugeben.

Quelle : www.gulli.com
Titel: AMD: Radeon HD 7970M vorgestellt, deutlich schneller als GTX 675M
Beitrag von: SiLæncer am 24 April, 2012, 13:01
Mit 1280 Streamprozessoren und 850 MHz ist die mobile AMD Radeon HD 7970M circa 15 Prozent langsamer als eine auf der selben GPU basierende AMD Radeon HD 7870 für den Desktop-Markt. Das reicht immerhin, um nVidias aktuell schnellste Mobilkarte GTX 675M deutlich zu schlagen.

So erreicht AMDs neue Karte laut Präsentationsunterlagen von AMD durchschnittlich 65,9 fps in Battlefield 3 - ein beachtliches Ergebnis in Anbetracht der gewählten Einstellungen mit "Full-HD"-Auflösung (1920*1080 Pixel), "High Quality"-Preset und FXAA auf "High". nVidias mobile GTX 675M schafft es bei gleichen Einstellungen auf knappe 40 fps - ein vorsprung von 66% für AMDs Mobilkarte also. Im 3DMark Vantage verspricht AMD einen Performance Score von P22.800 Punkten gegenüber P15.500 Punkten mit nVidias schnellster aktueller Mobilkarte; bei diesen Ergebnissen muss man jedoch berücksichtigen, dass beide Karten auf einer Plattform mit Intels "Core i7 2600k"-Desktop-Prozessor getestet wurden. Mobile CPUs bieten weniger Performance, was die Testergebnisse beider Karten negativ beeinflussen dürfte.

Die weiteren neuen Mobilkarten von AMD sollten ebenfalls in den nächsten Tagen in verschiedenen neuen Laptopmodellen erhältlich sein; namentlich handelt es sich dabei um die HD-7800M- und HD-7700M-Serie. Die ebenfalls in Kürze erwarteten Trinity-APUs decken mit ihrer integrierten Grafikeinheit die HD-7600M-Serie und weitere Teile der HD-7700M-Serie ab. Bisher sind die techischen Daten zu drei neuen AMD-Mobil-Grafikkarten bekannt.

Die neuen AMD-Mobilkarten im Überblick:

Radeon HD 7970M:

    Core Name: "Wimbledon"
    Stream Prozessoren: 1280
    Chiptakt: 850MHz
    Memory: 2GB GDDR5
    Memory Interface: 256Bit
    Memory Clock: 4,8GHz Effective
    Performance: circa 15% langsamer als HD 7870 Desktop

Radeon HD 7870M:

    Core Name: "Heathrow"
    Stream Prozessoren: 640
    Chiptakt: 800MHz
    Memory: 2GB GDDR5
    Memory Interface: 128Bit
    Memory Clock: 4,0GHz Effective
    Performance: circa 20% langsamer als HD 7770 Desktop

Radeon HD 7770M:

    Core Name: "Chelsea"
    Stream Prozessoren: 512
    Chiptakt: 675MHz
    Memory: 2GB GDDR5
    Memory Interface: 128Bit
    Memory Clock: 4,0GHz Effective
    Performance: circa 18% langsamer als HD 7750 Desktop

Quelle : www.gulli.com
Titel: nVidia: Neue OEM-Grafikkarten mit verwirrenden Produktnamen
Beitrag von: SiLæncer am 25 April, 2012, 13:28
Nachdem nVidia bereits mobile Karten der GeForce GT600 Serie angekündigt und einige Einsteigerkarten im Desktop- und Mobil-Markt umbenannte, folgt nun eine neue Produktpalette für OEM-Kunden. Diese besteht aus insgesamt fünf neuen Grafikkarten, die sich allerdings nur drei Bezeichnungen teilen müssen.

Werfen wir also einen Blick auf die Grafikkarten, die sich unter anderem in künftigen Discounter-PC-Angeboten wiederfinden werden. Das Erste, das bei der neuen Produktpalette direkt auffällt: nVidia vermarktet gleich drei verschiedene Garfikkarten unter dem namen nVidia GeForce GT 640. Es ist also nicht möglich, auf den ersten Blick zu erkennen, um welche Grafikkarte es sich genau handelt. Erst nach genauerem Hinsehen ergeben sich die Unterschiede der drei Versionen. Fraglich, ob die benötigten Informationen auch in allen bunten Werbeflyern enthalten sind.

So gibt es eine GT 640 auf "Kepler"-Basis, die allerdings mit lahmem DDR3-Speicher auskommen muss. Die daraus resultierende Speicherbandbreite macht diese Karte zumindest für aktuelle Spiele in hohen Auflösungen ungeeignet. Die zweite Version der GT 640 besitzt eine ältere "Fermi"-basierte GPU, weniger Stream-Prozessoren (vom nVidia-Marketing auch CUDA Cores genannt) und muss ebenfalls mit lahmem-DDR3 Speicher auskommen. Die dritte Version setzt auf eine "Kepler"-basierte GPU, bietet allerdings mit 950 MHz deutlich mehr Chiptakt und benutzt zudem GDDR5-Speicher. Mit dieser Kombination dürfte die Karte duraus geeignet sein, aktuelle Spiele in hohen Details flüssig wiederzugeben. Warum nVidia dieses Namens-Wirrwarr startet, bleibt wohl ein Geheimnis. Für den Kunden bleibt jedoch nur der Blick auf die Speicherausstattung: Die Versionen mit DDR3-Speicher sollte man nach Möglichkeit meiden. Eine GT 640 in der Version mit GDDR5-Speicher könnte durchaus auch für Spiele-interessierte Kunden einen Blick wert sein.

Die neu angekündigkten OEM-Karten im Überblick:

nVidia GeFore GT 630 (OEM):

    Architektur: "Kepler"
    Streamprozessoren: 384
    GPU Takt: 875 MHz
    Shader Takt: 875 MHz
    Speicher: 1 oder 2 GB DDR3
    Speicherinterface: 128 Bit
    Speicherbandbreite: 28,5 GB/s
    Maximum Board Power (Watt): 50

nVidia GeFore GT 640 (OEM):

    Architektur: "Kepler"
    Streamprozessoren: 384
    GPU Takt: 797MHz
    Shader Takt: 797MHz
    Speicher: 1 oder 2 GB DDR3
    Speicherinterface: 128Bit
    Speicherbandbreite: 28,5GB/s
    Maximum Board Power (Watt): 50

nVidia GeFore GT 640 (OEM):

    Architektur: "Fermi"
    Streamprozessoren: 144
    GPU Takt: 720MHz
    Shader Takt: 1440MHz
    Speicher: 1,5 oder 3GB DDR3
    Speicherinterface: 192 Bit
    Speicherbandbreite: 43 GB/s
    Maximum Board Power (Watt): 75

nVidia GeFore GT 640 (OEM):

    Architektur: "Kepler"
    Streamprozessoren: 384
    GPU Takt: 950 MHz
    Shader Takt: 950 MHz
    Speicher: 1 oder 2 GB GDDR5
    Speicherinterface: 128 Bit
    Speicherbandbreite: 80 GB/s
    Maximum Board Power (Watt): 75

nVidia GeFore GT 645 (OEM):

    Architektur: "Fermi"
    Streamprozessoren: 288
    GPU Takt: 776 MHz
    Shader Takt: 1552 MHz
    Speicher: 1 GB GDDR5
    Speicherinterface: 192 Bit
    Speicherbandbreite: 91,9  GB/s
    Maximum Board Power (Watt): 140

Quelle : www.gulli.com
Titel: GeForce GTX 690: Nvidia lässt Kepler-Flaggschiff vom Stapel
Beitrag von: SiLæncer am 30 April, 2012, 16:55
Nvidia hat am Wochenende mit der Ankündigung des neuen Grafikkarten-Flaggschiffs GeForce GTX 690 überrascht, auf der zwei Kepler-Chips sitzen. Die insgesamt 3072 Shader-Kerne arbeiten mit 915 MHz etwas langsamer als bei der Single-Chip-Karte GeForce GTX 680 (1006 MHz). Per Boost-Funktion können sie dynamisch auf bis zu 1019 MHz hochtakten. Den GK104-GPUs stehen jeweils 2 GByte GDDR5-Speicher zur Seite, der über 256 Datenleitungen an die Chips angebunden ist. Die Speichertaktfrequenz der GeForce GTX 690 belässt Nvidia auf dem Niveau der GTX 680 von knapp über 3 GHz.

(http://www.heise.de/imgs/18/8/3/2/5/5/3/b5a7a1bf47c33636.jpeg)
Nach Herstellerangaben beträgt die Thermal Design Power der PCIe-3.0-Grafikkarte 300 Watt. Über den PEG-Slot und die beiden 8-poligen Stromstecker kann sie bis zu 375 Watt elektrische Leistung beziehen. Entsprechend groß ist das Kühlsystem dimensioniert: Auf den GPUs sitzen zwei Vapor-Chamber-Kühler, die die Abwärme zu den Kühllamellen transportieren. Zwischen die Lamellenpakete platziert Nvida einen Axiallüfter.

Monitore lassen sich an drei Dual-Link-DVI-Buchsen und per Mini-DisplayPort (Version 1.2) anschließen. Für die momentan leistungsfähigste Grafikkarte muss man tief ins Portmonee greifen. Die GeForce GTX 690 kostet rund 900 Euro, soll in kleinen Dosen ab 3. Mai und wenige Tage später auch in größeren Stückzahlen erhältlich sein. Konkurrent AMD wird wohl in Kürze nachziehen und die Grafikkartenserie Radeon HD 7000 um das Dual-GPU-Modell Radeon HD 7990 erweitern.

Quelle : www.heise.de
Titel: nVidia Geforce GTX 660 Ti: Neue Mittelklasse erst im dritten Quartal?
Beitrag von: SiLæncer am 02 Mai, 2012, 18:15
Nach der Ankündigung und Präsentation der extrem teuren Dual-GPU-Karte GeForce GTX 690 für knapp 1000 US-Dollar und dem kurz bevorstehenden Start der GeForce 670 in den nächsten Wochen gibt es Berichte, dass sich die für Gamer interessanten Modelle der GeForce-GTX-660-Serie bis ins dritte Quartal verzögern werden.

So soll nVidias neue Mid-Range-Grafikkarte GeForce 660Ti als Nachfolgemodell der sehr erfolgreichen GeForce 560Ti erst in circa einem halben Jahr, also sogar am Ende des dritten Quartals, erhältlich sein. Viel Zeit also für AMD, mit der Radeon-HD-7800-Serie Geld zu verdienen. nVidia reagiert vorerst wohl nur mit vorsichtigen Preissenkungen für die auslaufenden GeForce-GTX-500-Modelle. Diese sind im Handel bereits zu sehen. So ist der Preis für eine Geforce GTX 580 bereits auf circa 360 Euro gefallen. Eine GTX 570 kostet aktuell noch circa 230 Euro. Das ist in etwa die Preisregion, die später von der neuen GeForce GTX 660 Ti angepeilt wird.

Als relativ sicher gilt, dass auf der GeForce GTX 660Ti ein teildeaktivierter GK104-Grafikchip zum Einsatz kommen wird. Während nVidia das High-End-Segment also mit der GeForce GTX 670, GeForce GTX 680 und der Dual-GPU-Karte GeForce GTX 690 bald mit insgesamt drei neuen Modellen versorgen kann und der OEM-Markt bereits mit günstigen neuen Karten versorgt wurde, fehlen in der neuen Produktpalette vorerst alle Angebote für den wichtigen mittleren Preisbereich zwichen 100 und 300 Euro. Informationen zur GeForce-GTX-650-Serie und einer GTX 660 ohne Ti-Kürzel sind zudem bisher sehr dünn gesäht; ein weiteres Zeichen, dass ein Release wohl noch länger auf sich warten lassen wird.

Die wahrscheinlichen technischen Daten einer GeForce 660 Ti:

    CUDA-Cores: 1152
    TMUs: 96
    ROPs: 24
    Basis-Takt: 1006 MHz
    Speicher-Takt: 6008 MHz effektiv
    Speicher: 1536 MB GDDR5
    Speicher-Interface: 192-bit
    Single-Precision Computing power: 2.35 TFLOPS
    TDP: circa 150 W
    Geschätzter Einführungspreis: $249

Quelle : www.gulli.com
Titel: Nvidia GeForce GTX 670: Pixel-Geschoss für Spieler
Beitrag von: SiLæncer am 10 Mai, 2012, 19:00
(http://www.heise.de/imgs/18/8/3/8/6/4/6/f8780f7cb8a0fc60.jpeg)
Nvidia präsentiert mit der zu DirectX 11.1 kompatiblen GeForce GTX 670 die kleine Schwester seines im März vorgestellten und rund 10 Prozent schnelleren Single-GPU-Flaggschiffs GeForce GTX 680. Auch die GTX 670 setzt auf eine im 28-Nanometer-Verfahren gefertigte GK104-GPU, bei der allerdings nur sieben statt acht SMX-Rechenblöcke aktiv sind. Insgesamt enthält sie also 1344 Shader-Rechenkerne und 112 Textureinheiten, um die 3D-Engines moderner Spiele zu beschleunigen. Sie laufen mit 915 MHz und dürfen sich laut Spezifikation auf bis zu 980 MHz übertakten, sofern die von Nvidia vorgegebene Leistungsaufnahmegrenze nicht überschritten wird. Unsere Referenzkarte erreichte in manchen Spielen sogar bis zu 1045 MHz Turbo-Takt.

(http://www.heise.de/imgs/18/8/3/8/6/4/6/a05c28eea1428817.jpeg)
Anbindung und Taktfrequenz des 2 GByte fassenden GDDR5-Speichers belässt Nvidia auf GTX-680-Niveau. Er läuft mit 3004 MHz, kommuniziert über 256 Datenleitungen mit der GPU und erreicht somit eine Datentransferrate von 192 GByte/s. Das genügt für sämtliche modernen Spiele und Einschirmauflösungen. Und selbst im Multimonitorbetrieb, den die Karte in Spielen mit bis zu drei Full-HD-Displays gleichzeitig beherrscht, geht sie erst im Zusammenspiel mit Supersampling-Kantenglättung in die Knie.

In 3DMark 11 erreicht die GeForce GTX 670 knapp 8100 Punkte, eine GeForce GTX 680 noch fast 10 Prozent mehr. AMDs Radeon HD 7950 liegt abgeschlagen bei 6651 Punkten und selbst die HD 7970 kommt nicht an dieses Ergebnis heran (7639). In Spielen muss sich eine Radeon HD 7950 zwar ebenfalls geschlagen geben, liegt aber meist nicht so weit zurück, wie es der 3DMark vermuten ließe. Bei den Anno-Titeln 1404 und 2070, Dirt 3 sowie Metro 2033 ist die GTX 670 in Full HD rund 10 Prozent schneller als eine HD 7950. Bei noch höheren Auflösungen nähern sich beide Karten an. Bei den derzeitigen Top-Titeln Batman Arkham City und Battlefield 3 zeigt Nvidia, was in ihrem Treiberteam steckt – hier erreicht die GTX 670 zwischen 20 und 30 Prozent höhere Bildraten als die 7950. Dann muss sich meist sogar AMDs Topmodell Radeon HD 7970 geschlagen geben.

(http://www.heise.de/imgs/18/8/3/8/6/4/6/4558acd0f1fc56dc.jpeg)
Die Leistungsaufnahme ist für die gebotene Performance dank der 28-Nanometer-Chips und der effizienten Kepler-Architektur vergleichsweise gering. Im Leerlauf schluckt die GeForce GTX 670 15 Watt und säuselt mit 0,3 Sone, bei Spielen verheizt sie durchschnittlich 141 Watt. Der Radiallüfter ist dann hörbar (1,5 Sone), stört aber nicht. Im Vergleich mit einer Referenz-HD-7950 ist sie in Spielen ähnlich laut.

Die GeForce GTX 670 bringt auch die moderne MSDEC-3-Videoeinheit sowie den Hardware-Video-Transcoder NVENC für das H.264-Format mit. Sie wird unter anderen von den Herstellern ASUS, EVGA, Gainward, Gigabyte, MSI und Zotac für rund 400 Euro erhältlich sein.

(http://img811.imageshack.us/img811/159/climsyclipboardii.jpg)

Quelle : www.heise.de
Titel: Kepler GK110: Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q
Beitrag von: ritschibie am 16 Mai, 2012, 10:53
(http://www.golem.de/1205/sp_91833-35733-i.jpg)
Kepler für Grafik und Rechenanwendungen
(Bild: Nico Ernst/Golem.de)
Zur Eröffnung der Konferenz GTC hat Nvidia-Chef Jen-Hsun Huang mit dem GK110 seine neue GPU vorgestellt. Der riesige Chip soll Supercomputer und Workstations mit bis zu 2.880 Rechenwerken beschleunigen - aber erst Ende 2012 als Tesla K20.

Eigentlich war sie mit besonderer Spannung erwartet worden: die Keynote-Ansprache von Nvidia-Mitbegründer und -Chef Jen-Hsun Huang. Schon im Vorfeld sickerte dann aber durch, dass Huang zur Eröffnung der dritten Ausgabe der GPU Technology Conference (GTC) den neuen Chip Kepler GK110 vorstellen werde, und dass dieser aus etwa 7 Milliarden Transistoren bestehe. Auch Nvidia selbst nannte die Zahl eher beiläufig in den vorab an Journalisten verteilten Unterlagen.

Was Huang dann aber auf der Bühne des San Jose Convention Center zeigte, hatte so kaum jemand erwartet - vor allem, weil die zahlreichen neuen Funktionen nicht für die nun erhältlichen Kepler-GPUs und die erste für Rechenanwendungen vorgesehene Karte Tesla K10 gelten, sondern nur für die GPU GK110, die erst im vierten Quartal 2012 auf den Markt kommen soll. GK110 basiert zwar auf der Kepler-Architektur, die auch für die Spielegrafikkarten verwendeten GK104 (Geforce GTX-670, 680, 690) haben mit der neuen GPU aber nur wenig zu tun.

GK110 ist nicht, wie bei früheren Nvidia-Chips, nur ein Ableger der Spiele-GPU mit mehr Rechenwerken, die bei Nvidia Cuda-Cores heißen. Vielmehr gibt es zwar mehr von diesen Einheiten - wie viele hat Nvidia noch nicht verraten -, aber vor allem drei neue Funktionen, die einige der größten Probleme bei GPU-Computing lösen sollen.

Die erste ist "Hyper-Q". So nennt Nvidia die Tatsache, dass der neue Kepler nun von 32 Threads der CPU gefüttert werden kann. Bisher waren GPUs immer dadurch limitiert, dass sie nur über einen Thread mit Befehlen und Daten versorgt werden konnten. Nun, so sagte Huang, könnten auch 32 physikalische Kerne einer CPU gleichzeitig eine einzelne Kepler-GPU ansteuern.

(http://scr3.golem.de/screenshots/1205/GTC-GK110/thumb620/04.jpg)
Die Tesla K20 wird die erste Karte mit den neuen Funktionen. (Fotos: Nico Ernst)

Zwar beherrschten die verschiedenen Schnittstellen, auch DirectX, schon die Verarbeitung von GPU-Befehlen mit mehreren Threads, die GPU selbst war aber immer auf die serielle Übergabe der parallel zu bearbeitenden Daten angewiesen. Diese Beschränkung wird nun aufgehoben, was dafür sorgen soll, dass die GPU immer so weit wie möglich ausgelastet werden kann.

Das klappt auch anders herum: Über eine Cuda-Schnittstelle kann eine CPU mehrere GPUs mit nur einem Thread ansprechen. Das funktioniert unter anderem durch "GPU Direct". Über das Netzwerk - Tesla-Karten stecken in der Regel in Servern - haben die GPUs direkten Zugriff auf den Speicher ihrer Kollegen. Bisher war dafür immer das Kopieren in den Hauptspeicher über die CPU nötig, was viel Zeit gekostet hat.

Als zweite Neuerung gibt es "Dynamic Parallelism". Damit kann die GPU mehr eigene Kernels und Threads in ihrem Speicher starten, um Verschachtelungen aufzulösen. Diese "nested loops" machten bisher immer wieder die Mithilfe der CPU nötig, zum Beispiel durch die Cuda-Treiber. Nested Loops lassen sich nicht immer vermeiden, etwa wenn gezielt mehrere Berechnungen von ihren Ergebnissen untereinander abhängig sind.

Die GPU kann das nun ohne Zutun der CPU erledigen und die Verschachtelungen selbst auflösen. Dabei muss sich aber, wie Nvidia später erklärte, der Programmierer selbst um den immer knappen GPU-Speicher kümmern. Die neuen Kernels und Threads, die dynamisch gestartet werden, können so weit anwachsen, dass die GPU Daten in den Hauptspeicher per PCIe auslagern muss - das System wird langsamer. Das gilt es zu erkennen und einzugreifen, von sich aus soll Cuda dabei keine Fehler melden, sondern weiterrechnen.

(http://www.golem.de/news/kepler-gk110-groesster-chip-der-welt-mit-7-mia-transistoren-und-hyper-q-1205-91833-2.html)
Bilderstrecke; (http://www.golem.de/news/kepler-gk110-groesster-chip-der-welt-mit-7-mia-transistoren-und-hyper-q-1205-91833-2.html#gg1_anchor) Nested Loops kann die GPU nun wie rechts zu sehen selbst auflösen.

Als dritten, besonders wichtigen Baustein für GK110 nannte Jen-Hsun Huang die Streaming Multiprocessor, SM, wie Nvidia seine SIMD-Einheiten aus mehreren Cuda-Cores nennt. Bisher war ein SM bei Fermi aus 32 Rechenwerken aufgebaut, nun sind es 192. Das war dem Unternehmen gleich die neue Bezeichnung SMX wert. Im Endeffekt ist das aber auch schon bei den Spiele-Keplers so, hier sind ebenfalls mehr Rechenwerke unter einem Kontrollprozessor zusammengefasst, was den Verwaltungsaufwand der SMs untereinander reduziert.

Bis zu 15 SMX-Einheiten soll GK110 besitzen, wie Nvidias Supercomputerexperte Sumit Gupta nach der Vorstellung der Architektur in einem Roundtablegespräch sagte. Das ergibt 2.880 Rechenwerke, fast doppelt so viele wie die 1.536 Cuda-Cores des aktuellen GK104. Das gilt aber noch nicht für die Karte Tesla K20, die Jen-Hsun Huang zuvor auf einem Bild zeigte. Hier sollen es Gupta zufolge nur 13 oder 14 SMX sein, also 2.496 oder 2.688 Rechenwerke.

Genau wollten sich mehrere Nvidia-Mitarbeiter nicht festlegen, was auch für die Leistungsaufnahme der Beschleunigerkarten gilt. Für den kleineren Tesla K10, der noch im Mai 2011 ausgeliefert werden soll, gelten 225 bis 250 Watt TDP. Den genauen Wert, so betonte Sumit Gupta, legen die Hersteller der Geräte fest.

Auch zum Speicherausbau ist noch nicht das letzte Wort gesprochen. "Wir werden so viel Speicher hinter den 384-Bit-Bus klemmen, wie uns die DRAM-Industrie bereitstellen kann. Wie viel das sein wird? Wenn es 8 GByte sind, wird auch das schnell zu klein sein. Es gibt einfach nie genug Speicher", sagte Huang.

In einem Punkt ist sich der Nvidia-Chef aber bereits sicher: "Ich habe gestern Abend nochmal nachgesehen: Das ist der komplexeste Chip, der in Serie hergestellt wird. Auf Platz zwei kommt dann ein FPGA von Xilinx mit 6,8 Milliarden Transistoren. Dann folgen viele GPUs, und die komplexeste CPU ist ein Westmere von Intel mit 2,5 Milliarden Transistoren." Dafür hatte sich Huang vermutlich am Eintrag 'Transistor Count' der englischen Wikipedia orientiert.

Wieder einmal sind die Pläne des Unternehmens, das schon oft sehr große Chips mit entsprechenden Problemen bei der Fertigungsausbeute entwickelt hat, sehr ehrgeizig. Ob sie aufgehen, soll sich im vierten Quartal 2012 zeigen, dann wird der GK110 auf der Karte Tesla K20 ausgeliefert. Nur damit gibt es die hier beschriebenen neuen Funktionen, die früher verfügbare K10 kann damit noch nicht aufwarten.

Quelle: www.golem.de
Titel: nVidia: GeForce-GTX-600-Serie kämpft mit Treiberproblemen
Beitrag von: SiLæncer am 21 Mai, 2012, 19:40
Trotz eigentlich ausreichender Leistungsreserven kann es bei nVidias neuester Grafikkartengeneration bei bestimmten Einstellungen zu einer ruckelnden Darstellung kommen. nVidia gibt Tipps, wie man das Problem umgehen kann, und verspricht Abhilfe mit einem der nächsten Treiberupdates.

Das Problem wird demnach durch die neue GPU-Boost-Technik in Kombination mit der vertikalen Synchronisation (kurz VSync) verursacht. Bis zum Treiberupdate sollten Spieler, die das Problem auf ihrem System feststellen, also auf die vertikale Synchronisation verzichten. Funktionierende Alternativen sind jedoch in einigen Spielen vorhandene Ingame-Framelimitter oder die Virtual-Vsync-Technik von Lucidlogix Virtu MVP Chips.

Endgültige Abhilfe verspricht nVidia dann mit der nächsten Treibergeneration; eine Möglichkeit, die höchstwahrscheinlich für das Problem verantwortliche GPU-Boost-Technik vorübergehend zu deaktivieren, gibt es übrigens nicht.

Quelle : www.gulli.com
Titel: nVidia: GeForce GT 640 jetzt auch für den Einzelhandel
Beitrag von: SiLæncer am 05 Juni, 2012, 13:20
(http://static.gulli.com/media/2012/06/thumbs/370/geforce-gt-640-front.jpg)
Nachdem bereits vor einigen Wochen ganze drei Grafikkarten mit der Bezeichnung "GeForce GT-640" für Erstausrüster vorgestellt wurden, gibt es nun eine vierte Version exklusiv für den Einzelhandel. Diese ist, anders als im Vorfeld spekuliert, scheinbar aus Kostengründen mit recht langsamem DDR-3-Speicher bestückt.

Mit einer modernen "Kepler"-GK-107-GPU und 1 oder 2 GB DDR-3-Speicher geht also das Retail-Modell der GeForce GT 640 an den Start. Mit einem Chiptakt von 900 MHz und einem Speichertakt von 891 MHz (1782 MHz effektiv) entspricht die Einzelhandels-Version nicht ganz der schnellsten Variante für Erstausrüster (OEMs). Diese wurde mit schnellem GDDR-5Speicher und einem Chiptakt von 950 MHz deutlich besser bestückt. Allerdings gibt es im OEM-Markt auch zwei langsamere Grafikkarten, die nVidia ebenfalls unter dem Namen GeFoce GT 640 an den Kunden bringen will.

Kunden eines Komplett-PCs mit einer GeForce GT 640 müssen also, zumindest wenn sie Interesse an aktuellen Spielen haben, genauer hinsehen. Käufer einer GeForce GT 640 in der für den Einzelhandel bestimmten Version erhalten währenddessen eine Karte, die dank ihrer 384 Streamprozessoren und des mit 900 MHz recht hohen GPU-Takts immerhin für Spiele in niedrigen und mittleren Auflösungen ausreichend schnell sein dürfte. Die ersten Tests werden sich sicherlich noch diese Woche im Netz finden. Die Leistung dürfte aber, ähnlich wie auch die Preisgestaltung der meisten Boardpartner, circa auf einem Level mit AMDs Radeon HD 7750 liegen, die, wie AMD gestern ankündigte, immerhin in einer zweiten Version 100 MHz mehr GPU-Takt spendiert bekommen soll. In hohen Auflösungen dürfte die AMD-Karte jedoch aufgrund des besseren Speichers wieder einen Vorteil besitzen.

Wie AMDs Radeon HD 7750 benötigt auch nVidias neue Einstiegskarte keinen zusätzlichen Stromanschluss und soll unter Vollast circa 65 Watt konsumieren. Der Idle-Verbrauch liegt im Referenzdesign bei circa 15 Watt und fällt somit im Konkurrenz-Vergleich etwas schlechter aus.

Quelle : www.gulli.com
Titel: Grafikgerüchte: Tahiti 2 von AMD als GHz-Edition der Radeon HD 7970
Beitrag von: ritschibie am 11 Juni, 2012, 12:27
(http://www.golem.de/1203/sp_90234-31390-i.png)
Die GHz-Edition der Radeon HD 7850 (Bild: AMD)
Noch im Juni 2012 plant AMD unbestätigten Angaben zufolge eine Neuauflage der Radeon HD 7970, bei der die GPU über 1 GHz erreichen soll. Auf Basis dieser GPU namens Tahiti 2 soll dann auch die verspätete Radeon HD 7990 erscheinen.

Auf der Computex will Semiaccurate erfahren haben, dass AMD an einer neuen Version seiner GPU mit dem Codenamen Tahiti arbeitet. Die erste Tahiti kam auf den Radeon HD 7970 und 7950 im Referenzdesign auf maximal 925 MHz, Tahiti 2 soll 1.050 bis 1.075 MHz erreichen. Wie schon bei der Radeon HD 7850, die als "GHz Edition" erschien, will AMD Tahiti 2 als GHz-Edition der Radeon HD 7970 vermarkten.

Den höheren Takt soll die GPU nicht nur durch strengere Selektion des inzwischen recht rund laufenden 28-Nanometer-Prozesses bei TSMC erreichen, sondern auch durch ein neues Stepping des Chips. Da die Tahiti-GPUs inzwischen über ein halbes Jahr in Serie gefertigt werden, ist eine solche Überarbeitung nach dieser Zeit in der Halbleiterbranche durchaus üblich.

Da die Leckströme dabei verringert werden konnten, geht Semicaccurate von einer ähnlichen oder minimal höheren Leistungsaufnahme der Grafikkarte aus. Noch im Juni soll sie von allen namhaften Herstellern angeboten werden, Preise sind jedoch noch nicht bekannt.

Das Warten auf Tahiti 2 soll auch der Grund sein, warum die ursprünglich im ersten Quartal erwartete Radeon HD 7990 mit zwei GPUs noch nicht erschienen ist. AMD will die überarbeitete GPU auf dieser Grafikkarte einsetzen, mit welchen Takten, steht aber noch nicht fest. Um die GTX-690 von Nvidia auch nur zu erreichen, braucht der Radeon-Hersteller jedes MHz.

Quelle: www.golem.de
Titel: AFDS 2012: 4-TFlops-Grafikkarte für Workstations
Beitrag von: ritschibie am 15 Juni, 2012, 11:19
(http://www.heise.de/imgs/18/8/7/5/3/0/9/c9685d2f48753cbf.png)
AMDs Firepro W9000: mit drei Lüftern
Gestern erst hat AMD die Firepro W600 mit der neuen Tahiti-Architektur präsentiert, heute legte Cheftechnologe Mark Papermaster auf der Abschlussveranstaltung der Fusion Developer Conference noch einmal nach. Mit 4 TFlops Spitzenperformance bei einfacher Genauigkeit soll die Firepro W9000 in der Leistungsgegend einer Nvidia Tesla K10 liegen (4,6 TFlops), aber mit 1 TFlops deutlich mehr Performance bei doppelter Genauigkeit bieten. Für DP ist Nvidias Tesla K10 allerdings mit nur etwa 190 GFlops nicht ausgelegt, sondern erst die für Ende des Jahres angekündigte auf Kepler-GK110 beruhende Tesla K20. Beide sind aber Server-GPU-Karten und nicht für Workstations gedacht. Wann Nvidia entsprechende Quadro-Karten mit Kepler-Architektur für High-Performance-Workstations analog zu den Tesla K10/20-Karten herausbringen will, ist noch unklar.

Wie die Firepro W600 auch, kann die Firepro W9000 6 Displays ansteuern. Gleich drei 92-mm-Lüfter sind nötig, um die mit 1 GHz GPU-Takt laufenden Karte zu kühlen. Der DDR5-Speicher ist 6 GByte groß; er wird über ein 384-Bit-Interface angesprochen. Weitere Feinheiten zur Firepro W9000, etwa zum Energiebedarf, will AMD erst zur SIGGRAPH im August bekannt geben.

Quelle: www.heise.de
Titel: GHz-Edition: AMD bringt aufgebohrte Radeon HD 7970
Beitrag von: SiLæncer am 22 Juni, 2012, 06:15
(http://www.heise.de/imgs/18/8/7/9/0/1/6/ce3176a0b1651e7d.jpeg)
Eine aufgebohrte Variante der vor einem halben Jahr vorgestellten Radeon HD 7970 präsentiert AMD als "GHz Edition". Sie soll die GeForce GTX 680 von Nvidia durch erhöhte GPU- und Speichertaktfrequenzen in Spielen übertrumpfen. Die Karte ist zu DirectX 11.1 kompatibel und bringt 3 GByte Speicher mit, der mit 3 GHz läuft. Die 2048 Shader-Rechenkerne packen 4,3 Billionen Gleitkommaoperationen pro Sekunde bei einfacher Genauigkeit, bei doppelter Genauigkeit noch ein Viertel davon. Mehr Rechenkraft bietet derzeit keine Single-GPU-Grafikkarte.

AMD behauptet, bei der Radeon HD 7970 GHz Edition nun – wie Nvidia bei der GeForce GTX 670 und 680 – eine Turbo-Funktion implementiert zu haben. So beträgt die Standard-Taktfrequenz des Grafikchips 1000 MHz, die Boost-Frequenz 1050 MHz. Das ist 75 beziehungsweise 125 MHz schneller als die GPU der herkömmlichen Radeon HD 7970 läuft. In der Praxis rechnet die Grafikeinheit aber nahezu immer mit vollen 1050 MHz, beim Belastungstest Furmark aber lediglich mit 1000 MHz. Letztlich ist AMDs Turbo-Funktion nichts weiter als das altbekannte Powertune, das die GPU unter 1050 MHz drosselt, wenn die Leistungsaufnahme der Grafikkarte eine bestimmte Grenze überschreitet – laut AMD 250 Watt.

(http://www.heise.de/imgs/18/8/7/9/0/1/6/f7c42513ca2c4bb1.jpeg)
In Spielen ist die GHz-Edition rund 10 Prozent schneller als eine normale Radeon HD 7970. Sie bietet genügend Leistung, um alle aktuellen DirectX-11-Spiele bei 2560×1600 Bildpunkten ruckelfrei darzustellen. In vielen Titeln, etwa Anno 2070, Arkham City und Dirt 3, ist sie etwas flinker als Nvidias GeForce GTX 680. In Battlefield 3 ist die Nvidia-Karte bei maximaler Detailstufe und vierfacher Multisampling-Kantenglättung in Full HD rund 6 Prozent schneller, bei 2560×1600 Bildpunkten liegen beide gleichauf (40 fps). Im 3DMark 11 erreicht die Radeon HD 7970 GHz Edition 3033 Punkte in der Extreme-Voreinstellung.

Im Leerlauf ist die Karte vergleichsweise sparsam (13 Watt) und leise (0,4 Sone). Beim Spielen (206 Watt) ist sie mit 3,0 Sone aber viel zu laut. Im Furmark kommt sie sogar auf 4,7 Sone, ohne Powertune-Drosselung maßen wir unerträgliche 6,7 Sone. Überdies zirpte die Karte unter Last leicht.

Vier Displays lassen sich gleichzeitig an der Radeon HD 7970 GHz Edition betreiben. Dafür bietet sie zwei Mini-DisplayPorts, eine HDMI-Buchse und einen Dual-Link-DVI-Anschluss. AMD verlangt für die Karte 499 US-Dollar, einen Euro-Preis konnte die Firma noch nicht nennen.

Quelle : www.heise.de
Titel: nVidia: Neue Gerüchte zur GeForce GTX 660 und 660 Ti
Beitrag von: SiLæncer am 28 Juni, 2012, 18:30
Wer sich nVidias aktuelle Produktpalette anschaut, dem fällt direkt auf, dass im aktuellen Angebot der GeForce-600-Familie ein riesiges Loch zwischen der recht schwachen HTPC-Karte GeForce GT 640 und den schnellen aber teuren GTX 670- / 680- und GTX-690-Modellen klafft. Dieses soll wenig überrachend bald durch eine GTX 660 und GT(X) 650 geschlossen werden.

Recht wenig sinvolle Informationen findet man jedoch bisher zu den technischen Spezifikationen. So ist es wohl recht absehbar, dass der neue "GK106"-Grafikprozessor 768 Streamprozessoren besitzen wird und somit circa die halbe Performance des "GK104"-Chips einer GeForce GTX 680 aufweisen soll. Jedoch wäre eine solche Karte "nur" auf Augenhöhe mit einer AMD Radeon HD 7850. Als Konter zur Radeon HD 7870 wird aktuell daher eine weitere Karte mit teildeaktiviertem "GK104"-Grafikprozessor (GTX 670 und 680) gehandelt.

Erscheinen sollen die neuen Karten höchstwahrscheinlich bereits im Juli; genaue Informationen sind allerdings für einen so kurz bevorstehenden Marktstart erstaunlich rar gesäht. Preislich gilt es als wahrscheinlich, dass nVidia das neue "GK106"-Topmodell mit circa 1 GHz GPU-Takt und 768 Streamprozessoren als GeForce GTX 660 für circa 249 US-Dollar (umgerechnet 200,51 Euro) vermarkten wird. Eine GTX 660 Ti mit teildeaktiviertem "GK104"-Chip sollte dann für circa 299 US-Dollar (240,78 Euro) erhältlich sein und die Produktpalette komplettieren. Der für viele Spieler sehr interessante Preisbereich zwischen 100 und 200 US Dollar fällt somit wohl der GeForce GT(X)-650 Serie zu die wohl auch mit dem "GK106" Grafikprozessor jedoch in einer niedriger getakteten oder teildeaktivierten Version starten wird. Gerade bei dieser für Spieler wohl sehr interessanten Karte sind Informationen jedoch Mangelware. Auch zum Release-Termin finden sich kaum verlässliche Informationen.

Preisanpassungen bei nVidias Topmodell GeForce GTX 680 sind übrigens trotz kurz bevorstehendem Marktstart der Radeon HD 7970 GHz Edition eher unwahrscheinlich. Schließlich ist nVidias Single GPU-Topmodell immernoch in Schlagdistanz und liegt in einigen Spielen wie Battlefield 3 vor AMDs neuestem Angebot. Auch kann nVidia mit einer höheren Energieeffizienz und marketingwirksamen Zusatzfeatures wie nVidia PhysX punkten. Letzten Endes liegen die High-End-Modelle aus beiden Lagern in dieser Grafikkarten-Generation ohnehin so nah beieinander, dass wohl bei den meisten Kunden eher Markenpräferenzen und persönliche Vorlieben für eine Kaufentscheidung ausschlaggebend sein dürften.

Quelle : www.gulli.com
Titel: A New Dawn: Nvidias DX11-Elfe zum Download
Beitrag von: ritschibie am 24 Juli, 2012, 10:34
Nvidia hat seine neue DirectX-11-Grafikdemo "A New Dawn" als ausführbare Datei veröffentlicht. Zuvor gab es die aufwendig berechnete Elfe nur in einem Video zu sehen.

Die DirectX-11-Techdemo "A New Dawn" kann nun auch auf dem eigenen Windows-Rechner ausgeführt werden. Nvidia stellt sie als ausführbare A-New-Dawn-Datei zum Download und nicht mehr nur als Video zur Verfügung.

Video: New Dawn - Nvidia-Grafikdemo von 2012 (2:13)

Da die New-Dawn-Demo die Leistung der Dual-GPU-Grafikkarte Geforce GTX 690 demonstrieren soll, empfiehlt Nvidia für die optimale Darstellung auch zwei GPUs der GTX-600-Serie (Kepler) - zwei GTX 670 im SLI-Verbund sollten es mindestens sein. Nvidia rät mindestens zu einem Dual-Core-Prozessor ab 2,5 GHz Taktfrequenz und 4 GByte RAM. Die Demo ist für Vista oder Windows 7 ausgelegt.

(http://scr3.golem.de/screenshots/1206/new-dawn/thumb620/new-dawn-screenshot1.jpg)
Bilderstrecke: (http://www.golem.de/news/a-new-dawn-nvidias-dx11-elfe-zum-download-1207-93379.html) New Dawn - Screenshot aus Nvidias neuer Kepler- Grafikdemo (Bild: Nvidia)

A New Dawn zeigt eine Elfe in einem magischen Wald. Der liegt im Dunkeln, wird aber über verschiedene Lichtquellen stimmungsvoll beleuchtet. Die Elfe tauchte bereits 2002 in einer Nvidia-Demo auf, 2012 sieht sie unter anderem durch Tessellation, Sub-Surface Scattering und im Wind wehende Haare natürlicher aus.

Quelle: www.golem.de
Titel: Nvidia will GeForce GTX 660 Ti am 16. August vorstellen
Beitrag von: SiLæncer am 27 Juli, 2012, 13:42
(http://www.heise.de/imgs/18/8/9/6/0/0/6/73905c862aa839e7.jpeg)
Nvidia plant derzeit, eine Performance-Grafikkarte namens GeForce GTX 660 Ti am 16. August vorzustellen, wie wir aus zuverlässigen Quellen erfuhren. Der Termin fällt damit auf den zweiten Veranstaltungstag der Spielemesse Gamescom, die vom 15. bis 19. August in Köln stattfindet. Die Grafikkarte wird – wie ihre große Schwester GeForce GTX 670 – 2 GByte Videospeicher mitbringen und zu DirectX 11.1 und OpenGL 4 kompatibel sein. Ihre Leistung reicht aus, um aktuelle DirectX-11-Spiele in der Full-HD-Auflösung 1920×1080 flüssig darzustellen.

Eine Bestätigung für die derzeit im Netz herumschwirrenden Spezifikationen steht aber noch aus: So soll der Grafikchip einer GeForce GTX 660 Ti laut der Webseite Sweclockers 1344 Shader-Rechenkerne enthalten und mit den gleichen Taktfrequenzen laufen wie eine GeForce GTX 670. Allerdings soll der Speicher nur mit 192 statt 256 Datenleitungen angebunden sein, was die Karte in Spielen im Vergleich zur GTX 670 ausbremsen würde.

Zum Marktstart werden einige Boardpartner bereits Varianten mit eigenen Kühldesigns und höheren Taktfrequenzen anbieten. Wieviel die GeForce GTX 660 Ti genau kosten soll, ist noch unklar. Gerüchten zufolge soll sie für rund 350 Euro über die Ladentheken gehen.

Quelle : www.heise.de
Titel: nVidia: GeForce GTX 660 Ti schneller als AMD Radeon HD 7950
Beitrag von: SiLæncer am 01 August, 2012, 13:09
Bereits seit langer Zeit gab es Gerüchte über die Spezifikationen zur kommenden GeForce GTX 660 Ti. Ein bereits heute veröffentlichter Test von Tweaktown bietet nun erste zuverlässige Ergebnisse. Insgesamt schlägt sich die Karte mehr als ordentlich.

Mit 1344 Stream-Prozessoren und im Vergleich zur GeForce GTX 670 unveränderten Taktraten kann die neue Karte sogar eine AMD Radeon HD 7950 knapp hinter sich lassen. Interessanterweise handelt es sich quasi um eine GTX 670 mit teildeaktiviertem Speicherinterface. So bietet die neue GTX 660 Ti "nur" ein Speicherinterface mit 192 Bit, während eine GTX 670 mit 256 Bit daher kommt, ein Nachteil, der sich nur bei extrem hohen Auflösungen oder Qualitätseinstellungen wirklich bemerkbar macht. Mit Immerhin 144,2 GB/s schlägt sich auch das 192-Bit-Speicherinterface der GTX 660 TI zusammen mit dem schnellen GDDR-5-Speicher in den meisten Fällen super.

Bereits gestern waren auf Facebook erste Benchmarks zu finden. So liefert eine GTX 660 Ti einen 3d-Mark-2011-Performance-Score von 8589 Punkten und landet somit deutlich vor einer Radeon HD 7870 mit 6788 Punkten und sogar knapp vor einer Radeon HD 7970 mit 8240 Punkten. Im Extrem-Preset verliert nVidias neueste Karte dann mit 2677 Punkten knapp gegen eine Radeon HD 7970 mit 2764 Punkten, schlägt eine Radeon HD 7950 mit ihren 2296 Punkten jedoch immer noch recht deutlich. Für alle Tests nutzte Tweaktown einen auf 4,7 GHz übertakteten Intel-Core-i7-3960X-Sechs-Kern-Prozessor in Kombination mit 16 Gigabyte DDR3-1866-Speicher auf einem ASUS-Rampage-IV-Extreme-Mainboard. Insgesamt schlägt sich nVidias neue Karte also sehr gut und das zu einem Verkaufspreis, der recht deutlich unterhalb einer GTX 670 liegen sollte. Als aktuelles Release-Datum ist der 16. August scheinbar gesetzt. Die Preise sollen in Deutschland bei circa 250 Euro liegen. Ein Angebot also, das Konkurrent AMD durchaus noch einmal zu Preissenkungen veranlassen sollte.

Später im Jahr sollten dann die für Spieler mit schmalerem Budget wohl interessanteren GTX-660- und GTS-650- und -650-Ti Karten auf den Markt kommen. Laut der türkischen Website Donanim Haber soll die GeForce GTS 650 für circa 100 bis 120 Euro am 17. September an den Start gehen.

Quelle : www.gulli.com
Titel: GeForce GTX 660 in ersten Komplett-PCs gesichtet
Beitrag von: SiLæncer am 05 August, 2012, 19:00
Nach Bekanntwerden eines Verkaufsstarts der neuen GeForce GTX 660 Ti am 16. August ist nun auch das non-Ti-Modell in Sichtweite. Genauer findet sich die Karte in einigen neuen Versionen von Alienwares Gamingrechner X51 (aktuell nicht lieferbar) und in einem Acer-Predator-Komplett-PC, dieser ist sogar in zwei Onlineshops angeblich ab sofort lieferbar.

So soll die kleinere der beiden GTX-660-Versionen ohne Ti-Kürzel über 1,5 GB Grafikspeicher verfügen. Das Speicherinterface und die Taktraten bleiben unangetastst. Neben weniger Speicher muss sich das non-Ti-Modell jedoch auch mit deutlich weniger Streamprozessoren begnügen. Während die Ti-Version mit 1344 Streamprozessoren bestückt ist, besitzt das non-Ti-Modell nur noch 1152 Streamprozessoren. Insgesamt sollte die GTX 660 also circa 15% langsamer arbeiten als das Ti-Modell. Der kleinere Grafikspeicher wirkt sich derweil bei aktuellen Spielen nur in sehr hohen Auflösungen, aus in denen die Rechenleistung einer einzelnen Grafikkarte meistens ohnehin keine spielbaren Bildwiederholraten mehr abliefern kann.

Bleibt also die interessante Frage nach den Preisen der beiden neuen Karten. Nach ersten Berichten, dass die GeForce GTX 660 Ti für circa 250 US-Dollar erscheinen soll, erscheint es nach neuesten Berichten und ersten Shoplistungen in den USA eher wahrscheinlich, dass dieser Preis einer normalen GTX 660 entspricht. Die Ti-Version sollte demnach für circa 300 US-Dollar in den Landen kommen und wird somit direkt gegen AMDs schwächere Radeon HD 7870 positioniert. Eine normale GTX 660 liegt dann preislich zwischen AMDs Radeon-HD-7850- und HD-7870-Karten, wobei die Spieleleistung durchaus auf einem Level mit AMDs Radeon HD 7870 liegen sollte. Circa einen Monat später, am 17. September, soll dann auch die GeForce GTS 650 in zwei Versionen (Ti und non-Ti) erscheinen und das Sortiment komplettieren.

Quelle : www.gulli.com
Titel: AMD: Radeon-HD-7750-Versionen mit 900 MHz GPU-Takt sollen in Kürze erscheinen
Beitrag von: SiLæncer am 07 August, 2012, 22:01
Wochen nach der Ankündigung einer höher getakteten Radeon HD 7750 verteilt AMD erste Testkarten. Die von AMDs für Testzwecke verteilten Karten verwendeten eine Referenzplatine sowie den Kühler der Radeon HD 7770; im Handel sollen sich dann in den nächsten Wochen im Wesentlichen Eigendesigns der Boardpartner finden.

Leider benötigt die höher getaktete Version der Radeon HD 7750 nun einen zusätzlichen 6-Pin-PCIe-Stromstecker vom Netzteil. Die Maximum Board Power steigt mit dem Taktupgrade zudem von 75 auf 83 Watt an. Unter typischer Spielelast verbraucht die Karte nach ersten Tests knapp 70 Watt und somit gut 15 Watt mehr als das Referenzdesign einer Radeon HD 7750 mit 800 MHz. Preislich finden sich die ersten Modelle mit 900 MHz GPU-Takt knapp unterhalb von 100 Euro wieder. Dank des Taktupdates ist die neue Version der Radeon HD 7750 circa 10 Prozent schneller und somit nun endlich in der Lage, nVidias alte GeForce GTX 550 Ti sowie die ebenfalls schon in die Jahre gekommene Radeon HD 5770/6770 knapp hinter sich zu lassen.

Gerade im HTPC-Bereich dürfte jedoch der zusätzlich benötigte Stromanschluss und der dank hoher TDP weit verbreitete Dual-Slot-Kühler nicht gerade einen Vorteil zur ursprünglichen Radeon HD 7750 mit 800 MHz darstellen. Wer jedoch eine sparsame und günstige Grafikkarte sucht, die auch aktuelle Spiele zumindest in mittleren Details problemlos darstellen kann, findet hier ein weiteres interessantes Angebot. nVidias neue GTS 650 lässt noch mindestens einen Monat auf sich warten (Marktstart angeblich am 17. September) und eine GT 640 wird bereits von der ersten Version einer Radeon HD 7750 mit 800 MHz GPU-Takt deutlich geschlagen. Alternativ gibt es jedoch für circa 15 Euro mehr breits eine wiederum circa zwanzig Prozent schnellere Radeon HD 7770. Die Pläne für eine ebenfalls 100 MHz höher getaktete Version der Radeon HD 7770 hat AMD übrigens mittlerweile begraben und verweist stattdessen auf die zahlreichen OC-Modelle der Boardpartner.

Die technischen Daten der Radeon HD 7750v2 im Überblick:

    GPU-Takt:   900 MHz
    Streamprozessoren:   512
    Speicher:   1 GB GDDR5
    Speichertakt:   1125 MHz 4500Mbps)
    Speicherinterface:   128 Bit
    MAX Board Power:   83 Watt

Quelle : www.gulli.com
Titel: AMD: Bios-Update liefert mehr Power für Radeon-HD-7950-Karten
Beitrag von: SiLæncer am 14 August, 2012, 13:17
Als Konter zu nVidias in wenigen Tagen erscheinenden GeForce GTX 660 Ti bietet AMD ein neues Grafikkarten-Bios für die Radeon-HD-7950-Karten an. Mit dem Update sollen kommende Radeon-HD-7950-Karten einen Basis-GPU-Takt von 850 MHz sowie einen Powertune Boost Modus mit bis zu 925 MHz GPU-Takt bieten. Hardwareseitig bleibt das Referenzdesign der Karte unverändert.

Besitzer einer Radeon-HD-7950-Karte im Referenzdesign können das Grafikkarten-Bios-File auf eigenes Risiko flashen (http://www.techpowerup.com/170436/AMD-Updates-Radeon-HD-7950-to-Thwart-GeForce-GTX-660-Ti.html). Garantie für eine stabile Nutzung der neuen Settings gibt es seitens der Boardhersteller oder AMD allerdings nicht, da die Karten nicht mit den neuen Taktraten validiert wurden. Im Prinzip sollten allerdings alle Radeon-HD-7950-Referenz-Design-Karten in der Lage sein, mit den veränderten Settings fehlerfrei zu laufen. Bei Hersteller-Eigendesigns mit abweichendem Platinenlayout ist eine solche Aussage schon schwerer zu treffen.

Mit der Maßnahme möchte AMD scheinbar sicherstellen, dass nVidias kommende GeForce GTX 660 Ti auf Abstand gehalten werden kann. Nach einem ersten Test kommt nVidias neueste Karte einer Radeon HD 7950 mit 800 MHz GPU-Takt bedrohlich nahe. Da nVidia die GeForce GTX 660 Ti allerdings für 299 US-Dollar anbieten möchte, wäre AMD alternativ in Bedrängnis, die Preise der Radeon-HD-7870- und -7950-Karten anzupassen. Auch AMDs Radeon HD 7870, die nicht mit nVidias neuer GeForce GTX 660 Ti mithalten kann, wird von AMD für 299 US-Dollar gelistet, ist im Handel in Deutschland jedoch oft schon für circa 265 Euro zu finden. Erste Händler listeten die GeForce-GTX-660-Ti-Modelle hierzulande jedoch für circa 300 Euro.

Alle Radeon-HD-7950-Karten, die ab der zweiten August-Woche hergestellt wurden, sollen bereits mit dem neuen Bios-File ausgeliefert werden. Eine eindeutige Kennzeichnung gibt es jedoch scheinbar nicht. Hier bietet es sich an, vor dem Kauf  den Händler nach einer Karte mit neuem Bios zu fragen und bei einer Lieferung mit  altem Bios einen Umtausch zu vereinbaren.

Quelle : www.gulli.com
Titel: Nvidias GeForce GTX 660 mit 1152 Kernen für Komplettsysteme
Beitrag von: SiLæncer am 21 August, 2012, 18:30
(http://www.heise.de/imgs/18/9/0/6/9/5/6/c3322af4dd0d2ec8.jpeg)
Für Komplettsysteme bietet Nvidia neben der teureren Spieler-Grafikkarte GeForce GTX 660 Ti nun auch eine Non-Ti-Version an. Sie ist zu DirectX 11.1 kompatibel und unterstützt daher Target-Independent Rasterization, was unter Windows 8 etwa die Direct2D-Performance beim Verarbeiten von kantengeglätteter Geometrie erhöhen soll. Im Einzelhandel lässt sich die GeForce GTX 660 allerdings noch nicht erwerben, das soll sich aber in den kommenden Wochen ändern. Schließlich bietet Nvidia zwischen der ab 290 Euro erhältlichen GeForce GTX 660 Ti und der ab 80 Euro erhältlichen GeForce GT 640 derzeit keinerlei Grafikkarten mit sparsamen, im 28-Nanometer-Verfahren gefertigten Kepler-Grafikchips.

Die GPU der GeForce GTX 660 enthält insgesamt 1152 Shader-Rechenkerne (GTX 660 Ti: 1344), die mit 823 MHz arbeiten. Via Turbo beschleunigen sie sich auf garantierte 888 MHz – und wenn die Umgebungsfaktoren wie Leistungsaufnahme und Temperatur stimmen, auch darüber hinaus. Nvidia bietet die Grafikkarte mit 1,5 oder 3 GByte GDDR5-Videospeicher an, der über 192 Datenleitungen mit der GPU kommuniziert. Laut Nvidia soll die Speichergeschwindigkeit bei 2,9 GHz liegen, die Datentransferrate bei maximal 134 GByte/s. Allerdings widersprechen sich die Angaben, denn mit 2,9 GHz läge die Transferrate bei 139,2 GByte/s. Bei den später für den Einzelhandel gedachten, einzeln erhältlichen Grafikkarten können die Spezifikationen allerdings noch variieren. Zum Spielen in der Full-HD-Auflösung ist die Leistung der Grafikkarte ausreichend.

(http://www.heise.de/imgs/18/9/0/6/9/5/6/ab2ee2aa2d3bf341.jpeg)
Für den Mehrschirmbetrieb ist die GTX 660 geeignet und bietet zwei Dual-Link-DVI-Anschlüsse, eine HDMI-Buchse und einen DisplayPort (v1.2) an. Letzterer soll auch 4K-Auflösungen ausgeben können. Die Grafikkarte belegt zwei Steckplätze und ist gut 24 Zentimeter lang.

Nvidia gibt als maximale Leistungsaufnahme 130 Watt an und empfiehlt den Komplettsystem-Herstellern für den Betrieb mindestens ein 450-Watt-Netzteil. Die Karte speist sich über einen sechspoligen Stromstecker.

Quelle : www.heise.de
Titel: nVidia GeForce GTX 660: Radeon-HD-7870-Gegner ab dem 12. September im Handel
Beitrag von: SiLæncer am 04 September, 2012, 18:30
Wie bereits bei der GeForce GTX 660 Ti gibt es die ersten Tests der Referenzplatine deutlich vor dem offiziellen Release-Datum im Netz. Einmal mehr zeigt sich die "Kepler"-Architektur als gelungen und die GeForce GTX 660 mit dem neuen "GK106"-Grafikprozessor schafft es mit Werkseinstellungen genau auf ein Level mit AMDs Radeon HD 7870.

Da beide Grafikkarten zumindest zur Markteinführung nächste Woche mit 249 US-Dollar auch den selben Listenpreis vorweisen können, liegt die Kaufentscheidung wohl rein in den persönlichen Markenpräferenzen oder aktuellen Sonderangeboten. Mittelfristig stehen die Chancen für sinkende Preise bei beiden Anbietern allerdings recht gut. So sind beide Karten nicht übermäßig aufwändig in Sachen Kühlung und PCB-Design und die Chipfertigung bei TSMC im 28-nm-Prozess funktioniert mittlerweile auch zufriedenstellend.

Im Handel soll die neue GeForce GTX 660 ab nächster Woche Mittwoch, also dem 12. September, zu finden sein. Die Verfügbarkeit sollte aktuellen Informationen zufolge keine Probleme bereiten. Ebenfalls am 12. September findet dann auch die lange erwartete GeForce GTX 650 ihren Weg in den Handel. Diese setzt auf die "GK107"-GPU, welche auch auf der GeForce GT 640 zu finden ist. Die Referenzplatine der GTX 650 besitzt einen einzelnen 6-Pin-PCIe-Zusatzstecker und ähnelt ansonsten stark dem Layout einer GT 640, was wiederum ein angenehm kurzes PCB bedeutet, welches auch in die meisten HTPC-Gehäuse problemlos passen sollte. Was die Leistung angeht, sollte die GTX 650 in etwa auf einem Level mit AMDs Radeon HD 7750 liegen, also circa vierzig Prozent schneller arbeiten als die schwache GT 640. Das Leistungs-Plus kommt vom schnellen DDR-5-Speicher und einem höheren GPU-Takt. Den kompletten, englischsprachigen Test zur GeForce GTX 660 kann man auf TweakTown nachlesen.

Die Spezifikationen der beiden neuen Grafikkarten:

GeForce GTX 660 (GK106 GPU)

    Streamprozessoren:   960
    GPU-Takt:   980 MHz
    Boost-Takt:   1033 MHz
    Speicherinterface:   192 Bit
    Speicher:   2 GB GDDR5
    Speichertakt:   3004 MHz
    TDP:   140 Watt (1*PCIe 6 Pin)

GeForce GTX 650 (GK107 GPU)

    Streamprozessoren:   384
    GPU-Takt:   1058 MHz
    Boost-Takt:    -
    Speicherinterface:   128 Bit
    Speicher:   1 GB GDDR5
    Speichertakt:   2500 MHz
    TDP:  circa 80 Watt (1*PCIe 6 Pin)

Quelle : www.gulli.com
Titel: nVidia: Neue Preise für die GeForce GTX 660 Ti
Beitrag von: SiLæncer am 10 September, 2012, 12:45
Aus nVidia-nahen Quellen möchte wccftech erfahren haben, dass nVidia eine Preissenkung für die GeForce GTX 660 Ti vorbereitet. Zudem soll der Einführungs-Preis der neuen GeForce GTX-660 um zwanzig US-Dollar niedriger liegen als bisher angenommen. Dank AMDs letzter Preisanpassung gibt es somit von beiden Herstellern bald viele für Spieler interessante Grafikkarten unterhalb von 250 Euro.

So soll die GTX 660, welche sich nach ersten Tests auf Augenhöhe mit AMDs Radeon HD 7870 einsortieren kann, mit einem Preis von 229 US-Dollar und somit 20 US-Dollar günstiger als AMDs Grafikkarte an den Start gehen. Wegen einer groß angekündigten Apple-Keynote wurde die Veröffentlichung der beiden neuesten nVidia-Grafikkarten GeForce GTX 660 und GTX 650 übrigens vom 12. auf den 13. September verschoben. Im Handel sollten die Karten ebenfalls ab dem 13. September zu finden sein.

Nach Veröffentlichung der beiden neuen Mid-Range-Grafikkarten plant nVidia angeblich zeitnah eine Preissenkung der GeForce GTX 660 Ti von 299 US-Dollar Listenpreis auf 279 US-Dollar Listenpreis. Somit würde zumindest der bereits auf einer alten Preisliste zu findende Abstand von 50 US-Dollar zwischen der Ti- und non-Ti-Version erhalten bleiben. nVidias neuer "GK106"-Grafikprozessor, welcher erstmals auf der GeForce  GTX 660 zu finden ist, soll zudem zu einem späteren Zeitpunkt die Lücke zwischen der GTX 660 mit 960 CUDA-Cores (Streamprozessoren) und einer deutlich schwächeren GTX 650 mit 384 CUDA-Cores schließen. So soll es eine GeForce GTX 650 Ti auf Basis eines teildeaktivierten "GK106"-Grafikchips geben. Über Taktraten, aktive Streamprozessoren und Releasedatum gibt es jedoch noch keine zuverlässigen Informationen.

Zuletzt hatte Konkurrent AMD bereits die Listenpreise der Radeon-HD-7800-Serie deutlich reduziert, so dass man eine Radeon HD 7850 in der 1-GB-Version im deutschen Handel bereits für 160 Euro bekommen kann. Eine 2-GB-Version wechselt für circa 185 Euro den Besitzer. Die schnellere Radeon HD 7870 findet sich für circa 220 Euro in zahlreichen Versionen im Handel. Eine GeForce GTX 660 Ti, die etwas schneller ist als AMDs Radeon HD 7870, ist aktuell erst für circa 275 Euro zu bekommen. Eine Preissenkung bei den High-End-Karten aus beiden Lagern ist aktuell eher unwahrscheinlich. Je nach Abschneiden und finaler Preisgestaltung der neuen GeForce GTX 650 (Ti) könnten jedoch auch die Preise von AMDs Radeon-HD-7700-Serie eine kleine Anpassung erhalten.

Quelle : www.gulli.com
Titel: Nvidia enthüllt GeForce GTX 650 und GTX 660
Beitrag von: SiLæncer am 13 September, 2012, 16:20
(http://www.heise.de/imgs/18/9/1/7/8/8/1/2067ad19f0391165.jpeg)
Nvidia präsentiert zwei neue GeForce-Grafikkarten, die dank ihrer 28-nm-Grafikchips sehr sparsam arbeiten und obendrein zur Windows-8-Schnittstelle DirectX 11.1 kompatibel sind. Die GeForce GTX 660 kostet rund 225 Euro und ist primär für Spieler gedacht. Für die GeForce GTX 650 verlangt Nvidia 115 Euro – sie soll mit AMDs Radeon-Serie HD 7700 konkurrieren. Sie enthält wesentlich weniger Funktionseinheiten als die GeForce GTX 660, nämlich 384 statt 960. Außerdem hat ihr GK107-Grafikchip keinen Turbo-Modus, sondern bleibt in Spielen dauerthaft bei 1058 MHz.

Die GeForce GTX 650 bringt 1 GByte GDDR5-Speicher mit, der über 128 Datenleitungen an die GPU angebunden ist (80 GByte/s). Maximal soll sie 64 Watt verheizen, dennoch packt Nvidia standardmässig noch einen 6-pin-Stromanschluss an die Platine. Übertakter wird es freuen. In Spielen soll die GeForce GTX 650 laut ausgewählten Nvidia-Benchmarks zwischen 10 und 35 Prozent schneller sein als AMDs Radeon HD 7750. Überprüfen ließ sich das mangels verfügbarer Testsamples allerdings nicht. Nvidia erlaubt Partnern erst ab heute die Auslieferung.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Nvidia-enthuellt-GeForce-GTX-650-und-GTX-660-1706737.html)

Quelle : www.heise.de
Titel: AMD: Radeon-HD-8800-Serie bereits im Januar 2013
Beitrag von: SiLæncer am 17 September, 2012, 20:45
Im Netz finden sich bereits angebliche Spezifikationen zu einigen Karten von AMDs kommender Radeon-HD-8000-Serie. Genauer gesagt handelt es sich um die Spezifikationen zur Radeon HD 8850 und Radeon HD 8870, welche bereits ab Januar die aktuelle Radeon-HD-7800-Serie ablösen sollen.

Erstmals gibt es umfangreiche Informationen zu AMDs kommender Grafikkarten-Generation. Laut Videocardz.com handelt es sich um eine gute Quelle, die bereits Monate vor Veröffentlichung korrekte "Tahiti"- (Radeon HD 79XX) Spezifikationen veröffentlicht hatte. Die neuen Chips sollen der aktuellen Radeon-HD-7800-Serie in quasi jedem Teilbereich überlegen sein. So ist bei einer Radeon HD 8870 von einer deutlich gesteigerten Rechenleistung die Rede. Diese liegt bei 3,94 TFLOPs einfacher Genauigkeit und 246 GFLOPs doppelter Genauigkeit; eine Steigerung um jeweils mehr als 50 Prozent zur aktuellen Radeon HD 7870. Erreicht werden soll die zusätzliche Performance mit einem um 27 Prozent größeren Chip und Optimierungen an den einzelnen Funktionseinheiten. Hergestellt wird die neue Serie im aktuellen 28nm-Fertigungsprozess bei Auftragsfertiger TSMC.

Ähnliches versprechen die veröffentlichten Informationen auch für die neue Radeon HD 8850, welche deutlich schneller als eine aktuelle Radeon HD 7850 arbeiten soll. Wie gut die neuen Karten wirklich werden und was von einem genannten Einführungs-Preis von 279 US-Dollar für die Radeon HD 8870 und 199 US-Dollar für eine Radeon HD 8850 wirklich zu halten ist, erfahren wir wohl frühestens im Januar, wenn die Karten erscheinen sollen. Kurzfristig wohl interessanter ist die Tatsache, dass sich Meldungen über mögliche erneute Preissenkungen der Radeon-HD-7000-Serien als falsch herausstellten. So dementierte AMD Pläne zu einer möglichen Preissenkung der kompletten Radeon-HD-7700, -7800 und -7900-Serien, welche zuletzt auf diversen Seiten zu finden waren. Mit Preissenkungen ist demnach frühestens in einigen Monaten für den Abverkauf der aktuellen Grafikkarten-Generation zu rechnen. 

Quelle : www.gulli.com
Titel: nVidia: GeForce GTX 650 Ti erscheint mit 576 CUDA Cores ab 149 US-Dollar
Beitrag von: SiLæncer am 23 September, 2012, 15:05
Am 9 Oktober erscheint nVidias GeForce GTX 650 Ti. Diese soll in zwei Versionen mit einem oder zwei Gigabyte GDDR 5 Speicher angeboten werden. Die Listenpreise liegen bei 149 beziehungsweise 169 US-Dollar. Auf eine GPU-Boost Funktion welche den Grafikchip automatisch übertaktet muss die Karte verzichten zudem ist der Basistakt mit 960 MHz vergleichsweise niedrig.

So soll die Karte mit einem GPU Takt von lediglich 960 MHz und einem effektiven Speichertakt von 5,4 GHz erscheinen. Der "GK106-200 A2" Grafikchip einer GeForce GTX 650 Ti ist also Lamgsamer Getaktet als der schwächere "GK107" Grafikprozessor auf einer GeForce GTX 650. Durch die vorhandenen 576 CUDA Cores sollte sich die Karte dennoch deutlich vor einer normalen GeForce GTX 650 mit nur 384 Streamprozessoren und 1058 MHz Platzieren können. Zudem verspricht der niedrige GPU Takt eine gute Energieeffizienz und viel Spielraum für Übertaktungsversuche. Auch diverse Hersteller wie ASUS, MSi, EVGA oder TGT werden sicherlich übertaktete Versionen mit mehr als einem GHz GPU-Takt in den Handel bringen.

Auch das Speicherinterface der eingesetzten "GK106" GPU wurde teilweise deaktiviert so das die GeForce GTX 650 Ti mit einem 128 Bit Speicherinterface daherkommt. Insgesammt sollte sich die karte knapp vor einer AMD Radeon HD 7770 Plazieren können. Gegen eine deutlich schnellere AMD Radeon HD 7850 sieht die neue GeForce GTX 650 Ti dann allerdings kein Land mehr. Eine schnellere Umsetzung mit 768 Aktiven Streamprozessoren und höheren Taktraten hätte hier sicherlich besser abgeschnitten. Allerdings ist die GeForce GTX 650 Ti auch Preislich deutlich unterhalb einer AMD Radeon HD 7850 angesiedelt. So beträgt der Aktuelle Listenpreis einer AMD Radeon HD 7850 mit 2 GB Speicher 209 US-Dollar und liegt somit satte 40 US-Dollar oberhalb einer nVidia GeForce GTX 650 Ti mit ebenfalls 2 GB Speicher.

Die nVidia GeForce GTX 650 Ti im Überblick:

    Streamprozessoren:   576
    Basis-GPU-Takt:   960 MHz
    GPU-Boost-Takt:   -
    ROPs:   24
    TMUs:   48
    Speicherinterface:   128 Bit
    Speicher:   1 oder 2 GB GDDR5
    Speichergeschwindigkeit:   5,4 Gbps
    Leistungsaufnahme:       ~ 85 Watt (1* PCIe 6 Pin)
    Preis:   149 US Dollar (1 GB) / 169 US Dollar (2 GB)

Quelle : www.gulli.com
Titel: AMD: Erneute Preissenkungen für Radeon HD 7900 und 7800 Serie
Beitrag von: SiLæncer am 05 Oktober, 2012, 22:22
Nach nicht ganz drei Monaten senkt AMD erneut die Preise einiger Radeon-Modelle; dieses Mal um bis zu fünfzehn Prozent. So liegt der Listenpreis für eine Radeon HD 7850 mit einem Gigabyte Grafikspeicher nun bei 169 US-Dollar, das vor allem in höheren Auflösungen schnellere 2-GB-Modell soll nach der Preisanpassung circa 189 US Dollar kosten.

Für die Radeon-HD-7900-Serie fallen die Preissenkungen allerdings etwas bescheidener aus. So ändert sich lediglich der Preis einer Radeon HD 7970 GHz Edition deutlich von 499 auf 449 US-Dollar. Die normale Radeon HD 7970 mit 925 MHz GPU-Takt fällt von 429 US-Dollar auf 399 US-Dollar und die schwächere Radeon HD 7950 kriegt eine Preissenkung von lediglich 10 US-Dollar auf nun noch 309 US-Dollar spendiert. Im Handel sollten die Preissenkungen bereits ab der nächsten Woche zu spüren sein.

Konkurrent nVidia veröffentlicht zudem in der nächsten Woche (9. Oktober) die neue GeForce GTX 650 Ti, welche neuesten Informationen zufolge anders als bisher angenommen doch mit 768 CUDA-Cores und einem etwas niedrigeren GPU-Takt von 928 MHz erscheinen soll. Diese wird ebenfalls in zwei Versionen mit einem oder zwei Gigabyte Speicher erhältlich sein. Preislich liegt das Modell mit einem Gigabyte in den ersten Onlineshops bei aktuell 139 Euro für Vorbesteller. Laut ersten Benchmarks erreicht die GeForce GTX 650 Ti trotz 768 CUD-Cores nicht ganz das Leistungsniveau einer AMD Radeon HD 7850, ist aber deutlich schneller als eine AMD Radeon HD 7770, die einen unveränderten Listenpreis von 119 US-Dollar trägt und im deutschen Handel für circa 105 Euro zu bekommen ist.

Die Preissenkungen der AMD-Radeon-Modelle im Überblick:

    AMD Radeon HD 7970 "GHz Edition" von 499 US-Dollar auf 449 UD-Dollar
    AMD Radeon HD 7970 von 429 US-Dollar auf 399 UD-Dollar
    AMD Radeon HD 7950 von 319 US-Dollar auf 309 UD-Dollar
    AMD Radeon HD 7870 von 249 US-Dollar auf 239 UD-Dollar
    AMD Radeon HD 7850 2GB von 209 US-Dollar auf 189 UD-Dollar
    AMD Radeon HD 7850 1GB von 199 US-Dollar auf 169 UD-Dollar

Quelle : www.gulli.com
Titel: ROG Matrix HD 7970 GHz Edition: Schnelle Asus-Grafikkarte zum Tunen und Tweaken
Beitrag von: ritschibie am 16 Oktober, 2012, 12:29
Als die "schnellste und leistungsfähigste Grafikkarte" mit AMD-Technik bewirbt Asus seine neue Republic of Gamers Matrix HD 7970 GHz Edition. Sie ist ab Werk modellabhängig auf 1.050 bis 1.100 MHz übertaktet und soll noch weiteres Potenzial bieten.

Eine neue Asus-Grafikkarte soll konkurrierende Radeon-HD-7970-Produkte übertreffen. Die Republic of Gamers Matrix HD 7970 GHz Platin Edition (MATRIXHD7970P-3GD5) ist von Haus aus auf 1.100 MHz übertaktet.

Das sind 175 MHz mehr als beim Referenzdesign (925 MHz) und immer noch 100 MHz mehr als bei leicht übertakteten HD-7970-Grafikkarten. Die Standardedition der ROG Matrix HD 7970 GHz (MATRIXHD7970-3GD5) bietet immerhin noch einen Takt von 1.050 MHz, sie ist von der Hardware identisch mit der Platin-Edition.

Beide Versionen bieten einen effektiven Speichertakt von 6.600 MHz (1.650 MHz GDDR5). Damit wird auch der Speicher merklich über den Referenzwerten getaktet. Es befinden sich 3 GByte GDDR5-Speicher auf den Karten.

Der ganze Artikel (http://www.golem.de/news/rog-matrix-hd-7970-ghz-edition-schnelle-asus-grafikkarte-zum-tunen-und-tweaken-1210-95113.html)

Quelle: www.golem.de
Titel: AMD startet Notebook-Grafikserie Radeon HD 8000M
Beitrag von: SiLæncer am 17 Dezember, 2012, 21:40
AMD stellt die kommende Grafikchip-Generation Radeon HD 8000M (Codename: Solar) für Notebooks vor. Zunächst enthüllt das Unternehmen die Varianten aus der Mittelklasse und dem Performance-Bereich: die Radeon HD 8500M, HD 8600M, HD 8700M und HD 8800M. Sie haben allesamt zwischen 1 und 2 GByte Speicher und bauen auf die moderne Graphics-Core-Next-Architektur.

(http://www.heise.de/imgs/18/9/6/1/1/7/0/a173db8defe19bad.jpeg)

Daher unterstützten sie laut AMD auch das Feature-Level 11_1 von Microsofts Programmierschnittstelle DirectX 11.1 und helfen beim Bildbearbeiten oder Videoumwandeln via OpenCL. Entgegen der Angaben auf den Presse-Präsentationsfolien handelt es sich bei der GCN-Architektur weiterhin um die erste Inkarnation, wie uns AMD explizit bestätigte.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/AMD-startet-Notebook-Grafikserie-Radeon-HD-8000M-1770795.html)

Quelle : www.heise.de
Titel: AMD: Kein HD-7970-Nachfolger bis Ende des Jahres
Beitrag von: SiLæncer am 15 Februar, 2013, 19:20
(http://www.heise.de/imgs/18/9/8/3/8/1/6/0d58604d0b2226dd.jpeg)
AMD hat während einer Telefonkonferenz auf Anfrage von c't hin erklärt, dass die Radeon HD 7970 GHz Edition bis zum Ende des Jahres 2013 die schnellste Single-GPU-Karte des Unternehmens bleiben wird. Dem in Kürze erwarteten Nvidia-Flaggschiff GeForce Titan mit GK110-GPU will AMD mit der Dual-GPU-Karte Radeon HD 7990 gegenübertreten, die jedoch nur wenige Partner anbieten, etwa Powercolor oder VTX3D. Einen direkten Single-GPU-Konkurrenten wird AMD mindestens bis Ende des Jahres nicht bieten können.

Die unter der Bezeichnung "Sea Islands" laufende Serie von Grafikchips richte sich eher an den Mobil- und OEM-Markt, Konkurrenz zum GeForce Titan oder große architektonische Änderungen sind daraus nicht zu erwarten. Desweiteren spielte AMD GeForce Titan klein: er sei prinzipiell eine Rechenkarte, die nie für den Consumer-Markt geplant gewesen sei. Allerdings erklärte Nvidia gegenüber c't bereits im Mai letzten Jahres, dass der GK110 auch auf GeForce-Karten zu finden sein werde. Zum baldigen Marktstart von GeForce Titan sollen zunächst nur sehr wenige Karten verfügbar sein, wie uns zuverlässige Quellen verrieten.

Quelle : www.heise.de
Titel: AMD stellt Netzwerk-Grafikkarte FirePro R5000 vor
Beitrag von: ritschibie am 26 Februar, 2013, 12:16
(http://www.heise.de/imgs/18/9/8/8/6/1/1/7f03ad983cdb32ae.jpeg)
Die FirePro R5000 belegt nur einen
Steckplatz und kann Grafikdaten
komprimiert übers Netzwerk schicken.
Bild: AMD/c't
AMD präsentiert die FirePro R5000 als leistungsfähige Workstation-Grafikkarte, die ihre Grafik- und Multimedia-Ausgabe komprimiert übers Netzwerk an spezielle Thin Clients sendet und von jenen Keyboard- und Mausbefehle empfängt. Daher sitzt an der Single-Slot-Grafikkarte ein Ethernet-Anschluss. Um Displays lokal anzubinden, bietet sie zwei Mini-DisplayPorts, die jeweils bis zu 2560 × 1600 Pixel ausgeben.

Die FirePro R5000 ergänzt die seit 2010 erhältliche und wesentlich schwächere FirePro RG 220. Die R5000 bietet 2 GByte statt 512 MByte RAM, setzt auf schnellen GDDR5-Speicher und eine moderne 28-nm-GPU aus der Pitcairn-Serie. Dadurch klettert die Leistungsaufnahme auf 150 Watt. Neben der GPU sitzt auch noch ein PC-over-IP-Chip von Teradici auf der Platine, der die komprimierten Bilddaten übers Netzwerk sendet.

Für flüssiges Arbeiten in der Auflösung 1920 × 1200 empfiehlt AMD eine Bandbreite von 9 MBit/s, für CAD-Kontruktion oder 3D-Modelling steigt der Bedarf auf 25 beziehungsweise 80 MBit/s, bei der Videobearbeitung sollten es schon 100 MBit/s sein.

AMD gibt auf die Karte 3 Jahre Garantie. Wieviel sie kosten soll und wann mit einer breiten Verfügbarkeit zu rechnen ist, bleibt unklar.

Quelle: www.heise.de
Titel: Nvidia präsentiert Turbo-Variante der GeForce GTX 650 Ti
Beitrag von: SiLæncer am 26 März, 2013, 18:40
(http://www.heise.de/imgs/18/1/0/0/1/3/5/8/Zotac-ct-650tiboost-bf858bfbe0c3b6ca.jpeg)
Fürs Spielen in der Full-HD-Auflösung präsentiert Nvidia eine Turbo-Variante der GeForce GTX 650 Ti für rund 170 Euro. Im Unterschied zur herkömmlichen Version laufen ihre 768 Shader-Rechenkerne mit einer um 55 MHz höheren Basistaktfrequenz (980 MHz) und bieten zudem einen Turbo-Modus, der die GPU beim Spielen auf 1033 MHz und – sofern es die Temperatur zulässt und die Leistungsaufnahme 140 Watt nicht übersteigt – sogar darüber hinaus beschleunigt.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-Turbo-Variante-der-GeForce-GTX-650-Ti-1830076.html)

Quelle : www.heise.de
Titel: nVidia: GeForce GTX 780 und GeForce GTX 770 ab Mai im Handel?
Beitrag von: SiLæncer am 23 April, 2013, 13:21
(http://static.gulli.com/media/2013/04/thumbs/370/nV-GTX-Titan.jpg)
Wie vermutet wird nVidia bereits im kommenden Monat die neue GeForce-GTX-700-Serie vorstellen. Den Anfang machen scheinbar die beiden neuen High-End-Modelle GeForce GTX 780 und GTX 770. Erstere basiert übrigens auf dem "GK110"-Grafikchip, welcher auch die nVidia GeForce GTX Titan befeuert.

So gibt es mit der neuen GeForce-700-Serie scheinbar keine wirklich neuen Grafikprozessoren, sondern überarbeitete Karten mit leichten Verbesserungen. Zudem sollen die verwendeten "Kepler"-GPUs einige leichte Optimierungen erfahren haben. So hört der Grafikprozessor der GeForce GTX 770 auf den Namen "GK104-425", während die GeForce GTX 680 mit einem "GK104-400"-Chip ausgestattet ist. Die GeForce GTX 780 setzt derweil auf den "GK110"-Grafikprozessor, welcher bereits bei der GeForce GTX Titan zum Einsatz kommt. Allerdings wird dieser hier in einer leicht beschnittenen Version zum Einsatz kommen. Das erlaubt nVidia eine höhere Chipausbeute, immerhin ist der "GK110" -Grafikprozessor mit 551mm2 Chipfläche recht groß und somit deutlich fehleranfälliger in der Fertigung. Zum Vergleich: eine AMD-"Tahiti"-GPU, wie sie auf der AMD Radeon HD 7970 zum Einsatz kommt, ist 365 mm2 groß. Beide GPUs werden im 28-nm-Fertigungsverfahren bei TSMC hergestellt.

Genaue Details zu den beiden neuen Karten sucht man aktuell allerdings noch vergeblich. Die GeForce GTX 770 soll jedoch in etwa so schnell sein wie eine GeForce GTX 680, allerdings wird das neue Modell wohl einen niedrigeren Einführungspreis erhalten. Die neue GeForce GTX 780 ist angeblich circa 30 Prozent schneller als eine GeForce GTX 680. Beide Karten sollen Mitte Mai vorgestellt werden und im Laufe des Monats in den weltweiten Handel gelangen. nVidia hatte sich dazu entscheiden, die neue GeForce-GTX-700-Serie früher vorzustellen als ursprünglich geplant, um auf AMDs "Never Settle"-Spielebundle-Aktion zu reagieren.

Quelle : www.gulli.com
Titel: Radeon HD 7730: Neue Mainstream-Grafikkarte mit schnellem Speicher
Beitrag von: SiLæncer am 29 April, 2013, 13:49
(http://static.gulli.com/media/2013/04/thumbs/370/MSiRadeonHD7750.jpg)
Im Forum von Coolaler wurden Bilder einer AMD Radeon HD 7730 von MSi veröffentlicht. Die Karte soll offenbar AMDs Mainstream-Segment ergänzen und dürfte bei Markteinführung zwischen 50 und 75 Euro kosten. Die Spiele-Leistung reicht dabei immerhin für einfache Titel aus.

So bietet die Karte mindestens 384 Streamprozessoren, welche mit 800 MHz getaktet werden. Speicherausstattung und Takt entsprechen einer Radeon HD 7750, was eine Speicherbandbreite von 72 GB pro Sekunde bedeutet. Im 3dMark Vantage erreicht die AMD Radeon HD 7730 10.764 Punkte. Eine Radeon HD 6670 mit langsamem DDR3-Speicher schafft nur 5.366 Punkte und wird somit deutlich geschlagen. Beide Werte wurden vom Coolaler-Forenmitglied TopPc mit einem auf 5 GHz übertakteten Intel-Core-i7-3770k-Prozessor auf einem MSi-Z77-MPower-Mainboard mit 8GB GSkill-DDR3-2400-Arbeitsspeicher ermittelt.

Wie die Radeon HD 7750 kommt auch die neue Radeon HD 7730 ohne zusätzlichen 6-Pin-Stromstecker aus und kann ihre Leistungsaufnahme nur über den PCIe-16x-Steckplatz des Mainboards decken, welcher maximal 75 Watt bereitstellt. Die typische Leistungsaufnahme unter Volllast dürfte sogar noch etwas unterhalb einer Radeon HD 7750 liegen, welche von AMD mit 55 Watt angebeben wird. Mit dem schnellen GDDR5-Speicher und den gezeigten Benchmarkergebnissen ist die MSi-Karte immerhin für anspruchslose Titel gut gerüstet. Es ist jedoch wahrscheinlich, dass auch Radeon-HD-7730-Versionen mit langsamem DDR3-Speicher erscheinen werden. Bei der Radeon HD 7750 liefern Versionen mit langsamem DDR3 Speicher eine deutlich schwächere Spieleleistung, kosten jedoch nur geringfügig weniger.

Eine offizielle Bestätigung der Karte mit Release-Termin oder Preisgestaltung seitens AMD gibt es bisher  nicht. Mit den gezeigten Spezifikationen könnte die Karte das aktuelle AMD-Lineup zwischen einer Radeon HD 6670 und Radeon HD 7750 ergänzen. Damit sollte die Karte auch nVidias GeForce GT 640 schlagen können.

Quelle : www.gulli.com
Titel: Lautlose Radeon HD 7850 von Powercolor
Beitrag von: SiLæncer am 08 Mai, 2013, 14:05
(http://www.heise.de/imgs/18/1/0/2/0/7/4/1/hd7850_ct_scs3-1de9e0be1543dbb3.jpeg)
Die Firma Powercolor bringt die Spieler-Grafikkarte Radeon HD 7850 als passiv gekühlte und folglich lautlose Variante "SCS3" heraus. Sie bietet 1024 Shader-Rechenkerne, 64 Textureinheiten und 1 GByte schnellen GDDR5-Videospeicher. Die Taktfrequenzen entsprechen der AMD-Spezifikation. Über 256 Datenleitungen erreicht die vollständig zu DirectX 11.1 kompatible Grafikkarte eine Datentransferrate von knapp 154 GByte/s, was zum Spielen in Full HD ausreicht. Selbst das anspruchsvolle Action-Spiel Battlefield 3 läuft auf einer Radeon HD 7850 in hohen Detaileinstellungen in Full HD ruckelfrei.

Bis zu drei Bildschirme gleichzeitig steuert die Radeon HD 7850 SCS3 gleichzeitig über einen Dual-Link-DVI-Anschluss, eine HDMI-1.4-Buchse und einen DisplayPort an. An letzteren muss man das Display im Dreischirmbetrieb direkt oder über einen aktiven Adapter verbinden.

Über den PCIe-Steckplatz und einen zusätzlichen 6-Pin-Stromanschluss darf die 20,3 Zentimeter lange Radeon HD 7850 SCS3 theoretisch maximal 150 Watt schlucken. Der durchschnittliche Praxiswert beim Spielen liegt bei herkömmlichen HD-7850-Karten zwischen 90 und 100 Watt. Wieviel die Radeon HD 7850 SCS3 genau kosten soll, ist noch unklar – wahrscheinlich ist ein Preis um 170 Euro.

Quelle : www.heise.de
Titel: Re: Lautlose Radeon HD 7850 von Powercolor
Beitrag von: Dragonix am 08 Mai, 2013, 17:45
Also so "große" Karten wären mir passiv zu gefährlich - da ist eine gute Gehäuse Belüftung absolut Pflicht, und dann ist man mit einer normalen Karte mit Lüftern auch wieder besser dran... sicher, defekt ist durch Drosselung nicht zu erwarten, aber wie ich's drehe und wende - da bin ich dann mit einer aktiven Karte auch wieder besser dran...
Titel: Re: Lautlose Radeon HD 7850 von Powercolor
Beitrag von: SiLæncer am 08 Mai, 2013, 18:51
Mir wärs auch zu heikel ...aber für andere evtl. ne Option ;)
Titel: Re: Lautlose Radeon HD 7850 von Powercolor
Beitrag von: Jürgen am 09 Mai, 2013, 03:09
Für mich auch nix.

Wenn 150 Watt Wärme passiv abgeführt werden sollen, müsste im Gehäuse genau dort ungefähr Windstärke 5 herrschen.
Eine Verbindung mit dem Luftstrom durch den CPU-Lüfter verbietet sich aus zwei Gründen:
- erstens müsste der dann etwa 300 Watt befördern können, was kaum realistisch ist
- zweitens ragt der passive Kühler nicht oder kaum über die Platine hinaus, was einen solchen durchgängigen Luftstrom verhindert

Und dann müsste die Gesamtwärme ja auch noch aus dem Gehäuse geschafft werden.

Bedeutet, der Vorteil der geräuschlosen Grafik geht komplett verloren, wenn man deshalb an anderer Stelle Sturm erzeugen muss
Und das obwohl da sicher größere und langsamer laufende Gebläse einsetzen könnte, als auf dem beengten Platz, den eine Grafikkarte nun einmal bietet...

Aus eigener Erfahrung kann ich sagen, dass es hier mit meiner passiven EAH6670 sehr gut klappt, obwohl ich kein Zu- oder Abluftgebläse drin habe und das unten verbaute Netzteil auch nicht beiträgt.
Dafür habe ich in meinem Sharkoon Nightfall Gehäuse sämtliche Lüfter und Staubfilter entfernt, wodurch dem Kamineffekt nichts im Wege steht. Entscheidend ist dabei der Grill in der Oberseite, der eigentlich für einen 140er Lüfter bestimmt war und genau über dem semi-passiv betriebenen Arctic Cooling A30 CPU-Kühler sitzt, welcher wiederum nach oben gerichtet ist.
Die Kiste ist tatsächlich normalerweise fast unhörbar, auch dank des Vibe Fixer III für die Platte und des sehr leisen LC8400P Netzteils.
Und alle Temperaturen habe ich bei der Zusammenstellung natürlich über lange Zeit überwacht, auch z.B. mit StressMyPC.
Tatsächlich ist die Grafik stets die wärmste Komponente, bis ca. 57° unter Last.

Viel weiter würde ich aber bei so einer Silent-Lösung nicht gehen wollen.
Die größte passive Grafik, die ich vielleicht noch verwenden würde, wäre allenfalls eine HD6850 oder HD7750.
Beide gibt es mit Heatpipe-Kühlern, die vorn und oben deutlich über die Fläche der Platine hinaus ragen und daher noch ganz gut von einem vertikalen Luftstrom durch Kamineffekt profitieren.
Aber in solchen Fällen reden wir von knapp 30 oder gut 40 Watt Abwärme, nicht von 150...  

Jürgen

p.s.
Die gezeigten Werte entstanden nach stundenlanger intensiver Nutzung bei 23° Raumtemperatur.
Titel: AMD: Kein Windows-XP-Support für kommende "Low Power"-APUs
Beitrag von: SiLæncer am 09 Mai, 2013, 15:52
Mit Markteinführung der kommenden "Kabini"-Low-Power-APUs für Tablets und Convertibles möchte AMD den Legacy-Treiber-Support für Windows XP und Windows Vista einstellen. Für bisherige APU-Generationen hatte AMD immerhin Legacy Unterstützung für die beiden veralteten Windows-Versionen bereitgestellt.

Dieser hatte zwar nicht immer den vollen Funktionsumfang sicherstellen können, konnte aber immerhin für eine stabile Grundfunktionalität genutzt werden. Bei den kommenden "Kabini"-APUs fehlt nun jeglicher offizieller Support seitens AMD. Somit stellen die neuen "Kabini"-APUs auch das erste AMD-Produkt komplett ohne Microsoft-Windows-XP- und Windows-Vista-Treiber-Support dar. Interessenten, die dennoch auf eine der alten Windows-Versionen für ihre Softwareumgebung angewiesen sind, müssen demnach den Weg über den Windows-Kompatibilitätsmodus oder eine virtuelle Umgebung mit Windows-XP- oder -Vista-Installation gehen. Zwar sind die Nutzerzahlen von Windows XP oder Vista aktuell ohnehin stark rückläufig, einige wenige Firmen haben jedoch aufgrund ihrer bereits vor einigen Jahren entwickelten Software für Spezialaufgaben wie Industrieanlagensteuerung immer noch Systeme mit Windows XP im Einsatz.

Bereits vor einigen Jahren hatte Microsoft damit begonnen, Unternehmen den Umstieg zu einer der neueren Windows-Versionen, namentlich Windows 7, nahezulegen. So entspricht Windows XP nicht nur in Sachen System- und Daten-Sicherheit längst nicht mehr dem aktuellen Stand der Technik. Der Support für das Betriebssystem seitens Microsoft endet zudem bereits in weniger als einem Jahr vollständig. Auch AMDs Konkurrent Intel liefert aktuell nur noch grundlegenden Treiber-Support für neue Produkte. Den vollen Funktionsumfang gibt es auch hier meist nicht.

Die kommenden "Kabini"-Low-Power-APUs setzen auf bis zu vier AMD-"Jaguar"-Prozessorkerne, wie sie auch in der kommenden Playstation 4 zum Einsatz kommen sollen, und eine AMD-Radeon-Grafikeinheit auf Basis der aktuellen "GCN"-Architektur.

Quelle : www.gulli.com
Titel: GeForce GTX 770: GeForce GTX 680 mit neuem Bios und Kühler?
Beitrag von: SiLæncer am 14 Mai, 2013, 16:40
(http://static.gulli.com/media/2013/05/thumbs/370/geforce-gtx-680-3qtr-1000x580.jpg)
Das es sich bei der kommenden GeForce GTX 770 um eine weiterentwickelte GeForce GTX 680 handeln würde war bereits seit einiger Zeit bekannt. Mitgliedern von TechPowerUp! ist es nun gelungen, das Referenz-Bios einer GeForce GTX 770 erfolgreich auf einer GTX 680 zu flashen.

Garantie übernimmt für einen solchen Flash-Vorgang selbstverständlich niemand. Insgesamt scheinen sich damit allerdings die Vermutungen zu bestätigen, dass die GeForce GTX 770 nur eine leicht überarbeitete GeForce GTX 680 darstellt. So soll es einen neuen Referenzkühler geben, welcher dem der GeForce GTX Titan sehr ähnlich sieht. Zusätzlich wurde der Basis-GPU-Takt auf 1059 MHz angehoben. Der typische GPU-Boost-Takt soll nun bei 1125 MHz liegen. Neben den GPU-Taktraten wurde allerdings auch der Speichertakt deutlich erhöht; so taktet die GeForce GTX 770 den Grafikspeicher mit 1752 MHz, also 7008 Gbps, und somit 16 Prozent schneller als eine GTX 680 im Referenzdesign.

Neuigkeiten gibt es auch für die GeForce GTX 780. Die neue Karte auf Basis des "GK110"-Grafikprozessors soll zwischen 500 und 600 US-Dollar kosten. Der Preis ist somit circa zwanzig Prozent höher als der einer GeForce GTX 680 zur Markteinführung vor gut einem Jahr. Damit liegt die Grafikkarte allerdings immer noch deutlich unter der aktuellen Preisregion einer GeForce GTX Titan, welche ebenfalls auf dem "GK110"-Grafikprozessor basiert, allerdings mit mehr aktivierten Funktionseinheiten und zusätzlichem Speicher daherkommt.

Im Handel werden die neuen GeForce-Karten bereits Ende des Monats erwartet. Gerüchten zufolge könnte das Topmodell GeForce GTX 780 bereits in zwei Tagen, also am 16. Mai, vorgestellt werden, während die schwächeren GeForce-GTX-700 Modelle am 23. Mai folgen sollen. Während die GeForce GTX 780 zwischen 500 und 600 US-Dollar starten soll, sind für die GeForce GTX 770 aktuell Preise zwischen 360 und 399 US-Dollar zu finden. Eine GeForce GTX 760 Ti gibt es demnächst angeblich ab circa 299 US-Dollar, während die GeForce GTX 760, welche anscheinend eine höher getaktete GeForce GTX 660 darstellen wird, bereits ab circa 200 US-Dollar vermarktet werden soll.

Quelle : www.gulli.com
Titel: GeForce GTX 780: 3 GB Speicher und Release am 23. Mai
Beitrag von: SiLæncer am 16 Mai, 2013, 16:20
Spekulationen, dass nVidias erstes GeForce-GTX-700-Serie-Modell für Desktop-PCs bereits heute vorgestellt werden sollte, haben sich nicht bewahrheitet. Immerhin gibt es heute aber neue Bilder und eine Bestätigung des Release-Termins für den 23. Mai.

Somit müssen Interessenten nur eine Woche warten. Eine Live-Stream-Ankündigung für ein Review einer neuen nVidia-GeForce-GTX-Karte am 23. Mai um 15 Uhr auf Youtube verrät zudem das Ende der NDA. Karten Im Referenzdesign sollten passend zur Vorstellung direkt im Handel erhältlich werden und in Europa circa 500 Euro kosten. Hersteller-Eigendesigns und OC-Versionen erscheinen ein paar Wochen später und sollen bis zu 100 Euro teurer verkauft werden als das Referenzdesign. Der Kühler der Referenzkarte erinnert derweil Stark an das Modell der GeForce GTX Titan und sollte demnach recht leise arbeiten können. Die GeForce GTX 780 besitzt eine teildeaktivierte "GK110"-GPU, die angeblich mit 2304 aktiven CUDA-Cores ausgeliefert werden soll. Etwas mehr Sicherheit gibt es allerdings bei der Speicherausstattung; so verraten Bilder einer Inno-3D-Handelsverpackung einer GeForce-GTX-780-Karte, dass diese mit 3 GB GDDR5-Speicher ausgestattet ist. Dieser wird wie bei der GeForce GTX Titan mit 6008 Gbps betrieben. Das Speicherinterface sollte dem Vollausbau einer GeForce GTX Titan entsprechen und somit 384 Bit aufweisen. Damit liegt die Speicherbandbreite wie bei der GTX Titan bei 288,1 GB pro Sekunde.

Der Basistakt der GPU liegt angeblich bereits bei 863 MHz und somit sogar leicht über dem der GeForce GTX Titan. Sollte sich dieser Wert am 23. Mai bestätigen und der Turbo-Boost ähnlich effizient arbeiten wie bei der GeForce GTX Titan, dürfte die Karte nur geringfügig langsamer arbeiten als nVidias Single-GPU-Topmodell für knappe 1000 Euro. Nur wenn der zusätzliche Speicher der Titan zum Tragen kommt, dürfte diese wirklich bessere Ergebnisse liefern können. OC-Modelle der GeForce GTX 780 könnten demnach die Leistungsklasse einer GeForce GTX Titan erreichen oder diese möglicherweise sogar übertreffen. Spekulationen, dass nVidia zu einem späteren Zeitpunkt im Jahr eine stärkere Version der GeForce GTX Titan veröffentlicht, könnten demnach durchaus zutreffen.

Quelle : www.gulli.com
Titel: nVidia veröffentlicht die GeForce GTX 780 für 649 Euro
Beitrag von: SiLæncer am 23 Mai, 2013, 17:06
(http://static.gulli.com/media/2013/05/thumbs/370/geforce-gtx-780-key-art-640px.jpg)
Mit einem saftigen Einstiegspreis von 649 Euro und Performance-Werten nahe einer GeForce GTX Titan möchte nVidias neue GeForce GTX 780 punkten. Mit dabei ist das selbe leise Kühlsystem, welches bereits bei der GTX Titan eingesetzt wurde. Erste Händler listen die Karte schon als ab Lager lieferbar.

So kann die neue GeForce GTX 780 in Sachen Spieleleistung fast zu einer GeForce GTX Titan aufschließen. Typischerweise sortiert sich die GeForce GTX 780 circa 10 bis 15 Prozent hinter einer GeForce GTX Titan und 30 Prozent vor der GeForce GTX 680 ein. Der mit 3 GB nur halb so große Grafikspeicher wirkt sich selbst bei Multi-Monitor-Setups in aktuellen Titeln kaum aus. In Sachen Energieeffizienz fällt die GeForce GTX 780 allerdings knapp hinter eine GeForce GTX Titan zurück. So wird die Rechenleistung der GeForce GTX 780 mit weniger CUDA-Cores und mehr GPU-Basis- und Boost-Takt erreicht, was wiederum zu einem im Vergleich zur Titan gleichbleibenden Verbrauch bei niedrigerer Rechenleistung führt. Insgesamt handelt es sich bei der GeForce GTX 780 um die zweitschnellste Single-GPU-Grafikkarte. Eine Radeon HD 7970 GHz Edition lässt nVidias GeForce GTX 700 Topmodell je nach Auflösung und Test um 20 bis 35 Prozent hinter sich.

Die schwächeren, aber preislich wohl deutlich attraktiveren Modelle der GeForce-GTX-700-Serie lassen derweil noch auf sich warten. Ein Release der GeForce-GTX-770- und -760-Modelle sollte allerdings zeitnah folgen. nVidias Topmodell GeForce GTX 780 kann soweit schon einmal überzeugen, wäre da nur nicht der ziemlich hohe Kaufpreis von aktuell circa 649 Euro. Dieser Preis ist zwar für die gebotene Leistung im Vergleich zu einer GeForce GTX Titan durchaus angemessen, dürfte allerdings trotzdem nur für eine sehr kleine Zielgruppe interessant sein. Im Vergleich zu einer GeForce GTX 680 verspricht nVidia mit dem Kühlsystem der GeForce GTX Titan, welches auch auf der GeForce GTX 780 Verwendung findet, überigens ein um 5 dBA leiseres Betriebsgeräuch unter Volllast. Die bisher veröffentlichen Tests zum Beispiel von PCGH, ComputerBase oder HT4U bestätigen das angenhem leise Kühlsystem. Allerdings gibt es durchaus Hersteller-Eigendesigns der Radeon HD 7970 GHz Edition oder GeForce GTX 680, welche ebenfalls sehr leise zu Werke gehen.

Die GeForce 780 im überblick:

    Grafikprozessor:   GK110
    CUDA-Cores:   2304
    GPU Basistakt:   863 MHz
    GPU Boost:   902 MHz
    Speicher:   3 GB GDDR5
    Speichertakt:   6008 MHz Effektiv
    Speicherinterface:   384 Bit
    Speicherbandbreite:   288,4 GB/Sec
    TDP:   250 Watt
    Preis:   circa 649 Euro

Quelle : www.gulli.com
Titel: AMD: Angebliche Spezifikationen zur Radeon HD 8000 Desktop-Serie im Netz
Beitrag von: SiLæncer am 27 Mai, 2013, 14:14
Nachdem nVidia vergangene Woche die GeForce GTX 780 vorgestellt hat und in wenigen Tagen auch die GeForce GTX 770 veröffentlichen wird, gibt es neue Informationen zur kommenden Grafikkartengeneration von AMD. So wird es angeblich im dritten Quartal neue Modelle geben, welche zu nVidas GeForce GTX 700 Serie aufschließen sollen.

So sollen die neuen Karten auf einer überarbeiteten "CGN 2.0" Architektur basieren und gegen Ende des dritten Quartals erscheinen. Sollten die veröffentlichten Spezifikationen der neuen Serie stimmen, ist das Topmodell circa 35 Prozent schneller als eine AMD Radeon HD 7970 GHz Edition und somit in etwa gleich schnell wie nVidias GeForce GTX 780. Zudem verfügt die Karte wie nVidias Single GPU Topmodell GeForce GTX Titan über 6 Gigabyte GDDR5 Speicher. Als Verkaufspreis strebt AMD angeblich 599 US-Dollar an. Angesichts der veröffentlichten Spezifikationen und des aktuellen Verkaufspreises von nVidias GeForce GTX 780 mit 649 Euro wäre ein solcher Preis durchaus realistisch. So bietet die AMD-Karte unter anderem mehr Speicher und nicht zuletzt wegen der Optimierung kommender XBox-One- und Playstation-4-Titel auf AMD-Grafikeinheiten höchstwahrscheinlich auch zumindest bei diesen Titeln die bessere Performance.

Für Verwirrung dürfte allerdings wieder einmal AMDs Proudktbezeichnungs-Strategie sorgen. So möchte AMD die neuen Karten angeblich als AMD Radeon HD 8000 Serie veröffentlichen. Diese Bezeichnung würde im Endkunden-Markt durchaus Sinn ergeben. Für OEM Kunden verkauft AMD jedoch bereits seit einiger Zeit umbenannte AMD Radeon HD 7700, 7800 und 7900 Modelle als AMD Radeon HD 8700, 8800 und 8900 Serie (gulli:news berichtete).  Die Verwirrung bei den Kunden wäre hier also mal wieder vorprogrammiert.

Die angeblichen Spezifikationen der AMD Radeon 8000 Serie:

AMD Radeon HD 8970

    Architektur: GCN2.0
    GPU:   "Curacao XT"
    Chipfläche:   420mm^2
    GPU Basistakt:   1,1 GHz
    Streamprozessoren:   2304
    Speicherinterface:   384 Bit
    Speicher:   6 GB GDDR5
    Speichertakt:   7 GHz effektiv
    TDP:   250 Watt
    Preis:   599 US-Dollar
    Leistung:   Circa +35%  gegenüber AMD Radeon HD 7970
 

AMD Radeon HD 8950

    Architektur: GCN2.0
    GPU:   "Hainan XT"
    Chipfläche:   270mm^2
    GPU Basistakt:   1,2 GHz
    Streamprozessoren:   1792
    Speicherinterface:   256 Bit
    Speicher:   4 GB GDDR5
    Speichertakt:   7 GHz Effektiv
    TDP:   190 Watt
    Preis:   399 US-Dollar
    Leistung:   Circa +10% gegenüber AMD Radeon HD 7970
 

AMD Radeon HD 8870

    Architektur: GCN2.0
    GPU:   "Hainan Pro"
    Chipfläche:   270mm^2
    GPU Basistakt:   1,1 GHz
    Streamprozessoren:   1536
    Speicherinterface:   256 Bit
    Speicher:   2 GB GDDR5
    Speichertakt:   6 GHz Effektiv
    TDP:   160 Watt
    Preis:   299 US-Dollar
    Leistung:   Circa +40% gegenüber AMD Radeon HD 8870
 

AMD Radeon HD 8850

    Architektur: GCN2.0
    GPU:   "Hainan LE"
    Chipfläche:   270mm^2
    GPU Basistakt:   1,0 GHz
    Streamprozessoren:   1280
    Speicherinterface:   256 Bit
    Speicher:   2 GB GDDR5
    Speichertakt:   6 GHz effektiv
    TDP:   130 Watt
    Preis:   229 US-Dollar
    Leistung:   Circa +15% gegenüber AMD Radeon HD 8870

Quelle : www.gulli.com
Titel: GeForce GTX 760: Leak zeigt Spezifikationen
Beitrag von: SiLæncer am 17 Juni, 2013, 14:27
(http://static.gulli.com/media/2013/06/thumbs/370/geforce-gtx-670.jpg)
Dass ein Release der GeForce GTX 760 unmittelbar bevorsteht, dürfte mittlerweile kein Geheimnis mehr darstellen. So finden sich bereits seit einigen Tagen Bilder von Retail-Karten und -Verpackungen sowie erste Benchmark-Ergebnisse der neuen nVidia-Grafikkarte.

Ein GPU-Z Screenshot offenbart nun auch die Spezifikationen der Grafikkarte. So schickt nVidia das neue Modell mit einer teildeaktiverten "GK104"-GPU ins Rennen, welche über 1152 aktive CUDA-Cores verfügt. Neben einem höheren GPU-Basis- und -Boost-Takt hebt nVidia allerdings auch die Taktrate des Grafikspeichers ordentlich an. So werden die 2 GB GDDR5-Speicher wie schon bei der GeForce GTX 770 und GTX 780 mit 7 GHz effektivem Speichertakt betrieben. Die GPU selbst besitzt einen Basistakt von 1072 MHz und einen Boost-Takt von 1111 MHz. Wenn die Leistungsaufnahme und Temperatur der Grafikkarte dies zulassen, wird der GPU-Boost-Takt jedoch weiter gesteigert. Das Speicherinterface bleibt übrigens ebenfalls im Vollausbau mit 256 Bit erhalten. So erreicht die GeForce GTX 760 eine Speicherbandbreite von 224,2 GB pro Sekunde.

Mit diesen Spezifikationen dürfte die GeForce GTX 760 am Ende trotz der fehlenden CUDA-Cores im Vergleich mit einer GeForce GTX 670 knapp schneller arbeiten. Vor allem in hohen Auflösungen dürfte sich zudem die zusätzliche Speicherbandbreite positiv auswirken. Mit einer Veröffentlichung der Karte darf diversen Quellen zufolge am 25. Juni gerechnet werden. Eine offizielle Bestätigung des Termins gibt es allerdings noch nicht. Als Einführungspreis werden aktuell 250 US-Dollar für Modelle im Referenz-Design gehandelt. Übertaktete Modelle der Board-Partner mit eigenen Kühllösungen dürften sich zwischen 250 und 300 US-Dollar bewegen. Auf der Computermesse Computex waren übrigens schon erste Karten des Typs in Aktion zu sehen (gulli:news berichtete).

Spezifikationen der GeForce GTX 760:

    GPU:          GK104
    CUDA Cores:   1152
    GPU Takt:          1072 MHz
    GPU-Boost:   1111 MHz
    ROPs:          32
    TMUs:   96
    Speicher:          2 GB GDDR5
    Speicherinterface:   256 Bit
    Speichertakt:        7,0 GHz effektiv
    Preis:   circa 250 US-Dollar
    Release:   wahrscheinlich 25. Juni

Quelle : www.gulli.com
Titel: AMDs neues GPU-Flaggschiff Hawaii vor dem Stapellauf
Beitrag von: SiLæncer am 08 August, 2013, 13:05
Die Vorstellung von AMDs kommender GPU-Generation "Volcanic Islands" rückt näher. Laut Semiaccurate und Bright Side of News will das Unternehmen Ende September die Architektur der Flaggschiff-GPU "Hawaii" auf der gleichnamigen Inselgruppe erläutern. Dies soll laut BSN der Grafik-Experte Raja Koduri übernehmen, den AMD kürzlich von Apple abgeworben hat. Die Gerüchte, die teilweise offenbar von US-Mitarbeitern inoffiziell bestätigt worden sind, wollte die Firma gegenüber c't nicht kommentieren.

Hawaii soll eine stark überarbeitete GCN-Architektur nutzen und Nvidias GeForce GTX Titan die Leistungskrone entreißen. Der Marktstart der ersten Grafikkarten mit Hawaii-GPU erfolgt laut den Gerüchten noch vor Weihnachten. Hier kommt es aber darauf an, ob Hawaii zunächst auf Profi-Grafikkarten der FirePro-Serie auftaucht, wie es die Webseite Sweclockers erfahren haben will, oder auf Spieler-Grafikkarten der Radeon-Familie.

(http://www.heise.de/imgs/18/1/0/5/9/6/3/7/bf4detct-84d4b69dcc08025b.jpeg)
Je nachdem sind Vorstellungen im Zuge des AMD Developer Summit Mitte November oder zum Erscheinen des von vielen Spielern heiß erwarteten Grafikkrachers Battlefield 4 Ende Oktober denkbar. Battlefield 4 wird Teil eines neuen Spiele-Pakets "Never Settle" werden und soll laut dem Chefentwickler Johan Andersson auch Nutzen aus DirectX-11.1-Funktionen ziehen. Zudem senkte AMD erst vor wenigen Tagen den den Preis seiner schnellsten Dual-GPU-Grafikkarte Radeon HD 7990 von knapp 900 auf 640 Euro. Gegenüber c't erklärte AMD bereits im Februar, dass man seine schnellste Single-GPU-Grafikkarte Radeon HD 7970 GHz Edition erst Ende des Jahres 2013 ablösen werde.

Quelle : www.heise.de
Titel: GPU14: AMD bringt Low-Level-API Mantle als Alternative zu DirectX - Battlefield
Beitrag von: Dragonix am 26 September, 2013, 11:46
Zitat von: PCGH.de
Gerade lief AMDs PR-Maschine auf dem GPU14-Techday zur Hochform auf, während man die neuen Hawaii-GPUs auf Basis der GCN-2-Architektur inklusive verschiedener Neuerungen im Radeon-R9-Ecosystem wie Verwendungsmöglichkeiten als Audio-Co-Prozessor ACP vorstellt. Doch die weitreichendste Neuheit dürfte Mantle sein, eine API, welche die Spielebranche verändern könnte.

Rest: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/AMD-Low-Level-API-Mantle-Battlefield-4-1090085/

---

Ich sag's ganz ehrlich: Je nach dem WIE Low-Level das ganze ist, ist das in meinen Augen eine mittlere Katastrophe. Neben einer weiteren Zersplitterung des Marktes, hat man, wenn man Pech hat, schon mit der nächsten Generation massive Inkompatibilitäten. Mit etwas Glück haben wir dann Quasi einen Jahrelangen stillstand, da kein Schwein für neue API Versionen programmiert, weil die Konsolen ja nicht mehr können...
Titel: Re: GPU14: AMD bringt Low-Level-API Mantle als Alternative zu DirectX
Beitrag von: SiLæncer am 26 September, 2013, 13:25
Seh ich ähnlich ... Überflüssig wie ein Kropf
Titel: NVIDIA arbeitet an eigener (Grafik?)-API
Beitrag von: Dragonix am 30 September, 2013, 21:00
Zitat von: hardwareluxx.de
Der kalifornische Grafikchip-Spezialist NVIDIA arbeitet gemeinsam mit dem Linux-Distributor RedHat an einer eigenen Grafik API. Diese soll es Treiberentwicklern ermöglichen, gleichzeitig auf die Adressräume der CPU sowie GPU zuzugreifen. Ein Anwendungsbeispiel wäre z.B. dass OpenGL-Funktionen auf den Adressraum einzelner Prozesse auf der CPU zugreifen können und so ein langsames Hin- und Herkopieren der Daten zwischen Grafikkarte und Hauptspeicher obsolet machen.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/28045-nvidia-arbeitet-an-eigener-grafik-api.html

----
Geht, wenn ich das richtig sehe, vor allem um Speicherverwaltung. Seh ich also eher als Ergänzung z.B. zu OpenGL als eine komplett eigenständige API zur Verwendung der Grafikkarte?
----

So, noch ein Update: Nach dem ich etwas mehr recherchiert hab: Das ist wohl wirklich keine Grafik-API sondern viel mehr eine Schnittstelle um alles zu verwalten, was mit Speicher zu tun hat. Wenn ich nen knappen Link dazu find, editier ich nochmal...
Titel: VGA Anschluss + analoges Bildsignal bei AMD Hawaii gestrichen
Beitrag von: Dragonix am 04 Oktober, 2013, 10:55
Zitat von: pcgh.de
Der Chip-Hersteller AMD wird bei seiner neu vorgestellten Grafikkartengeneration Volcanic Islands bei seinen Pixelbeschleunigern ab der Radeon R9 280X keine analogen Bildübertragungen an Monitore beziehungsweise Projektoren mehr unterstützen. Zwar wurden VGA-Anschlüsse schon länger nicht mehr benutzt, jedoch fällt nun auch der DVI-Ports komplett digital aus. Die vier zusätzlichen Pins für eine analoge Übertragung per Adapter sind somit nicht mehr an Bord.
Quelle + ganzer Artikel: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Hawaii-VGA-analoges-Bild-entfaellt-1091091/

--
Find ich blöd. Hab noch genug mit Beamern zu tun, die zwar sicher über einen digitalen Anschluss verfügen, der mir aber in X Metern Entfernung wenig nützt, wenn die ganze Verkabelung und Anlage auf VGA ausgelegt ist. Auch zum testen fand ich meinen Röhrenmonitor immer noch klasse.
Mit den ganzen Anschlüssen steh ich eh auf kriegsfuss zurzeit. Erst kommt DVI (ok, damit leb ich noch am besten), dann kam HDMI und dann kam auf sofort DP. Wozu? Von den Auflösungen, die DP kann und HDMI nicht (hat sich das nicht sowieso mit eine rneuen HDMI Version erledigt?), sind wir mein ich noch etwas entfernt. Das sich die ganzen "neumodischen" Stecker nicht mehr verschrauben lassen, find ich sowieso zum heulen  :(.
Titel: Re: VGA Anschluss + analoges Bildsignal bei AMD Hawaii gestrichen
Beitrag von: Jürgen am 05 Oktober, 2013, 03:49
Nicht nur das, zumindest HDMI-Kabel (und - Buchsen) sind oft mechanisch erschreckend wenig stabil und oft sogar stark verschleißanfällig.
Defekte VGA-Kabel habe ich noch gar nicht erlebt.
Aber HDMI-Stecker sind meist innerlich äußerst beengt, sodass schon eine unvorsichtige Biegung des Kabels direkt am Stecker genügt, um einzelne Adern zu zerreißen bzw. von den Kontakten abzureißen.
Ähnlich empfindlich sind sonst allenfalls SATA-(Flach)Kabel.
Liegt wohl hauptsächlich daran, dass man induktive Eigenschaften durch kleine mechanisch entlastende Schlaufen unbedingt vermeiden will.
Auch die HDMI-Printbuchsen sind, wohl aus demselben Grunde, durch seitliche Kräfte sehr leicht zu beschädigen, und dabei gehen dann gerne die zwangsläufig sehr zart ausgeführten Leiterbahnen kaputt.
Schneller Tod der ganzen Platine...

Natürlich bin ich, obschon jahrelang als Fernsehtechniker tätig gewesen und fast ewig Hobby-Elektroniker, wenig von selbst konfektionierten Multi-Ader-Verbindungen überzeugt.
SCART-, DIN- oder Cinch-Stecker, alle sind bei häufigem Stecken oder mechanischer Belastung z.B. beim Zurückschieben eines Geräts gegen eine Wand recht leicht zerstört.
Nicht vergleichbar mit der Stabilität von ordentlichen Sub-D oder gar Centronics-Steckern, oder den auf der Bühne und im Labor üblichen Rundstecker-Varianten mit Überwurf-Verschraubung oder -Bajonett.
 
Viele heutige Steckertypen sind aber offenbar gezielt so entwickelt worden, dass sie mit den einfachen Mitteln des gemeinen Löters gar nicht mehr zu verarbeiten sind. 
Gilt z.B. auch für USB 3.0

Der DVI-Stecker war wohl der jüngste und letzte solcher Stecker, der (wenigstens prinzipiell) noch konventionell verarbeitet werden und eigentlich sogar robuste Metallgehäuse mit ordentlicher Zugentlastung samt Knickschutz bekommen haben könnte.
Aber natürlich braucht der recht viel Platz, und der ist zumindest am Slotblech oft ausgesprochen knapp. 

Natürlich sind die Anforderungen an Hochfrequenz-Eigenschaften zunehmend wichtig, und dafür ist Miniaturisierung natürlich hilfreich.
Aber man ist auch nicht mehr weit von den Grenzen solcher Technologie entfernt.
Daher werden wohl bald vermehrt Lichtleiter-Verbindungen zum Einsatz kommen müssen.

Jürgen
Titel: Re: GPU14: AMD bringt Low-Level-API Mantle als Alternative zu DirectX
Beitrag von: Snoop am 08 Oktober, 2013, 06:54
Seh ich ähnlich ... Überflüssig wie ein Kropf

Seh ich nicht so. Seit MS die DirectX-Versionen immer enger an die Windows-Versionen bindet (z.B. DX 11.2 NUR für Windows 8 - finde ich eine Frechheit!) und damit die Benutzer zu einem neuen OS ZWINGT, wenn sie eine neue DirectX-Version haben wollen, ist mir eine Alternative sehr lieb.
Titel: AMD vernachlässigt OpenGL nicht
Beitrag von: Dragonix am 08 Oktober, 2013, 10:46
Seh ich ähnlich ... Überflüssig wie ein Kropf

Seh ich nicht so. Seit MS die DirectX-Versionen immer enger an die Windows-Versionen bindet (z.B. DX 11.2 NUR für Windows 8 - finde ich eine Frechheit!) und damit die Benutzer zu einem neuen OS ZWINGT, wenn sie eine neue DirectX-Version haben wollen, ist mir eine Alternative sehr lieb.

Dann wäre aber die Alternative in Form von OpenGL schon lange gegeben. Damit können die neusten Features auf jeder Plattform genutzt werden, die vom Treiber Hersteller unterstützt wird...
Und wenns den unbedingt was neues sein muss: Wie wär's dann damit, das ganze zumindest wie OpenGL aufzuziehen? Also zumindest offen? Sooo offen ist Mantle ja wieder nicht, wie behauptet: Man wird sich sicher einig, falls andere Hersteller interesse an einer Mantle Implementierung zeigen... also für $$$ geht's, sonst nicht oder wie...

---

Und, wenn man vom Teufel spricht..
Zitat von: pcgh.de
Grahams Sellers, seines Zeichens Senior Manager of Software Development speziell für OpenGL bei AMD, hat über Twitter bekannt gegeben, dass man trotz der hauseigenen API Mantle auch zukünftig OpenGL unterstützen werde und ein starker Anhänger der Khronos Group sei. Letztere besteht aus diversen Unternehmen, welche den offenen Standard weiterentwickeln. Außerdem stellt man in Aussicht, dass OpenGL mit neuen Erweiterungen keinen Flaschenhals mehr darstellen werde.
Quelle und weiter: http://www.pcgameshardware.de/OpenGL-Software-141680/News/AMD-unterstuetzt-OpenGL-Extensions-geplant-1091545/

--
Anders als der Autor des Artikels würde ich eigene Extensions nicht für von vornherein ausschließen. ATI/AMD hat viele Extensions vorgeschlagen/entwickelt, so konnte man z.B. ihren vorläufer von Tesselation (TruForm) über eine OpenGL Erweiterung verwenden (ATI_pn_triangles).
Titel: AMD: Mantle PC exklusiv
Beitrag von: Dragonix am 15 Oktober, 2013, 21:17
Zitat
Wie AMD über seinen offizielle "AMD Radeon Graphics"-Twitter-Account vermeldet hat, werden Konsolen die vor Kurzem vorgestellte API Mantle nicht unterstützen. Zuvor hat Microsoft einen Blog-Eintrag vorgenommen, in dem er das Thema DirectX auf seiner Xbox One ausgeführt hat. Die Verbindung zwischen Konsolen und PCs bestehe lediglich darin, dass bei Ersteren nunmehr auch PC-Hardware zum Einsatz kommt.
Quelle: http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Mantle-API-PS4-Xbox-One-nicht-unterstuetzt-1092681/

Damit hat sich die Sache in meinen Augen erledigt. Aber totgesagte leben länger...
Titel: Nvidias neuer Grafikkarten-König: GeForce GTX Titan Black
Beitrag von: SiLæncer am 18 Februar, 2014, 19:30
Nvidia ersetzt die GeForce GTX Titan durch die schnellere Black-Variante. Sie bietet mehr Kerne und höhere Taktfrequenzen, aber die gleiche Double-Precision-Leistung wie der Vorgänger.

(http://2.f.ix.de/imgs/18/1/1/7/4/6/6/7/Titan_Black-72968d5465f292da.jpeg)
Nvidia löst die Hochleistungsgrafikkarte GeForce GTX Titan mit einer schneller getakteten Black-Variante ab. Auf ihrer GPU funktionieren nun alle Shader-Cluster, so dass sie 2880 statt 2688 Kerne beherbergt. Sie laufen mit 889 MHz mit einem bei 3D-Berechnungen garantierten Turbo-Takt von 980 MHz.

Die für universelle Berechnungen interessante Single-Precision-Leistung liegt bei 5,1 TFlops und damit 13 Prozent höher als bei der originalen GeForce GTX Titan. Allerdings bleibt die Double-Precision-Leistung (DP) bei 1,3 TFlops, da die Rechenkerne im DP-Modus mit einer niedrigeren Taktfrequenzen laufen.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Nvidias-neuer-Grafikkarten-Koenig-GeForce-GTX-Titan-Black-2116958.html)

Quelle : www.heise.de



krasses Teil  :aah
Titel: Simsalabim: Aus Radeon HD 7950 Boost wird Radeon R9 280
Beitrag von: SiLæncer am 04 März, 2014, 14:27
Statt neue Chips nur umbenannte: AMDs Radeon R9 280 gleicht der Radeon HD 7950 Boost. AMD führt das Namens-Verwirrspiel also weiter.

AMD präsentiert seine vermeintlich neue Spieler-Grafikkarte Radeon R9 280 in der Serie Volcanic Islands. Bis auf den Namen entspricht sie – von der um 8 MHz erhöhten GPU-Taktfrequenz (933 MHz) mal abgesehen – einer Radeon HD 7950 Boost.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Simsalabim-Aus-Radeon-HD-7950-Boost-wird-Radeon-R9-280-2132924.html)

Quelle : www.heise.de
Titel: Nvidia: GTX 880 soll im September vorgestellt werden
Beitrag von: SiLæncer am 05 August, 2014, 13:32
Nvidias GTX 880 auf Basis der Maxwell-Architektur soll im September 2014 erscheinen, wie der Marketing-Chef des Grafikkartenherstellers Gigabyte im Interview mit Expreview sagte.

Im Interview mit Expreview bestätigte Liu Mengzong, Marketing-Chef des Grafikkartenherstellers Gigabyte, die Vorstellung der GTX 880 im September 2014. Das Interview ist nicht mehr auf der Webseite des chinesischen Magazins verfügbar. Das Online-Magazin Videocardz berichtet ebenfalls von einem Marktstart im September.

Die Nvidia GTX 880 soll der direkte Nachfolger der GTX 780 sein. Als GPU soll der neue GM204-Chip auf Basis der Maxwell-Architektur verwendet werden. Bisher gibt es Nvidias neue GPU-Architektur Maxwell nur auf Mittelklasse-Grafikkarten und bei Notebook-Modulen. Die bisherigen Desktop-Topmodelle basieren noch auf der Kepler-Architektur.

Neben dem neuen Chip soll die GTX 880 ein 256-Bit-Speicherinterface und 4 GByte Speicher besitzen. Das Board-Design soll dem der GTX 770 ähnlich sein. Die Grafikkarte soll zwischen 400 und 450 US-Dollar kosten. Damit wäre sie deutlich günstiger als die GTX 780, die zum Marktstart 650 Euro kostete.

Quelle : www.golem.de
Titel: Effizienzwunder: Maxwell 2.0 auf GeForce GTX 970 und 980
Beitrag von: SiLæncer am 19 September, 2014, 05:11
Nvidia hebt lüftet den Schleier über den Spieler-Grafikkarten GeForce GTX 970 und 980. Auf ihnen sitzen neue Maxwell-Chips, die sehr effizient sind, HDMI 2.0 bieten und Direct3D 11.2 voll beherrschen.

Maximale Leistung, hohe Effizienz und endlich volle Unterstützung aktueller 3D-Standards: Nvidia enthüllt seine neuen High-End-Grafikkarten GeForce GTX 970 und GTX 980. Auf ihnen sitzen Maxwell-GPUs der Serie GM204, die nicht direkt vergleichbar sind mit ihren kleinen Ablegern auf der GeForce GTX 750/Ti. Denn GM204 unterstützt erstmals auch das DirectX-11-Funktionsniveau 11_2 statt bisher 11_0 und soll laut Nvidia eventuell sogar kompatibel zu den Funktionsniveaus 11_3 und 12_0 werden. Nvidia erklärte weiter, dass Microsoft aber bis jetzt weder Direct3D 11.3 noch Direct3D 12.0 fertig definiert habe und man deswegen noch keine genauere Aussage treffen könne.

Das Highlight der neuen Karten ist die hohe Effizienz. Die GeForce GTX 980 erreicht im Turbo-Modus satte 5 Teraflops, bietet 4 GByte schnellen GDDR5-Speicher und schluckt laut Nvidia maximal 165 Watt. Im Vergleich schafft eine GeForce GTX 780 "nur" 4 TFlops und schluckt 250 Watt. Obwohl die Grafikchips beider Karten mit 28-Nanometer-Transistoren gefertigt werden, hat es Nvidia nach diesen offiziellen Zahlen geschafft, die GFlops pro Watt bei der GTX 980 zu verdoppeln (30 zu 15). Selbst die für damalige Verhältnisse sparsame High-End-Karte GeForce GTX 680 erreicht bei 195 Watt nur 3 TFlops.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Effizienzwunder-Maxwell-2-0-auf-GeForce-GTX-970-und-980-2398821.html)

Quelle : www.heise.de
Titel: Monster-Grafikkarten für 4K
Beitrag von: SiLæncer am 11 November, 2014, 22:15
Auf Benchmark-Seiten und einem indischen Tracking-System tauchten Hinweise auf neue High-End-Grafikkarten von AMD und Nvidia auf, die Gerüchten zufolge als Radeon R9 390X und GeForce GTX Titan II im kommenden Jahr erscheinen könnten.

Die Grafikkartenhersteller AMD und Nvidia basteln hinter verschlossenen Türen offenbar an neuen Monster-Grafikkarten für die anspruchsvolle 4K-Auflösung (Ultra HD). Sie dürften im Unterschied zu den derzeitigen Modellen Nvidia GeForce GTX 980 und AMD Radeon R9 290X auch die neuesten DirectX-11-Spiele mit maximaler Detailstufe in der 8-Megapixel-Auflösung ruckelfrei darstellen. Gerüchten zufolge soll es sich dabei um die GeForce GTX Titan II und die Radeon R9 390X handeln. Die Bezeichnungen wurden allerdings weder von AMD noch Nvidia bestätigt. Die derzeit erhältlichen Highend-Karten GeForce GTX 970/980 und Radeon R9 290X schaffen in den meisten Spielen bei 4K keine 60 fps. 4K-Extremspieler sind derzeit also auf Grafikkarten-Verbundsysteme (CrossFire/SLI) oder Dual-GPU-Karten angewiesen, die mehr Nach- als Vorteile mit sich bringen.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Monster-Grafikkarten-fuer-4K-Geruechte-um-Nvidia-GeForce-GTX-Titan-II-und-AMD-Radeon-R9-390X-2451581.html)

Quelle : www.heise.de
Titel: GeForce GTX 970: Nvidia lässt Händler und Kunden im Regen stehen
Beitrag von: SiLæncer am 28 Januar, 2015, 18:24
Einige Händler nehmen die von Nvidia mit falschen Spezifikationen in den Markt gebrachte Grafikkarte GeForce GTX 970 zurück. Von Nvidia gibt es noch immer keine öffentliche Erklärung für Kunden und Händler.

Nvidia bekommt wegen seiner Spezifikations-Lüge zur GeForce GTX 970 immer schärferen Gegenwind. Denn viele Händler in Deutschland stehen nun unter dem Druck, auf die vermehrten Kundenbeschwerden zur GeForce GTX 970 reagieren zu müssen. Von Nvidia gibt es bis dato keine öffentliche Stellungnahme – sowohl bei Händlern als auch Kunden herrscht derzeit Unklarheit.

Gemäß zahlreichen Nutzerberichten in Foren haben sich immerhin einige Händler aus Kulanz zur Rücknahme der GeForce GTX 970 bereit erklärt. Beispielsweise erklärte Caseking, den Kaufpreis in voller Höhe zurück zu erstatten. Bei den Kollegen von Computerbase gibt es eine von Nutzern zusammengetragene Liste von Händlern, welche GTX-970-Grafikkarten umtauschen. Auf die Anfrage von heise online an Nvidia, ob man bisherigen Besitzern eine Entschädigung anbieten wolle und ob die Firma beabsichtigt, für Kunden und Händler noch eine öffentliche Erklärung abzugeben, gab es bis dato keine Antwort.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/GeForce-GTX-970-Nvidia-laesst-Haendler-und-Kunden-im-Regen-stehen-2531359.html)

Quelle : www.heise.de
Titel: GTX-970-Täuschung: AMD nimmt Nvidia auf die Schippe
Beitrag von: SiLæncer am 29 Januar, 2015, 19:36
AMD stellt angesichts des GTX-970-Skandals bei Nvidia ein "großartiges Angebot" für eine Radeon mit "vollen 4 GByte" in Aussicht und nimmt den Konkurrenten damit auf die Schippe. Gelten soll die Offerte für Spieler, die ihre GTX 970 zurückgeben.

Im Skandal um Nvidias GTX-970-Spezifikationslüge schaltet sich jetzt auch der Konkurrent AMD ein. AMDs Cooperate Vice President Roy Taylor stellt jedem Nutzer, der seine GTX 970 zurückgeschickt, ein "großartiges Angebot" für eine Radeon-Grafikkarte "mit vollen 4 GByte" Speicher in Aussicht. Taylor fordert Interessenten via Twitter auf, ihn direkt per Email zu kontaktieren. AMD werde in den kommenden Tagen weitere Details öffentlich verkünden. Ob das Angebot auch für Deutschland gelten wird, ist noch unklar.

Überdies nimmt AMD-Manager Robert Hallock, Chef des weltweiten technischen Marketings, die Firma Nvidia aufs Korn. Ein von ihm auf Twitter veröffentlichtes Bild zeigt eine Radeon-Grafikkarte und den Schriftzug: "4GB means 4GB". Es spielt auf den Umstand an, dass die GeForce GTX 970 nur 3,5 GByte des insgesamt 4 GByte großen Videospeichers schnell ansteuern kann.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/GTX-970-Taeuschung-AMD-nimmt-Nvidia-auf-die-Schippe-2533340.html)

Quelle : www.heise.de
Titel: AMD beerdigt 3D-Schnittstelle Mantle 1.0 und empfiehlt DirectX 12 und Vulkan
Beitrag von: SiLæncer am 03 März, 2015, 18:48
AMD-Vizepräsident Raja Koduri empfiehlt Entwicklern, die Funktionen von Mantle 1.0 nutzen wollen, auf DirectX 12 oder Vulkan umzuschwenken.

AMD stellt die Entwicklung der jetzigen 3D-Programmierschnittstelle Mantle 1.0 anscheinend ein. Dies geht aus einem Blog-Beitrag von AMDs Vice President Raja Koduri hervor, der vom PR-Manager Robert Hallock veröffentlicht wurde. Koduri empfiehlt Entwicklern, die die Funktionen von Mantle 1.0 nutzen wollen, stattdessen besser DirectX 12 oder GLNext/Vulkan zu verwenden.

AMD erklärt außerdem, dass das Mantle SDK für registrierte Entwickler weiterhin erhältlich sein werde. Ein öffentlich verfügbares SDK für Mantle wird AMD allerdings nicht mehr herausbringen. Partner, die Mantle für künftige Projekte verwenden, etwa Battlefield Hardline, werde man weiterhin unterstützen. Außerdem werde man im März noch einen Programming Guide veröffentlichen.

Raja Koduri hat AMDs 3D-Schnittstelle Mantle im September 2013 auf Hawaii angekündigt. Koduri wechselte erst fünf Monate zuvor von Apple zurück zu AMD. Gegenüber c't erklärte Koduri damals, dass eines seiner großen Ziele sei, die Entwicklung zu beschleunigen und die 3D-Performance maßgeblich zu erhöhen.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/AMD-beerdigt-3D-Schnittstelle-Mantle-1-0-und-empfiehlt-DirectX-12-und-Vulkan-2566057.html)

Quelle : www.heise.de
Titel: AMD: 4K-Grafikkarten mit Stapelspeicher noch in diesem Quartal
Beitrag von: SiLæncer am 06 Mai, 2015, 21:16
Noch in diesem Quartal sollen die ersten High-End-Radeons mit Stapelspeicher kommen und 4K ebenso meistern wie VR-Welten.

AMDs nächste Grafikkarten-Generation R9 300 mit Stapelspeicher soll noch in diesem Quartal erscheinen. Dies erklärte AMD im Rahmen seines Financial Analyst Day 2015, bei dem Firmenchefin Lisa Su und CTO Mark Papermaster sprachen.

Die als Radeon-Serie R9 390(X) gehandelten Grafikkarten sollen die ersten mit einer neuen Speichertechnik namens "High Bandwidth Memory" (HBM) sein, die Transferraten von 500 GByte/s und mehr ermöglicht. In Verbindung mit einer höheren Zahl von Funktionseinheiten wie Shader-Rechenkernen und Texture Mapping Units dürften die neuen HBM-Grafikkarten genug Leistung fürs 4K-Gaming mit voller Detailstufe bieten. AMDs derzeitiger Spitzenreiter Radeon R9 290X nutzt GDDR5-Speicher und kommt selbst mit 512 Datenleitungen auf maximal 320 GByte/s. Konkurrent Nvidia plant erst im Jahr 2016 GeForce-Grafikkarten mit Stapelspeicher anzubieten – mit GPUs der Serie Volta.

Stapelspeicher: Viel Leistung auf wenig Platz

AMD zufolge spart das Stapeln der Videospeicherchips viel Platz; der GPU-Hersteller stellte deshalb auch Grafikkarten mit besonders kompakten Abmessungen in Aussicht. Im Vergleich mit GDDR5-Speicher soll HBM außerdem wesentlich weniger Strom schlucken, AMD spricht von einer um 50 Prozent reduzierten Leistungsaufnahme.

Die HBM-Grafikkarten sind laut AMD voll zu DirectX 12 und Vulkan kompatibel, unterstützen die Display-Technik FreeSync und sollen sich dank LiquidVR besonders gut zur Visualisierung von VR-Welten eignen.

Radeon M300 für Notebooks, FinFET erst 2016

Neben den HBM-Grafikkarten hat AMD auch neue Mobil-GPUs – Radeon M300 – für Notebooks in Aussicht gestellt. Diese sind ebenfalls zu DirectX 12 und FreeSync kompatibel, setzen aber offenbar noch auf GDDR5-Speicher. Sie können auch mit den Grafikeinheiten bestimmter APU-Kombiprozessoren zusammenarbeiten (Dual Graphics). Vorgestellt werden die Mobilchips nach derzeitigem Kenntnisstand zur Computex, die am 1. Juni startet.

2016 will AMD erste GPUs in einem feineren FinFET-Fertigungsverfahren herausbringen, die wesentlich effizienter als jetzige Chips sein sollen. AMD spricht von der doppelten Leistung pro Watt, nennt aber keine weiteren Details. Den GPUs will AMD außerdem HBM-Speicher der zweiten Generation (HBM2) zur Seite stellen, der die Transferrate im Vergleich zu HBM glatt verdoppelt.

Quelle : www.heise.de
Titel: Nvidia GeForce GTX 950: Multimedia-Grafikkarte für die Filme der Zukunft
Beitrag von: SiLæncer am 20 August, 2015, 16:22
Nvidias GeForce GTX 950 stellt aktuelle Spiele in Full HD flüssig dar und bringt eine moderne Video-Engine mit, die für künftige 4K-Blu-rays und 4K-Bezahlstreams gewappnet ist.

(http://3.f.ix.de/scale/geometry/600/q75/imgs/18/1/5/7/0/3/2/1/Aufmacher-7093c623835e0c96.png)

Nvidia enthüllt heute die GeForce GTX 950 als kompakte Multimedia-Grafikkarte, die auch zum Spielen geeignet ist. Sie soll ab 170 Euro erhältlich sein. Bereits Anfang Juli gelangten erste Details an die Öffentlichkeit, die nun bestätigt wurden. Die GeForce GTX 950 unterstützt DirectX 12 (Direct3D FL 12_1), bietet 2 GByte Videospeicher und eine Reihe moderner Multimedia-Funktionen, die es in der Preisklasse bislang nicht gab. Sie konkurriert mit AMDs Radeon R7 370, die 150 Euro kostet.

Allerdings bietet die GeForce GTX 950 im Unterschied zur Radeon eine HDMI-2.0-Buchse, mit der sich 4K-Fernseher mit 60 Hz ansteuern kann. Außerdem unterstützt sie auch den Kopierschutzstandard HDCP 2.2, der künftig für 4K-Blu-rays und möglicherweise auch 4K-Bezahlstreams zum Einsatz kommt. HEVC-Filme (H.265) de- und enkodiert ihre Video-Engine in Hardware. Damit eignet sich die Karte für Multimedia- und Home-Theatre-PCs.

Die GeForce GTX 950 ist eine Art abgespeckte GeForce GTX 960. Auch auf der 950 sitzt ein GM206-Grafikchip, allerdings enthält er nur 768 statt 1024 funktionsfähige Shader-Rechenkerne, die sich in 6 statt 8 Rechengruppen (SMM) organisieren. Entsprechend reduziert sich auch die Anzahl der Textureinheiten von 64 auf 48. Überdies läuft der Videospeicher mit 3300 statt 3506 Mhz, was auf die Transferrate aber nur geringen Einfluss hat. Über 128 Leitungen ist der VRAM auch bei der GTX 950 angebunden.

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Nvidia-GeForce-GTX-950-Multimedia-Grafikkarte-fuer-die-Filme-der-Zukunft-2786883.html)

Quelle : www.heise.de
Titel: Grafikkarte für Aufrüster: Erste GeForce GTX 950 ohne Stromanschluss
Beitrag von: SiLæncer am 08 März, 2016, 13:21
Asus präsentiert eine GeForce GTX 950, die ohne zusätzliche Stromanschlüsse auskommt und sich daher besonders zum Aufrüsten älterer Rechner eignet. Die Grafikkarte soll in den kommenden Wochen erscheinen.

Die Firma Asus hat die erste Grafikkarte der Serie GeForce GTX 950 angekündigt, die komplett ohne zusätzliche Stromanschlüsse auskommt. Maximal 75 Watt soll die Asus GTX950-2G schlucken – also 15 Watt weniger, als Nvidia für GTX-950-Modelle spezifiziert. Trotzdem liegt die GPU-Taktfrequenz des Asus-Modells im sogenannten "OC-Mode" höher, als Nvidias Referenzspezifikation vorschreibt – nämlich bei 1051 statt 1024 MHz (Turbo: 1228 statt 1188 MHz).

Der ganze Artikel (http://www.heise.de/newsticker/meldung/Grafikkarte-fuer-Aufruester-Erste-GeForce-GTX-950-ohne-Stromanschluss-3130392.html)

Quelle : www.heise.de
Titel: GeForce RTX 2080 Ti: Neue Nvidia-Grafikkarten mit bis zu 4352 CUDA-Cores
Beitrag von: SiLæncer am 18 August, 2018, 23:58
Nvidias kommende Grafikkarten mit Turing-Prozessor für den Consumer-Markt sollen bis zu 4352 Shaderkerne und schnellen GDDR6-Speicher enthalten.

Nvidias kommende Grafikkarten für den Consumer-Markt mit den Prozessoren der neuen Turing-Generation sollen mehr CUDA-Kerne als die jeweiligen Modelle der Vorgängergeneration enthalten, aber weniger als die entsprechenden Profi-Varianten der Quadro-Reihe aus der neuen Generation. Die Website videocardz.com will vorab die Spezifikationen der beiden Modelle GeForce RTX 2080 und RTX 2080 Ti erfahren haben.

Schneller GDD6-Speicher

Das Modell GeForce RTX 2080 Ti soll 11 GByte Speicher samt 352 Bit breitem Memory-Bus enthalten (was dem Modell GTX 1080 Ti der Vorgängergeneration entspricht), berichtet videocardz. Allerdings handelt es sich diesmal um GDDR6-Memory. Mit einem Tempo von 14 Gbps sollte der Speicher theoretisch in der Lage sein, Daten mit bis zu 616 Gb/s zu bewegen.

Das Modell RTX 2080 Ti soll 4352 CUDA-Kerne enthalten – das wären 256 Kerne weniger als die kürzlich vorgestellten Profi-Karten der Turing-Generation Quadro RTX 6000/8000, die 4608 Shaderkerne besitzen. Das Vorgängermodell der Pascal-Generation GTX 1080 Ti verfügte über 3584 Kerne.

Das kleinere Modell RTX 2080 soll (ebenso wie der Vorgänger GTX 1080) über 8 GByte Memory mit 256 Bit breitem Bus verfügen, jedoch ist auch hier GDDR6-Speicher verbaut. Mit 2944 Shaderkernen hat die RTX 2080 mehr Kerne als der Vorgänger (2560) und weniger als die Profivariante Quadro RTX 5000 (3072).

Nvidia beabsichtigt, die beiden neuen Modelle als Gaming-Grafikarten auf der am 21. August beginnenden Spielemesse Gamescom in Köln als GTX 2080 Ti und GTX 2080 vorstellen.

Quelle : www.heise.de
Titel: GeForce RTX 2070,2080,2080 Ti: Raytracing-Beschleuniger zu stolzen Preisen
Beitrag von: SiLæncer am 20 August, 2018, 20:07
Nvidia hat neue Gamer-Grafikkarten vorgestellt. Sie sollen besonders effizient bei Raytracing-Berechnungen sein, sind allerdings viel teurer als die Vorgänger.

Nvidia hat die ersten Grafikkarten seiner neuen Gaming-Generation vorgestellt. Die beiden High-End-Modelle GeForce RTX 2080 und GeForce RTX 2080 Ti werden von Grafikchips der neuen Serie Turing mit 2944 beziehungsweise 4352 Shader-Rechenkernen (Ti) angetrieben. Ihre 3D-Performance soll die Vorgänger-Generation Pascal (GeForce GTX 1000) überflügeln und ausreichen, um aktuelle DirectX-12-Spiele in 4K ruckelfrei darzustellen. Die GeForce GTX 2080 kostet als Referenzexemplar laut der Nvidia-Website 850 Euro, für die GeForce RTX 2080 Ti verlangt Nvidia 1260 Euro. Damit schraubt der GPU-Hersteller die Preise für Spieler-Grafikkarten erneut in die Höhe. Dazu kommt eine "günstigere" Variante namens GeForce RTX 2070 für 640 Euro.

Der ganze Artikel (https://www.heise.de/newsticker/meldung/Nvidia-GeForce-RTX-2070-2080-2080-Ti-Raytracing-Beschleuniger-zu-stolzen-Preisen-4142119.html)

Quelle : www.heise.de