Autor Thema: Neue Grafikkarten von AMD und Nvidia  (Gelesen 19168 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Umbruch im Grafikkarten-Markt
« Antwort #120 am: 05 November, 2009, 12:54 »
Der Markt für Grafikkarten war schon immer ein heißes Pflaster: Nvidia und AMD liefern sich hier mit immer neuen Chips seit Jahren eine heiße Schlacht. Bislang konnte sich Nvidia in dieser Auseinandersetzung recht gut behaupten, was sich auch sehr gut im heise resale Preisradar ablesen lässt: In den jüngsten Monaten belegten Produkte mit Geforce-Chips stets die vorderen Plätze in Sachen Käufernachfrage. So wundert es kaum, dass auch im 3-Monats-Überblick unter den meistgesuchten Grafikkarten auf der Preissuchmaschine Geizhals.at und dem Preissucher auf Heise online ein Produkt mit Nvidia-Chip (Palit/XpertVision GeForce GTX 275) auf Platz eins stehen.

Ist also alles in Ordnung für Nvidia? Wohl kaum, denn betrachtet man die aktuelle Interessenlage potenzieller Grafikkartenkäufer, so stehen ganz klar Produkte von AMD im Fokus. Erst auf Platz 28 taucht ein Modell mit Nvidia-Baustein auf. Das in den vergangenen Monaten so gefragte GeForce-GTX-275-Modell liegt inzwischen weit abgeschlagen auf Rang 83. Wirklich überrascht dürfte Nvidia von diesem Wandel allerdings nicht sein, schließlich kann das Unternehmen derzeit keinen konkurrenzfähigen Baustein mit DirectX-11-Unterstützung vorweisen. Zudem sind die neuen AMD-Modelle auch noch energieeffizienter als die aktuellen Nvidia-Chips. Besonders im Desktop-Betrieb sind sie vergleichsweise sparsam.

Auch eine Analyse der Top-100-Grafikkarten geht klar zu Gunsten von AMD aus. Am gefragtesten ist derzeit AMDs Radeon HD 5850, dicht gefolgt von der Radeon HD 5870. Auf Platz drei immer noch gut im Rennen liegt die Radeon HD 5770. Mit deutlichem Abstand folgen dann Karten mit dem Radeon HD 4870 und 4890. Erst auf Rang 6 taucht Nvidias GeForce GTX 260 auf.

Weniger spannend sieht das aktuelle Hersteller-Ranking unter den Top-100-Grafikkarten aus: Produkte von Sapphire werden von den Kaufinteressenten am häufigsten abgefragt – kein Wunder, fertigt Sapphire doch ausschließlich Modelle aus AMD-Basis. Mit deutlichem Abstand folgen PowerColor – ebenfalls ein Unternehmen, das voll auf AMD gesetzt hat. Platz drei belegt XFX, die sowohl Grafikkarten mit Nvidia- als auch mit AMD-Chips produzieren. Von MSI schafften es immerhin neun Produkte unter die Top 100, was dem taiwanischen Hersteller knapp den vierten Platz vor Club 3D sicherte.

Hohes Käuferinteresse bedingt freilich nicht automatisch auch gute Verkaufszahlen. Gerade die besonders gefragten Modelle Radeon HD 5870 und 5850 von AMD sind nach wie vor nur schlecht lieferbar. Gleiches gilt freilich auch für Nvidias GeForce GTX 285. Dennoch muss sich Nvidia auf weiter schrumpfende Marktanteile einstellen. Bereits im dritten Quartal 2009 sank der Grafikchip-Anteil laut einer Studie von Jon Peddie Research von 29,2 auf 24,9 Prozent bei 29,74 Millionen Einheiten. Besserung dürften erst die für Anfang Januar 2010 avisierten GeForce- und Tesla-Grafikkarten mit Fermi-Architektur bringen. Ob diese allerdings termingerecht auf dem Markt kommen, wird von vielen bezweifelt. AMD freut sich unterdessen – zumindest im Grafikchip-Segment – über steigende Marktanteile. Im dritten Quartal kletterte AMD von 18,4 (Q2/09) auf 19,8 Prozent. Größter Spieler im Grafikchip-Markt ist freilich weiterhin Intel durch die schiere Masse der in Chipsätzen integrierten Grafikkerne.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Snoop

  • Premium-Cubie
  • ****
  • Beiträge: 795
Re: Umbruch im Grafikkarten-Markt
« Antwort #121 am: 05 November, 2009, 13:08 »
Ich finde, bei Intel sollte man mal die alle aus der Statistik rausschmeißen, die den Onboard-Chip nicht benutzen. Bei mir ist der noch nie verwendet worden. Ich kann nichts dafür, dass da einer auf dem Board ist.
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia - Unliebsame Konkurrenz per Treiber blockiert?
« Antwort #122 am: 07 November, 2009, 14:07 »
Nachdem das MSI-Mainboard »Big Bang« nicht wie angekündigt mit dem Lucid Hydra-Chip erschienen ist, vermehren sich Meldungen, dass Nvidia den Hydra-Chip boykottieren wird.

Der Hydra-Chip, der die Zusammenarbeit zwischen mehreren Grafikkarten erlaubt, auch wenn diese von verschiedenen Herstellern stammen, würde das Geschäft mit SLI-Lizenzen gefährden, so Expreview. Aus diesem Grund habe man sich entschieden, gegen den Hydra-Chip vorzugehen und bereits auf Treiberlevel eine Zusammenarbeit zu blockieren.

Außerdem habe man, wie bereits gemeldet, MSI auf bisher unbekannte Weise gezwungen, das »Big Bang«-Mainboard zu verschieben. Dazu meldet VR-Zone jedoch, dass MSI die Verschiebung in das 1. Quartal 2010 damit erklärt, dass man noch ein paar Monate für die Entwicklung von Windows-7-Treibern benötige.

Doch auch VR-Zone geht davon aus, dass Nvidia und der Kampf gegen den Hydra-Chip der wahre Grund sind. Eventuell handelt es sich nur um einen weiteren Bereich, in dem Nvidia gegen Intel ins Feld zieht, schließlich hat Intel die Entwicklung des Hydra-Chips bei Lucid finanziert.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia Fermi - Offiziell: Massenproduktion erst 2010
« Antwort #123 am: 08 November, 2009, 17:42 »
Seit der Vorstellung des Fermi-Grafikchips durch Nvidia wird darüber spekuliert, wann entsprechende Produkte im Handel erscheinen werden.

Nvidias CEO Jen Hsun-Huang hat im Rahmen der Bekanntgabe der Geschäftszahlen nun jedoch klargestellt, dass die Massenproduktion des Fermi-Chips erst im 1. Quartal 2010 anlaufen wird. Nvidia werde im 1. Quartal mehr 40nm-Wafer benötigen als je zuvor, denn dann werde man den Fermi-Chip für drei verschiedene Produktreihen herstellen: Geforce, Quadro und Tesla.

Das erste Quartal bedeutet in diesem Fall die ersten drei Monate des nächsten Geschäftsjahres, bei Nvidia ist dies der Zeitraum vom 26. Januar bis 26. April 2010. Damit dürften Gerüchte, nach denen Nvidia noch in diesem Monat oder zumindest noch in diesem Jahr DirectX-11-kompatible Geforce-Karten auf den Markt bringen soll, wohl als wiederlegt gelten. Eine Vorstellung nicht erhältlicher Karten bleibt natürlich weiterhin denkbar.

Über die »revolutionären», grafischen Fähigkeiten des Fermi-Chips werde man erst sprechen, wenn Geforce- und Quadro-Karten angekündigt werden, so Huang.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia nennt erste Leistungswerte zu Fermi
« Antwort #124 am: 16 November, 2009, 15:59 »
Zu Beginn der Supercomputer-Konferenz "SC09" hat Nvidia erste konkrete Angaben zu Rechenleistung und Strombedarf seiner neuen GPU "Fermi" gemacht. Gegenüber den bisherigen Tesla-Beschleunigern soll eine Fermi-Karte bis zu achtmal schneller sein, allerdings auch über 200 Watt Leistung aufnehmen.

Nvidia hat sein neues GPU-Design Fermi, das bisher nur angekündigt ist, nicht nur für Spielegrafikkarten entwickelt, sondern mit zahlreichen Funktionen für Rechenanwendungen ausgestattet. Dass dieser Bereich für GPUs zunehmend wichtiger wird, zeigt der chinesische Rechner "Tianhe", der sich in der aktuellen Liste der schnellsten Supercomputer aus dem Stand auf Platz fünf platzieren konnte. In dieser Maschine rechnen neben 6.144 Xeons auch 5.120 AMD-GPUs.


Fermi soll in diesem Markt nicht nur durch eine gegenüber der GT200b-Architektur drastisch gesteigerte Rechenleistung punkten, sondern auch durch mehr Speicher, der auch mit Fehlerkorrektur nach ECC betrieben werden kann. Wie schnell Fermi wirklich ist, hat Nvidia bisher nur angedeutet.

Nun teilte das Unternehmen erste konkrete Zahlen mit. So soll die für Rechenaufgaben vorgesehene Karte "Tesla C2050" bei doppelter Genauigkeit bis zu 630 Gigaflops erreichen. Das entspricht einer Verachtfachung der Rechenleistung gegenüber der bisher schnellsten Tesla-Karte C1060 mit G200b-Design. Daraus direkte Rückschlüsse auf die Spielekarten zu ziehen, die nach inoffiziellen Informationen erst im Januar 2010 verkauft werden sollen, ist jedoch schwer möglich.

Nvidia hat die bei doppelter Genauigkeit so stark gesteigerte Leistung unter anderem durch mehr Caches in der GPU erreicht, wovon bei Spielen nur Shaderprogramme, nicht aber der Großteil der Geometrie-Pipeline profitieren kann. Bei Vorstellung der Fermi-Architektur schätzte Golem.de eine Leistung von 4 Teraflops bei einfacher Genauigkeit, was bisher noch gut mit den Angaben von Nvidia korreliert. Zum Vergleich: AMD gibt für seine 5870 bei einfacher Genauigkeit 2,71 Teraflops an und 544 Gigaflops bei doppelter Genauigkeit.

Zudem hat Nvidia den Speicher bei den neuen Tesla-Karten wieder erweitert. Statt bisher maximal 4 GByte dürfen es bei der zweiten Tesla, der C2070, schon 6 GByte sein, die 2050 muss mit 3 GByte auskommen. Sie soll auch zuerst auf den Markt kommen, allerdings erst im zweiten Quartal des Jahres 2010 für rund 2.500 US-Dollar, die 2070 dann im dritten Quartal 2010 für rund 4.000 US-Dollar. Auch bei den anderen Nvidia-Produkten für den professionellen Bereich kamen zuerst die Consumerprodukte mit gleicher Architektur auf den Markt.

Die Tesla- und Quadro-Karten waren in der Regel etwas geringer getaktet als die Spielekarten, so dass die Angaben zur Leistungsaufnahme für die neuen Teslas auch noch keinen direkten Schluss erlaubt. C2050 und C2070 sollen bei typischen Aufgaben um 190 Watt aufnehmen, maximal 225 Watt.

Im Gegensatz zu bisherigen Tesla-Karten bringen die beiden neuen Modelle auch einen Monitoranschluss mit, der Entwicklern das Leben einfacher machen soll, weil keine zweite Grafikkarte mehr nötig ist. Die Bilder stellen übrigens laut Nvidia die tatsächlichen Karten dar, es soll sich nicht mehr um Attrappen handeln.

Für den Einsatz in Rechenzentren und Supercomputern gibt es im selben Zeitraum auch Rackeinschübe mit je einer Höheneinheit und zwei Fermi-GPUs. Sie heißen Tesla S2050 (13.000 US-Dollar) und Tesla S2070 (19.000 US-Dollar), wie bei den einzelnen Karten unterscheiden sie sich durch 3 beziehungsweise 6 GByte je GPU.

Besonders für den Einsatz in Supercomputern können die neuen GPUs auch direkt per Infiniband an den Chipsatz des Hostcomputers angebunden werden. Bisher war dafür stets noch die CPU notwendig, mit der neuen Direktverbindung sollen Latenzen vermieden werden.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidias präsentiert GeForce GT 240
« Antwort #125 am: 17 November, 2009, 16:17 »
Zu den im Oktober vorgestellten [Link auf Beitrag 420118] GeForce GT 220 und 210 gesellt sich nun Nvidias GeForce GT 240, die ebenfalls zu DirectX 10.1 kompatibel ist. Auf ihrer Platine arbeitet ein GT215-Grafikchip (550 MHz), der 96 Shader-Rechenkerne (1340 MHz), 32 Textureinheiten und 8 Rasterendstufen besitzt. Die Speicherbausteine fassen entweder 512 MByte oder 1 GByte an Daten und sind mit 128 Leitungen angebunden. Bei einer Taktfrequenz von 1700 MHz führt das bei GDDR5-Modellen zu einem Speicherdurchsatz von 54,4 GByte/s. Bei den langsamen DDR3-Varianten arbeitet der Speicher mit 1000 MHz, was die Datentransferrate auf nahezu die Hälfte reduziert (32 GByte/s). Die für universelle Berechnungen interessante theoretische Rechenleistung liegt bei 386 GFlops bei einfacher Genauigkeit, spezielle Einheiten zum Rechnen mit doppelter Genauigkeit sind nicht vorhanden.


Anhand eines von Zotac zur Verfügung gestellten Testexemplars konnten wir vorab einige technische Werte überprüfen. Die Leistungsaufnahme bekommt Nvidia auch bei der GeForce GT 240 gut in den Griff: Lediglich 9 Watt verbraucht die Testkarte im Leerlauf, und damit so wenig wie die schwächeren GeForce GT 220 und 210. Schließt man zwei Monitore an, klettert der Idle-Wert architekturbedingt auf 25 Watt, unter Volllast verheizt die Karte in unseren Tests nicht mehr als durchschnittlich 60 Watt. Laut Nvidia ist die GeForce GT 240 mit maximal 70 Watt spezifiziert. Daher ist sie auf keine externen Stromanschlüsse angewiesen. Leider stört der kleine Lüfter bei der Zotac-Karte permanent mit einer Lautheit von rund 1,1 Sone. Die VP4-Videoeinheit unterstützt den Hauptprozessor bei der Wiedergabe von hochaufgelösten Videos.
 
Die GDDR5-Version ist in unseren Benchmarks durchgängig etwas schneller als die GeForce 9600 GSO, kommt an die GeForce 9800 GT jedoch nicht heran. Für Gelegenheitsspieler, die nicht unbedingt maximale Detaileinstellungen nutzen wollen, reicht die Karte aus. Auch bei den immerhin drei interessanten PhysX-Spielen Mirror’s Edge, Sacred 2 und Batman Arkham Asylum lassen sich die zusätzlichen Physikeffekte aktivieren. Detaillierte Benchmarks finden Sie in der c’t 25/09, die am 23. November erscheint.

Jedoch ist die GeForce GT 240 mit rund 90 Euro schlicht zu teuer, um gegen die Konkurrenz bestehen zu können. Für 100 Euro gibt es bereits die Radeon HD 4870 zu kaufen,  die deutlich leistungsfähiger ist und auch aktuelle Spiele mit hohen Details flüssig darstellt. Zur Wiedergabe von hochaufgelösten Videos reicht im Vergleich mit der GT 240 auch eine 25 Euro teure Radeon HD 4350 oder auch die GeForce 210, die ab 35 Euro zu haben ist.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
AMD Radeon HD 5970: Teraflops-Monster und 3D-Leistungskönigin
« Antwort #126 am: 18 November, 2009, 11:21 »
Auf die Kraft der zwei Herzen setzt AMD bei der Radeon HD 5970, auf deren Platine zwei RV870-Grafikchips mit je 1600 Shader-Rechenkernen arbeiten. Diese laufen mit 725 MHz, was zu einer theoretischen Rechenleistung von 4,64 Billionen Gleitkommaoperationen pro Sekunde (TFlops) bei einfacher Genauigkeit führt. Bei doppelter Genauigkeit knackt die Radeon HD 5970 als erste Grafikkarte die 1-TFlops-Schallmauer (1,088 TFlops).


Pro GPU sind die Shader-Rechenkerne in 20 SIMD-Einheiten zu je Fünfergruppen angeordnet. An jede SIMD-Einheit ist vierfaches Texturcluster gekoppelt, so dass die Radeon HD 5970 insgesamt 2 × 80 Textureinheiten besitzt. Auch die Zahl der Rasterendstufen hat sich im Vergleich zu einer herkömmlichen Radeon HD 5870 auf 2 × 32 verdoppelt. Der 2 x 1 GByte fassende GDDR5-Speicher läuft mit 2000 MHz (Write-Clock) und ist über jeweils 256 Datenleitungen mit den RV870-Chips verbunden, was zu einer Datentransferrate von insgesamt 256 GByte/s führt. Da die zu verarbeitenden Bilddaten jedoch immer in den Speichern beider Grafikchips liegen müssen, ist effektiv nur 1 GByte Grafikspeicher nutzbar.

Bei der Leistungsaufnahme gibt sich die Radeon HD 5970 laut AMD mit 42 Watt für eine Dual-GPU-Grafikkarte vergleichsweise sparsam. Der Lüfter unseres Referenzdesign-Testsamples störte im Desktop-Betrieb bei gemessenen 0,5 Sone nicht. Bei anspruchsvollen 3D-Szenen lärmte er mit 1,7 Sone jedoch beträchtlich, im Furmark kletterte der Wert gar auf unerträgliche 2,7 Sone. Unter Maximallast verheizt die Radeon HD 5970 laut AMD bis zu 294 Watt. Daher ist sie auf einen sechs- und achtpoligen Stromanschluss angewiesen. Bei 31 Zentimetern Länge kann es in einigen Gehäusen zu Platzproblemen kommen.

In ersten Tests lässt die zu DirectX 11 kompatible Radeon HD 5970 Nvidias bisherige Dual-GPU-Königin, die GeForce GTX 295, hinter sich. Während die HD 5970 beispielsweise in Crysis bei 1920 × 1080 Bildpunkten mit zweifachem Antialiasing noch 56 Bilder pro Sekunde (fps) darstellt, schafft die GeForce GTX 295 in gleicher Einstellung nur 38 fps. Maximal drei Displays bindet die Radeon HD 5970 über zwei Dual-Link-DVI-Anschlüsse und eine Mini-DisplayPort-Buchse an. Die UVD2-Videoeinheit unterstützt den Hauptprozessor bei der Wiedergabe von hochaufgelösten Filmen.

Rund 500 Euro dürfte die Radeon HD 5970 kosten, mit der Verfügbarkeit dürfte es jedoch problematisch werden. Schließlich kann AMD selbst für die im September vorgestellte HD-5800-Serie nicht ausreichend RV870-Chips, die ja auch auf der neuen Dual-GPU-Karte zum Einsatz kommen, bereitstellen.

Quelle : www.heise.de
« Letzte Änderung: 18 November, 2009, 11:33 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia zeigt Bild von Fermi-Karte GF100 mit DirectX-11
« Antwort #127 am: 19 November, 2009, 11:16 »
Über seine Seiten bei Facebook, in Twitter und in seinem Blog hat Nvidia ein Bild einer ersten seriennahen Grafikkarte mit Fermi-Architektur verbreitet. Weitere Daten zu dem Modell, das als "GF100" auf den Markt kommen soll, gibt es noch nicht. Sie sollen nun wöchentlich bis zum Marktstart nachgereicht werden.

Im Gegensatz zur ersten gezeigten Fermi-Karte, die eine Attrappe war, soll es sich bei dem jetzt gezeigten Gerät um ein lauffähiges Muster handeln. Dazwischen gab es noch die "Bring-up-Boards", von denen keine öffentlichen Bilder existieren. Derartige Karten, auf welche die ersten Exemplare einer GPU gesetzt werden, sehen nicht recht nach Grafikkarten aus, zahlreiche Testanschlüsse, Messpunkte und große Kühler verunzieren sie.



Laut Nvidia stellt das aktuelle Bild eine Fermi-Karte dar, die als "Geforce GF100" auf den Markt kommen soll. Sofern der Name so bleibt, bestätigen sich frühere Gerüchte, nach denen Nvidia das Kürzel "GTX" für seine High-End-Modelle abschafft. Die gezeigte Karte soll Nvidia zufolge den Benchmark der Grafikdemo 'Heaven' mit der Engine von Unigine unter DirectX-11 ausführen.

Der Bildausschnitt ist freilich so gewählt, dass der Framecounter des Programms nicht sichtbar ist. Die Originalauflösung des Bildes von 600 x 398 Pixeln erlaubt auch keine verlässlichen Rückschlüsse auf die eingeschalteten Grafikfunktionen. Immerhin sind nur ein 8-poliger und ein 6-poliger Stromanschluss zu sehen, so dass die Karte gemäß den PCIe-Spezifikationen nicht mehr als 300 Watt elektrischer Leistung aufnehmen darf.

Über die verschiedenen sozialen Netzwerke will Nvidia ab sofort jede Woche Informationen, "FunFacts" genannt, über Fermi-Produkte verbreiten. Für wie viele Wochen das geplant ist, steht noch nicht fest. Das Unternehmen nennt für den Marktstart der Geforce-Karten mit Fermi bisher nur das erste Quartal 2010.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Aus GeForce 210 wird 310
« Antwort #128 am: 27 November, 2009, 17:21 »
Nvidia bringt mit der GeForce 310 eine vermeintlich neue Grafikkarte in den OEM-Markt. Unter der Haube ist sie jedoch nichts weiter als eine umbenannte GeForce 210. Ihr GT218-Grafikchip (589 MHz) besitzt 16 Recheneinheiten, die mit 1402 MHz laufen. Die DDR2-Speicherbausteine fassen 512 MByte an Daten, sind mit 64 Datenleitungen angebunden und arbeiten mit 500 MHz. Dies führt zu einer Datentransferrate von 8 GByte/s.


Die Low-Profile-Grafikkarte belegt im Referenzdesign einen Steckplatz und ist kompatibel zu DirectX 10.1 und OpenGL 3.1. Bildschirme bindet sie im Referenzdesign über einen Dual-Link-DVI-, VGA- und einen DisplayPort-Anschluss an. Die Grafikkarte reicht zur Wiedergabe von hochaufgelösten Videos aus und ist im Desktop-Betrieb sehr sparsam. Für die meisten aktuellen 3D-Spiele ist sie zu schwachbrüstig. Beispielsweise bietet Hewlett-Packard eine GeForce 310 DP mit je einem DVI- und DisplayPort-Ausgang im HP-Store  für rund 51 Euro an. GeForce-210-Karten sind bereits ab rund 35 Euro zu haben.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia-Grafikkarten dekodieren 3D-Blu-rays
« Antwort #129 am: 10 Dezember, 2009, 06:19 »
Die Spezifikation für die 3D-Blu-ray-Disc ist noch nicht einmal verabschiedet, da preschen die  Grafikkartenhersteller bereits mit Ankündigungen vor: Sowohl Nvidia als auch AMD wollen auf der CES in Las Vegas stereoskopische Filme von Blu-ray vorführen. Doch während AMD unkonkret bleibt, geht es bei Nvidia schon ans Eingemachte: So sollen aktuelle GeForce-Grafikkarten mit VP4-Videoengine die 3D-Inhalte von Blu-ray in Echtzeit abspielen können. Konkret nennt Nvidia neben der GT 220 und der GT 240 die angekündigten "Fermi"-Grafikkarten mit GF100-Chip. In der Nvidia-Auflistung fehlt die preisgünstige GeForce 210 – auch diese hat die VP4-Engine an Bord.

Die 3D-Vision-Shutterbrille von Nvidia erfordert ein Anzeigegerät, das 120 Bilder pro Sekunde entgegennehmen kann.

Kurios: In welchem Format die 3D-Filme auf der Blu-ray liegen sollen, wurde offiziell noch gar nicht bekanntgegeben. Der Vorsitzende der 3D-Arbeitsgruppe der Blu-ray Disc Association, Benn Carr, offenbarte allerdings schon im Sommer auf der IFA gegenüber heise online, dass man wohl auf den MVC (Multiview Codec) setzen wird, eine Erweiterung von H.264/MPEG-4 AVC, an der die Moving Pictures Expert Group (MPEG) bereits seit einigen Jahren arbeitet. Das "normale" MPEG-4 AVC (ohne MVC-Erweiterung) gehört neben VC-1 und MPEG-2 zu den für (2D-)Blu-rays erlaubten Codecs. Nvidia schreibt in seiner Pressemitteilung dann auch von dem "Codec, der voraussichtlich die Basis dafür sein wird, wie 3D-Inhalte auf der Blu-ray Disc kodiert werden".

Auch die Softwarehersteller sind gerüstet: Sowohl Cyberlink (PowerDVD Ultra), Roxio (CinePlayer BD) und ArcSoft (TotalMedia Theatre) wollen 3D-fähige Versionen ihrer Blu-ray-Abspielprogramme fertig haben, wenn die ersten räumlichen Scheiben erscheinen – das wird aber wohl vor dem dritten Quartal 2010 nicht passieren, laut Disney wird es 3D-Blu-rays sogar erst zum nächsten Weihnachtsfest zu kaufen geben.

Zwar wird bis dahin auch die Unterhaltungselektronik-Branche vermutlich entsprechende 3D-Standalone-Player und -Fernseher in den Regalen stehen haben – doch für Computer sind bereits jetzt 3D-Monitore und -Projektoren erhältlich. Die meisten Geräte basieren auf Nvidias 3D-Vision-Technik, die aus einer schnurlosen Shutterbrille und einem per USB angeschlossenen Infrarot-Emitter zur Synchronisation bestehen. Erforderlich ist hier ein Anzeigegerät, das 120 Bilder in der Sekunde entgegennehmen kann. Entsprechende 22-Zoll-Monitore von Samsung und ViewSonic sind bereits im Handel, einen 23,6-Zöller mit Full-HD-Auflösung hat Acer für Februar angekündigt. Von Asus gibt es zudem ein Notebook mit 3D Vision. Acer, ViewSonic und DepthQ haben Projektoren im Angebot, die mit der Nvidia-Brille zusammenarbeiten sollen.

Alle genannten Abspielprogramme werden Nvidias 3D-Vision-Brille unterstützen, ob es auch für andere 3D-Monitore (zum Beispiel von iZ3D, Zalman und Wazabee) Player-Software geben wird, ist noch unklar.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia verschiebt Fermi angeblich auf März 2010
« Antwort #130 am: 28 Dezember, 2009, 16:13 »
Nvidias kommende Grafikchipgeneration Fermi wird auf März 2010 verschoben, meldet die taiwanische Hardware-Website Digitimes unter Berufung auf Grafikkartenhersteller. Konkurrent AMD hingegen werde schon im Januar 2010 neue und vor allem günstigere Grafikkarten für DirectX 11 auf den Markt bringen.
Ursprünglich habe Nvidia den Marktstart von Fermi schon für November 2009 geplant, dann aber auf die CES Anfang Januar 2010 in Las Vegas verschoben. Nun informierte Nvidia seine Grafikkartenpartner über eine weitere Verschiebung, auf März 2010, meldet Digitimes.

Starten soll Fermi als 40-Nanometerchip mit GDDR5-Speicher als Fermi-GF100 im März 2010. Im zweiten Quartal 2010 soll dann die High-End-Version GF104 folgen.

Derweil steht AMD dem Bericht zu Folge kurz vor der Einführung der Grafikchips Radeon HD 5670/5570 (Redwood) und HD 5450 (Cedar), die ebenfalls in 40-Nanometertechnik gefertigt werden. Sie sollen bereits Ende Januar 2010 bzw. im Februar 2010 zu haben sein, heißt es unter Berufung auf nicht näher genannte Quellen.

Offizielle Stellungnahmen zu den Gerüchten gibt es weder von Nvidia noch von AMD.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Snoop

  • Premium-Cubie
  • ****
  • Beiträge: 795
Re: Nvidia verschiebt Fermi angeblich auf März 2010
« Antwort #131 am: 28 Dezember, 2009, 17:13 »
Also wenn die jetzt nochmal verschieben, dann ist der DX11-Zug erst mal abgefahren.

Aber kein Wunder, bei dem, was da so aus der Gerüchteküche herausweht. Probleme mit der Hitze, Probleme mit der Leistung, Probleme mit ... ach einfach mit allem.
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4

Offline McCom

  • Premium-Cubie
  • ****
  • Beiträge: 353
Re: Nvidia verschiebt Fermi angeblich auf März 2010
« Antwort #132 am: 28 Dezember, 2009, 18:25 »
Hm schade. An sich wollte ich mir nächstes Jahr mal wieder einen "Zukunftssicheren" Desktop gönnen. Dicke CPU, viel RAM, dicke GPU und dann Spaß haben... Aber so? Hm weiter warten...
Desktop: Pentium 4 mit 3,00 GHz, 1 GB RAM, WinXP PRO SP3 + DX 9c, 500 GB HD, Radeon X1950 Pro, OnBoardSound von Realtek, SkyStar2 PCI (Treiber 4.50)

Laptop : Core2Duo T7250, 2GB RAM, Win7 Prof 32bit, 500 GB HD, GeForce 8400M G, OnBoardSound von Realtek, SkyStar USB plus (1.0.2.8 BDA)

Sat: DVB-S mit 4xQuad-LNB auf 13° + 19.2° + 23,5° + 28,2° Ost über einen 17/8 Multiswitch

Verwendete Software : ProgDVB 6.45.3

Offline Snoop

  • Premium-Cubie
  • ****
  • Beiträge: 795
Re: Nvidia verschiebt Fermi angeblich auf März 2010
« Antwort #133 am: 28 Dezember, 2009, 18:27 »
Eine "dicke GPU" kannst Du auch von ATI bekommen ... die 5970 oder so ...
Intel Core i5, 16 GB Hauptspeicher, Windows 10 Professional 64 bit, Cinergy S2 Box,Smart DVB 0.4

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191369
  • Ohne Input kein Output
    • DVB-Cube
Nvidia - Geforce 300M-Serie angekündigt
« Antwort #134 am: 31 Dezember, 2009, 12:09 »
Nvidia hat auf einer neuen Seite Notebook-Grafikprozessoren angekündigt, die die Bezeichnung Geforce 300M-Serie tragen.

Wie inzwischen fast schon zu erwarten war, handelt es sich dabei nicht um neue Chips, sondern wieder einmal um eine diesmal sehr umfangreiche Umbenennung der Chips, die durch den neuen Namen wohl den Eindruck einer neuen Generation vermitteln sollen.

Aus den von Nvidia auf der Seite veröffentlichten Daten wird jedoch klar, dass dies nicht der Fall ist. An der Spitze der »neuen« Chips steht sogar noch die Geforce GTX 280M, die nicht einmal umbenannt wurde.

Damit ist eindeutig, dass die »neuen« 300M-Chips weder neu noch schneller als die bisherigen Grafikchips sind.


Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )