Autor Thema: Moores Gesetz: "Noch zehn bis zwanzig Jahre"  (Gelesen 1821 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Moores Gesetz: "Noch zehn bis zwanzig Jahre"
« am: 13 April, 2005, 16:25 »
Gab Intel-Mitbegründer Gordon Moore der Silizium-Chiptechnologie vor zwei Jahren noch weitere zehn Jahre, blickt der große alte Mann der Mikroelektronik mittlerweile wieder ein wenig optimistischer in die Zukunft. Moore stellte am heutigen Mittwoch in einer Telefonkonferenz den Fragen der internationalen Presse: Anlass war das nächste Woche anstehende 40-jährige Jubiläum des Artikels, in dem Moore zum ersten Mal die Verdopplung der Integrationsdichte von integrierten Schaltungen alle zwei Jahre formuliert hatte -- eine Originalausgabe der Zeitschrift versucht Intel jetzt über eBay zu ergattern.

Das nach ihm benannten Gesetz werde wahrscheinlich noch "weitere zehn bis zwanzig Jahre" seine Gültigkeit behalten, bis man an "fundamentale Grenzen" stoße, sagte Moore."Die nächsten zwei oder drei Technologie-Generationen" wären jedoch sicherlich noch mit herkömmlicher Technologie machbar. Aber selbst damit sei "nicht das Ende des Fortschritts" erreicht. "Die Ingenieure haben im wahrsten Sinne des Wortes Milliarden von Transistoren auf den Chips zu Verfügung, um ihre Entwürfe zu verwirklichen. Ich denke es wird eine Menge neuer Entwicklungen geben".

Obwohl er in der Nanotechnologie ein großartiges Potenzial sieht, glaubt Moore jedoch nicht, dass molekulare Elektronik die Siliziumtechnologie ersetzen werde. "Für Forschung und Entwicklung in der Silizium-Technologie ist mittlerweile insgesamt rund 100 Milliarden Dollar ausgegeben worden. Um diese Technologie zu ersetzen, brauchen Sie etwas, dass schon wirklich ziemlich ausgereift ist." Entgegen der herkömmlichen Erwartungen werde man wahrscheinlich eher erleben, dass die Mikroelektronik in weitere Bereiche vordringe, erklärte Moore: "Sie können das bereits sehen an Dingen wie DNA-Chips, mikro-elektromechanischen Systemen oder mikrofluidischen Bauteilen."

Wie präzise die Prognose von Moore ist, bleibt abzuwarten. Moore selbst merkt bescheiden an, dass, hätte er das berühmte Papier nicht geschrieben, hätte es jemand anders getan, denn "spätestens zehn Jahre später wären die Trends einfach völlig offensichtlich geworden". Immerhin aber hat Moore bereits 1965 geschrieben, die fortschreitende Miniaturisierung der Elektronik werde zur Verbreitung des Homecomputers führen. Auch wenn er heute zugibt: "Ich hatte keine Vorstellung davon, wofür man Homecomputer wirklich brauchen kann. Ich dachte an Hausfrauen, die vielleicht ihre Rezepte darauf speichern."

Trends wie den Kursschwenk Intels zu Prozessoren mit mehreren Kernen mag Moore dagegen nicht kommentieren, weil er bereits seit einigen Jahren nicht mehr aktiv an der Entwicklung beteiligt sei. Auch die Frage, ob er seinem Gesetz vielleicht etwas hinzuzufügen habe, entlockt ihm nur einen Lacher und den trockenen Kommentar: "Ich ruhe mich lieber auf meinen Lorbeeren aus."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Moorsches Gesetz wird schon bald zu teuer
« Antwort #1 am: 11 April, 2009, 18:32 »
Das Moorsche Gesetz wird sich bald überlebt haben. Dieser Ansicht ist Carl Anderson, der beim IT-Konzern IBM an Server-Architekturen arbeitet. Lediglich ein bis zwei Chip-Generationen gibt er der Regel noch.

Das Moorsche Gesetz wurde im Jahr 1965 von Intel-Mitbegründer Gordon Moore aufgestellt. Es besagt, dass sich die Komplexität von Prozessoren etwa alle zwei Jahre verdoppelt. Die Annahme hat sich über die Jahrzehnte in der Praxis weitgehend bestätigt.

Laut Anderson wird das Ende dieser Entwicklung aber weniger wegen technischen Problemen bedingt. "Immer mehr Entwickler werden herausfinden, dass alltägliche Anwendungen nicht mehr der letzten technischen Entwicklungen bedürfen", sagte er laut einem Bericht des US-Magazins 'EE Times'.

Der Absatz von High End-Chips wird sich deshalb stärker auf kleiner werdende Nischen beschränken. Das führt zu Problemen bei der Finanzierung der Forschung an immer leistungsfähigeren Chip-Architekturen sowie der Fertigungsanlagen, deren Bau und Betrieb Milliardenbeträge verschlingt.

Anderson geht davon aus, dass zukünftig verstärkt preiswertere Methoden genutzt werden, um Systeme leistungsfähiger zu machen, als die Performance durch immer komplexere Strukturen anzuheben. Solche Alternativen sieht er in der Integration optischer Verbindungen innerhalb von Chips, der Hinwendung zu dreidimensionalen CPU-Designs, bei denen mehrere Trasistoren-Layer geschichtet arbeiten sowie in der Auslagerung komplizierter Berechnungen an GPU-Kerne.

Letztlich gehe die Halbleiterbranche damit den gleichen Weg, wie andere Industrien auch, so Anderson. Auch der Bahnverkehr und die Flugzeugkonstrukteure konnten demnach über viele Jahre eine rasante technische Entwicklung vorweisen und mussten sich eines Tages mit kleineren Fortschritten zufrieden geben.

Quelle : http://winfuture.de
« Letzte Änderung: 11 April, 2009, 18:40 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Theos

  • Premium-Cubie
  • ****
  • Beiträge: 570
Re: Moorsches Gesetz wird schon bald zu teuer
« Antwort #2 am: 14 April, 2009, 18:42 »
der gute mann vergisst SSDs & RAM: genau dort ist man über die verdopplung dankbar ohne ende.
bei CPUs spielt moores "gesetz" im enduser bereich seit jeher eine untergeordnete rolle, bei GPUs schon eher.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Zu hohe Kosten: Moore'sches Gesetz 2014 ungültig
« Antwort #3 am: 17 Juni, 2009, 13:38 »
Das Moorsche Gesetz könnte 2014 seine Gültigkeit verlieren. Glaubt man den Marktforschern von iSuppli, liegt das vor allem an den steigenden Produktionskosten. Bislang nahm man an, dass irgendwann eine physikalische Grenze erreicht wird.

Moore's Law geht auf den Mitbegründer von Intel zurück, Gordon Moore. Es besagt, dass sich die Anzahl der Transistoren, die sich in einem integrierten Schaltkreis unterbringen lassen, alle zwei Jahre verdoppelt. Inzwischen gilt diese Faustregel der Halbleiterindustrie fast vier Jahrzehnte, doch schon bald soll damit Schluss sein.

Laut iSuppli werden die Kosten für die Entwicklung der Chips so hoch sein, dass der Fortschritt verlangsamt wird. Vor allem die für die Produktion benötigte Ausrüstung soll die Unternehmen an ihre finanziellen Grenzen bringen. Bis 2014 wird man im 18-Nanometer-Verfahren produzieren - kleiner wird es dann erstmal nicht, erklärte Led Jelinek von iSuppli.

Will man noch kleinere Strukturen produzieren, so wird die Ausrüstung der Hersteller zu teuer. Die Kosten können nicht mehr durch die Produktivität dieser Ausrüstung bei der zu erwartenden Lebenszeit aufgewogen werden. Die Produktion in noch kleinen Verfahren wird definitiv kommen, so iSuppli, allerdings nicht mehr mit der gleichen Geschwindigkeit, wie es das Moorsche Gesetz vorsieht.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Tim Sweeney prophezeit das Ende der GPU
« Antwort #4 am: 17 August, 2009, 20:02 »
Tim Sweeney, der Kopf hinter den Unreal-Engines, hat in einem Vortrag auf einer Fachkonferenz das Ende des bisherigen Grafikprozessors vorhergesagt. GPUs seien immer noch zu kompliziert zu programmieren. Reines Software-Rendering mit Voxeln und Raytracing-Elementen sei die Zukunft.

Auf der Konferenz "High Performance Graphics 09", die Anfang August 2009 parallel zur "Supercomputing" in New Orleans stattgefunden hat, hielt Tim Sweeney einen Vortrag mit dem Titel "The End of the GPU Roadmap". Inzwischen sind die Folien des Vortrags (PDF) auf den Servern des Williams-College in Massachusetts aufgetaucht.


Nach ausführlichen technischen Erklärungen anhand der seit 1996 von Sweeney entwickelten Unreal-Engines zieht der Epic-Mitbegründer das ernüchternde Fazit, dass GPUs, wie sie bisher üblich sind, immer noch zu schwer zu programmieren seien, was sich für Spieleentwickler nur selten lohne.

Als Faustregel gibt Sweeney folgende Formel an: Schon die Entwicklung einer Anwendung mit Multi-Threading, wie es moderne PC-Prozessoren erfordern, kostet das Doppelte eines Single-Threaded-Programms. Für den In-Order-Prozessor Cell der PlayStation 3 verfünffachen sich die Kosten, und eine GPU voll auszureizen kostet laut Sweeney das Zehnfache.

Ein Hauptgrund seien die Programmiersprachen für GPUs, die im Vergleich zum objektorientierten C++ immer noch "eigenartig" seien, so Sweeney. Da der Programmierer zudem immer mit den Einschränkungen der Größe des Grafikspeichers und der Verwaltung von PC-RAM und Grafikspeicher zu kämpfen habe, fordere das inzwischen zu große Kompromisse.

Typischerweise würden die Spielfiguren heute mit 3D-Modellen aus 4 Millionen Polygonen entwickelt und für ein PC-Spiel auf 20.000 Polygone heruntergerechnet. Um die Grafikqualität weiter steigern zu können, sei eine höhere Auflösung der Figuren aber zwingend. Als weiteres Beispiel nennt Sweeney das Anti-Aliasing, für das insbesondere die Speicheranforderungen immer noch zu hoch seien. Epics Technikchef wünscht sich statt des heute bei spielbaren Bildraten üblichen achtfachen Anti-Aliasings aber zehn bis 20 Durchgänge der Filterung.

Inzwischen, so Sweeney weiter, näherten sich CPU und GPU immer weiter an - er nennt dafür, wie nicht anders zu erwarten, Intels Larrabee mit seinen Dutzenden x86-Kernen als Beispiel. Mit solchen Architekturen, nicht aber mit den immer noch "zu stark fixierten" Rechenwerken von herkömmlichen GPUs, könne man neue Algorithmen verwenden.

Sweeney schlägt dafür die Reyes-Archtiektur vor, die mit schattierten Mikropolygonen arbeitet und Teile von Raytracing-Algorithmen verwendet. Die bisher bei GPUs üblichen Unterschiede der Leistung je nach Auflösung fallen bei Reyes weniger stark ins Gewicht.

Ausgehend von Moores Law erwartet Sweeney bis zum Jahr 2020 eine Verzwanzigfachung der Rechenleistung - egal ob auf CPU oder GPU. Dafür reiche dann aber ein lokaler Grafikspeicher nicht mehr aus und die nächste Generation der Spiele-Engines käme schon lange nicht mehr mit, meint der Programmierer.

Diese Engines müssten aber jetzt schon mit anderen Ansätzen entwickelt werden, denn: Statt mit drei Jahren für die Unreal Engine 3 rechnet Sweeney für seinen nächsten Spieleunterbau mit fünf Jahren - also 2014, falls er jetzt beginnen würde. Bis zum Jahr 2020 müsste diese Engine dann aber konkurrenzfähig sein.

Folglich ist laut Sweeney quasi sofort ein Umdenken bei den Spieleentwicklern gefordert. Dass der Ruf nach einem Software-Renderer ausgerechnet von ihm kommt, ist dabei kein Zufall: Sein erstes aufwendiges 3D-Spiel, der Titel "Unreal" aus dem Jahr 1998, überzeugte mit damals nicht gekanntem Software-Rendering ganz ohne Zutun von 3D-Funktionen auf dem Grafikprozessor. Mit einem Pentium bei 60 MHz habe diese Engine 16 Operation pro Pixel bei 320 x 200 Pixeln auf dem Bildschirm und 30 Bildern pro Sekunde geschafft. Bis 2012 will Sweeney 16.000 Operationen pro Pixel bei 1.920 x 1.080 Pixeln und 60 Bildern pro Sekunde erreichen.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Hybrid-Chip soll Moorsches Gesetz am Leben halten
« Antwort #5 am: 22 September, 2009, 19:07 »
Forschern um Tomas Palacios vom renommierten Massachusetts Institute of Technology (MIT) ist es gelungen, einen Gallium-Nitrit-Layer in einen Silizium-Chip einzubetten.

Dies soll zukünftig dafür sorgen, dass das Moorsche Gesetz bei der Weiterentwicklung von Chips nicht an seine Grenzen stößt. Die von Intel-Gründer Gordon Moore postulierte Regel besagt, dass sich die Zahl der Transistoren auf einem integrierten Schaltkreis etwa alle zwei Jahre verdoppelt.

Bei reinen Silizium-Chips dürfte allerdings bald eine Grenze erreicht sein, wo sich die dafür notwendige Verkleinerung der Strukturen nicht mehr ohne weiteres durchführen lässt. Wissenschaftler suchen deshalb schon länger nach alternativen Materialien.

Gallium-Nitrit gilt hier als heißer Kandidat. Allerdings ist es bisher nicht gelungen, mit dem Material die gleiche Effizienz und Zuverlässigkeit wie bei Silizium-Chips zu erreichen. Palacios schlug deshalb vor, beide Materialien miteinander zu kombinieren, um die jeweiligen Stärken nutzen zu können.

Nun konnte er mit seinen Studenten den ersten Hybrid-Chip dieser Art präsentieren. Der Prototyp bildet den Angaben zufolge eine gute Ausgangsposition für weitere Entwicklungen - wie beispielsweise die Integration optischer Schaltungen in das Bauelement, was deutliche Performance-Vorteile bringen würde.

Die Technologie wird voraussichtlich in einigen Jahren kommerziell einsetzbar sein. Bis dahin müssen beispielsweise noch Methoden gefunden werden, den neuen Layer auch auf Wafer aufbringen zu können, die groß genug für die Massenproduktion sind.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Computer-Leistung hat eine absolute Obergrenze
« Antwort #6 am: 14 Oktober, 2009, 14:23 »
Die Rechengeschwindigkeit von Computern hat wohl eine absolute physikalische Obergrenze. Diese wollen Wissenschaftler der Boston University nun zumindest berechnet haben.

Wie die Physiker Lev Levitin und Tommaso Toffoli mitteilten, handle es sich bei dieser Grenze um ein ähnliches Phänomen wie die Lichtgeschwindigkeit, die nach allen bisherigen Erkenntnissen der modernen Physik von nichts überschritten werden kann.

"Kein System wird über dieses Limit hinausgehen können. Es hängt nicht davon ab, welcher physikalischen Natur es ist, wie es aufgebaut ist, welche Algorithmen für die Berechnungen genutzt werden, oder was für Hard- und Software zum Einsatz kommt. Diese Grenze steht als Naturgesetz, wie auch die Lichtgeschwindigkeit", so Levitin.

Allerdings steht nicht zu befürchten, dass bald schon keine schnelleren Rechner mehr gebaut werden könnten. Die Obergrenze liegt nach den Berechnungen der Wissenschaftler beim 10 hoch 16-fachen der schnellsten, heute verfügbaren Supercomputer.

Wenn es gelänge, die Entwicklung von Computern weiterhin nach den Regeln des Moorschen Gesetzes voranzutreiben, würde die Barriere in 75 bis 80 Jahren erreicht sein. Nach Angaben der Wissenschaftler hat sie ihre Ursache in einem Zusammenwirken aus Gesetzen der Thermodynamik, der Quantenmechanik und der theoretischen Informatik.

Quelle : http://winfuture.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die von Intel-Mitbegründer Gordon Moore formulierte Vorhersage der fortlaufenden Verkleinerung von Halbleitern soll noch viele Jahre Gültigkeit behalten. Das sagte ARM-Chef Warren East dem Wall Street Journal.

"Wir haben noch gut drei oder vier Generationen von Chipdesigns vor uns", sagte Warren East dem Journal. Das, so der CEO von ARM Holdings weiter, sei Moore's Law zu verdanken. Die Regel, die Intel-Mitbegründer Gordon Moore 1965 formuliert hatte, wird in vier Wochen 46 Jahre alt. Zum 40. Jubiläum sagte Moore, die Verdoppelung der Anzahl der Transistoren bei gleicher Fläche alle 18 Monate könne noch 20 Jahre fortschreiten.

Bei Intel gilt Moore´s Law vor allem nach der 2006 ausgerufenen Tick-Tock-Strategie in besonderem Maße: Alle zwei Jahre verkleinert das Unternehmen die Strukturbreite seiner Prozessoren für den Massenmarkt. Seit Anfang 2010 sind 32 Nanometer aktuell, ARMs Kunden wie Qualcomm und Nvidia wollen Anfang 2012 schon 28 Nanometer erreichen.

IBM sorgt für 18 Nanometer

Diese Strukturbreite bezeichnete Warren East auch als "den Stand der Technik" für die Designs seines Unternehmens. Zusammen mit IBM, einem weiteren Vorreiter der Halbleiterfertigung, arbeite man aber schon an einer Verkleinerung auf 18 Nanometer. "Es gibt auch eine Roadmap für Produkte, die bis auf 8 Nanometer hinabgehen", erklärte East.

Die offiziellen Roadmaps von Intel dagegen reichen derzeit nur bis 22 Nanometer, die 2012 mit dem CPU-Design "Ivy Bridge" erreicht werden sollen. Nach unbestätigten Angaben aus dem Jahr 2009 plant der weltgrößte Halbleiterhersteller aber für 2014 den Wechsel auf 16 Nanometer. Danach werden wesentliche Änderungen an den Transistoren nötig, wofür Intel erstmals auch Kooperationen erwägt.

ARM dagegen als Chipdesigner ohne eigene Fertigung hat es da einfacher: Die direkten Kunden, welche die Entwicklungen von ARM lizenzieren, müssen sich ohnehin um geeignete Herstellungsverfahren kümmern. Andere Unternehmen, wie Nvidia, erkennen Moore's Law nicht ohne weiteres als die wesentliche Triebfeder der Chipbranche an. Nach heftiger Kritk an der Regel durch Nvidia vor einem Jahr kam von Intel prompt die Retourkutsche: Moore's Law sieht Intel für alle Chiphersteller als wichtig an.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Warum das Mooresche Gesetz kein Gesetz ist...
« Antwort #8 am: 02 Juni, 2011, 13:15 »
... und wie sich seine Gültigkeit verlängern lässt

Jahr für Jahr werden die Strukturgrößen in der Elektronik verringert. Intel & Co. geben die Milliarden dafür nicht aus, um möglichst kleine Chips zu produzieren, sondern um die Verlustleistung zu verringern. Je kleiner die Wege sind, die die Ladungsträger zurücklegen müssen, desto geringer können die dafür nötigen Spannungen ausfallen. Einen aktuellen Prozessor mit Energiefressern wie etwa Relais nachzubauen, würde pro Computer ein mittleres Kraftwerk voraussetzen. Insofern ist bewundernswert, wie es die Forscher doch immer wieder schaffen, Gordon Moores Vorhersage zu erfüllen, dass sich die Komplexität logischer Schaltkreise regelmäßig verdoppelt.

Doch es gibt eine theoretische Untergrenze bei der Verbesserung der Energie-Effizienz. Damit ist nicht die Tatsache gemeint, dass Leiterbahnen und Transistoren irgendwann aus einzelnen Atomen bestehen werden - dieses Problem lässt sich mit Ingenieurskunst lösen, auch wenn wir heute noch nicht wissen wie. Vielmehr geht es um eine prinzipbedingte Untergrenze, was in der Wissenschaft ein deutlich ärgerlicheres Problem darstellt - man denke an die Vakuum-Lichtgeschwindigkeit c, die Science-Fiction-Schriftsteller, die auch etwas von Science halten, regelmäßig vor praktische Probleme stellt. Generationen-Raumschiffe sind ja auf Dauer auch langweilig... Diese Untergrenze hat erstmals der deutsch-amerikanische Physiker Rolf Landauer diskutiert.

Sein - bisher nicht bewiesenes - Landauer-Prinzip besagt, dass mit dem Löschen eines einzelnen Bits die Freisetzung einer Wärmemenge von W=kT*ln(2) verbunden ist. T ist dabei die absolute Temperatur, k die Boltzmann-Konstante. Es handelt sich dabei zugegebenermaßen um einen sehr kleinen Wert, der heute in der Praxis keine Rolle spielt.

Behält allerdings Moore Recht, kommt die Elektronik in den 30er Jahren dieses Jahrhunderts in einen Bereich, wo diese kleine Wärmemenge dann doch wichtig wird. Dass sie überhaupt entsteht, liegt an der - vermuteten - Verknüpfung zwischen der Entropie in der Informationswissenschaft und dem Entropiebegriff der Thermodynamik. Dass es diese Verbindung gibt, dafür spricht, dass es zur Speicherung von Informationen stets einer physikalischen Grundlage bedarf.

Wenn aber im Laufe einer Operation die Entropie, die Unordnung, zunimmt, dann nennt man diesen Vorgang irreversibel - er ist nur rückgängig zu machen, indem man Energie aufwendet. Aus der Sicht der Informationsverarbeitung spannend ist die Tatsache, dass logische Operationen im Computer sich stets in einen reversiblen Teil und in einen irreversiblen Anteil zerlegen lassen, bei dem Informationen gelöscht werden.

Kühlung für Quantencomputer

Wenn man einen reversiblen Computer konstruieren will, müsste man also auf das Löschen von Informationen verzichten. Nun gibt es keinen prinzipiellen Zwang, errechnete Informationen zu löschen - man könnte ja auch für jede Operation "frische" Bits nutzen. Nur ist das wieder in anderer Hinsicht (Speicherkapazität) ineffizient. Sollte es möglich sein, das System so geschickt zu konstruieren, dass es nach der Berechnung wieder ganz von selbst seinen Anfangszustand einnimmt?

Der US-Physiker Charles Bennett hat als erster gezeigt, dass das wirklich möglich ist: Jede logische Operation lässt sich als Verknüpfung reversibler Schritte vollziehen. Praktisch sind reversible Computer dann aber doch so schwierig zu konstruieren, dass sie noch keine Rolle spielen (es besteht allerdings auch noch kein wirklicher Bedarf).

Aber vielleicht ist es ja auch gar nicht nötig, die Suche fortzusetzen: In der aktuellen Ausgabe des Wissenschaftsmagazins Nature zeigt nämlich ein internationales Forscherteam, dass in der Quantenwelt mal wieder vieles anders ist. Die Forscher nutzen die Tatsache, dass die Verschränkung von Qubits eine unerwartete Folge haben kann: Die Entropie der Kombination kann auch negativ werden. Das System ist dann gewissermaßen mehr als zu 100 Prozent sicher, in welchem Zustand seine Komponenten sind. Die Forscher zeigen nun in ihrer Arbeit, dass die zur Aufhebung der Entropie H nötige Arbeit W=H*k*T*ln(2) beträgt - und wenn H negativ ist, verrichtet das System Arbeit, statt Wärme abzugeben.

Das könnte man nutzen, um den Quantencomputer insgesamt zu kühlen - ein für Quantenrechner sehr nützliches Zusatzfeature. Die Tricks, die die Forscher dazu anwenden, setzen allerdings, das geben sie selbst zu, eine außergewöhnliche präzise Manipulationsfähigkeit von Quantenzuständen voraus. Ob diese praktisch je erreichbar ist, steht in den Sternen. Die Wissenschaftler vergleichen ihre Maschine jedoch mit der Carnot-Maschine: Auch diese ideale Maschine ist zwar in der Praxis nicht erreichbar, beschreibt aber trotzdem die Funktionsweise heutiger Wärmekraftmaschinen präzise - bis auf deren nicht idealen Wirkungsgrad.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Mooresches Gesetz noch mindestens die nächsten zehn Jahre gültig
« Antwort #9 am: 14 September, 2012, 18:50 »
Ein zuständiger Manager des Elektronikkonzerns Intel prognostiziert, dass das Mooresche Gesetz noch mindestens die nächsten zehn Jahre gültig sein wird. Bereits seit Längerem diskutiert die Branche über diesen Sachverhalt, nachdem sich die maximale Leistungsfähigkeit von Prozessoren alle zwei Jahre verdoppelt. Fraglich ist jedoch, wie lange die Technologie dieses Tempo noch halten kann.

Das Mooresche Gesetz stammt von seinem Namensgeber Gordon Moore, einem Mitgründer der Firma Intel. Sein Leitsatz besagt, dass sich die Leistungsfähigkeit der Prozessoren im minimalen Komponentenkostenbereich alle 24 Monate verdoppelt. Dies hängt zusammen mit der Zahl der verwendeten Transistoren, die die letztendliche Rechenkraft eines Moduls im Wesentlichen beeinflusst.

Seit 1965 konnte man sich auf Moores Prognosen fast uneingeschränkt verlassen. Mittlerweile kommen in der Brache allerdings Bedenken auf, inwiefern die Forschung das flotte Tempo der Entwicklung noch halten kann. Auf der jüngst abgehalten Entwicklerkonferenz Intel Developer Forum herrschte über dieses Thema allerdings weitgehend eine klare Meinung.

Der Intel-Manager für Prozesstechnologien, Mark Bohr erklärte, dass das Gesetz seines alten Kollegen sicherlich noch bis 2023 seine Gültigkeit behalten werde. Erst für den Zeitraum in zehn Jahren wollte er sich nicht konkret festlegen. An ein Ende der Mikroprozessorentwicklung im kostengünstigen Privatanwenderbereich will Bohr trotzdem nicht glauben. „[Einen Ablauf des Moorschen Gesetz] akzeptiere ich nicht, aber es könnte vielleicht soweit kommen“ wird er von einem britischen Portal zitiert.

Der Intel-Beauftragte für Technologie und Herstellungsprozesse, Alexander Young erklärte derweil, dass man in Forschung investiere, um den klassischen Transistor auf lange Sicht abzulösen. Zwar gehe er nicht einem Ende der Mooreschen Theorie aus, allerdings müsse man „seine Einsätze sichern“.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Moore's Law und die 14-nm-Prozesstechnik
« Antwort #10 am: 11 August, 2014, 19:08 »
Mit ziemlicher Verspätung stellt Intel erste Details zur neuen 14-nm-Prozesstechnik vor. Da kommt sogar das Mooresche Gesetz ins Wanken.

Unter dem Motto "Advancing Moore's Law in 2014" hat Intel am Montag Einzelheiten zur 14-nm-Prozesstechnik vorgestellt. Dabei wird das Mooresche Gesetz, demzufolge sich die Komplexität der Chips alle zwei Jahre verdoppelt, nicht wirklich fortgeschrieben, sondern verläuft offenbar doch ein wenig verlangsamt.

Die 14-nm-Prozesstechnik hat nun über ein Jahr Verspätung, und einen detaillierten Einblick in die 22-nm-Prozesstechnik P1270, die erste mit den 3D-Trigate-Transistoren, hatte Intel-Fellow Mark Bohr schon vor über drei Jahren im Mai 2011 gegeben. Die ersten 22-nm-Testwafer konnte man gar schon auf dem IDF 2009 bewundern. Die Architektur des ersten in 22-nm gefertigten Chips "Ivy Bridge" wurde auf dem IDF im September 2011 veröffentlicht, die ersten Prozessoren waren dann schließlich ab April 2012 erhältlich.

Ein Jahr Verspätung

Hoffnungen, dass Bohr schon auf dem Intel Developer Forum 2013 über 14-nm-Technik spricht, wurden enttäuscht. Intel-Chef Krzanich hatte zwischendurch Probleme mit der Herstellung zugegeben, so dass Intels Tick-Tock-Takt – jedes Jahr im Wechsel eine neue Mikroarchitektur oder eine neue Prozesstechnik – nicht mehr ganz zu halten war. Schließlich hat der Konzern erst jetzt Einzelheiten des Prozesses P1272 bekannt gemacht.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
50 Jahre Moores Gesetz
« Antwort #11 am: 19 April, 2015, 15:53 »
Von der Performance von Prozessoren und der Komplexität von Chips

Moores Gesetz kennt jeder ITler. Jede zweite ITler streitet gerne darüber, was das Gesetz eigentlich besagt. Aber es ist wirksam, seit einem halben Jahrhundert.

Heute vor 50 Jahren, am 19. April 1965, veröffentlichte Gordon E. Moore in der Zeitschrift Electronics den Aufsatz Cramming More Components onto Integrated Circuits. Moore war damals Forschungsleiter bei Fairchild Semiconductor und begann mit dem Leitsatz: "Während die Stückkosten fallen, wenn die Zahl der Komponenten pro Schaltkreis steigt, könnte es 1975 ökonomisch Sinn machen, bis zu 65.000 Komponenten auf einem einzigen Silizium-Chip zu quetschen."

Populär geworden ist Intels Variante von Moore's Law, nach der sich die Performance von Chips alle 18 Monate verdoppelt. Moores Gesetz lautet aber in Moores eigener Zusammenfassung ursprünglich: "Die Komplexität für Chips mit minimalen Herstellungskosten (Kosten pro Komponente) wächst grob um Faktor zwei in jedem Jahr.“ Moores Prognose der Chipentwicklung wurde eigentlich erst vom VLSI-Pionier Carver Mead als "Moore's Law" geadelt. Heute gehen Autoren wie Dana Blankenhorn so weit, dem "Gesetz" eine Wirkmächtigkeit für die zweite Hälfte des 20. Jahrhunderts zu attestieren, wie sie Einsteins Relativitätstheorie für die erste Hälfte besaß.

Basis-Technologie

Mit seinem in der Electronics veröffentlichten Aufsatz verfolgte Gordon E. Moore zwei Ziele: Erstens wollte er eine Beobachtung bei der Halbleiter-Entwicklung für die Laien-Leserschaft der Electronics veranschaulichen. Sein Aufsatz war daher nicht nur wissenschaftlich angelegt, sondern wartete am Anfang mit einer einfachen Beschreibung auf, die entsprechend humorig illustriert war:

"Die Zukunft von integrierten Schaltkreisen ist die Zukunft der gesamten Entwicklung der Elektronik. Integrierte [Schaltkreise, d.Ü.] werden die Basis vieler Elektronik-Prdukte bilden und diese Wissenschaft in Zukunft völlig neue Gebiete vordringen lassen. Integrierte Schaltkreise werden uns zu solchen Wundern wie Heimcomputer führen -- oder mindestens zu intelligenten Terminals, die uns mit einem Zentralcomputer verbinden, zu computer-automatischen Steuerungen in Automobilen und zu ganz persönlichen Kommunikations-Gegenständen. Die elektronische Uhr am Armband braucht heute nur noch einen akzeptablem Bildschirm, um machbar zu sein."

Der unbekannte Beitrag

Zweitens wollte Moore eine Art Verkaufshilfe erstellen, zunächst für sich und die Fairchild-Mitarbeiter, sehr bald aber für den Plan, mit einer eigenen Firma die Chip-Entwicklung voranzutreiben. Als Moore sich zusammen mit Robert Noyce daran machte, den Venture-Kapitalisten Arthur Rock für die Finanzierung einer neuen Firma zu gewinnen, die schließlich Intel genannt wurde, spielte der Aufsatz als Anregung für die Investoren eine wichtige Rolle.

Zuvor hatte Noyce beim alten Arbeitgeber Fairchild Semiconductor damit begonnen, das Gesetz seines Kollegen praktisch umzusetzen: Er verkaufte Chips unter den Gestehungskosten, weil er wusste, dass der niedrige Preis eine große Nachfrage erzeugte, die wiederum zu neuen, dichter gepackten Chips führte, die sich besser verkaufen ließen. Es war Gordon Moore, der diese Verkaufsaktionen als "Bobs unbekannten Beitrag zur Geschichte der Halbleiter-Industrie" pries.

Intel selbst feiert den 50. Geburtstag mit einer kleinen Artikelreihe, die in der Beschreibung des 14 Nanometer-Transistors kulminiert. In den nächsten 10 Jahren könnte man bis auf 5 Nanometer herunter gehen, ganz nach dem Gesetz, das Gordon Moore als Verkaufshilfe formulierte.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Intel-Chef verabschiedet sich vom bisherigen "Moore's Law"
« Antwort #12 am: 16 Juli, 2015, 16:58 »
Intel-CEO Brian Krzanich erklärt unter Bezug auf das Moore'sche Gesetz, dass CMOS-Strukturverkleinerungen mittlerweile länger dauern. Daher bringt Intel Ende 2016 eine dritte Generation von 14-Nanometer-Prozessoren heraus statt 10-nm-Chips.

Bei den letzten Strukturverkleinerungen, besonders von 22 auf 14 Nanometer, hing Intel hinter dem Plan. Und die 10-nm-Technik entschlüpft nun von 2016 ins zweite Halbjahr 2017 – 2011 hatte Intel noch auf 2015 gehofft. Anlässlich der Vorstellung der aktuellen Quartalsergebnisse hat Intel-CEO Brian Krzanich bestätigt, was die Spatzen von den Dächern pfeifen: Statt der Cannonlake-Generation aus der 10-nm-Fertigung kommt im zweiten Halbjahr 2016 der 14-nm-Typ Kaby Lake. Damit gibt es also nach Broadwell und dem bevorstehenden Skylake eine dritte 14-nm-Generation.

Damit gerät Intels Tick-Tock-Modell aus den Fugen. Quasi als Entschuldigung holte Krzanich weit aus und griff aufs Moore'sche Gesetz zurück: Schon der berühmte Intel-Mitgründer habe in den 70er-Jahren des vergangenen Jahrhunderts seine Vorhersage aus den 60er-Jahren korrigieren müssen. Strukturverkleinerungen würden nun einmal immer komplizierter und schwieriger. Die letzten beiden Übergäge weisen laut Krzanich darauf hin, dass Strukturverkleinerungen jetzt eher alle 2,5 Jahre stattfinden.

Tick-Tock-Tricks

Vor einigen Jahren hat Intel das "Tick-Tock"-Modell als Geschäftskonzept ausgerufen: Alle zwei Jahre wollte der Prozessor-Weltmarktführer mit einem "Tock" eine neue Mikroarchitektur vorstellen, also die CPU-Kerne tiefgreifend umbauen. In den Jahren dazwischen sollten vorhandene CPU-Architekturen mit einem "Tick" und kleineren Änderungen auf Fertigungstechnik für feinere Strukturen umziehen. Die Tick-Kadenz steht dabei im Einklang mit der lange gültigen Interpretation des Moore'schen Gesetzes, wonach sich die Anzahl der Funktionen auf einem CMOS-IC etwa alle zwei Jahre verdoppelt.

Moore's Law bezieht sich dabei weniger auf die Physik als auf die geschäftliche Basis der Halbleiterindustrie. Mit gigantischen Investitionen und intensiver Entwicklungsarbeit schafft es die Branche, die Fertigungskosten pro Chip-Funktion regelmäßig deutlich zu senken. Das ist aber nur so lange sinnvoll, wie es Märkte für Chips mit immer mehr Funktionen gibt.

Rennen um 10 und 7 nm

Mit Blick auf Intels Eingeständnis, die 10-nm-Technik zu verrschieben, bekommt die 7-nm-Demonstration von IBM, Samsung und Globalfoundries neues Gewicht. Doch die Fertigungspartner der IBM-Allianz nennen keine Termine für die Serienfertigung.

Und auch bei TSMC ist nur klar, dass erste Prototypen von 10-nm-Chips noch in diesem Jahr produziert werden sollen. Wann TSMC 10-nm-Chips in Serie produziert, ist offen. Intel dagegen hat nun klargestellt, 2017 fertige 10-nm-Prozessoren ausliefern zu wollen, zumindest als "Revenue Shipments" an PC-Hersteller.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
TSMC will Intel bei 10 nm überholen
« Antwort #13 am: 21 Juli, 2015, 18:52 »
Während Chipmacher Intel das Gesetz seines Gründers Moore aufgibt und auf einen langsameren Tick-Tock-Tock mit 2,5 Jahre Zykluszeit wechselt, will TSMC die Moore'sche Tradition mit 10 nm fortsetzen und mit dem 7-nm-Prozess sogar noch beschleunigen.

Nachdem Intel mit der 10-nm-Herstellungstechnik zurückgerudert ist und die ersten darin gefertigten Chips nun erst fürs zweite Quartal 2017 avisiert, zeigt sich der taiwanische Auftragshersteller TSMC optimistisch, schneller zu sein. Schon Anfang 2017 will TSMC mit der Massenproduktion in 10-nm-FinFet-Technik (CLN10) starten.Die sogenannte "Risk Produktion" also die Einlauf- und Testphase soll bereits Ende 2016 beginnen.

Welche Lithografie TSMC bei 10 nm verwenden will, hat TSMC Forschungsdirektor Burn J. Lin schon im vorigen Jahr klar gestellt: optische Lithografie mit 193-nm-ArF-Laser und Immersionstechnik. Diese ist nach internen TSMC-Benchmarks deutlich günstiger als EUV bei angenommenen 125 Watt Lichtleistung. Und das gilt sogar noch bei dem für nur ein Jahr später geplanten 7-nm-Prozess. Erst bei 250 Watt wäre hier EUV etwa gleichwertig, aber da lohnt sich dann schon eher das direkte Beschreiben mit Multiple E-Beam (MEB).

n den nächsten beiden Jahren wird das meiste Geld, so TSMC im Bilanzbericht, noch mit der gut eingefahren 28-nm-Technik in inzwischen sechs verschiedenen Prozessvariationen verdient. Der Anteil von 20 nm soll sich in diesem Jahr gegenüber 2014 verdoppeln. Im zweiten Quartal startete bereits die Volumenproduktion in 16-nm-FinFET und jetzt beginnt die Auslieferung. Die Produktion soll nun rapide hochgefahren werden.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )