-
Der Installation von Petaflop-Rechnern stehen keine wesentlichen technischen Hürden mehr im Wege. Nach Einschätzung von David Turek, Vice President Deep Computing bei IBM, könne der Konzern aus dem Stand eine Petaflop-Maschine liefern. "Wenn jemand dafür bezahlen wollte, könnten wir das heute machen", erklärte Turek im Interview mit Technology Review. "Wir könnten heute einen Petaflop-Rechner bauen. Aber das Verhältnis von Kosten zu Performance wäre so schlecht, dass niemand das heute tun will. Weil jeder weiß, dass die nächste Generation von Blue Gene schon sehr bald kommt."
Im vergangenen Herbst berichteten AMD und IBM, dass sie an einem Rechner arbeiten, der erstmals die Petaflop-Marke (Tausend Billionen Rechenoperationen pro Sekunde) knacken soll. Der geplante hybride Supercomputer "Roadrunner" soll am Los Alamos National Laboratory errichtet werden. Erstmals kommen dabei auch 16.000 der für Video-Spielekonsolen entworfenen Cell-Prozessoren zum Einsatz. Im Interwiew mit Technology Review sprach Turek über den Stand des Roadrunner-Projektes, Blue Gene und Sinn und Unsinn von Petaflop-Computern.
Quelle : www.heise.de
-
Mit Milliarden Rechenschritten pro Sekunde spucken Supercomputer bunte Karten zum Klimawandel und zur Entstehung von Hurrikanen aus. Genforscher simulieren mit geballter Rechenkraft Proteinstrukturen, Materialwissenschaftler neue Werkstoffe für die Nanoelektronik. "In silico" avanciert neben "in vitro" und "in vivo" zu einer zentralen wissenschaftlichen Methode, die klassische Prototypen und Reagenzglasversuche zunehmend ergänzt. Die Industrienationen setzen zu einem Wettrennen um die schnellsten Rechner der Welt an. Und nach einer anfangs guten Position drohen Europa und Deutschland hinterher zu hinken.
Mit der PACE-Initiative, die heute in Berlin vorgestellt wird, könnte Europa auf eine Pole-Position vorpreschen. In 15 EU-Staaten soll mit dem "Partnership for Advanced Computing in Europe" ein ganzes Netzwerk von Supercomputern für Forscher aus Universitäten und Wirtschaft entstehen. Vier Spitzenrechner der Petaflop-Klasse, von denen jeder einzelne rund eine Billiarde Rechenschritte pro Sekunde leisten sollen, sind an den Standorten Frankreich, Spanien, Großbritannien und Deutschland geplant. Mittelgroße Computer sollen auf nationaler Ebene weniger rechenintensive Arbeiten übernehmen. Und lokal könnte ein ganzer Schwarm aus kleinen Supercomputern Forschern einen raschen Zugriff für ihre Probleme sichern. "Sonst werden wir abgehängt", sagt Achim Bachem, Vorstandsvorsitzender des Forschungszentrums Jülich und Mitinitiator von PACE. Denn die USA werden wahrscheinlich 2008 die Petaflop-Hürde nehmen und Japan plant bis 2012 sogar eine 10-Petaflop-Maschine.
Auf etwa 500 Mio € schätzt der europäische Expertenrat für wissenschaftliche Infrastruktur ESFRI (European Strategy Forum for Research Infrastructures) allein die Investitionskosten in den kommenden Jahren. Weitere 100 bis 200 Mio € jährlich sollen den Betrieb der Hochleistungsrechner sicher stellen. Ob PACE die europäischen Gutachter überzeugen wird, entscheidet sich in den kommenden Monaten. Achim Bachem glaubt fest an den Zuschlag aus Brüssel. "Es wird keinen anderen Bewerber mit dieser Qualität geben." Da alle führenden europäischen Rechenzentren - vom Gauss-Verbund in Deutschland bis zum größten Europa-Rechner MareNostrum in Barcelona - an PACE beteiligt sind, scheint die Entscheidung der Europäischen Kommission eine reine Formsache.
Gut 80 Mio € fließen dann aus Brüsseler Töpfen in die Vorbereitung und die erste Ausbauphase des ambitionierten Rechnernetzwerks. Die restlichen etwa 400 Mio € werden vor allem aus den vier dominierenden Staaten (UK, D, F, ES) kommen müssen. Da Deutschland die Konsortialführerschaft von Pace inne haben könnte, wird der Anteil von Bund und Ländern wohl kaum unter 125 Mio € liegen. "Dafür werden die vier zentralen Länder auch mehr Stimmrecht bei der Nutzung der Computer haben", sagt Bachem. Wie genau die Zusammenarbeit und das Zuteilungsverfahren laufen soll, muss noch im Detail geklärt werden. "Das dauert ein bisschen", weiß Bachem.
Der Bedarf an den Spitzenrechnern ist auf alle Fälle gegeben. "Wir rechnen mit einer Überbuchung um den Faktor 2 bis 2,5", so Bachem. Nur die besten Anträge sollen durch ein internationales Expertenteam Zugang zu den Supercomputern erhalten. Für die Organisationsstruktur können andere europäische Projekt wie das Forschungszentrum Cern oder das Fusionsprojekt Iter als Vorbild dienen. Im Unterschied zu den amerikanischen Spitzenmaschinen am Lawrence Livermore National Laboratory oder an den Sandia Labs werden die europäischen Rechner offen für jede Art der Forschung sein. Dass hier wie in den USA rüstungsrelevante Probleme berechnet werden, ist eher unwahrscheinlich.
Die PACE-Initatoren rechnen mit Anfragen aus allen naturwissenschaftlichen und technischen Disziplinen. Denn schätzten bisher Klimaforscher und Astrophysiker die geballte Rechenleistung, wollen nun zunehmend Ingenieure ihre Motoren, Kraftwerke und Werkstoffe komplett simulieren. "Beispielsweise im Motorenbau können wir damit völlig neue Wege gehen", sagt Michael Resch, Leiter des Hochleistungsrechenzentrums HLRS an der Universität Stuttgart. Simulierte Einspritz- und Brennprozesse sollen die Effizienz erhöhen und den Schadstoffausstoß der Maschinen verringern. Und im Fahrzeug- und Flugzeugbau sollen Simulationen zu einer optimalen Aerodynamik führen. Zudem können mit Petafloprechnern erstmals nicht nur einzelne Prozesse, sondern ganze Kraftwerke simuliert und an die Grenzen ihrer Effizienz getrieben werden.
Gerade für die exportorientierte deutsche Industrie ist das von zentraler Bedeutung. "Der Maschinenbau wird ohne solche Computersimulationen mittelfristig nicht konkurrenzfähig auf dem Weltmarkt sein", ist Resch überzeugt. Nur über die Superrechner könne der Vorsprung in exzellenter Technik gehalten werden. Parallel gilt es, neue Werkstoffe zu entwickeln. "Materialwissenschaftler wollen auf die atomare Ebene gehen", weiß Resch. Derzeit simulieren sie den Aufbau von neuen Materialien noch mit einer bescheidenen Auflösung. "Heute stehen sie da mit einer Auflösung von 100 auf 100 auf 100 Atomen vor einer Wand", so Resch. Doch die geplanten Rechner können mit einer vieltausendfachen Genauigkeit den Weg zu neuen leichten und ultrafesten Materialien weisen.
Doch Supercomputer sind keine PCs. Sie müssen fachgerecht mit Problemen gefüttert werden. Resch zieht dazu gerne den Vergleich mit einem Formel-1-Boliden heran. "Ein ungeübter Nutzer bleibt immer im ersten Gang." Parallel zum Ausbau der Rechenkapazität wird PACE die Ausbildung gezielt unterstützen. "Fachleute aus der jeweiligen Community werden mit Informatikern, die den Rechner gut kennen, zusammenarbeiten", sagt Bachem.
Bevor die europäischen Forscher mit den Supercomputern neue Erkenntnisse gewinnen und Produkte entwickeln, profitieren die amerikanischen und japanischen Hersteller wie IBM, NEC, Cray oder SGI Silicon Graphics von der steigenden Nachfrage. Europa spielt abgesehen von einigen Chips aus dem AMD-Werk in Dresden bei der Hardware kaum eine Rolle. Aber Pace könnte bei der Bedienung und der Softwaretechnologie für die Rechnerboliden marktrelevantes Wissen erzeugen. "Es geht nicht nur um den Chip, sondern um die Software und alles was daran hängt. Die Wertschöpfungkette ist sehr viel länger", sagt Bachem. Denn der heutige Supercomputer werde schon morgen auf dem Schreibtisch stehen. Und hier hat Europa die Chance, von den Softwareschmieden in Fernost oder aus dem Silicon Valley unabhängiger zu werden.
Quelle : www.heise.de
-
Wie die Zeitschrift New Scientist meldet, haben Mikhail Lukin und Darrick Chang von der Harvard University ein Konzept für die Konstruktion eines Licht-Transistors entwickelt, der mit Halbleiter-Nanodrähten arbeiten soll.
Die Geschwindigkeit eines Computers ist derzeit unter anderem dadurch begrenzt, dass sich elektrische Signale auf Platinen nicht einmal annähernd mit Lichtgeschwindigkeit ausbreiten. Weil Photonen sich wesentlich schneller fortbewegen als elektrischer Strom, könnten Rechenprozesse durch den Einsatz von Photonen erheblich beschleunigt werden. Ein mit Licht statt mit Strom betriebener Rechner könnte deshalb theoretisch bis zu hundert mal schneller laufen als heutige Supercomputer.
Bisher funktionierte das allerdings nur in der Theorie. In der Praxis scheiterte das Konzept daran, dass es nicht gelang, einen effizient arbeitenden Photonen-Transistor zu entwickeln. Lichtimpulse können, wie elektrischer Strom, ein- und abgeschaltet werden. Die Schwierigkeit liegt darin, den Schaltprozess zwischen diesen beiden Zuständen zu kontrollieren. Anders als Elektronen, deren Fluss durch elektrische Felder gesteuert werden kann, sind Photonen elektrisch neutral und beeinflussen sich nicht auf entsprechende Weise. Das macht es schwierig, einen Lichtstrahl mittels eines anderen zu kontrollieren.
Ein möglicher Weg, Lichtstrahlen in eine verwertbare Interaktion zu zwingen, ist ein so genanntes "Oberflächenplasmon" – eine Dichteschwankung von Ladungsträgern in Halbleitern oder Metallen. Dieses Quasiteilchen bildet sich, wenn Licht zwischen einem Leiter und einem Nichtleiter gestrahlt wird. Bereits im letzten Jahr entwickelte Anatoly Zayats von der Queen's University in Belfast auf dieser Grundlage eine Technik, mit der sich Transistoren für optisches Rechnen bauen lassen: Mit einem Lichtstrahl, dem so genannten Kontrollstrahl, wird das Plasmon beeinflusst, das darauf hin die Intensität eines anderen Lichtstrahls, des Signalstrahls, verändert. Der Nachteil an diesem Verfahren war, dass eine sehr große Menge an Photonen benötigt wurde, um den Signalstrahl zu kontrollieren - was wiederum zu einem enormen Energieverbrauch führte.
Während Zayats für sein Oberflächenplasmon einen polymerüberzogenen Goldfilm nutzte, schlagen Lukin und Chang vor, stattdessen einen Halbleiter-Nanodraht zu verwenden, der einer Miniatur-Glasfaser entspricht. Weil der Nanodraht das Plasmon auf wesentlich weniger Raum konzentrieren würde als der Goldfilm, müsste er auch weitaus empfindlicher auf die Intensität des Kontrollstrahls reagieren. Lukin zufolge reicht diese erhöhte Empfindlichkeit aus, dass schon ein einzelnes Photon den Signalstrahl umschalten kann. Die beiden Wissenschaftler haben nach eigenen Angaben bereits mit der Entwicklung eines nach ihrer Theorie aufgebauten Prototypen begonnen. Funktioniert die von ihnen postulierte Technologie, wäre die Entwicklung eines optischen Computers erstmals in wirtschaftlich greifbare Nähe gerückt.
Quelle : www.heise.de
-
Forscher bei IBM am T.J. Watson Research Center in Yorktown Heights, USA, haben Prozessorkerne über Lichtimpulse gekoppelt. Die ersten Details haben sie im Magazin Optics Express vorgestellt. Sie verwenden Lichtimpulse, um Informationen zwischen Multicores zu übertragen und damit die bisherigen Leiterbahnen aus Kupfer zu ersetzen. Damit wäre es möglich, große Mengen von Prozessoren in einem Gehäuse von der Größe eines Laptops unterzubringen.
Der Energieverbrauch würde laut IBM nur so viel wie der einer Glühbirne ausmachen. Da die Übertragung von Signalen mittels Licht erfolgt, können solche Rechner Daten bis zu 100-mal schneller austauschen. Notwendig sind Modulatoren, die elektrische Signale in Lichtimpulse konvertieren. Damit wird die Integration von optischen Routing-Netzwerken auf einzelne Chips möglich. Das Besondere liegt in der Größe der Modulatoren. Der sogenannte Mach-Zehnder-Modulator aus Silizium kann 100 bis 1000-mal kleiner gebaut werden als es bislang üblich ist. Gleichzeitig wird der Strombedarf um 10 Prozent reduziert.
IBM erhält bei diesem Projekt Unterstützung der US-amerikanischen Militärforschungseinrichtung DARPA. Laut einem Bericht des Wall Street Journal ist mit einem Erscheinen dieser Chips innerhalb fünf Jahren zu rechnen.
Quelle : www.heise.de
-
Chinas nächster Supercomputer wird erstmals mit einheimischen Loongson-Chips bestückt sein und mit dem Betriebssystem Linux laufen. Die Prozessor-Architektur entspricht zwar nicht dem Standard für Hochleistungsrechner, die Maschine könnte aber dennoch die Petaflops-Marke knacken.
Die Anzeichen hatten sich bereits seit längerem verdichtet, nun ist es offiziell: Chinas nächster Supercomputer, der Dawning 6000, wird erstmals mit einheimischen Loongson-Chips bestückt sein, wie Weiwu Hu, maßgeblicher Architekt der Prozessor-Familie am Institute of Computing Technology (ICT) bestätigt hat. Zudem werde der Rechner mit dem Open-Source-Betriebssystem Linux laufen. Damit vollzieht China eine Kehrtwende: Das Vorgänger-Modell Dawning 5000a, das 2008 als Nummer 11 auf der halbjährlich aktualisierten Liste der schnellsten Rechner der Welt debütierte, basierte noch auf Chips von AMD und dem Betriebssystem Windows HPC Server.
Das ist bemerkenswert, da die "Drachenkerne" – so die Übersetzung von "loongson" oder korrekter "lóngxin" – bislang nur in Netbooks und PCs aus chinesischer Produktion eingesetzt wurden. Zwar sollte auch der Dawning 5000a schon mit den CPUs laufen. Doch die Ingenieure am ICT schafften es offenbar nicht, rechtzeitig eine ausreichend leistungsfähige Architektur für den Loongson zu entwickeln, so dass die Dawning Information Industry Company, die die Superrechner baut, notgedrungen auf Chips von AMD zurückgreifen musste. Laut Hu soll der Dawning 6000 Mitte des Jahres fertig sein und noch vor Jahresende in Dienst gehen.
Die Entwicklung am Prozessor Loongson 3 begann 2001 im Rahmen des zehnten chinesischen Fünfjahresplans. Er arbeitet mit dem in den 1980ern entwickelten MIPS-Befehlssatz (MIPS steht für „Microprocessor without interlocked pipeline stages“), für den das ICT im vergangenen Jahr eine vollständige Lizenz erworben hatte. Er wird in heutigen PCs und Servern allerdings immer seltener eingesetzt, während er in eingebetteten Chips noch häufig vorkommt. Unter den derzeit 500 stärksten Superrechnern basieren nur 15 Prozent auf der MIPS-Prozessor-Architektur, die restlichen verwenden die x86-Architektur.
Es handele sich aber um eine Hochleistungs-MIPS-Variante, bekräftigt Art Swift von der kalifornischen Firma MIPS Technologies, die den Befehlssatz ab 1984 weiterentwickelte. „Wenn man sie in einer Cluster-Konfiguration einsetzt, wird sie sehr leistungsfähig.“ Wie im vergangenen Jahr in einem wissenschaftlichen Artikel der ICT-Ingenieure beschrieben, sollen die Loongson-3-Chips in einer Anordnung mit bis zu 16 Kernen eingesetzt werden. 782 solcher 16-Kern-Chips würden genügen, damit der Dawning 6000 die Petaflops-Marke schafft, sagt Tom Halfhill, Analyst beim Microprocessor Report. Petaflops steht für eine Billarde Rechenoperationen pro Sekunde („Floating point Operations Per Second“). Der derzeitige Spitzenreiter Jaguar von Cray schafft 1,75 Petaflops.
Der Loongson 3 unterscheide sich von seinem Vorgängermodell Loongson 2F hauptsächlich darin, dass er eine Hardware-Übersetzung für den gängigen x86-Befehlssatz habe, sagt Halfhill. Der wird in den meisten Prozessoren von AMD und Intel eingesetzt. Auffallend sei hingegen, dass der Prozessor nicht für das so genannte Multithreading ausgelegt sei, mit dessen Hilfe ein Kern mehrere Rechenanweisungen auf einmal ausführen kann, was Intel und Sun Microsystems in einigen Chips nutzen.
Die zweite und die dritte Generation des Loongson arbeiten beide mit demselben Kern. Von der Quad-Core-Variante des Loongson 3 (mit vier Kernen) gibt es bereits einen Prototypen. Von der endgültigen Version, die eine Strukturgröße von 64 Nanometern hat – zum Vergleich: Intel, AMD und Matsushita sind bereits bei 45 Nanometern –, ist bereits das so genannte Tape-out fertig. Diese letzte Stufe der Prozessorentwicklung geht in Kürze an den Hersteller STMicroelectronics.
Während sich die Vier-Kern-Variante für Rechner im Massenmarkt eignet, wird der Petaflops-Rechner Dawning 6000 mindestens eine Acht-Kern-Variante bekommen. Neben vier normalen Kernen soll er vier „GStera“-Koprozessoren enthalten. Die sind für mathematisch aufwändigere Algorithmen ausgelegt. Dazu gehört der LINPACK-Test mit Berechnungen in Linearer Algebra, der die Messlatte für die weltweiten TOP-500-Superrechner ist.
Die Kombination aus Mehrzweck- und Spezialkernen sei derzeit die Standardkonstruktion für Supercomputer, erläutert der Informatiker Jack Dongarra, der den LINPACK-Test entwickelt hat. Jeder Kern des Quad-Core-Loongson 3 enthält je zwei Einheiten für 64 Bit lange Gleitkommazahlen. Das würde theoretisch genügen, um ihn auch im Dawning 6000 einzusetzen, sagt Dongarra. Allerdings wären dann deutlich mehr Chips nötig als bei der Acht-Kern-Variante, um auf dieselbe Leistung zu kommen.
Der chinesischen Herausforderung im Supercomputer-Segment sieht man bei Intel jedoch gelassen entgegen. „Es ist schwierig, die Wirkung eines Produktes auf den Wettbewerb zu beurteilen, wenn es noch nicht existiert. Daran beteiligen wir uns grundsätzlich nicht“, sagt Intel-Sprecher Chuck Mulloy. „In unserer gesamten Firmengeschichte gab es zu jeder Zeit einen Konkurrenten. Das wird sich auch nicht ändern – tatsächlich begrüßen wir das sogar.“
Auch Dongarra hält nichts davon, über die Leistungsfähigkeit des Dawning 6000 zu spekulieren. Nicht nur mangels Benchmark-Tests, sondern auch weil die MIPS-Architektur nicht der Standard für Hochleistungsrechner ist. „Ich wünsche Ihnen Erfolg, sehe aber einige Schwierigkeiten, um das ganze System zum Laufen zu bringen“, dämpft Dongarra überzogene Erwartungen.
Halfhill, der kürzlich selbst am ICT war, ist aber überzeugt, dass China über kurz oder lang wettbewerbsfähige Chips produzieren wird. „Technisch gibt es keinen Grund, dass die Chinesen nicht auch Weltklasse-Prozessoren bauen. Ihre Informatiker und Ingenieure sind genauso klug wie unsere.“
Quelle : http://www.heise.de/tr/
-
Das Forschungszentrum Jülich plant den Betrieb eines neuen Supercomputers mit einer Leistung von über einem Exaflops. Dies entspricht einer Trillion Rechenoperationen pro Sekunde.
Gemeinsam mit dem IT-Konzern IBM soll ein "Exascale Innovation Center" eingerichtet werden, an dem man Technologien für einen solchen Rechner erforscht. Ein entsprechender Vertrag wurde gestern zwischen den Partnern unterzeichnet.
Ziel sei es, die Komponenten und die Software bis zum Ende dieses Jahrzehnts entwickelt zu haben. "Exascale ist die Herausforderung schlechthin für das weltweite Supercomputing. Dieses Projekt ist entscheidend dafür, welche Optionen Deutschland und Europa Wissenschaft und Wirtschaft in Zukunft auf diesem Feld anbieten können", sagte Achim Bachem, Vorstandsvorsitzender des Forschungszentrums Jülich.
An dem Standort wird mit Jugene bereits der aktuell schnellste Computer Europas betrieben. Dieser bringt es in seiner maximalen Ausbaustufe auf 1 Petaflops. Das neue System soll diese Leistung letztlich um das tausendfache übertreffen.
Der Zeitplan sieht vor, dass 2015 ein Prototyp des neuen Exascale-Rechners fertig ist. An den Standorten in Jülich und Böblingen werden zu Beginn des Projekts jeweils fünf Wissenschaftler von IBM und des JSC gemeinsam mit Wissenschaftlern des IBM Forschungszentrums Yorktown Heights an der Entwicklung des neuen Supercomputers arbeiten. Im Jahr 2019 könnte der neue Exascale-Höchstleistungsrechner in Jülich eingeweiht werden.
Quelle : http://winfuture.de
-
Während die Hersteller von Supercomputern gerade mit den ersten Systemen die Petaflops-Marke überschritten haben, wächst in einigen Bereichen schon das Interesse an der nächsten Tausender-Potenz.
So startete die DARPA, eine Forschungsbehörde des US-Militärs, jetzt ein Projekt, das die Entwicklung von Exaflops-Rechnern fördern soll. Deren Leistung soll bei 1.000.000.000.000.000.000 Rechenoperationen pro Sekunde liegen.
Das Projekt trägt die Bezeichnung "Omnipresent High Performance Computing" (OHPC). Die Forschungsziele der DARPA beschränken sich dabei nicht nur einer weiteren Steigerung der Rechenleistung, sondern umfassen auch Probleme der Programmierbarkeit und der Energieeffizienz solcher Maschinen.Nach Angaben der Behörde bestehe in vielen Bereichen der Bedarf an noch höheren Leistungsdaten von Computern, als bisher angeboten werden könnten. Um diese effektiv nutzbar zu machen, müsste auch deren Verwaltung deutlich einfacher werden. Die hohe Komplexität solcher Systeme dürfe dann für den Nutzer selbst nicht zum Hindernis werden, es zu verwenden.
So sollen die Supercomputer der neuen Generation mit entsprechenden neuen Betriebssystemen und Anwendungen ausgestattet werden. Erste Prototypen erwartet die DARPA im Jahr 2018.
Quelle : http://winfuture.de
-
Der japanische IT-Konzern Fujitsu hat die Komponenten für seinen neuen Supercomputer der nächsten Generation fertig entwickelt und beginnt mit dem Bau der Maschine.
Diese soll den nächsten signifikanten Schritt im Bereich des High Performance-Computings gehen. Stand zuletzt das Überschreiten der Marke von 1 Petaflops mit Mittelpunkt, soll der neue Rechner mit dem schlichten Namen "K" eine Leistung von 10 Petaflops erreichen.
Die Basis des neuen Supercomputers bilden dabei Prozessoren der neuen SPARC 64 VIIIfx-Serie, die mit 2,2 Gigahertz getaktet sind, teilte das Unternehmen mit. Fujitsu wird 80.000 dieser Chips in dem System verbauen. Die einzelnen Racks, aus denen sich die Maschine zusammensetzt, werden mit einem eigens entwickelten Hochleistungsnetz verbunden.
Ursprünglich sollte K als Hybrid-System konstruiert werden, in dem auch Vektor-Prozessoren zum Einsatz kommen. Allerdings wurde dieser Plan verworfen und Fujitsu setzt nun vollständig auf SPARC-Chips. Der Hersteller rechnet damit, dass der Supercomputer im Jahr 2012 die Arbeit aufnehmen kann. Die Entwicklung des Systems wird mit staatlichen Mitteln über das RIKEN-Institut gefördert.
Quelle : http://winfuture.de
-
Der japanische IT-Konzern Fujitsu hat die Komponenten für seinen neuen Supercomputer der nächsten Generation fertig entwickelt und beginnt mit dem Bau der Maschine.
Ich google mich gerade zu Tode: hat jemand einen Link, in dem etwas mehr über dieses Teilchen geschrieben wird? Ein paar mehr Einzelheiten wären sehr interessant.
[ot] relevante fragen: preis, bestellnummer, läuft mint, will it blend ;D [ot]
-
[ot] Für ein anständiges Holodeck a la Startrek ist das Teil immer noch zu langsam ;D [/ot]
Ich denke mal das sich Fujitsu in Sachen technischer Details noch zurück hält ???
-
[ot] relevante fragen: preis, bestellnummer, läuft mint, will it blend ;D [ot]
[ot]Stromverbrauch wäre vielleicht auch nicht ganz unwichtig.
Für den Betrieb und für die Kühlung.
Dürfte den Bedarf mancher Kleinstadt sicher übersteigen...[/ot]
Nach "Fujitsu +K +supercomputer" zu suchen, führt hier zu allerlei brauchbaren Treffern.
Beispiel:
http://www.fujitsu.com/global/news/pr/archives/month/2010/20100928-01.html
-
oh, vielen Dank!
das war genau der Link, den ich gesucht habe. Versteh bloß nicht, warum bei meiner Suche nur Mist raus gekommen ist, aber es gibt ja den cube ;D
So, Anfrage an Fujitsu ist auch raus, mal sehen, was die da anbieten können.
Und damit jetzt nicht das große Erschrecken auftaucht, das Teil ist nicht für mich ;D
Es geht im Prinzip um eine etwas kleinere Version, die eine größere Renderfarm ablösen soll.
zum OT von Jürgen: bei der Renderfarm sieht das Energie-/ Leistungsverhältniss extrem bescheiden aus, 300+ IBM CPU Racks + etliche Speichermodule ziehen immens an Leistung, und für Zukunft müsste sogar die Ausstattung verdoppelt werden, was dann theoretisch eine Verdreifachung der Energie bedeutet.
edit: ok, hab eben mal die elektrische Leistungsaufnahme für den Supercomp. berechnet: das sind max 39,72 kW pro Rechner (Vollausbau bei 100% last), das ganze mal 800: 31776 kW ;D Dazu kommt dann noch die Kühlung und ähnlicher Kram.
-
Nach meinem Stromtarif wären das etwa 6000 Euro pro Stunde.
Warum bloss beschleicht mich der Verdacht, dass am Ende ich derjenige bin, der das bezahlen soll...
-
An der Spitze der neuen 36. Top500-Liste der Supercomputer steht nun erstmals ein chinesisches System. Das National Supercomputing Center in Tianjin konnten sich nicht zurückhalten und verriet schon zwei Wochen vor der jetzt veröffentlichten Liste den derzeit nicht zu überbietenden Linpack-Wert ihres Tianghe-1A, der für die Liste noch ein wenig zugelegt hat: 2,56 PFlops. Damit verweist er den bisherigen Spitzenreiter aus Amerika, den Jaguar des Oak Ridge National Laboratory mit seinen 1,76 PFlops auf Platz 2. Doch Asien hat noch mehr zu bieten: Drei der fünf schnellsten Supercomputer stehen derzeit dort, zwei in China und einer in Japan (Tsubame 2.0). Alle drei sind Cluster mit Intel Sechskernprozessoren (Westmere), die durch mehrere Tausend Nvidia-Fermi-Karten.beschleunigt werden. Die beiden amerikanischen Systeme in den Top5 sind indes beides Cray-Rechner mit AMD Opteron (Istanbul beziehungsweise Magny-Cours).
Ein wenig tröstet die Amerikaner, dass ihre Cray-Systeme Allzweckrechner sind, wohingegen die asiatischen Hybridrechner – mit den GPGPUs von Nvidia – nur in speziellen Aufgabenbereichen solch hohe Performance liefern können. Weiterhin hoffen die Amerikaner, im nächsten Jahr mit dem Power7-Rechner Blue Waters der Universität Illinois mit 10 Pflops wieder klar die prestigeträchtige Spitzenposition zu übernehmen. IBM baut darüber hinaus für die Lawrence Livermore National Labs auch den Sequioa mit 20 PFlops auf Basis der nächsten BlueGene-Generation, der 2012 fertig gestellt sein soll.
In der gesamten Top500-Liste hat China von 24 auf 42 Systeme kräftig zugelegt, und die Japaner ebenfalls von 18 auf 26. Die amerikanischen Systeme haben mit nunmehr 275 von zuvor 282 etwas verloren, der europäische Anteil ging von 144 auf 124 zurück.
Das schnellste europäische System ist auf Platz 6 der erste Pflops-Rechner auf diesem Kontinent: Tera 100 der französischen Atomenergie-Behörde. Mit 1,06 PFlops hat er den bisherigen europäischen Spitzenreiter, den Jülicher Rechner JuGene, mit 825 TFlops überflügelt, der nun Platz 9 inne hat. Auch den Roadrunner der amerikanischen Los Alamos Labs, der als erster die Petaflops-Marke erreicht hatte konnte der von Bull aufgebaute Rechner überholen. Zudem nimmt Bull für den mit Intel-Achtkern-Prozessoren bestückten Nehalem-EX in Anspruch, mit einer Linpack-Leistung von 84 Prozent der theoretischen Spitzenleistung der effizienteste der ganz großen Systeme zu sein.
In Europa sind jetzt Deutschland und Frankreich mit 26 platzierten Systemen gleichauf an der Spitze und haben Großbritannien verdrängt, das von 38 auf 24 Systeme zurückgefallen ist.
Bei den Firmen führt in der Zahl der Systeme in der Top500-Liste weiterhin HP vor IBM, aber in der Gesamtperformance ist IBM klar vorn. In dieser Disziplin hat Cray HP auf Platz drei verdrängt. 398 Systeme (zuvor 408) sind mit Intel-Prozessoren bestückt, hier konnte AMD wieder etwas Boden gutmachen und von 47 auf 57 Systeme zulegen. 365 Systeme (73 %) sind mit Quad-Core-Prozessoren bestückt, 95 (19%) haben Prozessoren mit sechs oder mehr Kernen.
Der Anteil von Windows HPC Server bleibt bei mageren 5 Systemen, die restlichen arbeiten überwiegend Linux und ein paar (17) mit AIX.
31,5 TFlops benötigte man, um überhaupt noch auf die Liste zu kommen, vor einem halben Jahr reichten noch 24,7 TFlops aus. Die Gesamtleistung aller Systeme stieg um 36 Prozent von 32,4 auf 44,2 PFlops. Der Anstieg ist damit wieder in der üblichen Größenordnung; zuvor war er wohl wegen der Wirtschaftsflaute auf 17 Prozent abgeflacht.
(http://img293.imageshack.us/img293/9025/sucp.png)
Quelle : www.heise.de
-
Mitte 2012 wird im Leibniz-Rechenzentrum (LRZ) in Garching bei München ein neuer Höchstleistungsrechner in Betrieb gehen. Der "SuperMUC" wird zu den leistungsfähigsten Universalrechnern der Welt gehören - und soll mit seiner Abwärme das gesamte LRZ heizen.
Zur Vertragsunterzeichnung treffen sich in Garching heute Wissenschaftsminister Wolfgang Heubisch (FDP), Prof. Dr. Arndt Bode, Vorsitzender des Direktoriums des Leibniz-Rechenzentrums (LRZ), und Martin Jetter, Vorsitzender der Geschäftsführung von IBM Deutschland. Der "SuperMUC" wird den derzeitigen Hochleistungsrechner "HLRB II" ablösen, der 2006 in Betrieb genommen wurde.
Unvorstellbares vorstellbar machen
Der neue Höchstleistungsrechner soll laut LRZ-Präsident Prof. Dr. Dietmar Willoweit "ein breites Spektrum wissenschaftlicher Anwendungen" berechnen können. Gemeint sind damit zum Beispiel Simulationen der Entwicklung des Universums, die Entwicklung von Modellen des heißen Erdinnern, die Ausbreitung von Erdbebenwellen und die Berechnung von Strömungseigenschaften technischer und natürlicher Systeme sowie biologische und medizinische Untersuchungen.
Um solch gewaltige Rechnungen zu bewältigen wird der SuperMUC mit 110.000 Prozessorkernen ausgestattet, einer Spitzenrechenleistung von 3 Petaflops, einem Hauptspeicher mit 320 Terabyte und einem Hintergrundspeicher mit 12 Petabyte.
Drei Petaflops
Drei Petaflops oder wissenschaftlich drei PetaFlop/s das bedeutet drei Billiarden, also 3.000.000.000.000.000 Gleitkommaoperationen pro Sekunde. Gleitkommaoperationen werden auf englisch Floating Point Operations (Flops) bezeichnet. Ein Beispiel: Würde man in diesem Tempo mit einem Hammer Nägel in einem Abstand von einem Millimeter in die Erde schlagen, so würde man damit den Äquator 75.000 Mal in einer einzigen Sekunde umrunden.
Quelle: LRZ
Kühlen mit Wärme
Damit der Rechner beim Rechnen nicht heiß läuft, wird er mit einem neuartigen Kühlsystem ausgestattet: Aktive Komponenten wie Prozessoren und Memory werden mit über vierzig Grad warmem Wasser gekühlt. Diese sogenannte Hochtemperaturflüssigkeitskühlung und eine neue Systemsoftware zur energieeffizienten Leistungssteuerung sollen es ermöglichen, den Anstieg des Energieaufwands - und damit die Betriebskosten - so gering wie möglich zu halten. Geplant ist auch, alle LRZ-Gebäude mit der Abwärme des Rechners zu heizen.
83 Millionen für den "SuperMUC"
Der "SuperMUC" wird voraussichtlich 83 Millionen Euro kosten: Diese Summe wird für die Investitions- und Betriebskosten sowie die Stromkosten für fünf bis sechs Jahre veranschlagt. Dazu kommen noch 50 Millionen Euro für die bereits laufende Gebäudeerweiterung des LRZ. Finanziert werden die Kosten jeweils zu 50 Prozent vom Freistaat und dem Bund.
Netzwerken in der Wissenschaft
Nutzen können den neuen Superrechner Wissenschaftler in Bayern und Deutschland sowie Forscher in 21 europäischen Mitgliedsstaaten. Zugang erhalten die Wissenschaftler im Innland über das Gauß Zentrum für Supercomputing (GCS) und im Ausland über PRACE (Partnership for Advanced Computing in Europe).
http://www.br-online.de
-
Der IT-Konzern IBM hat einen neuen Supercomputer namens "Mira" vorgestellt. Das System ist auf eine Leistung von 10 Petaflops ausgelegt, teilte das Unternehmen mit.
Der Rechner wird im Argonne National Laboratory des US-Energieministeriums seine Arbeit verrichten. Dort soll er unter anderem eingesetzt werden, um nach Materialien für effizientere Akkus für Elektroautos zu suchen, die Klimaentwicklung zu erforschen und Daten aus der Beobachtung des Universums auszuwerten.
Nach Angaben IBMs wird der Supercomputer im kommenden Jahr in Betrieb gehen können. Aktuell setzt man an dem Wissenschaftsstandort einen Blue Gene/P von IBM als schnellsten Rechner ein. Dessen Leistung wird Mira um das Zwanzigfache übertreffen.
Zum Zeitpunkt der Inbetriebname soll Mira nicht nur einer der schnellsten Rechner der Welt sein, sondern auch Maßstäbe in Sachen Energieeffizienz setzen. Bei IBM sieht man die Entwicklung des Systems als wichtigen Schritt hin zu Supercomputern mit einer Leistung von einem Exaflops, die noch in diesem Jahrzehnt auf der Bildfläche erscheinen sollen.
Mira wird dabei aber auch eine Herausforderung für die Entwickler darstellen, die hier aber auch Erfahrungen für die Arbeit mit Exascale-Systemen sammeln können. Software für Mira muss so programmiert sein, dass sie auf bis zu 750.000 Rechenkerne skalieren kann, bei Systemen mit Exaflops-Leistungen werden es voraussichtlich viele Millionen Cores sein.
Quelle : http://winfuture.de
-
Der Supercomputer-Hersteller Cray schickt sich an, in seiner Zunft wieder die Spitze zu erobern. Im kommenden Jahr will das Unternehmen am Oak Ridge National Laboratory seinen ersten 20-Petaflops-Rechner in Betrieb nehmen.
Noch in diesem Jahr sollen die ersten Knoten des Clusters, der unter dem Namen "Titan" laufen wird, geliefert werden. Diese sollen bereits die ersten Petaflops für Berechnungen bereitstellen. Anschließend erfolgt dann stufenweise der Ausbau, bis die vollständige gewünschte Leistungskraft erreicht ist.
Der Preis des Gesamtsystems wird voraussichtlich bei rund 100 Millionen Dollar liegen. Auch hier zeigt sich, wie schnell die Entwicklung bei Supercomputern in den letzten Jahren fortgeschritten ist. Als Cray im Jahr 2006 den XT4 "Jaguar" lieferte, erhielt man in Oak Ridge für etwa den doppelten Preis lediglich 263 Teraflops.
Eines der wichtigsten Features von Titan wird sein "global adressierbarer Speicher" sein. Die Arbeitsspeicher aller Cluster-Knoten werden dabei zusammengeschlossen. Die Rechenkraft wird dem Supercomputer von den Interlagos-CPUs aus AMDs Opteron-Serie beziehen. Die neuen Prozessoren mit je 16 Kernen sollen ab dem Sommer verfügbar sein.
Im Titan werden außerdem Grafikchips verbaut, die voraussichtlich von Nvidia geliefert werden. Die GPUs sollen bestimmte Rechenaufgaben übernehmen und dabei deutlich effizienter arbeiten als eine herkömmliche CPU. Betrieben wird der Supercomputer mit einem von Cray für den Betrieb auf großen Clustern optimierten Linux.
Quelle : http://winfuture.de
-
Desktop-PCs und Notebooks sind bei IBM inzwischen Vergangenheit, also müssen allein die Server die nunmehr 30-jährige x86-Tradition fortführen. Und in diesem Bereich ließ es IBM nun noch mal termingerecht krachen: Bei dem wichtigen Transaktions-Benchmark TPC-C kam das IBM System x3850 X5 auf knapp über 3 Millionen Transaktionen pro Sekunde (tpmC) – damit dürfte es den Original-PC 5150 wohl mindestens um Faktor 100.000 übertreffen
Lediglich ein paar große Racks mit 32 Power5+/6- sowie bei HPs Superdome mit 64 Itanium-2-Prozessoren sind bei den Nicht-Cluster-Systemen noch leistungsfähiger, allerdings bei fünffach höheren Kosten pro Transaktion (US-Dollar/TpmC).
Im x3850 x5 System arbeiten lediglich vier Prozessoren, die allerdings als Westmere-EX jeweils zehn Kerne bieten (Xeon E8870: 10 Kerne, 20 Threads, 2,4 GHz). Vor wenigen Monaten erst hatte IBM TPC-C-Werte für das gleiche x3850 X5 System eingereicht, damals noch bestückt mit den Vorgängerprozessoren Nehalem-EX (Xeon X7560: 8 Kerne,16 Threads 2,26 GHz). Damit übertraf IBM mit 2,3 Millionen tpmC klar den x86-Konkurrenten HP mit 1,8 tpmC.
Die leistungsfähigeren Prozessoren allein hätte die Steigerung des recht I/O-lastigen TPC-C-Benchmarks von über 30 Prozent aber nicht stemmen können, da musste auch an der anderen Ausstattungsmerkmalen geschraubt werden. An der Software liegt es nicht, beide liefen unter SuSE11SP1 und DB2 9.7. Aber hinzu kam eine Verdoppelung der Hauptspeicherkapazität von 1,5 auf 3 TByte, dank IBMs externer Speichererweiterung MAX5 v2, sowie ein verstärkter Einsatz von SSDs.
Das neue System hatte mit 136 mehr als doppelt so viele 2,5-Zoll SAS-SSDs (200 GByte) im Rahmen von IBM exFlash als das alte zur Verfügung, neben den ohnehin vorhandenen acht SATA-SSDs. Dafür hatte das alte immerhin 444 Festplatten am Drehen, das neue nur 48.
Quelle : www.heise.de
-
China hat laut einem Bericht der New York Times einen Petaflop-Supercomputer mit eigenem Chipsatz entwickelt. Früher als nach bisherigen Ankündigungen der chinesischen Supercomputerbauer zu erwarten war, sollen Techniker am National Supercomputer Center in Jinan den Petaflop-Rechner installiert haben. Die Neuigkeit erfuhr die Öffentlichkeit auf einer technischen Konferenz, die am selben Ort stattfand.
Sunway BlueLight MPP, so der Name der neuen Maschine, arbeitet mit 8700 Mikroprozessoren vom Typ ShenWei SW1600. Der Entwurf stammt von einem chinesischen Computer-Institut. Dabei soll es sich es sich um eine Godson-Architektur handeln, die auf dem Konzept der MIPS-CPUs basiert. Hergestellt werden die Chips in Shanghai. Mit einer Rechenleistung von 115 Gigaflops liegt die CPU etwa auf der Ebene einer aktuelle Westmere-CPU von Intel.
Bereits im Jahr 2000 hatte China mit einem Supercomputer namens ShenWei von sich Reden gemacht und 2002 seinen ersten eigenen 32-Bit-Prozessor auf den Markt gebracht. In den Bestenlisten der Top500 war China in den letzten Jahren erfolgreich mit mehreren Systemen vertreten. Im Herbst 2010 mit seinem Tianhe 1A auf Platz eins, den es im Frühjahr 2011 gegen den japanischen K-Computer verlor. Bis dato arbeiten aber die Höchstleistungsrechner in China mit Prozessoren anderer Hersteller wie Intel, NVIDIA oder AMD. In der letzten Juni-Liste der Top500 konnte China 61 Systeme platzieren.
Quelle : www.heise.de
-
In Japan ist es nun gelungen, die Leistungsmarke von 10 Petaflops zu überschreiten. Der "K Computer" ist der erste Rechner, bei dem dies gelungen ist. Gebaut wurde die Maschine durch den IT-Konzern Fujitsu und dem staatlichen Forschungsinstitut RIKEN.
Der Rechner ist schon seit einiger Zeit in Betrieb, wurde aber erst jetzt durch einen weiteren Ausbau auf die neue Höchstleistung von 10,51 Billiarden Floating-Point-Operationen pro Sekunde getrieben. Wenn in der kommenden Woche die neue Liste der 500 schnellsten Rechner der Welt erscheint, wird der K Computer an der Spitze stehen.
(http://scr.wfcdn.de/6283/K-Supercomputer-1308564227-0-11.jpg)
Gebaut wurde das System im Auftrag des japanischen Ministeriums für Bildung, Kultur, Sport, Wissenschaft und Technologie. Bereits der Name war von Anfang an Programm: Das "K" steht für das japanische Wort "kei", was 10 Billiarden bedeutet. Ursprünglich arbeiteten auch Hitachi und NEC an Entwicklung und Bau, wofür 1,2 Milliarden Dollar zur Verfügung standen, mit. Im Zuge der Weltwirtschaftskrise zogen sich die beiden Unternehmen aber 2009 zurück.
Fujitsu setzte das Projekt daraufhin mit RIKEN allein fort. Konstruiert wurde ein Rechner, der auf SPARC64 VIIIfx-Prozessoren basiert. Insgesamt sind in dem System 88.000 CPUs miteinander verbunden, die sich über 864 Server-Racks verteilen. Aufgebaut wurde der Supercomputer im RIKEN-Rechenzentrum in Kobe.
Ursprünglich sollte K als Hybrid-System konstruiert werden, in dem auch Vektor-Prozessoren zum Einsatz kommen. Allerdings wurde dieser Plan später verworfen. Für die Verbindung der Racks haben Fujitsu-Ingenieure ein komplett neues Hochleistungs-Netzwerk entwickelt.
Bei den letzten Messungen vor dem Ausbau im Juni lieferte der K Computer bereits 8,162 Petaflops. Im August begann Fujitsu mit dem finalen Ausbau der Maschine. Jetzt veröffentlichte Fujitsu die konkreten Benchmarks und konnte belegen, dass das System bei Spitzenleistung die 10-Petaflops-Marke knackt. Allerdings läuft das System nicht immer unter Volllast: Die durchschnittliche Leistung liegt bei rund 93 Prozent des Spitzenwertes.
Quelle : http://winfuture.de
-
(http://www.heise.de/imgs/18/8/7/6/2/8/0/170b5020ed34e6ad.jpeg)
Mit dem Sequoia am Lawrence Livermore National Laboratory (LLNL) stellen die US-Amerikaner jetzt wieder den schnellsten Supercomputer der Welt. Mit 16,3 PFlops im Linpack-Benchmark verweist Sequoia den bisherigen Spitzenreiter K Computer aus Japan (10,5 PFlops) in der heute zum Start der Internationalen Supercomputer-Konferenz ISC12 veröffentlichten 39ten Top500-Liste der Supercomputer klar auf Platz 2. In dem von IBM installierten Rechner arbeiten fast 100.000 BlueGene/Q-Prozessoren – offiziell PowerPC A2 genannt – mit 1,6 GHz. Ein jeder bietet 16 Rechenkerne sowie einen weiteren Kern für Steuerung und I/O. Ein achtzehnter Kern im Chip dient als Reserve. Eine kleine Vorstufe des Sequoia konnte in der letzten veröffentlichten 38ten Top500-Liste im November 2011 bereits den 17. Platz belegen.
Ein weiterer BlueGene/Q-Rechner von IBM namens Mira wurde am Argonne National Laboratory (ANL) installiert. Mit 8,2 PFlops erreicht Mira hinter dem K Computer Platz 3 der Top500-Liste Mit einigem Abstand folgt auf Platz 4 mit 2,9 PFlops Europas Schnellster, der SuperMUC am Leibniz-Rechenzentrum (LRZ) in Garching bei München. Der Rechner mit 18.432 Intel-Xeon-E5-Prozessoren mit jeweils 8 Kernen wurde ebenfalls von IBM aufgebaut – auf Basis von iDataPlex-Racks. Seine Besonderheit ist die Heißwasserkühlung, die erstmals in dieser Größenordnung eingesetzt wird. Die Rechner arbeiten dabei im Temperaturbereich zwischen 40 und 60 Grad und lassen sich dadurch weit effizienter kühlen als wenn sie, wie üblich, mit 8 bis 12 Grad kaltem Wasser versorgt werden müssen.
Auch der Partner des Leibniz-Rechenzentrums im deutschen Gauss Centre for Supercomputing (GCS), das Forschungszentrum Jülich (FZJ), konnte mit einem BlueGene/Q-Rechner in die Top10 der Liste einziehen – erstmals seit 1997 sind damit zwei deutsche Rechner in diesen Top10. JuQUEEN, so heißt der Neue, ergänzt den weiterhin in der Liste stehenden JuGene. Mit 1,38 PFlops erreichte er Platz 8. Bis vor Kurzem war noch Hermit des Höchstleistungsrechenzentrums Stuttgart (HLRS) – der dritte Partner des GSC – der schnellste deutsche Rechner, ein Cray-XE6-System mit 830 TFlops, der mit dieser Leistung nur noch Platz 24 weltweit erreichen konnte.
Zwischen SuperMUC und JuQUEEN liegen die in der letzten Liste noch Platz zwei und drei belegenden Rechner Tinghe-1A aus China (2,57 PFlops mit Intel Xeon E5 X5670 und Nvidia Tesla 2050) und der mit Bulldozer-Prozessoren aufgerüstete Cray-XK6-Rechner Jaguar in Oak Ridge mit 1,94 PFlops. Dann folgt auf Platz 7 mit Fermi erstmals ein italienisches System in den Top10 – ebenfalls ein Bluegene/Q-Rechner von IBM – mit 1,7 PFlops.
Eine Besonderheit ist das erste System mit Intels neuem Coprozessor Knights Corner. Intels Testsystem Discovery ist mit 280 Xeon-E5-Prozessoren und vermutlich 140 Knights-Corner-Karten bestückt, bei denen derzeit offenbar jeweils nur 54 Kerne mitrechnen, so dass man auf 7560 Rechenkerne kommt. Mit insgesamt 118 TFlops erreichte der Rechner Platz 150.
Weitere Einzelheiten zum Knights Corner, seinen offiziellen Namen und neue Partner will Intel heute auf der Pressekonferenz um 15 Uhr bekannt geben.
Insgesamt 58 (zuvor 39) der Top500-Systeme sind inzwischen mit Beschleunigern versehen, überwiegend mit Nvidia-GPU (53). Intel ist bei den Hauptprozessoren mit 372 Systemen etwas schwächer vertreten als vor einem halben Jahr (384). AMD hielt sich mit 63 auf dem gleichen Stand und IBM Power konnte dank BlueGene/Q auf 58 (zuvor 49) zulegen. Auch 5 SPARC-System sind jetzt in der Liste verzeichnet.
IBM als Hersteller dominiert diese Liste weiterhin klar vor Hewlett Packard. Zwar stammen nur noch 213 Systeme – zuvor 223 – von IBM, aber in der akkumulierten Rechenleistung erbringen diese Systeme nahezu 50 Prozent der Gesamtleistung, dieser Anteil lag in der vorigen Liste nur bei 27 Prozent. 138 Systeme stammen von Hewlett Packard (zuvor 141) mit nur noch knapp 10 Prozent der Gesamtleistung, gefolgt von Cray (27 Systeme, 8,9 Prozent), Bull und SGI. Bislang war Cray bei den Top50 vorneweg, mit etwa doppelt so vielen Systemen und doppelter Rechenleistung wie IBM, das hat sich nun komplett gedreht: IBM hat mit 22 dreimal mehr Systeme in den Top50 mit einer dank Sequoia, Mira und SuperMUC um Faktor sieben höheren Rechenleistung.
Bei den Ländern dominieren weiter die USA mit 253 (zuvor 263) Systemen. Die Europäer haben zwar von 103 auf 107 zugelegt, liegen ab weiterhin hinter Asien 121 (zuvor 118) zurück. China hat eine kleine Pause eingelegt und ein wenig verloren 68 (zuvor 74). Japan hat wieder etwas aufgedreht und jetzt 34 (zuvor 30) Systeme platziert. Deutschland, Frankreich und Großbritannien liegen mit 20, 22 und 25 Systemen nahezu gleichauf, aber Deutschland hat dank seiner "dicken Eisen" beim GCS die Nase in puncto Rechenleistung vorn; mit 8,1 PFlops vor Großbritannien (6,5 PFlops) und Frankreich (6,4 PFlops).
(http://img20.imageshack.us/img20/8031/climsyclipboardro.jpg)
Die Gesamtleistung der 500 verzeichneten Supercomputer nahm dank der großen Petaflops-Systeme kräftig um 66 Prozent von 74,2 auf 123,4 PFlops zu. Die Einstiegsleistung, um überhaupt in die Liste zu kommen, stieg demgegenüber nur mäßig von 51 auf 61 TFlops.
Quelle : www.heise.de
-
14.112 Sandy-Bridge-EP-Prozessoren mit insgesamt 112.896 Kernen stecken in dem Münchner Supercomputer SuperMUC, der heute in Betrieb geht. Der von IBM gelieferte Rechner leistet 3 Petaflops, das sind 3 Billiarden Gleitkommaoperationen pro Sekunde. Damit ist er zurzeit der schnellste in Europa und nimmt den vierten Platz auf der Weltrangliste ein.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Schnellster-europaeischer-Rechner-geht-in-Betrieb-1648148.html)
Quelle : www.heise.de
-
(http://www.heise.de/imgs/18/9/3/9/1/0/5/da55f1320ebd0082.jpeg)
Rechtzeitig, um noch für die nächste Top500-Liste der Supercomputer – die zu Beginn der SC2012 am 12. November in Salt-Lake-City veröffentlicht wird – melden zu können, startet heute der Supercomputer Titan am Oak Ridge National Laboratory offiziell seinen Testbetrieb in voller Bestückung. Die Einweihung und die Freigabe für den Normalbetrieb sind für Anfang nächsten Jahres geplant.
Titans 200 Cray-XK7-Racks beherbergen 18.688 Rechenknoten, ein jeder versehen mit einem AMD-Bulldozer-Prozessor (Opteron 6274) und einer Nvidia Tesla K20 mit dem neuen 7-Milliarden-Transistor-Chip Kepler GK110. Ursprünglich waren zunächst nur 14.592 K20-Karten vorgesehen, aber offenbar klappte Lieferung und Installation besser als erwartet. Und so will man jetzt die Chance nutzen, die Nummer 1 zu werden. Allein die K20-Karten dürften bei vermutet 1,17 TFlops/Karte rund 22 PFlops an Spitzenleistung erreichen. Hinzu kommen etwa 10 Prozent weitere Rechenleistung durch die 300.000 Bulldozer-Kerne. Damit ist Titan zehn Mal schneller und fünf Mal energieeffizienter als sein Vorgänger Jaguar. Wieviel letztlich an Linpack-Leistung herauskommt, hängt von der Effizienz des Kepler-Chips ab, für den Nvidia im Vorfeld Werte von 90 Prozent in den Raum stellte.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Supercomputer-Titan-startet-1738107.html)
Quelle : www.heise.de
-
Während gerade erst das Oak Ridge National Laboratory der US-Energiebehörde voller Stolz die Fertigstellung ihres Supercomputers TITAN mit 20 Petaflops verkündete, wartet das Reich der Mitte mit einem echten Hammer auf. 2015 soll ein Rechner fertiggestellt sein, der mit fünf Mal mehr Rechengeschwindigkeit als sein amerikanischer Kollege arbeitet.
Dass die Chinesen die Meldung aus Amerika nicht auf sich sitzen lassen konnten, war irgendwie klar. Das ist wahrscheinlich dann auch der Grund dafür, dass die chinesische Regierung zwei Tage nach der Pressemeldung der US-Energiebehörde den Bau eines eigenen Supercomputers bekannt gab, der mit stattlichen 100 Petaflops arbeitet. Zur Erinnerung: 100 Petaflops (floating operations per second) sind 1 Billiarde Rechenschritte pro Sekunde. Die Maschine mit dem Namen Tianhe-2 soll 2015 fertig sein, wird aber kaum sehr lange die Tabellenführung inne haben, zumal namhafte Experten der Industrie bereits 2018 mit der Fertigstellung von Supercomputern rechnen, die Leistungen von 1.000 Petaflops und mehr bringen werden.
Schon der Vorgänger des Tianhe-2, der Tianhe-1A-Supercomputer, war absoluter Spitzenreiter in 2010, dem Jahr seiner Inbetriebnahme. Mutter beider Maschinen ist übrigens Chinas Nationale Unversität für Verteidigungstechnologie. Financier der Projekte war und ist Chinas Regierung, die spätestens im Jahr 2018 einen Supercomputer mit einer Leistung von 1 Exaflop entwickelt haben will. Dass China dieses dennoch ergeizige Ziel nicht erreicht, ist angesichts der vorangegangen Leistungen auf diesem Gebiet eher unwahrscheinlich.
Der ein oder andere mag sich bestimmt fragen, ob solche Rechenleistungen überhaupt gebraucht werden. Sicherlich nicht in der Textverarbeitung oder der Webseiten-Programmierung, aber sehr wohl gibt es Bereiche, die solche Möglichkeiten erfordern. Zum Beispiel in der Bioforschung, spezieller der Proteinfaltung. Die hier erforderlichen Rechenschritte, um zu einem einigermaßen vernünftigen Ergebnis in einer einigermaßen akzeptablen Zeitspanne zu kommen, sind exorbitant hoch. So benötigte ein früherer Rechner mit 230 Gigaflops Leistung für die Berechnung von einer Mikrosekunde für das kleine Protein Villin ganze zwei Monate. Mit den heutigen Petaflop-Rechner dauert das gerade einmal 2 Minuten.
Quelle : www.gulli.com
-
Am der National University of Defense Technology (NUDT) arbeiten chinesische Forscher derzeit an ihrer nächsten Supercomputer-Generation. Mit dem Tianhe-2 (TH-2, der Name bedeutet Milchstraße) wollen sie – wie schon einmal 2010 mit dem Vorgänger Tianhe-1A – die Liste der schnellsten Supercomputer der Welt, die Top 500 aufmischen
Nach ersten vom Vater des Linpack-Benchmark, Jack Dongarra, veröffentlichten Ergebnissen ist TH-2 mit über 30 Petaflops knapp 75 Prozent schneller als das bisher die Top 500 anführende System des Oak Ridge Natioan Laboratory (ORNL), der Titan.
Siehe dazu auch:
Neuer chinesischer Supercomputer (http://www.heise.de/meldung/Neuer-chinesischer-Supercomputer-1885249.html)
Quelle : www.heise.de
-
Mit 174 Millionen US-Dollar ist der Autrag für "Trinity" einer der größten in der Geschichte von Cray. Das XC30-System mit Intel-Chips soll am Los Alamos National Laboratory aufgebaut werden.
(http://3.f.ix.de/imgs/18/1/2/6/8/3/5/8/Cray-XC30_Xeon_Phi-e4ba54332c23d64d.jpeg)
Die National Nuclear Security Administration (NNSA) hat das Supercomputer-Traditionsunternehmen Cray mit einem großen Auftrag bedacht: Für 174 Millionen US-Dollar soll das nach der ersten Kernexplosion "Trinity" benannte XC30-System mit Sonexion-Storage entstehen. Cray baut darin kommende Intel-Chips der Xeon-Familie ein, nämlich Haswell-EP und Knights Landing alias Xeon Phi. Die Vernetzung erfolgt mit dem Aries-Interconnect, ebenfalls unter den Fittichen von Intel.
Trinity wird am Los Alamos National Laboratory (LANL) aufgestellt und auch von den Sandia National Laboratories (SNL) genutzt im Rahmen der New Mexico Alliance for Computing at Extreme Scale. In New Mexico fand seinerzeit auch der Trinity-Test statt. Trinity soll mehr als die achtfache nutzbare Performance des älteren Cray XE6 "Cielo" liefern, welches die NNSA bisher nutzt – also ungefähr 10 PFlops. Cielo hatte seinerseits den IBM Roadrunner mit Cell-Prozessoren abgelöst.
Quelle : www.heise.de
-
Mehr als die dreifache Geschwindigkeit des aktuellen Spitzenreiters: Intels Aurora-Supercomputer soll eine Rechenleistung von über 180 Petaflops erreichen. Das mit Xeon Phi ausgestattete System benötigt zwar enorm viel Energie, ist aber sehr effizient.
Intel baut den schnellsten bekannten Supercomputer der Welt. Das Aurora genannte System entsteht im Auftrag des Energieministeriums der Vereinigten Staaten (United States Department of Energy, DoE) und soll eine Rechenleistung von über 180 Petaflops erreichen. Zum Vergleich: Der aktuell schnellste Supercomputer, Chinas Tianhe-2, bietet 55 Petaflops. Den wollte Intel übrigens aufrüsten, durfte es aber nicht, da die US-Regierung es verboten haben soll.
Der kommende Aurora wird nahe der Argonne Leadership Computing Facility (ALCF) des ANL-Forschungsinstituts (Argonne National Laboratory) in Illinois gebaut. Ziel ist, das ANL, das Lawrence Livermore National Laboratory (LLNL) und die Oak Ridge National Laboratories (ORNL) mit den schnellsten Supercomputern auszustatten, die technisch machbar sind.
Hierfür kooperiert Intel mit Cray und bekommt vom Energieministerium ein Budget von mindestens 200 Millionen US-Dollar. Die Basis des für 2018 geplanten Aurora-Supercomputers sollen Xeon-Phi-Modelle vom Typ Knights Hill bilden, dem Nachfolger der dieses Jahr erscheinenden Xeon Phi vom Typ Knights Landing. Die Beschleuniger sind als Steckkarten oder Host-Prozessoren einsetzbar, der Aurora dürfte beide Möglichkeiten kombinieren. Künftig soll der Intel-Supercomputer sogar bis zu 450 Petaflops Spitzenleistung erreichen.
Obwohl die Xeon Phi Knights Hill bereits im 10-nm-FinFET-Verfahren gefertigt werden, kommen die über 180 Petaflops in Form von mindestens 50.000 Nodes nicht von ungefähr: Intel gibt an, dass der Aurora-Supercomputer eine Leistung von satten 13 Megawatt aufnehmen soll. Umgerechnet auf die Effizienz steht das System mit knapp 14 Gigaflops pro Watt jedoch sehr gut da.
Quelle : www.golem.de
krasses Teil ... auch was die Leistungsaufnahme angeht :aah
-
krasses Teil ... auch was die Leistungsaufnahme angeht :aah
Alles ist relativ.
Ein einziger ICE 3 braucht auch schon 8 Megawatt, als Dauerleistung.
Und das ist fast nichts im Vergleich zu prinzipiell wenig nützlichen Verbrauchern wie Kreuzfahrtschiffen oder zu Forschungseinrichtungen wie denen am CERN.
Selbst das ist aber noch wenig gegen den komplett sinnlosen Verbrauch abertausender Mantas, Corvettes, tiefergelegter 3er und Bonzen-Benzen, deren Transportleistung allein dem Selbstwertgefühl definitiv unnützer Zeitgenossen geopfert wird, ohne jeden realen Gegenwert. Die Hohlköpfe darin braucht nämlich niemand, nirgendwo...
So gesehen wäre selbst ein einziges Rechenergebnis nach vielen Jahren in der Form von "42" zumindest weniger gemeinschädlich ;wusch
Jürgen
-
Die neue Top500-LIste der Supercomputer hat wenig Änderungen an der Spitze, aber viele im Mittelfeld. Vor allem China legt ordentlich zu.
(http://1.f.ix.de/scale/geometry/600/q75/imgs/18/1/6/4/7/4/1/6/Supercomputer-478aaa60f11d709f.jpeg)
Nahezu verdreifacht hat sich der Anteil der chinesischen Systeme in der Top500-Liste der Supercomputer, und das in nicht einmal einem halben Jahr. Das zeigt die 46. Ausgabe der Top500-Liste, die zur offiziellen Eröffnung der Supercomputerkonferenz SC15 in Austin/Texas veröffentlicht wurde.
Das ist wohl auch die wichtigste Aussage der neuen Liste, denn an der Spitze bei den Top10 hat sich gegenüber der vorigen Top500-Liste vom Juli 2015 nur wenig getan, weiterhin führt der chinesische Tianhe-2 mit 33,9 PetaFlops (PFlops) souverän die Liste an, vor dem "uralten" Titan am Oak Rigde National Lab mit 17,6 PFlops.
Neu in den Top10 konnten nur zwei Cray-XC40 Systeme ohne Beschleuniger einziehen: Trinity mit 8,1 PFlops auf Platz 6 als Gemeinschaftssystem mehrerer amerikanischer Nuklearwaffen-Forschungseinrichtungen, sowie, aus deutscher Sicht besonders interessant, Hazel Hen des Höchstleistungsrechenzentrums Stuttgart, der mit 5,64 PFlops Platz 8 erreichte. Der Rechner ist damit einen Wimpernschlag schneller als der Shaheen II, ebenfalls mit Cray XC40, der King-Abdullah-Universität (KAUST) in Saudi-Arabien.
Shooting Star
Unter dem Namen Sugon tritt nun die chinesische Firma Dawning auf. Sie konnte gleich 49 Systeme platzieren, weit mehr als die hierzulande bekannteren chinesischen Firmen Lenovo (39) und Inspur (15). Eigentlich hätte man auch Huawei unter den Heerscharen der chinesischen Regierungs- und Industrierechner erwartet, aber die Firma hat nur ein einziges System dabei.
Klassische Systemhäuser wie IBM oder Hewlett Packard findet man in China nur noch vereinzelt. Durch diesen chinesischen Boom fallen USA und Europa deutlich zurück. So wenig, mit nur 201 (zuvor 233) Systemen, dominierten die USA die Liste noch nie. China hat jetzt 109 (zuvor 37), Europa 107 (zuvor 141), Japan 39 Systeme.
In Europa führt Deutschland mit 32 platzierten Systemen (zuvor 37) vor Großbritannien und Frankreich mit jeweils 18. In Rechenleistung ausgedrückt sieht der Vorsprung noch klarer aus: 29,6 PFlops gegenüber 12,2 PFlops (Frankreich) und 11,6 PFlops (Großbritannien).
Neben dem schon genannten Hazel Hen trägt auch der in erster Ausbaustufe in Betrieb gegangene Jureca am Jülicher SC mit 1,4 PFlops dazu bei. Und natürlich auch die beiden schon im Juli gelisteten SuperMUC-Rechner des Leibniz-Rechenzentrums, die zusammengerechnet etwa genau so schnell sind wie Hazel Hen. Das Jülicher SC hat noch den schon etwas älteren Juqueen im Rennen, mit rund 5 PFlops auf Platz 12, sodass die im Gauss Centre for Supercomputing zusammengeschlossenen drei deutschen Großrechenzentren in akkumulierter Leistung ziemlich gleichauf sind.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Supercomputer-China-schickt-die-Terrakotta-Armee-2921868.html)
Quelle : www.heise.de
-
Auf der SC15 in Austin wurde die Rangfolge beim HPCG-Benchmark veröffentlicht. Auch hier führt der chinesische Tianhe-2. Hazel Hen in Stuttgart ist schnellster Europäer.
(http://1.f.ix.de/scale/geometry/695/q75/imgs/18/1/6/8/0/1/8/8/42_HLRS_hazel_hen_Boris_Lehner_lrg-c4df6d4417c36dc3-5cd45c81513bdbab.jpeg)
Seit einigen Jahren wird ein neuer Supercomputer-Benchmark namens HPCG von Jack Dongarra (Unversity of Tennessee) und Mike Heroux (Sandia National Lab) gepflegt, der ganz andere Anforderungen insbesondere an die Speicherperformance stellt, als der Linpack-Benchmark. Die erzielten GFlops-Raten sind hierbei erheblich niedriger, liegen zumeist nur bei ein paar wenigen Prozent von der theoretischen Peak-Performance. Eine Ausnahme stellt lediglich der Vektorrechner NEC-SX-ACE, der auf über elf Prozent Effizienz kommt.
Wenig Unterschiede
Trotz der anderen Anforderungen entspricht die nun veröffentlichte HPCG-Rangfolge von 63 Einreichungen weitgehend der in der aktuellen Top500-Liste. Neun der zehn dortigen Top 10-Systeme sind auch unter den ersten 10 der HPCG , nur Sequoia auf Platz 3 der Top 500 fehlt hier. Den ersten Platz hält hier wie dort der Tianhe-2 in China. Der japanische K-Computere folgt auf Platz 2 (4 in den Top 500) und der Titan im Oak Ridge National Lab auf Platz 3 (2 in den Top 500).
Interessant ist auch die Position des schnellsten Europäers. Hier konnte der neue Cray-XC40-Rechner namens Hazel Hen des Höchstleistungszentrums Stuttgart, den laut Top 500 schnellsten europäischen Rechner, den schweizerischen Piz Daint überholen. Piz Daint schöpft seine Performance vor allem aus Nvidia-K20x-Karten neben den schon etwas älteren Sandy-Bridge-Prozessoren (E5-2680). Hazel Hen hat hingegen nur CPUs und zwar moderne Haswell-Prozessoren Xeon E5-2680v3. Obwohl Nvidias Softwareingenieure auch beim HPCG kräftig optimieren und ebenso wie Intel bereits Code für die zur SC15 vorgestellte neuen HPCG-Fassung 3.0 fertig hatten, zeigten sich also beim HPCG die Haswell-Prozessoren als etwas performanter.
Quelle : www.heise.de
-
In Salt Lake City trifft sich in diesem Jahr die internationale Supercomputerszene zur SC16. Zu Beginn der Konferenz wird die neue Top500-Liste der Supercomputer veröffentlicht. Im Zweikampf USA gegen China hat die USA wieder ein bisschen nachgelegt.
Mit Cori, dem neuen Supercomputer in Berkeley, hat man es noch vor Donald Trumps Regentschaft geschafft, wenn auch nicht auf Platz 1 der Top500-Liste: Amerika ist zumindest bei der Gesamtleistung der Supercomputer wieder Nummer 1, nachdem China im Sommer die USA überholt hatte. Das ergibt die neue 48. Top500-Liste, die zum Auftakt der Supercomputer-Konferenz SC16 in Salt Lake City veröffentlicht wurde. Das gilt allerdings nur für die installierte Leistung, denn in der Anzahl der Systeme in der neuen Liste zog Berkeley mit 171 Systemen mit China lediglich gleich. Cori, der neue Cray-Supercomputer am National Energy Research Scientific Computing Center (NERSC) in Berkeley hat dabei mit 9152 Xeon-Phi-7250-Prozessoren 14 Petaflops beigetragen und damit Platz 5 erreicht, hinter den vier führenden Systemen, die schon im Sommer vorne standen.
Allen voran an der Spitze steht weiterhin einsam und allein der Sunway TaihuLight am National Supercomputing Center in Wuxi, der mit den 10 Millionen Kernen der Sunway-S26010-Prozessoren auf 93 PFlops im Linpack-Benchmark kommt. Nummer zwei ist der Tianghe am National Supercomputing Center in Guangzhou mit 33,9 Pflops, der lange die Liste anführte. Er speist seine Performance hauptsächlich aus den älteren Intel-Xeon-Phi-Prozessoren (Knights Corner). Platz 3 mit 7,6 PFlops hält der Oldtimer Titan am Oakridge National Lab mit AMD-Bulldozer-Prozessoren vor dem noch älteren Sequoia am Lawence Livermore National Lab (17,2 Pflops) mit BlueGene/Q.
Der ganze Artikel (https://www.heise.de/newsticker/meldung/Top500-Liste-der-Supercomputer-America-first-again-3464843.html)
Quelle : www.heise.de
-
HPE baut The Machine weiter aus - der Rechner soll einen Architekturwechsel zum "Memory Driven Computing" einläuten. Das System schöpft die Möglichkeiten der photonischen Links voll aus, HPE schweigt sich allerdings darüber aus, wo diese liegen.
Nach dem ersten Prototypen von "The Machine" im Oktober 2016 gab HPE jetzt die Inbetriebnahme einer zweiten Version im Labor in Fort Collins (Colorado) bekannt. HPE hatte das Projekt ursprünglich 2014 lanciert. Statt 4 TByte wie beim ersten Prototypen bietet diese Maschine 160 TByte Arbeitsspeicher und auch sonst etliche Verbesserungen der Systemarchitektur. HPE spricht in der Pressemitteilung von einem "Meilenstein" und dem "weltgrößten Computer mit einheitlichem Arbeitsspeicher".
Paradigmenwechsel durch "The Machine"?
"The Machine" ist laut Andrew Wheeler, Vice President und Deputy Director der Hewlett Packard Labs, das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens: eine neue Computer-Architektur – Memory-Driven-Computing – jenseits der klassischen Von-Neumann-Konzepte, die den Prozessor in den Mittelpunkt des Systems stellen.
Beim Memory-Driven-Computing steht der Arbeitsspeicher im Zentrum der Architektur. Durch das Vermeiden von Flaschenhälsen bei der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren erlaubt es völlig neue Applikationen, erfordert aber auch andere Betriebskonzepte sowie Middleware und eine radikal andere Software-Entwicklung. Eine schlichte Portierung bewährter Anwendungen beschleunigt zwar die Nutzbarkeit von The Machine, reizt aber die Performance-Vorteile nicht aus.
Prototyp mit 160 TByte Arbeitsspeicher
Der heute vorgestellte Prototyp hat 160 TByte Arbeitsspeicher. Es war laut Wheeler vorher nie möglich, diese Datenmenge in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten. Basierend auf dem aktuellen Modell erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und in einem Rackverbund mit mehreren Adressräumen bis zu 4.096 Yottabyte. Der neue Prototyp bietet:
160 TByte Shared Memory über 40 physische Rechnerknoten, untereinander verbunden mit einem eigenen Fabric-Protokoll;
ein Linux-basiertes Betriebssystem, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium;
optische Kommunikationsverbindungen, darunter das neue Photonics-Modul X1;
Softwareprogrammierungs-Werkzeuge, um die Vorteile des neben DRAM verbauten nicht-flüchtigen Arbeitsspeichers voll auszuschöpfen.
Weitere Details zu diesem Prototypen – etwa Bitrate oder Bandbreite der verwendeten Photonic – sind bisher nicht bekannt. Memristoren als nicht-flüchtige Speicherbausteine wurden jedenfalls noch nicht verbaut, teilte Wheeler im Interview mit; ihr Einsatz bei The Machine (http://www.hpe.com/TheMachine) sei aber nach wie vor geplant. Bezüglich Termin oder Zeitfenster für die finale Version hielt er sich bedeckt.
Mehr zu den Plänen von HPE im Interview mit Andre Wheeler (https://www.heise.de/newsticker/meldung/Feilen-an-The-Machine-3714422.html).
Quelle : www.heise.de