Autor Thema: Von Galilei über Hubble zu Herschel und weiter  (Gelesen 41975 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
PIONEER- ANOMALIE - Mysterium am Rand des Sonnensystems
« Antwort #45 am: 26 September, 2006, 15:36 »
Es ist eines der größten Rätsel der Weltraumforschung: Die beiden "Pioneer"-Sonden der Nasa sind auf mysteriöse Weise von ihrem Kurs abgewichen. Seit Jahren versuchen Wissenschaftler vergebens, das Phänomen zu erklären. Die Lösungen, die noch übrig bleiben, lassen Experten schaudern.

Dies ist die Geschichte zweier Raumfahrzeuge: "Pioneer 10", gestartet im März 1972, und "Pioneer 11", der im April 1973 seine lange Reise ins All begann. Ihre Aufgabe war die erste Naherkundung der Gasriesen Jupiter und Saturn. Doch das ist lange her. Beide Sonden treiben heute an der Grenze unseres Sonnensystems im Übergangsbereich zum interstellaren Medium. Sie sind schon vor Jahren verstummt und wären nur noch eine Randnote der Raumfahrtgeschichte wert, gäbe es da nicht ihre Flugbahnen, die so eigenartig sind, dass man nicht einfach darüber hinweggehen kann.

Denn etwas Seltsames geschieht mit den beiden Robotern. "Pioneer" 10 und 11 sind nicht da, wo sie eigentlich sein sollten. Irgendetwas hält sie zurück. Eine sehr kleine, aber deutlich messbare Kraft. Jede der beiden Sonden ist heute etwa 400.000 Kilometer von dem Ort entfernt, an dem sie sein müsste, ginge alles mit rechten Dingen zu. Oder besser gesagt, ginge es allein mit den heute bekannten Dingen zu.

Die offensichtliche Abbremsung der Sonden ist extrem gering. Sie entspricht einem Zehnmilliardstel der Beschleunigung auf der Erdoberfläche. Die Bahnabweichung ist bei beiden genau gleich groß, obwohl sie sich fast in entgegengesetzter Richtung aus dem Sonnensystem entfernten. Was also ist los da draußen?

Niemand weiß es. Praktisch alle derzeit denkbaren Erklärungen sind bereits ausgeschlossen worden. Die Physiker sind so ratlos, dass einige dieses Mysterium mit anderen, heute ebenfalls unerklärlichen Phänomenen in Verbindung bringen.

Ein Defekt in der Funkanlage von "Pioneer 11" machte ab dem 1. Oktober 1990 die Erzeugung eines Signals für Bahnverfolgungszwecke unmöglich. Ab diesem Zeitpunkt konnte die Nasa von der Sonde keine Daten mehr über dieses seltsame anomale Verhalten gewinnen. Sie bewegt sich weiterhin in Richtung des Sternbilds Adler ("Aquila") und wird in etwa vier Millionen Jahren die Stelle passieren, an der sich heute Lambda Aquilae (l Aql) befindet, ein Stern 3,5ter Größe am Schwanz des Adlers.

"Pioneer 10" war besser in Form. Der kleine Weltraumspäher erzeugte bis zum 11. Februar 2000 unverdrossen das Dopplersignal für die Bahnverfolgung. Danach riss die Verbindung ab. Die Raumsonde war etwa 75 Astronomische Einheiten von der Erde entfernt. In den beiden folgenden Jahren konnte jeweils noch einmal kurzzeitig Funkkontakt hergestellt werden. Heute entfernt sich Pioneer 10 mit einer Geschwindigkeit von 12,24 Kilometern pro Sekunde relativ zur Sonne aus unserem Planetensystem in Richtung Aldebaran im Sternbild Stier.

Im März 2005 hat das Wissenschaftsmagazin "New Scientist" die Pioneer-Anomalie als eines der 13 rätselhaftesten Phänomene der Wissenschaft aufgelistet. Sie nimmt dort Rang acht ein. Auf Platz sieben liegen die vier Jahre zuvor entdeckten Tetra-Neutronen, auf Platz neun die Dunkle Energie. Und gerade Letztere könnte in einer noch unbekannten Verbindung zur Pioneer-Anomalie stehen. Aber fangen wir zunächst ganz von vorne an ...

Die Reise beginnt

In den Abendstunden des 2. März 1972 startete die Raumsonde "Pioneer 10" an der Spitze einer Atlas-Centaur-Trägerrakete zu einer Reise, wie sie bis dahin noch nie zuvor unternommen worden war. Erstmals wurde eine Raumsonde auf eine Geschwindigkeit beschleunigt, die groß genug war, um das Sonnensystem auf Nimmerwiedersehen zu verlassen. Hyperbolischer Exzess ist der Fachbegriff dafür.

Der Flug der Atlas-Centaur dauerte nur 17 Minuten, dann war die Rekordgeschwindigkeit von 51.700 Stundenkilometern erreicht und "Pioneer 10" auf dem Weg in Richtung Jupiter. Nur elf Stunden nach dem Liftoff in Cape Canaveral überquerte die Sonde die Mondbahn, gerade einmal zwölf Wochen danach die des Mars. Im Februar 1973 hatte der kleine Weltraumspäher den Asteroidengürtel durchquert und begann den Anflug auf den Gasriesen.

Nachdem das Missionsrisiko - speziell wegen der Durchquerung der Trümmerzone zwischen Mars und Jupiter - als erheblich eingestuft worden war, hatte die Nasa von vornherein eine Doppelmission geplant. Als "Pioneer 10" die Zone der Asteroiden unbeschädigt hinter sich gelassen hatte, wurde am 5. April 1973 auch "Pioneer 11" auf die Reise geschickt.

Anfang Dezember 1973 passierte "Pioneer 10" den Gasgiganten in einem Abstand von nur 200.000 Kilometern. Die immense Schwerkraft des Planeten knickte die Bahn von "Pioneer 10" fast im rechten Winkel ab. Das Raumfahrzeug verblieb aber in der Ekliptik, der Bahnebene der Planeten.

"Pioneer 11" flog fast auf den Tag genau ein Jahr später an Jupiter vorbei, allerdings in einer Entfernung von nur 34.000 Kilometern. Die Missionskontroller hatten die Flugbahn so angelegt, dass das Raumfahrzeug durch die Schwerkraft des Riesenplaneten in einem weiten Bogen etwa 175 Millionen Kilometer aus der Ekliptik hinausstieg und danach wieder hineinfiel, um schließlich den Saturn anzusteuern.

Die Gravitationskraft des Ringplaneten bewirkte, dass die Bahn von "Pioneer 11" erneut stark umgelenkt wurde, mit dem Ergebnis, dass nach Abschluss der Passage die beiden Schwestersonden jetzt ziemlich genau in entgegengesetzten Richtungen aus dem Sonnensystem steuern.

Die Jahre gingen dahin. In Abständen von einigen Monaten meldete sich die Missionskontrolle bei den einsamen Pionieren, rief Daten ab und gab Kommandos durch. Es war 1980, als den Flugleitern bei der Auswertung der Dopplerdaten von "Pioneer 10" eine leichte, aber stetige Geschwindigkeitsänderung auffiel. Eine geringe, aber deutlich messbare Kraft schien die Sonde in Richtung Sonne zu ziehen.

Zu diesem Zeitpunkt war "Pioneer 10" mehr als zwanzig Astronomische Einheiten von der Sonne entfernt und die Abnahme der Geschwindigkeit denkbar gering. Sie betrug jeden Tag nur 0,0000755 Meter pro Sekunde. Die Abweichung hatte nicht früher festgestellt werden können, denn der Effekt war bis dahin im natürlichen Strahlungsdruck der Sonne untergegangen.

Auch jetzt wurde der Angelegenheit zunächst wenig Beachtung geschenkt. Die Primärmission der beiden Sonden war schließlich vorbei, was machte da schon ein kleiner Messfehler oder ein unbedeutendes technisches Problem.

Die Projektingenieure wurden erst aufmerksam, als exakt dasselbe Phänomen auch bei Pioneer 11 beobachtet wurde. Die Beschleunigung in Richtung Sonne war bei ihr genauso hoch wie bei "Pioneer 10". Und so begannen die Wissenschaftler, den seltsamen Effekt näher unter die Lupe zu nehmen.

Mehr...

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Astronomischer Ausblick: Warten auf das große Leuchten
« Antwort #46 am: 07 Oktober, 2006, 11:13 »
So schnell hat noch kein Weltraumteleskop Sternenexplosionen fotografiert: Unmittelbar nach mehreren Supernovae sind "Swift" fantastische Bilder von Sternenleichen gelungen. Nasa-Forscher haben die atemberaubenden Aufnahmen jetzt zu einer Art Steckbrief zusammengestellt.

Stefan Immler hat die Schnappschüsse arrangiert wie Porträtfotos auf einem Fahndungsplakat. Quadratische Bilder, eng gedrängt. Von Mug Shots spricht auch die Nasa - der englische Ausdruck für Verbrecherfotos. Doch im Gegensatz zu den klassischen Schwarz-weiß-Fahndungsplakaten aus den siebziger und achtziger Jahren strotzt Immlers Poster geradezu von Farben und Formen. Explosionen und Sternenwirbel in Rot, Gelb und Orange, in Grün, Blau, Lila und Weiß.

Es handelt sich um die Aufnahmen von zwei Dutzend Sternenexplosionen aus der jüngsten Vergangenheit. Der Forscher präsentierte sein Poster beim Treffen der American Astronomical Society in San Francisco. Jede Supernova ist in drei Ansichten zu bestaunen - allerdings nicht von vorne, links und rechts wie bei Verbrecherporträts. Die kosmischen Explosionen werden in drei unterschiedlichen Wellenlängen abgebildet: im sichtbaren und ultravioletten Licht sowie in dem Röntgenspektrum, das sie abstrahlen.

Das wissenschaftlich Außergewöhnliche daran ist, wie schnell nach dem Tod der jeweiligen Sterne ihre Trümmer aufgenommen wurden. "Bei vielen Supernovae gelangten wir binnen Stunden zum Tatort", sagt Immler, "im Gegensatz zu einem Zeitraum von Tagen oder Wochen, der üblicherweise verstreicht."

Schnelle Schnappschüsse der Sternen-Leichen

Die Wissenschaftler des Goddard Space Flight Center in Greenbelt im US-Bundesstaat Maryland hatten mit dem Nasa-Satelliten "Swift" Sternenexplosionen in der Nachbarschaft der Milchstraße regelrecht gejagt. An diesem Institut forscht auch John Mather, der für seine Arbeit zur kosmischen Hintergrundstrahlung den diesjährigen Physik- Nobelpreis erhalten wird . Eigentlich dient das "Swift"-Weltraumteleskop dazu, sogenannte Gamma Ray Bursts zu verfolgen - die energiereichsten Explosionen im Universum. Diese Blitze dauern meist nur wenige Sekunden. Wer sie beobachten und analysieren will, muss also sehr schnell sein: eine Spezialität der Instrumente von "Swift".

Von diesen Fähigkeiten profitierte nun die Supernovae-Suche des Goddard-Teams um Immler. Zwei neue Erkenntnisse stechen nach Angaben der Wissenschaftler hervor: Eine Explosion mit dem Namen SN 2005ke ist die erste Supernova des Typs Ia überhaupt, die auch im Röntgenspektrum aufgenommen wurde, teilte die Nasa mit. Durch die Analyse dieser Strahlung konnten Immler und sein Team erstmals eine von zwei Theorien zu Typ-Ia-Supernovae durch direkte Beobachtungen untermauern. Demnach entstehen sie, wenn ein weißer Zwerg um einen roten Riesen rotiert - und nicht, wie ebenfalls vermutet worden war, um einen zweiten weißen Zwerg.

SN 2006bp, eine Supernova des Typs II, konnten die Forscher innerhalb des ersten Tages nach der Explosion beobachten - nach Angaben der Nasa ein Rekord für Weltraumteleskope. Zur Überraschung des Teams sandte die Sternenleiche schon sofort nach der Explosion Röntgenstrahlen aus. Sie verschwanden aber auch binnen Tagen wieder. Die Forscher folgern, dass viele Beobachter älterer Supernovae den Röntgenanteil der jeweiligen Explosion schlichtweg verpasst haben.

Dabei ist gerade dieser für Astrophysiker besonders interessant. "Die Röntgenstrahlen legen direkt Zeugnis von der chemischen Zusammensetzung des explodierten Sterns und seiner unmittelbaren Umgebung ab", teilte die Nasa mit. Das hilft den Forschern erheblich dabei, die genaueren Umstände des Sternentodes aufzuklären.

Außerdem lässt Immlers Poster an einer Erkenntnis keinen Zweifel: dass die eben erst explodierten Sterne zu wunderschönen Leichen im All werden.

Quelle und Bilder : http://www.spiegel.de/wissenschaft/weltraum/0,1518,441163,00.html

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Ariane 5 setzt zwei TV-Satelliten im All ab - Neuer Nutzlast-Rekord
« Antwort #47 am: 14 Oktober, 2006, 14:16 »
Mit dem vierten erfolgreichen Ariane-Start in diesem Jahr hat die europäische Raumfahrtgesellschaft Arianespace ihre führende Marktposition bekräftigt.

Die Ariane 5 ECA brachte am Freitagabend kurz vor Mitternacht MESZ von Kourou in Französisch-Guayana aus den US-Fernsehsatelliten DirectTV 9S sowie den australischen Fernmeldesatelliten Optus D1 in Erdumlaufbahnen. Als Beipack hatte die Trägerrakete den kleinen japanischen Demonstrator einer Satelliten-Faltantenne LDREX-2 an Bord.

Es war der sechste erfolgreiche Einsatz in Folge der superschweren Trägerrakete Ariane 5 ECA für fast zehn Tonnen Traglast. Beim Jungfernflug der "Super-Ariane" hatten im Dezember 2002 Haarrisse im Kühlsystem des Haupttriebwerks die Sprengung nötig gemacht. Die Europäer hatten danach 556 Millionen Euro in die Verbesserung der Trägerrakete investiert. Für kommendes Jahr plane Arianespace sechs bis sieben Starts, sagte Arianespace-Chef Jean-Yves Le Gall. "Wir haben viele Kunden, die Startplätze wollen, und können nicht alle zufrieden stellen."

Beim letzten Start des Jahres brachte die Ariane 5 ECA mehr Nutzlast ins All als je zuvor. DirectTV 9S wiegt 5,5 Tonnen und soll 50 Millionen Kunden in Nordamerika mit Digital-Fernsehen versorgen. Mit 2,35 Tonnen knapp halb so schwer ist Optus D1, der Telekom-, Internet- und TV- Kanäle für Australien und Neuseeland bietet. Ein Leichtgewicht ist dagegen der Antennendemonstrator mit 211 Kilogramm.

Quelle : www.satundkabel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Nasa entscheidet über Leben oder Tod von "Hubble"
« Antwort #48 am: 29 Oktober, 2006, 16:52 »
Die US-Raumfahrtbehörde Nasa steht kurz vor einer der wichtigsten Entscheidungen seit Jahren: Am Dienstag gibt Nasa-Chef Griffin bekannt, ob das "Hubble"-Weltraumteleskop repariert wird oder verglühen muss. Es gibt schon erste Anzeichen, wie die Wahl ausfallen wird.

Im Januar 2004 sagte die Nasa den lange geplanten Reparaturflug zum "Hubble"-Teleskop ab - und löste einen globalen Sturm der Entrüstung aus: Zahlreiche Wissenschaftler ließen die berufsübliche Zurückhaltung fahren und machten sich vehement für eine Rettung des Observatoriums stark, Weltall-Enthusiasten und Amateurastronomen begruben die Nasa unter einem Berg von Bittbriefen.

Kurz darauf wurde Michael Griffin neuer Direktor der Raumfahrtbehörde - und setzte die Entscheidung zum kontrollierten Absturz von "Hubble" erst einmal aus. Die endgültige Entscheidung, ob die defekten Kreiselstabilisatoren und die Batterien des Teleskops von Astronauten ausgetauscht werden, falle nach dem Neustart des Space-Shuttle-Programms, kündigte Griffin an.

Inzwischen sind die Raumfähren "Discovery" und "Atlantis" insgesamt dreimal geflogen und haben damit die Zwangspause, die seit dem Absturz der "Columbia" im Februar 2003 galt, beendet. Am Dienstag soll nun die endgültige Entscheidung über die Zukunft von "Hubble" fallen.

"Rockstar der Astronomie"

Die Terminankündigung der Nasa liest sich zunächst vielversprechend: Für 20.30 Uhr deutscher Zeit ist eine Pressekonferenz angesetzt - "mit den Astronauten, die die Mission durchführen würden". Allerdings gelte dies nur für den Fall, dass zuvor grünes Licht für die Reparatur gegeben werde.

Am Freitag hatte ein Nasa-Sprecher betont, dass Griffin seine Entscheidung erst am Wochenende fälle. Der Nasa-Direktor steht vor einer schwierigen Wahl: Die Aufgabe des "Hubble"-Teleskops - laut Washington Post der "Rockstar der Astronomie" - wäre sowohl in der Forschergemeinde als auch in der Öffentlichkeit extrem unpopulär. Eine bemannte Reparaturmission aber birgt immer ein Risiko für die Astronauten. Aus diesem Grund hatte Griffins Vorgänger Sean O'Keefe, damals noch unter dem Eindruck des "Columbia"-Unglücks, den Reparaturflug abgesagt.

"Jeder Wissenschaftler der Welt und die Öffentlichkeit warten gespannt auf diese Entscheidung", sagte Mario Livio vom Space Telescope Science Institute in Baltimore, der wissenschaftliche Leiter des "Hubble"-Teleskops. "Ich bin vorsichtig optimistisch, aber es gibt viele Faktoren." Im Nasa-Terminplan ist für Februar 2008 ein Flug zu "Hubble" vorgesehen. Mitarbeiter der Behörde haben aber betont, dass er eher als Platzhalter zu verstehen ist und keine Entscheidung vorwegnimmt.

Griffin selbst hat immer wieder betont, dass er das Weltraum-Observatorium für eines der erfolgreichsten wissenschaftlichen Instrumente aller Zeiten halte und gerne eine Reparaturmission anordnen würde. "Wenn es auf eine sichere Art möglich ist, wollen wir es tun", sagte Griffin im September nach der Landung des Space Shuttles "Atlantis". Andererseits hätten der "Columbia"-Absturz und die anschließende komplette Überarbeitung der Space Shuttles auch "ein neues Verständnis über die Zerbrechlichkeit und Verwundbarkeit" der Raumfähren mit sich gebracht.

Angst um das Leben der Astronauten

Die Nasa will die alternden Raumfähren im Jahr 2010 aufs Altenteil schieben - und bis dahin die Internationale Raumstation (ISS) fertigstellen. Eine Reparaturmission zum "Hubble"-Teleskop könnte diesen ohnehin schon straffen Zeitplan durcheinanderbringen. Zudem fungiert die ISS auch als Rettungsboot für die Shuttle-Besatzung, sollte bei einem der Flüge etwas schiefgehen. Bei einem Trip zu "Hubble" wäre die Raumstation im Notfall unerreichbar, da sie die Erde in einer weit entfernten Umlaufbahn umkreist.

Sollte Griffin die Reparatur des Teleskops anordnen, könnten sich Wissenschaftler auf Fotos in nie dagewesener Qualität freuen. Denn am Boden warten seit Jahren zwei neue leistungsfähige Instrumente, die eigens für "Hubble" gebaut wurden.

Die neue "Wide Field Camera 3" würde laut Livio mit Beobachtungen im Bereich des infraroten und ultravioletten Lichts neue Erkenntnisse über die Frühzeit des Universums ermöglichen. Der "Cosmic Origins Spectrograph" würde sogenannte Baryonen, die zu den Bausteinen von Atomen zählen, untersuchen können. Die beiden Instrumente haben ungefähr 200 Millionen Dollar (157 Millionen Euro) gekostet und wären wahrscheinlich Edelschrott, wenn sie nicht im "Hubble"-Teleskop verbaut werden.

Sollte das Observatorium im Orbit dagegen nicht repariert werden, rechnen Experten mit einem kontrollierten Absturz im Jahr 2008 oder 2009. Der geplante Nachfolger, das James-Webb-Teleskop, soll jedoch erst 2013 in die Umlaufbahn geschossen werden.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Suche nach Außerirdischen gerät in Geldnot
« Antwort #49 am: 31 Oktober, 2006, 14:04 »
Der Bau des Allen Telescope Array könnte Ende des Jahres ins Stocken geraten, weil Microsoft-Mitbegründer Paul Allen das Projekt nicht weiter finanzieren will. Das berichtet das Wissenschaftsmagazin Nature auf seiner Website.

Microsoft-Mitgründer Paul Allen hatte dem SETI-Institut vor sechs Jahren rund elf Millionen US-Dollar für die Suche nach Signalen, die auf die Existenz außerirdischer Intelligenz schließen lassen, gespendet. Das Geld sollte für den Aufbau von 350 Empfangschüsseln für das so genannte Allen Telescope Array in Kalifornien verwendet werden.

Im März 2003 legte Allen dann noch einmal eine Spende von 13,5 Millionen US-Dollar nach – allerdings mit der Auflage verknüpft, das SETI-Institut müsse seinerseits noch einmal 16 Millionen Dollar an Spenden auftreiben. Zurzeit, berichtet Nature unter Berufung auf einen Sprecher der Paul G. Allen Foundation, habe das Institut aber erst weniger als neun Millionen Dollar aufgetrieben.

Mit dem bereits gespendeten Geld könnten Ende des Jahres 42 der geplanten 350 Satellitenschüsseln fertig gestellt werden. Dies reiche zwar nicht für den geplanten Betrieb, ein Prinzipientest sollte sich aber durchführen lassen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Nasa will "Hubble" doch retten
« Antwort #50 am: 31 Oktober, 2006, 18:07 »
Das Aus des alternden Weltraumteleskops war längst beschlossen, nun hat die Nasa überraschend ihre Pläne geändert: Die US-Raumfahrtbehörde wird "Hubble" retten. Eine Space-Shuttle-Crew soll das Auge im All reparieren.

Washington - Das Ende für das Weltraumteleskop "Hubble" galt als unvermeidlich - die Nasa wollte keinen Reparaturflug mit ihrer in die Jahre gekommenen Shuttle-Flotte riskieren. Die Wissenschaftlergemeinde war empört. Es gab Protestbriefe an die Nasa - doch das Engagement der Forscher für "Hubble" schien vergeblich.

Doch nun zeichnet sich eine überraschende Wendung ab. Man wolle "Hubble" retten, erklärte Nasa-Direktor Michael Griffin am heutigen Dienstag im Goddard-Flugzentrum bei Washington. Bei dem Weltraumteleskop müssen dringend Batterien und Teile der Kreiselstabilisatoren ausgetauscht werden, weil sonst der wissenschaftliche Betrieb in einer Zeit ab Ende 2008 nicht mehr fortgesetzt werden kann. Nach einer Reparaturmission mit einem Space Shuttle wird das Teleskop vermutlich noch bis 2013 weiterarbeiten können.

Seit mehr als 16 Jahren umkreist "Hubble" die Erde. Aus 600 Kilometern Höhe blickt es ungehindert von den Luftschichten der Erde in die Tiefen des Alls. Nie zuvor gesehene Bilder von fernen Galaxien, sterbenden Sonnen und sogenannten Schwarzen Löchern verschafften den Astronomen neue Einblicke in die Entstehung und den Aufbau des Universums.

Das Observatorium wurde nach dem US-Astronomen Edwin Hubble (1889 - 1953) benannt und gemeinsam von der US-Raumfahrtbehörde Nasa und dem europäischen Pendant Esa entwickelt. Die Raumfähre "Discovery" brachte "Hubble" am 24. April 1990 in den Orbit. "Hubble" ist über elf Tonnen schwer und etwa 13 Meter lang. In 96 Minuten umkreist es einmal die Erde. Sein Hauptspiegel hat einen Durchmesser von 2,4 Meter. Für die Betriebsenergie sorgen Solarzellen.

Bereits kurz nach Betriebsbeginn wurden schwere Mängel festgestellt. Es stellte sich heraus, dass der Hauptspiegel falsch geschliffen wurde und verschwommene Bilder lieferte. Bei einer Reparatur-Mission konnte die Besatzung der Raumfähre "Endeavour" die Probleme 1993 weitgehend beheben - das Weltraumteleskop bekam eine "Brille" in Form einer Korrekturoptik.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Orchidee im Weltall
« Antwort #51 am: 31 Oktober, 2006, 20:30 »


Wie eine Blume leuchtet dieser Neutronenstern in allen Farben des Regenbogens. Der Himmelskörper ist vor etwa tausend Jahren verglüht und spuckt nun ein Gewitter aus Hochenergieteilchen in den Krebsnebel. Das Bild ist aus den Aufnahmen der Weltraumteleskope "Chandra", "Hubble" und "Spitzer" zusammengesetzt. Der eigentliche Neutronenstern ist der helle weiße Fleck in der Mitte des Bildes. Seine Masse entspricht der der Sonne, ist aber unvorstellbar dicht auf eine Kugel von nur 20 Kilometern Durchmesser komprimiert. Die Sonne selbst hat dagegen einen Durchmesser von etwa 1,4 Millionen Kilometern.

Quelle : www.spiegel.de
« Letzte Änderung: 31 Oktober, 2006, 20:34 von SiLencer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Nur Lauschen oder auch Senden? - Suche nach außerirdischer Intelligenz
« Antwort #52 am: 09 November, 2006, 13:51 »
Douglas Vakoch vom SETI-Institut plädiert für eine aktivere Suche nach außerirdischer Intelligenz

Als Douglas Vakoch vom europäischen Fernsehsender Arte interviewt wurde, ahnte er nicht, dass sich die Sendung an ein ungewöhnlich weit gestreutes Publikum richten würde. Die Dokumentation CosmicConnexion von Piel Jacquemin, Marie Cuisset und Anne Jaffrenou wurde Ende September nicht nur über die etablierten terrestrischen Kanäle ausgestrahlt, sondern mithilfe einer Parabolantenne der französischen Raumfahrtagentur CNES auch in Richtung des Sterns Gamma Cephei in ungefähr 45 Lichtjahren Entfernung.

Mehr...

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
WACHSTUM DES ALLS - Dunkle Energie gibt Einstein Recht
« Antwort #53 am: 19 November, 2006, 10:44 »
Das Weltall besteht zu 75 Prozent aus dunkler Energie, doch noch nie wurde sie direkt beobachtet. Jetzt haben Forscher herausgefunden, dass die mysteriöse Kraft, die unter anderem das Zusammenstürzen des Alls verhindert, schon seit der Frühzeit des Universums existiert.

Edwin Hubble gab seinen Kollegen aus der Astronomie eine harte Nuss zu knacken: 1929 bewies der Forscher, dass das Universum nicht nur wächst, sondern dies auch noch mit stetig steigender Geschwindigkeit tut. Unter den Verdutzten befand sich auch Albert Einstein, der wie die meisten seiner Zeitgenossen von einem statischen Universum ausgegangen war. Er führte eigens eine kosmologische Konstante ein, um seine Relativitätstheorie mit der vermeintlichen Wirklichkeit in Einklang zu bringen. Denn Einsteins Feldgleichungen zufolge müsste das All entweder wachsen oder eines Tages unter seiner eigenen Schwerkraft zusammenstürzen - in einem "Big Crunch".

Als Hubble aber mit seiner Entdeckung an die Öffentlichkeit ging, warf Einstein die kosmologische Konstante achtkantig über Bord. Die "größte Eselei" seines Lebens sei sie gewesen, schimpfte das Genie. Das aber war wohl voreilig: Einstein hatte mit seinem ad-hoc-Konstrukt, das die Expansion des Alls beschreibt, die Realität genauer getroffen, als er ahnte.

Die dunkle Energie gilt inzwischen weithin als die eigentliche Ursache der immer schnelleren Ausdehnung des Alls - auch wenn die mysteriöse Kraft noch nie direkt beobachtet wurde. Zwar haben Forscher ihre Existenz indirekt bewiesen und auch schon einige Eckdaten gefunden, doch weder strahlt die dunkle Energie elektromagnetische Wellen wie etwa Licht ab, noch tritt sie mit normaler Materie in Wechselwirkung.

Jetzt haben Wissenschaftler mit Hilfe des "Hubble"-Weltraumteleskops zumindest nachgewiesen, dass die dunkle Energie wahrscheinlich schon seit mindestens neun Milliarden Jahren existiert - und damit nur etwa 4,7 Milliarden Jahre jünger ist als das Universum selbst. Den neuen Daten zufolge hat sich die dunkle Energie seitdem wenig bis gar nicht verändert - was Einsteins fast hundert Jahre alte Vorhersage einer konstanten, abstoßenden Form der Schwerkraft untermauert.

Röntgenbild des Pulsars im Zentrum des Krebsnebels: Er ist das Resultat einer Supernova. Anhand der Sternenleichen messen Forscher das Wachstum des Universums

Bestätigung für Einstein

Nach Bisherigen Erkenntnissen hat sich das Universum nach dem Urknall zunächst rasant ausgedehnt und wurde dann gebremst - von den Anziehungskräften der ebenfalls noch nie direkt beobachteten dunklen Materie, die rund 20 Prozent der Gesamtmasse des Alls ausmacht, und von der sichtbaren Materie, aus der das Universum zu rund fünf Prozent besteht.

Da Einsteins Konstante eine Eigenschaft des leeren Raums ist, wirkt sie aber mit dem Wachstum des Universums immer stärker - und überwindet theoretisch irgendwann alle Gegenkräfte. Das Team um Adam Riess von der Johns Hopkins University schätzt, dass dies vor etwa fünf bis sechs Milliarden Jahren geschehen ist: Seitdem gewinne das Wachstum des Alls ständig an Fahrt.

"Obwohl die dunkle Energie mehr als 70 Prozent der Energie im Universum ausmacht, wissen wir fast nichts über sie", sagte Riess. "Die neuen Ergebnisse zeigen, dass die dunkle Energie relativ schwach ist, sich aber schon vor neun Milliarden Jahren bemerkbar gemacht hat."

Die Forscher haben 23 Supernovae mit Hilfe des "Hubble"-Teleskops beobachtet und waren so in der Lage, neun Milliarden Lichtjahre entfernte Sternenexplosionen ins Visier zu nehmen. Die besten Teleskope am Boden hatten lediglich sieben Milliarden Jahre in die Vergangenheit zurückblicken können. Doch auch hier konnte man sich nicht vollkommen sicher sein, Supernovae aus der Zeit vor der Dominanz der dunklen Energie beobachtet zu haben. Leichte Veränderungen in den Supernovae oder Störeinflüsse wie Staub im All hätten die Messungen verfälschen können.

Jetzt aber kann man laut Riess sicher genug sein, dass die Lichtspektren der uralten Supernovae identisch sind mit denen der bereits bekannten jüngeren Exemplare. Das bedeute, dass die dunkle Energie seitdem konstant geblieben ist, schreiben die Forscher in einem Fachartikel, der im "Astrophysical Journal" erscheinen soll.

Alles andere wäre für die Wissenschaft freilich eine faustdicke Überraschung gewesen. "Hätten sie herausgefunden, dass die dunkle Energie sich nicht konstant entwickelt hat", sagte der Kosmologe Sean Carroll vom California Institute of Technology der "New York Times", "dann wäre das eine welterschütternde Entdeckung gewesen."

Quelle : www.spiegel.de
« Letzte Änderung: 19 November, 2006, 12:33 von SiLencer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
ARECIBO- TELESKOP - USA machen All- Abhörgerät taubstumm
« Antwort #54 am: 21 November, 2006, 10:07 »
Das Arecibo-Observatorium in Puerto Rico, Standort der größten Radioschüssel der Welt, steht vor dem Aus: Die Geldgeber wenden sich neuen Projekten zu. Forscher warnen vor gefährlichen Folgen. Weltweit existiert kein gleichwertiger Ersatz, um Asteroiden mit Kurs auf die Erde zu entdecken.

Wohl keine wissenschaftliche Einrichtung wurde jemals mit einem derartigen Knalleffekt ins Nirvana gesprengt: Kein Geringerer als James Bond turnte zum Finale von "GoldenEye" durch die gewaltige 300-Meter-Schüssel des Arecibo-Radioteleskops in Puerto Rico. Wo sonst Planetenforscher Asteroiden mit Radarstrahlen abtasten und Astronomen nach Sternenleichen lauschen, brachte "007" seinen Widersacher, den abtrünnigen "006", zur Strecke. Für das Teleskop endet der Sieg des Guten allerdings fatal: Die Antenne explodierte.

Mit weniger rabiaten Mitteln könnten Wissenschaftspolitiker bald die gleiche Wirkung erzielen: Die Mittel für die weltweit größte Radioteleskop-Schüssel sollen gekappt werden. 2011, rund 48 Jahre nach ihrer Eröffnung im November 1963, könnte das Arecibo-Teleskop stillgelegt werden. Die amerikanische National Science Foundation (NSF), die das Observatorium unterhält, plant bereits für die Zeit danach. Statt der legendären Antenne sollen im kommenden Jahrzehnt neue Projekte wie das Atacama Large Millimeter Array in Chile den Radiohimmel abhorchen. Die NSF will allein in dieses Projekt 500 Millionen Dollar stecken, die Finanzierung von Arecibo soll dagegen auslaufen. So empfiehlt es jedenfalls das zuständige NSF-Kommitee.

Als Radargerät unerreicht

Für das neue Projekt müssten zwangsläufig Kürzungen bei älteren Einrichtungen akzeptiert werden - sonst fressen die Betriebskosten eines Tages den gesamten Etat, meint Michael Turner, Astrophysiker an der University of Chicago. Ein ähnliches Schicksal hat auch kleinere nationale Observatorien in Europa getroffen, als die gemeinsame Europäische Südsternwarte (Eso) ihren Betrieb in Chile aufnahm.

Sollten für Arecibo nun keine neuen Sponsoren auf den Plan treten, steht ab 2011 die Schließung ins Haus. Das gleiche Schicksal droht dem Very Long Baseline Array, einem Verbund aus quer über die USA verteilten 25-Meter-Radioteleskopen.

Manche Astronomen laufen jedoch Sturm gegen diese Pläne, denn Arecibo hat die seltene Fähigkeit, auch als riesiges Radargerät zu fungieren. Eine "einzigartige Einrichtung" sei von der Schließung bedroht, sagte etwa Donald Campbell. Der US-Astronom von der Cornell University hat mit der Arecibo-Antenne jüngst die Polargebiete des Mondes nach Eis abgetastet. Lediglich die kalifornische Goldstone-Antenne bietet eine in etwa vergleichbare Radarkapazität, allerdings bei deutlich geringerer Empfindlichkeit.

Planetares Sicherheitsrisiko

Doch bei der kommenden Entscheidung für oder gegen Arecibos Weiterbetrieb geht es nicht nur um wissenschaftliche Fragen. Denn der Riesenradar ist vor allem für die Erforschung von Himmelsobjekten wichtig, die uns noch enger auf die Pelle rücken als unser eigener Mond: erdnahe Asteroiden. Sie stammen ursprünglich aus dem Gesteinstrümmergürtel zwischen Mars und Jupiter. Immer wieder verlassen kleine und größere Brocken ihre Bahnen und werden ins innere Sonnensystem abgelenkt. Manche geraten dabei auf Kollisionskurs mit der Erde.

Noch weiß niemand, ob und wann es in näherer Zukunft zu einem Einschlag kommt. Doch die systematische Suche der vergangenen Jahre erbrachte bis heute immerhin 831 verdächtige Objekte, denen das zuzutrauen ist. Die größeren Brocken mit Durchmessern ab zehn Kilometer gelten als planetares Sicherheitsrisiko: Eine Kollision mit der Erde hätte ein globales Desaster zur Folge. Vor 65 Millionen Jahren könnte das Ende der Dinosaurier und vieler weiterer Arten so vonstatten gegangen sein.

Hunderte von Asteroiden haben Astronomen mit dem Arecibo-Teleskop ins Radar-Visier genommen. Geht es nach der NSF, wäre damit bald Schluss. "Einem vielversprechenden goldenen Zeitalter der Erforschung erdnaher Asteroiden droht das Aus", warnte Steven Ostro vom Jet Propulsion Laboratory der Nasa im Gespräch mit SPIEGEL ONLINE. Bei besonders engen Vorbeiflügen der kosmischen Geschosse saß Ostro jahrelang mit den Antennen in Arecibo und Goldstone in der ersten Reihe: Durch präzise Vermessung ihrer Radarreflexe gelangen ihm spektakuläre Porträts des umherschwirrenden Gerölls.

Unter günstigen Bedingungen kann die Arecibo-Antenne noch Oberflächendetails von bis zu zehn Metern Durchmesser ausmachten. Vor allem für die präzise Vorhersage künftiger Kollisionswahrscheinlichkeiten ist Radar unersetzbar. Ostros bislang letzter Streich war die Beobachtung des bizarren Doppel-Asteroiden 1999 KW4, dessen hektische Drehung den Brocken in Stücke reißen könnte.

Radioprogramme für Aliens

Wissenschaftliche Erfolge gelangen in Arecibo auch mit viel weiter entfernten Himmelsobjekten: Anfang der neunziger Jahre fand ein Forscherteam mithilfe der Riesenschüssel die ersten Planeten außerhalb unseres Sonnensystems. Sie kreisen rund 2600 Lichtjahre von der Erde entfernt um einen Pulsar, ein rotierendes Relikt einer Supernova. Solche Neutronensterne senden gebündelte Radiostrahlen ins All, die von Radioteleskopen wie dem in Arecibo als periodische Pulse aufgefangen werden.

Besonders aufschlussreich war die Bahnanalyse eines anderen Pulsars, der mit einem normalen Stern ein Doppelsystem bildet. Die beiden US-Forscher Joseph Taylor und Russel Hulse haben in Arecibo seine Periode vermessen und starke Indizien für die von Einstein vorhergesagten geheimnisvollen Gravitationswellen gefunden. Die Forscher bekamen dafür 1993 den Nobelpreis. Darüber hinaus wurde die Arecibo-Antenne als Lauschorgan des Seti-Projekts ("Search for extraterrestrial Intelligence") bekannt, das nach Radiobotschaften außerirdischer Zivilisationen sucht. In "Contact" mit Jodie Foster in der Hauptrolle hatte das Observatorium einen zweiten großen Filmauftritt. Auch menschliche Botschaften wurden von Arecibo aus ins All geschickt.

Während solche Untersuchungen auch mit der kommenden Generation von Radioteleskopen möglich sind, verhält es sich in Sachen Asteroidenforschung anders: Keine der vorhandenen oder neuen Anlagen kann sich in punkto Radar mit der Arecibo-Schüssel messen. Das könnte für die Erde durchaus unangenehme Folgen haben, warnt Nasa-Forscher Ostro: "Sollte in unserem Jahrhundert ein Asteroid auf Kollisionskurs mit der Erde entdeckt werden, wird eine Ablenkung des Objektes ohne vorherige Radar-Untersuchungen wahrscheinlich scheitern."

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Das Universum in der Röhre
« Antwort #55 am: 21 November, 2006, 12:44 »
Noch wird überall geschraubt, gebohrt oder geschweißt; manchmal riecht es nach Werft. Doch spätestens in einem Jahr soll der Large Hadron Collider LHC, der leistungsstärkste Teilchenbeschleuniger aller Zeiten am Cern in der Nähe von Genf startbereit sein. „Die Atmosphäre ist wie in einem Unterseeboot“, sagt Christoph Rembser von der Universität Erlangen-Nürnberg. Er hat recht: Für Unbeteiligte sieht es momentan so aus, als würden die Arbeiter gerade eine Art U-Boot montieren.

Christoph Rembser ist Mitglied der so genannten Atlas-Kollaboration: Eine rund 1800 Forscher umfassende Arbeitsgruppe von 150 Universitäten aus 34 Ländern, die gemeinsam das riesige, zylinderförmige Nachweisgerät geplant haben, das jetzt am Boden einer gut 85 Meter tief in der Erde liegenden Kaverne zusammengebaut wird. In dieser Höhle fände eine Kathedrale Platz – mit 46 Meter Länge, 25 Meter Höhe und ebensolcher Breite wird Atlas das größte Experiment am LHC. Es wiegt so viel wie der Eifelturm in Paris.

Weil bei den Arbeiten auf der riesigen Baustelle Gase austreten können – Stickstoff, Argon oder Helium, die zur Kühlung einiger Komponenten benutzt werden – tragen alle Sauerstoffmasken griffbereit um die Schultern. Eine rasche Flucht irgendwo aus dem gut 27 Kilometer langen Tunnel des Beschleunigers oder den tief unter der Erde liegenden Kavernen: unmöglich! Jetzt, wo die Geräte im Entstehen sind, kann man sie noch begutachten – wenn auch eingeschränkt: Wenn "die Maschine", wie der Beschleuniger genannt wird, erst einmal läuft, steckt alles hermetisch abgeriegelt hinter Meter dicken Betonmauern.

Der Tunnel des LHC sieht aus wie ein zu klein geratener U-Bahnschacht. In dem tief unter der Erde liegenden Rund sollen spätestens Ende nächsten Jahres atomare Teilchen fast mit Lichtgeschwindigkeit gegenläufig herumflitzen: wahlweise Protonen oder Blei-Ionen. In den Nachweisgeräten lassen die Experimentatoren die Teilchen dann aufeinanderprallen. Aus der Analyse dieser Kollisionen erhoffen sie sich Antworten auf einige der letzten Rätsel der Natur: Woher kommt Materie? Wie setzt sie sich zusammen? Wie entstand sie?

„Falls wir hier mit unserer Anlage nichts finden, würde sich die gesamte Teilchenphysik davon nicht mehr erholen“, prophezeit Robert Aymar. Er ist der oberste Cern-Chef. Ähnlich drastisch formuliert es Michael Kobel von der Technischen Universität Dresden: „Wenn wir beispielsweise die supersymmetrischen Teilchen nicht entdecken, bräche unsere gesamte physikalische Vorstellung zusammen.“ Falls sich jedoch eine Spur dieser ominösen Partikel erhaschen ließe, hätten sie zugleich einen aussichtsreichen Kandidaten für die merkwürdige Dunkle Materie, die den Astrophysikern seit einiger Zeit Kopfzerbrechen bereitet: hält sie doch unsere Galaxien zusammen, obgleich niemand weiß, woraus sie besteht.

Optimistischer ist da schon Jürgen Schukraft: „Die Möglichkeiten für Entdeckungen, die Nobelpreis-Kaliber haben, sind beim LHC enorm“, meint der 53-jährige Sprecher der Alice Kollaboration – einer ebenfalls über eintausend Köpfe starken Forschergruppe, zu der sich 90 Institute aus 27 Ländern zusammengeschlossen haben. Auch Alice ist ein monströses Gebilde: Unter 8000 Tonnen Eisen verbergen sich Millionen hochsensibler Sensoren und fragiler Messfühler. Sie nehmen alle Bruchstücke der mikroskopischen Explosion auf und rekonstruieren sie mit Hilfe von Computern zu einem Gesamtbild. Schukraft und seine Kollegen wollen einen exotischen Materiezustand untersuchen: das Quark-Gluon-Plasma. Nur wenige Millionstel Sekunden nach dem kosmischen Urknall vor knapp 14 Milliarden Jahren muss unser Universum aus einer solche Zusammenballung entstand sein. Schukraft träumt davon, eine Art Zustandsgleichungen für diese ungewöhnliche Materiezusammenballung aufstellen zu können.

Die anderen beiden Experimente, die ebenfalls spätestens ab 2008 am LHC Messungen beginnen wollen, haben ebenso anspruchsvolle Ziele. So sucht LHC-b beispielsweise Antworten auf die Frage nach der fehlenden Antimaterie im Universum. Und CMS ist wie Atlas ein Universal-Detektor. Beide fahnden nach so genannten Higgs-Bosonen. Nach den Vorstellungen der Wissenschaftler sollen sie allen Teilchen ihre spezifische Masse verleihen. Denn nach dem heute gültigen und mit höchster Präzision bestätigten Standardmodell, dürften die elementaren Partikel, die Elektronen oder die Quarks aus den Kernbausteinen, eigentlich gar keine Masse besitzen.

Doch zunächst einmal muss der LHC fertiggestellt werden. Wenn er voraussichtlich ab Ende nächsten Jahres zu ersten Probeläufen anspringt, wird er das mit Abstand weltweit leistungsstärkste Forschungsgerät seiner Art sein. Er beschleunigt Protonen dann auf eine Energie von sieben Tera-Elektronenvolt. „Die Dynamik der einzelnen Projektile entspricht zwar nicht viel mehr als der Bewegungsenergie von Fruchtfliegen“, sagt Michael Kobel, aber dafür sausen gleichzeitig zig Billionen davon im Ring umher: „Insgesamt erreichen sie die Wucht einer Elefantenherde auf der Flucht“.

Um diese kolossale Gewalt im Zaune zu halten, besitzt der LHC gut 2000 Elektromagneten, die Feldstärken von jeweils acht Tesla erzeugen sollen. Sie werden dazu auf eine Temperatur von 1,9 Kelvin (-271 Grad Celsius) gekühlt und dadurch supraleitend. „Der Strom fließt dann ohne Widerstand“, erklärt Klaus Barth, der Verantwortliche für den Betrieb von Kälteanlagen und Magnettestständen. Nirgendwo auf der Welt wird diese Technik in größerem Maßstab eingesetzt als hier. Trotzdem schluckt die Maschine gute 120 Megawatt, wenn sie erst einmal unter Volllast läuft. Das entspricht der Leistung eines mittlerer Kraftwerks. Um diese tiefen Temperaturen zu erzielen, arbeiten die Betreiber mit suprafluidem Helium, dem wohl garstigsten Kühlmittel der Welt. Es kriecht durch kleinste Ritzen und klettert selbst Wände hoch. „Normalerweise experimentieren Wissenschaftler in ihren Labors ausschließlich mit wenigen Millilitern“, erläutert Cern-Chef Aymar. „Als ich vorschlug, beim LHC 10 000 Liter davon einzusetzen, erklärten mich die Leute für verrückt“. „Doch bislang verliefen alle Tests reibungslos“, ergänzt Lyndon Evans. Er ist Leiter des gesamten LHC-Projekts. „Und getestet haben wir die Magnete bis zu einer Feldstärke von neun Tesla“, verrät Barth.

„Für uns ist die enorme thermische Leitfähigkeit des suprafluiden Heliums mindestens ebenso wichtig“, meint Evans. „Sie ist gut 10 000 Mal höher als die von Kupfer“, erklärt der gebürtige Waliser. „Daher benutzen wir die Supraflüssigkeit zugleich, um die im Beschleuniger entstehende Restwärme abzutransportieren.“ Denn beim kleinsten Anstieg der Temperatur in den Magneten bräche die Supraleitung in sich zusammen. Und was das bedeutet beschreibt Barth: „Wir schicken einen Strom von 13 000 Ampere durch die supraleitenden Windungen. Wenn wir da normales Kupfer nähmen, würde es das tonnenschwere Material in einem Bruchteil einer Sekunde schmelzen.“

Über eintausend Ablenkmagnete – jeder einzelne über 14 Meter lang und 35 Tonnen schwer – werden nun nach und nach in der Betonröhre des Beschleunigerrings in Position gebracht. Bis auf eine geringe Anzahl sind bereits alle auf Herz und Nieren getestet. Im Sommer 2007 wollen die Wissenschaftler erstmals den kompletten Rng "kalt machen" - wegen undichter Schweißnähte hat sich dieser Zeitplan bislang um gut ein Jahr nach hinten verschoben.

Die Magnete zwingen die geladenen Teilchen, Spur zu halten. In ihren Thermosbehältern sehen die Magnete aus wie blau gestrichene Abwasserrohre, die auf massive Pfosten ruhen. Die etwas kürzeren, Quadrupole genannten Elemente bündeln den Strahl, der als kurze Pakete durch die luftleer gepumpten, etwa armdicken Röhren rauscht. Sie stellen sicher, dass es im Zentrum der Experimente zu mögliches vielen Zusammenstößen zwischen den Korpuskeln kommt.

Dort registrieren Abermillionen von Sensoren die unzähligen Bruchstücke, die in Bruchteilen einer Sekunde in alle Richtungen auseinanderstieben. Die vorläufige Dateninterpretation geschieht blitzschnell in wenigen Millionsten Sekunden direkt vor Ort, oft mit eigens konstruierter, ultraflinker Elektronik, bevor die Signale ans Rechenzentrum weitergeleitet werden. „Wenn die Experimente Ereignisse registrieren, kann man sich das vorstellen wie erstklassige, digitale Fotografien – Snap Shots of Nature sozusagen“, beschreibt Bernd Panzer-Steindel die Herausforderung. „Jede Kollision ein Foto; etwa eine Milliarde pro Sekunde.“ Als Area Manager der Computing Fabric des Cern herrscht er über Regale voller PC und Server.

„Zurzeit haben wir 5000 Prozessoren mit einen Diskspeicherplatz von etwa 1,5 Petabyte“, meint Panzer-Steindel. In einem Jahr soll sich der Wert verzehnfacht haben. Die Festplatten, Prozessoren und Tapes im Keller des Rechenzentrums verschlingen bereits jetzt zweieinhalb Megawatt an Leistung, die von dröhnenden Ventilatoren weggeschafft werden. „Pro Sekunde kommt hier dann ungefähr der Informationsgehalt einer CD an“, kalkuliert der Rechnerexperte. „Aufs Jahr gerechnet entspricht das etwa dem aller Zeitungen und Büchern, die weltweit gedruckt werden. Und alle Daten bewahren wir praktisch unendlich lange auf.“

Die Computer sind in einem so genannten Grid zusammengeschlossen. Weit über zehntausend Einheiten bilden dann einen gewaltigen, weltumspannenden Rechner. Die Auswertungen der Daten übernehmen später in jahrelanger Arbeit die weltweit rund 200 angeschlossenen Institute. In Doktorarbeiten oder Habilitationen entstehen dann die neuen Erkenntnisse, von denen Schukraft sich wünscht, dass sie beim Nobelpreiskomitee in Stockholm Gehör finden. Dann zeigt sich, ob die Investitionen von über sechs Milliarden Euro, die in dieses Unterfangen geflossen sind, sich zumindest in Ruhm und Ehre niederschlagen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Späher ferner Welten
« Antwort #56 am: 26 November, 2006, 13:18 »
 Es muss ja nicht der Hollywood-Tonfall der NASA sein. Doch in Sachen Werbung könnte die Europäische Raumfahrtagentur ESA durchaus von ihrer großen US-amerikanischen Schwester lernen. Die NASA inszeniert für jede ihrer Raumfahrtmissionen lange vor dem Start breit angelegte PR-Kampagnen. Bei der ESA dagegen läuft in diesen Tagen – bisher kaum bemerkt von der großen Öffentlichkeit - die Startvorbereitung für eine außergewöhnliche Mission: Corot – ein Weltraumteleskop, dass erstmals erdähnliche Planeten außerhalb des Sonnensystems entdecken soll.

Corot steht für "COnvection ROtation and planetary Transits". Voraussichtlich am 20. oder 21. Dezember soll das vier mal zwei Meter große, 668 Kilogramm schwere Teleskop auf einer Sojus-Fregat-Rakete vom russischen Weltraumbahnhof Baikonur aus in eine zirkuläre, polare Umlaufbahn von 827 Kilometer Höhe gebracht werden. Von dort aus wird es mindestens zweieinhalb Jahre lang bis zu 60.000 Sterne in ausgewählten Himmelsregionen daraufhin untersuchen, ob sie Planeten besitzen.

"Bisher haben wir nur Gasplaneten außerhalb des Sonnensystems gefunden", sagt Malcolm Fridlund, schwedischer Astrophysiker und leitender Projektwissenschaftler der Corot-Mission. "Wenn wir nach möglichem Leben auf anderen Planeten schauen wollen, Leben, so wie wir es kennen, müssen wir felsige, erdähnliche Planeten finden. Corot ist das erste Weltraumteleskop, das speziell nach solchen Planeten außerhalb des Sonnensystems sucht. Europa übernimmt damit die Führung auf diesem Forschungsgebiet."

Etwa 200 extrasolare Planeten wurden seit 1995 entdeckt. Die meisten sind Gasriesen in der Größenordnung von Jupiter oder darüber hinaus, einige wenige haben zehn- bis zwanzigfache Erdmassen, gleichen also dem kleinen Gasplaneten Neptun des Sonnensystems. Corot wird vermutlich Dutzende weiterer Gasplaneten entdecken. Darüber hinaus aber, so hoffen die Forscher, könnte das Teleskop auch zehn bis vierzig Planeten von Erdgröße nachweisen.

Corot soll jedoch nicht nur Planeten entdecken, sondern auch so genannte astroseismologische Untersuchungen durchführen – ebenfalls ein Forschungsgebiet, auf dem das Teleskop Pionierarbeit leisten wird. Jeder Stern - darunter auch die Sonne – wird ständig von extrem starken Druckwellen in Schwingung versetzt. Diese Druckwellen werden hervorgerufen durch turbulente Gasbewegungen in der Konvektionszone im Innern der Sterne, und sie hinterlassen charakteristische Wellenmuster auf der Sternoberfläche. Bemerkbar machen sich die Schwingungen auf weit entfernten Sternen durch Schwankungen in ihrer Lichtintensität. Das Corot-Teleskop kann diese Schwankungen messen, daraus Schwingungsmuster rekonstruieren und – ähnlich wie dies bei Erdbebenwellen geschieht – durch ihre Analyse Rückschlüsse auf den inneren Aufbau der Sterne ziehen. "Solche Untersuchungen sind deshalb wichtig", sagt Malcolm Fridlund, "weil wir von den Prozessen, die in Sternen ablaufen, von der Entwicklung und dem Aufbau der Sterne, noch sehr wenig verstehen. Wir haben ein grobes Bild, aber wir verstehen die Details nicht."

Corot besitzt einen 30-Zentimeter-Hauptspiegel und zwei hochempfindliche Kameras. Während eine den astroseismologischen Untersuchungen dient, soll die andere extrasolare Planeten nach der so genannten Transitmethode aufspüren: Durchläuft ein Planet im Sichtfeld des Teleskops seinen Mutterstern, schwächt sich dessen Licht infolge der Bedeckung um einen winzigen Faktor ab. Corots Instrumente können diese Lichtschwankung wahrnehmen und aus ihrer Intensität und Dauer die Größe, Masse und Umlaufbahn des Planeten berechnen.

Was in der Theorie einfach klingt, stößt in der Praxis an die Grenzen derzeitiger Ingenieurskunst. Um Planeten in der Größenordnung der Erde zu entdecken, die Dutzende von Lichtjahren entfernt sind, muss Corot Lichtschwankungen messen können, die nur um den Wert von einem Hunderttausendstel voneinander abweichen. Das entspricht ungefähr dem Vorhaben, aus mehreren hundert Kilometern Entfernung die Lichtabschwächung eines Leuchtfeuers zu erkennen, vor das in wenigen Metern Abstand eine Ein-Cent-Münze gehalten wird.

Dafür musste nicht nur die Optik des Teleskops nanometergenau gebaut und eingestellt werden. Die "größte technische Schwierigkeit und zugleich größte Leistung", so Malcolm Fridlund, war vielmehr der Bau einer Teleskopblende, die einfallendes Streulicht von der Erde und der Sonne auf ein Minimum reduziert. Um das Teleskop für die Trägerplattform sowie für den Start in der Sojus-Fregat-Rakete tauglich zu machen, durfte die zylindrische Blende nicht länger als drei Meter sein. Zugleich musste das auf den Hauptspiegel des Teleskops einfallende Streulicht auf einen Wert von höchstens einem Milliardstel der Lichtintensität des beobachteten Sterns begrenzt werden. Ein Rekord: "Kein anderes Weltraumteleskop dieser Klasse hat eine derartig hohe Streulicht-Abschirmungsrate", so Malcolm Fridlund.

Trotz dieser ausgefeilten Technik wird Corot jedoch kaum Planetensysteme entdecken, die dem unseren gleichen. So lautet jedenfalls die Prognose der Wissenschaftler. Die meisten bisher entdeckten extrasolaren Planeten umkreisen ihren Mutterstern in sehr naher Entfernung; sie befinden sich zum Teil zehnmal näher an ihrem Stern als Merkur an der Sonne. Solche sehr sonnennahen Planeten wird voraussichtlich auch Corot entdecken. Der Grund dafür liegt vor allem in der Beobachtungsweise selbst: Corot richtet sein Teleskop nur über einen kurzen Zeitraum auf ausgewählte Himmelsregionen, maximal 150 Tage lang. Damit sinkt die Wahrscheinlichkeit, Planeten in größerer Distanz zu ihrem Mutterstern zu entdecken, um ein Vielfaches. Denn aus der Sichtlinie des Teleskops findet der Transit eines solchen Planeten durch den Mutterstern weitaus seltener statt als bei sternnahen Planeten. "Es wäre ein sehr, sehr großer Glücksfall", sagt Malcolm Fridlund, "wenn wir einen erdähnlichen Planeten finden würden, der seinen Stern in derselben Entfernung umkreist wie die Erde die Sonne."

Fridlund rechnet außerdem damit, dass die meisten erdähnlichen Planeten, die Corot entdecken kann, um leuchtschwache Sterne kreisen, die weniger Masse besitzen als die Sonne. Denn massereiche Sterne würden erdähnliche Planeten in sehr dichter Entfernung schnell zerstören.

Eines wird jedoch auch Corot mit seiner Spitzentechnologie nicht können: etwas über die genaue Beschaffenheit von erdähnlichen extrasolaren Planeten herauszufinden, etwa über die Zusammensetzung der Atmosphäre oder das Vorhandensein von Wasser. Dies wird einer kommenden ESA-Mission vorbehalten bleiben, nämlich der auf den Namen Darwin getauften Teleskopflotte, die die ESA Mitte des nächsten Jahrzehnts ins All schicken will. Die Teleskope werden in der Lage sein, mittels der so genannten Null-Interferometrie Sternenlicht gewissermaßen "auszuschalten" und das der sie umkreisenden Planeten sichtbar zu machen. Mit dieser Technik soll Darwin Planeten der 1.000 sonnennähesten Sterne untersuchen – auch darauf, ob es auf ihnen möglicherweise Leben gibt. "Corot ist der erste Schritt auf diesem Weg", sagt Malcolm Fridlund. "Darwin wird hoffentlich die Frage beantworten, die sich Menschen seit Jahrhunderten stellen, nämlich, ob wir allein sind im Weltall."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
Ariane-Start mit TV- und Breitband-Satellit an Bord erfolgreich
« Antwort #57 am: 09 Dezember, 2006, 10:23 »
Eine europäische Trägerrakete des Typs Ariane 5 ist am Freitagabend von Kourou in Französisch-Guayana mit zwei Fernmeldesatelliten in den Weltraum gestartet.

Die Rakete brachte am Freitag kurz vor Mitternacht (MEZ) die amerikanischen TV- und Kommunikationssatelliten AMC-18 und WildBlue-1 in Erdumlaufbahnen. Der 2,1 Tonnen schwere AMC-18 wurde von Lockheed-Martin gebaut und soll für die US-Tochter des weltgrößten Satellitenanbieters SES Global, SES-Americom, Kabel-Fernsehprogramme in Nordamerika übertragen.

Der von Space Systems/Loral konzipierte WildBlue-1 wiegt 4,7 Tonnen und wird Breitband-Internetdienste für WildBlue Communications bereitstellen. Beide werden über dem Pazifik positioniert. Das teilte Arianespace in Kourou mit. Es war der siebte erfolgreiche Einsatz in Folge der superschweren Trägerrakete Ariane 5 ECA für fast zehn Tonnen Nutzlast.

Quelle : www.satundkabel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 189183
  • Ohne Input kein Output
    • DVB-Cube
@home mit Einstein in Potsdam
« Antwort #58 am: 20 Dezember, 2006, 09:26 »
Während der Potsdamer IT-Gipfel mit seinen handverlesenen Teilnehmern großer IT-Konzerne große Wellen schlug, ging es wenige Kilometer Luftlinie entfernt ungleich beschaulicher zu, und das mit kleinsten Wellen. Auf dem 11. Workshop zur Gravitationswellenanalyse war weniger die deutsche Exzellenz gefragt, sondern die Forschung zu den kleinen Wellen, die Albert Einstein 1916 mit seiner allgemeinen Relativitätstheorie postuliert hat. Bei dem bislang nicht gelungenen Nachweis solcher Gravitationswellen spielen leistungsfähige Rechner und aufopferungsvolle Spender von Rechenzeit eine wichtige Rolle. Zu den Rechenteams, die sich bei Einstein@Home engagieren, gehört eine Gruppe, die bei heise online zu Hause ist.

Nach der Relativitätstheorie von Albert Einstein entstehen Gravitationswellen, wenn sich eine Masse relativ zu einer anderen Masse bewegt. Diese Wellen bewegen sich mit Lichtgeschwindigkeit in alle Richtungen fort und kommen so auch auf der Erde an. Starke Wellen, die bei der Kollision zweier Schwarzer Löcher entstehen oder Wellen von unter der Schwerkraft kollabierenden, schnell drehenden Sternen (Pulsare) müssten der Theorie zufolge messbar sein. Die auf der Erde installierten Gravitationswellendetektoren sind technisch Interferometer. Ein Laserstrahl wird auf zwei gleich langen Messstrecken durch ein Vakuum geschickt und zurückgespiegelt, minimale Längenänderungen zwischen den Endspiegeln und dem Hauptgebäude werden gemessen und aufgezeichnet. Die Daten sind die Rohdaten für die Suche nach den Gravitationswellen, mit denen Supercomputer, aber auch die verteilten Rechner von Einstein@Home beschäftigt sind. Weltweit gibt es fünf Detektoren für Gravitationswellen, ein sechster soll in den nächsten Jahren im Weltraum installiert werden. Der deutsch/britische Detektor heißt GEO 600 und befindet sich in Sarstedt bei Hannover; seine Vakuumröhren sind 600 Meter lang. In Hannover wird auch an LISA (Laser Interferometer Space Antenna) gearbeitet, ein Antennensystem im Weltraum in Form eines gleichschenkeligen Dreiecks mit der Kantenlänge von 5 Millionen Kilometern. 2009 soll der LISA Pathfinder (LPF) ins All geschossen werden, mit dem das grundsätzliche Messprinzip getestet werden soll.

Weltweit beschäftigen sich etwa 800 Wissenschaftler mit dem Nachweis der Gravitationswellen. Rund 450 von ihnen sind in der LIGO Scientific Collaboration (LSC) zusammengeschlossen, bei der auch das Distributed-Computing-Projekt Einstein@home angesiedelt ist. Obwohl der Nachweis von Gravitationswellen noch nicht gelungen ist, sind die Wissenschaftler guten Mutes. Dieser ist vor allem darin begründet, dass das Messinstrumentarium in den letzten Jahren erheblich verbessert werden konnte. So soll der derzeit fortschrittlichste Detektor Advanced LIGO (Laser Interferometer Gravitational wave Observatory) die Messempfindlichkeit um den Faktor 10 gesteigert haben. Wie schwierig das Messen einer Gravitationswelle ist, mag eine hypothetische Supernovaeexplosion (Explosion eines Sternes von mehr als zehn Sonnenmassen) in unserer Milchstraße verdeutlichen. Sie würde die Messstrecke maximal um ein Tausendstel eines Atomkerndurchmessers schwingen lassen.

Eine derart minimale Abweichung durch eine Gravitationsquelle zu finden, bedarf es ausgeklügelter Rechenprogramme, die das schwache Signal aus dem allgemeinen Grundrauschen herausrechnen. "Vater" von Einstein@home ist Bruce Allen, der zum 1. Januar 2007 eine Stelle als Direktor des Max Planck Institutes für Gravitationsphysik in Hannover antreten wird. Im Gespräch mit heise online erinnert er sich: "Als wir 1995 von SETI@home hörten, überlegten wir, dass wir auch so etwas machen könnten. Ich diskutierte darüber mit einem Kollegen. Wir kamen zu den Überzeugung, dass es technisch wohl möglich wäre, Datenhappen auf verteilten PCs durchsuchen zu lassen, dass es aber nicht realisierbar sei. Wie sollten wir Leute dafür interessieren, bei unserem Projekt mitzumachen? Im Vergleich zur außerirdischen Intelligenz sind Gravitationswellen keine besonders attraktive Sache." Erst als die American Physical Society ihre Unterstützung zusagte, konnte das Projekt gestartet werden.

Heute ist Allen froh über den späten Start im Einstein-Jahr 2005: "Einstein@home hat von allen vergleichbaren Projekten wohl die kundigsten User. Sie sind sehr, sehr smart, ich würde sie als Six-Sigma-Typen bezeichnen. Es ist ganz erstaunlich, wie sie über die Message Boards mitgeholfen haben, unseren Code zu entwickeln." Entsprechend dankbar ist Allen auch dem "Special: Off-Topic"-Forumteam, von dem gut 700 Teilnehmer bei Einstein@home dabei sind. Auf der öffentlichen Veranstaltung am Golmer Albert Einstein Institut bekommt Allen von den Off-Topicern einen Number Cruncher geschenkt, dazu hängt der Heisig, das Maskottchen der Heise-Fans, an den Stellwänden, die über die Gravitaionswellenforschung Auskunft geben.

"Beim verteilten Rechnen hört man manchmal, dass die Rechner das Wichtigste sind. Das ist falsch. Die Anwender sind das Wichtigste, die zu Hause ihre Computer warten, damit sie mitrechnen. Das ist genau wie bei den Supercomputern, die für die Gravitationswellenanalyse benutzt werden: Die System-Administratoren sind das Teuerste." Dennoch geht die Gefahr vom Rechner aus. "Die größte Gefahr sind moderne Rechner mit ihrem Spar-Modus, die heruntergefahren werden", erklärt Allen. Argumente zum Stromsparen kontert er sofort. Für 10 Cent am Tag bei so einem aufregenden Projekt mitzurechnen, das sollte die Sache wert sein. "Ich bin mir sicher, dass in den nächsten 10 Jahren der Nachweis von Gravitationswellen gelingt. Das ist doch eine tolle Perspektive für alle, die dabei mitmachen."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Yessir

  • Premium-Cubie
  • ****
  • Beiträge: 263
  • Zuhause ists am schönsten!
Re: @home mit Einstein in Potsdam
« Antwort #59 am: 20 Dezember, 2006, 09:54 »
Also ich bin dabei ... mit 3 Rechnern.
TV-Rechner: Asus P4P800SE, Celeron 2.8 GHz, NVidia Geforce 6600 GT, 1 GB Ram, Windows XP SP3
Skystar 2 mit Treiber 4.4, DVBViewerPro 3.9.0.0 auf Astra 19.2°
Codecs: ffdshow und AC3Filter 1.11
Nachbearbeitung: ProjectX 0.90.04.00.b21a-20080108 by OoZooN, Cuttermaran 1.69, IfoEdit 0.971, DVDLabPro 2.22
2x Galaxis Easy world ebenfalls auf Astra 19.2°
WinTV Nova-T für den Laptop
...und noch ein AC.Ryan Playon! Full HD Mini Netzwerk Media Player

Meine Tochter neulich im Zoo in der Arktisabteilung: Guck mal Papi - da sind Linuxe