-
Mit seinen "Beam"-Experimenten wurde der Physiker Anton Zeilinger zum Medienstar.
Für den Dalai Lama geriet der Besuch in dem Physiklabor zur Offenbarung. Erst führte ihm Anton Zeilinger ein paar seltsame Tricks mit Photonen vor. Dann erzählte der Forscher auch noch, dass im Mikrokosmos Teilchen einfach so aus dem Nichts entstehen.
Für einen kurzen Moment war es da mit der buddhistischen Gelassenheit vorbei. Das sei unmöglich, erklärte der Dalai Lama irritiert, für jedes Ereignis gebe es eine Ursache. Die Physiker müssten eben einfach noch genauer hinschauen.
"Hier hatten wir eine klare Divergenz unserer Anschauungen", erinnert sich Zeilinger lächelnd. "Denn für mich steht zweifelsfrei fest, dass in der Quantenwelt die Kausalität tatsächlich verschwindet."
Der Dalai Lama ist nicht der Einzige, den der 59-jährige Physiker der Universität Wien zum Staunen bringt. Zeilinger tritt bei Ärztekongressen auf, ist Gast in Talkshows und spricht vor Managern von Energiekonzernen. In den nächsten Wochen reist er zu Vorträgen nach Schweden, in die USA und nach Saudi-Arabien - dabei nimmt er nur einen Bruchteil aller Einladungen an. "Alle wollen auf einmal wissen, was wir Quantenphysiker so treiben."
Alles begann mit jenem wundersamen Experiment, mit dem Zeilinger vor sieben Jahren schlagartig berühmt wurde. In einem Laborversuch war es seinem Team gelungen, ein Photon auszulöschen, um dieses Lichtteilchen im selben Augenblick - Simsalabim - wenige Meter entfernt wieder auftauchen zu lassen.
Kaum war der Artikel über die weltweit erste "Quantenteleportation" im Wissenschaftsmagazin "Nature" erschienen, rief auch schon CNN an - dann brach ein Medien-Hype los, der bis heute andauert.
Bis zu dieser Veröffentlichung hatten sich nur Eingeweihte für die schwerverständlichen Experimente der Quantenphysiker interessiert. Erst mit Zeilingers Teleportation konnte auch ein breiteres Publikum etwas anfangen. Denn ein Science-Fiction-Traum schien damit wahr zu werden: das "Beamen". Wenigstens im Prinzip, so zeigte der Laborversuch, ist es tatsächlich möglich, wie Captain Kirk vom "Raumschiff Enterprise" koboldartig riesige Entfernungen zurückzulegen.
Der Wiener Hexenmeister beeilte sich zu betonen, dass das Beamen größerer Objekte oder gar eines Menschen so gut wie ausgeschlossen wäre. Doch das Dementi ging unter. Plötzlich wurde die Quantenphysik zu einem Teil der Popkultur - und Zeilinger zu ihrem Guru.
Wann immer österreichische Journalisten heute wissen wollen, was ein Physiker so über Gott und die Welt denkt, rufen sie ihn an. Was sagt er zum neuesten TV-Skandal? Glaubt er an die Möglichkeit von Zeitreisen? Und warum nur spielt das Wetter verrückt?
Medienstar Zeilinger bedient perfekt die Erwartungen des Publikums: Der Herr Professor ist ein freundlicher Mann mit krausem Haar und Rauschebart, der in seiner Freizeit Cello spielt und ansonsten gern herumphilosophiert, wobei er dann so schön rätselhaft klingende Sätze formuliert wie dieses abgewandelte Wittgenstein-Zitat: "Die Welt ist alles, was der Fall sein kann." Genau so stellen sich Laien einen spleenigen Physiker vor.
Inzwischen ist Zeilinger der ganze Rummel allerdings etwas zu viel geworden. Der Forscher hat deshalb eine eigene Pressebeauftragte engagiert. Andrea Aglibut blockt allzu lästige Anfragen ab, damit er weiter ungestört in das geheimnisvolle Quantenreich vordringen kann.
Zu seinem Team gehören auffallend viele junge Wissenschaftler. Die einen bilden die Gruppe der "Photonis". Mit Hochdruck arbeiten sie daran, die Beam-Technik weiterzuentwickeln.
"Zu unserer eigenen Überraschung", sagt Zeilinger, "hat das Herumspielen mit Photonen sogar zu einer ersten handfesten Anwendung geführt." So könnte das dem Beamen zugrunde liegende Quantenphänomen schon bald die vollkommen sichere Verschlüsselung geheimer Daten ermöglichen. Banken und Versicherungen haben bereits Interesse an der Quantenkryptografie signalisiert.
Die Wiener Forscher nutzen einen höchst sonderbaren Effekt der Mikrowelt aus: Wenn zwei Teilchen, etwa zwei Photonen, in Kontakt kommen, kann es passieren, dass sie dauerhaft miteinander in Verbindung bleiben. Was auch immer fortan mit dem einen Teilchen geschieht - es scheint auf beinahe telepathische Weise das andere direkt zu beeinflussen.
Nach ihrer Teilchenhochzeit verhalten sich solche Photonen gleichsam wie gezinkte Würfel: Fällt der eine auf die Sechs, so zeigt automatisch auch der andere diese Punktzahl. Diese Verkopplung, im Physiker-Jargon "Verschränkung" genannt, funktioniert über jede beliebige Entfernung - selbst dann, wenn die beiden Partner Lichtjahre voneinander entfernt sind.
Albert Einstein war diese radikale Konsequenz der Quantentheorie unheimlich; er bezweifelte, dass es die "spukhafte" Fernwirkung wirklich gibt. Doch in den vergangenen Jahren haben Physiker mit immer neuen Laborversuchen gezeigt, dass zwischen manchen Teilchen tatsächlich unsichtbare Drähte gespannt sind.
Bei seinen Beam-Experimenten benutzt Zeilinger solche verketteten Photonen, um ein drittes Photon quer durch den Raum zu befördern. Das eine Photon tastet dabei das zu transportierende Passagier-Teilchen ab und löscht es dadurch aus - woraufhin das Passagier-Teilchen im gleichen Augenblick in dem anderen Photon wiederaufersteht.
"Das Verrückte ist, dass zwischen den verschränkten Photonen keinerlei Informationen ausgetauscht werden", sagt Zeilinger. "Richtig vorstellen kann auch ich mir nicht, was bei diesem Vorgang jenseits von Zeit und Raum vor sich geht."
Wie sich nun gezeigt hat, sind verkoppelte Photonen zudem ideal geeignet für die Verschlüsselung geheimer Nachrichten. Jeweils paarweise werden sie dazu an Sende- und Empfangsstationen verschickt. Wenn der Sender sodann mit Hilfe seiner Photonen eine Botschaft verschlüsselt, kann der Empfänger die Botschaft mit Hilfe der entsprechenden Partner-Photonen leicht wieder entschlüsseln.
Der Clou daran: Im Unterschied zu allen anderen Verschlüsselungsmethoden ist die Quantenkryptografie absolut abhörsicher. Jede Störung von außen führt unweigerlich dazu, dass die Verkopplung der Teilchen in sich zusammenbricht - jeder Versuch, einen Photonenstrahl anzuzapfen, würde sofort auffallen. Zeilinger: "Die Sicherheit der Verschlüsselung ist naturgesetzlich verbürgt."
Mit seinem Team hat der Physiker schon Geheimbotschaften übertragen. Für einen Test hatte er mit Hilfe verkoppelter Photonen ein Foto der "Venus von Willendorf" verschlüsselt, einer in der Nähe von Wien entdeckten Steinzeitfigur. Derzeit arbeitet sein Team an einem Versuch, in dem verschlüsselte Nachrichten per Lichtstrahl sogar acht Kilometer weit verschickt werden sollen - von einem Hochhaus zu einem anderen.
Spätestens in fünf Jahren könnten die ersten Quantenverschlüsselungsgeräte mit verschränkten Photonen auf den Markt kommen. Eine Kooperation mit der Industrie soll bei der Vermarktung helfen. Die Europäische Raumfahrtagentur Esa prüft sogar, von einem Satelliten aus verschlüsselte Laserstrahlen an jeden Punkt der Erde zu senden.
Doch auch die reine Grundlagenforschung beschäftigt Zeilinger weiter. Ein zweites Team (die "Molekülis"), geleitet von ihm und seinem Kollegen Markus Arndt, versucht herauszufinden, ob die Quantenphänomene wirklich nur auf den Mikrokosmos beschränkt sind. Immerhin traten bizarre Effekte sogar schon bei größeren Molekülen auf. Als Nächstes wollen die Forscher klären, ob sich auch riesige Biomoleküle wie Hämoglobin oder Insulin in bestimmten Experimenten sonderbar verhalten.
Und wie ist es mit Viren? Oder mit Sandkörnern? "Wir wissen einfach noch nicht, ob es eine Grenze gibt, wo die Quanteneffekte aufhören", gibt Zeilinger zu. "Die einzige Bedingung scheint nur zu sein, dass die Objekte von der Außenwelt abgeschirmt sind."
Wird also irgendwann doch das Beamen größerer Gegenstände möglich sein? Der Physiker mag das nicht mehr für alle Zeiten ausschließen. "Vielleicht werden wir in tausend Jahren tatsächlich in der Lage sein, eine Kaffeetasse zu teleportieren", spekuliert Zeilinger. "Aber jede noch so winzige Störung könnte dann dazu führen, dass sie ohne Henkel in der Empfangsstation ankommt - für Menschen wäre eine solche Fortbewegungstechnik sicher viel zu gefährlich."
Und noch etwas spricht dagegen, dass irgendwann Menschen von einem Ort zum anderen gebeamt werden: Um alle zehn Billionen Billiarden Atome eines Menschen zu erfassen, brauchten die schnellsten heutigen Computer rund tausendmal so lange, wie das Universum alt ist.
Quelle : www.spiegel.de
-
Heute vor 40 Jahren erschien die Jubiliäumsausgabe der Zeitschrift "Electronics", die ihr 35-jähriges Erscheinen feierte. Damals war Electronics das einflussreichste Blatt der amerikanischen Elektroindustrie und wurde auch in Europa viel gelesen. Das hier abgebildete Exemplar stand in der allen Ingenieuren zugänglichen Bibliothek von Brown, Boveri & Cie und befindet sich heute im Landesmuseum für Technik und Arbeit in Mannheim.
In der Jubiläumsausgabe, die auf die Entwicklung der Elektronik zurück blickte und unter dem Motto "The experts look ahead" Prognosen für die Zukunft wagte, findet sich ein Aufsatz von Gordon E. Moore, Forschungsleiter bei Fairchild Semiconductors. Cramming more components onto integrated circuits betitelt, fast der Untertitel den Aufsatz so zusammen: "With unit costs falling as the numbers of components per circuit rising, by 1975 economics may dictate squeezing as many as 65.000 components on a single silicon chip."
Diese Aussage erlangte später als Moores Gesetz Weltruhm, obwohl sie im Kontext der Jubiläumsnummer selbst keineswegs besonders aufregend war. So findet sich vor dem Aufsatz von Moore eine Überlegung von Eiichi Goto, der in Japan damals die Parametron-Computer konstruierte. Er schrieb: "Because of improved production techniques, the price of a computer can be reduced by a factor of 10 every decade. This would mean that a computer priced at $1 million today would cost only $10,000 by 1985, only $1,000 by 1995." Mit 100 Dollar im Jahre 2005 würden zumindest die Handys "Gotos Gesetz" erfüllen können. Wie teuer damals Computer waren, lässt sich der übrigens auffälligsten Anzeige der Jubiläumsnummer entnehmen. Sie stammt von DEC, geht über zwei Seiten und trägt die Schlagzeilen: "The PDP-8 is a powerful, integrated-circuit computer. It sits on a desk, understands FORTRAN, has 1.6 µsec cycle time and exceptional input/output capability. And it's yours for $18,000 complete, software included."
Den Titel der Jubiläumsnummer zierte David Sarnoff, damals Generaldirektor der RCA, die das vollelektronische Fernsehen (Bildabtastung) gegen das mechanische Fernsehen (Bildabnahme und Bildaufbau per Nipkow-Scheibe) am Markt durchsetzte. Sarnoff wurde vor einem Steuerpult für das Farbfernsehen fotografiert. Er war einstmals weltberühmt als der Funker, der im Jahre 1912 den Hilferuf der untergehenden Titanic empfing und alle erreichbaren Schiffe verständigte. 72 Stunden lang arbeitete Sarnoff ununterbrochen an der Rettung der Schiffbrüchigen. In der Jubliäumsausgabe erinnerte sich der damals kurz vor seiner Pensionierung stehende Sarnoff an die Anfänge des Kommunikationszeitalters. 1915 machte er als erster den Vorschlag, mit der drahtlosen Telegraphie Musik an alle Haushalte zu übertragen, die sich kein Klavier leisten konnten. Empfänger sollte eine "Radio Music Box" sein, die als "household utility" die Rolle des Klaviers übernehmen sollte. Für die Zukunft machte Sarnoff auf die Bedeutung der Satellittentechnik für die globale Kommunikation aufmerksam: 1964 wurden mit dem geostationären "Syncomm III" erstmals die Fernsehberichte von den olympischen Spielen via Satellit übertragen. Via Satellit werde jeder Mensch mit jedem Menschen kommunizieren können, erklärte Sarnoff.
Moores in der Electronics abgedruckten Überlegungen hatten zunächst nichts von einem Gesetz an sich. Er beschrieb seine Beobachtung, dass sich die Zahl der Transistoren auf einer integrierten Schaltung alle 12 Monate verdoppelt. Die Veröffentlichung dieser Beobachtung sollte vor allem verunsicherte Investoren beruhigen, da Moores damalige Firma Fairchild Semiconductors gerade eine Menge fähiger Ingenieure verloren hatte. In dem Moment, als seine Beobachtung zum "Gesetz" wurde, musste Moore auch schon nachkorrigieren und erklärte 24 Monate zum Intervall. Heute gelten 18 Monate als Zeitraum, in dem sich die Transistoren auf einem Chip verdoppeln (oder der Chip um die Hälfte verkleinert werden kann). Moore selbst gab dem Gesetz eine freundliche Note zu einem Zeitpunkt auf den Weg, an dem Überlegungen zu den Quanteneffekten bei der Chip-Produktion das definitive Ende seine Gesetzes einläuteten. Wirklich erbost konnte der immer freundliche, längst pensionierte Moore aber dann werden, wenn sein Gesetz in die lange Liste der Sentenzen aufgenommen wird, die wie etwa Murphys Gesetz ein Körnchen Wahrheit enthalten. Wenig freundliche Worte formulierte Moore auch über Raymond Kurzweil, den viele als Vollender des Mooreschen Gesetzes betrachten.
Zum Jubiläum des Gesetzes hat sich Moore bereits Gedanken gemacht. Das Heinz Nixdorf Museums-Forum wird ihm zu Ehren eine Chip-Pagode mit 3500 LED enthüllen, die Intel-Geschäaftsführer Hannes Schwaderer einweiht. Die von Intel vernachlässigten Mac-Fans haben sich bereits auf ihre Weise gerächt: Die zum Aufsatz von Gordon Moore in der Electronics veröffentlichte Karikatur wird von ihnen als erstes Auftauchen eines Mac Mini diagnostiziert.
Quelle : www.heise.de
-
Wenn im Star-Trek-Universum "Science" wegmaterialisiert wird
Im faszinierenden, keineswegs trivialen und dank zahlreicher außerirdischer Lebensformen höchst lebendigen Star-Trek-Universum reisen Erdlinge und Außerirdische wie selbstverständlich überlichtschnell durch Raum und Zeit, somit also auch als Zeitreisende quer durch die vierte Dimension – bisweilen aber auch als reiner Materiestrom von Punkt A nach Punkt B.
Der ganze Artikel (http://www.heise.de/tp/r4/artikel/20/20248/1.html)
Quelle : www.heise.de
-----------
Und das mir als bekennender ´Gene Roddenberry´ Fan ;D
-
Macht nix, McCoy stand dem Beamen ja auch immer sehr skeptisch gegenüber. Einige seiner Äusserungen finden sich im Artikel ansatzweise wieder.
Warten wir doch einfach den ersten Wharp-Flug ab, soooo lange soll's ja nach Roddenberry nicht mehr dauern ;)
-
Soweit ich weiss wurde das beamen bei Star Trek Classic aus Geldnot eingeführt.
Kleiner Buchtipp zum Theama : Die Physik von Star Trek von Lawrence M. Krauss \v/
Die Bedenken von Pille (Bones) kann ich völlig verstehen.
Aber egal. "Star Trek forever" :)
-
Fortschritt auf dem Weg zum Quantencomputer
Physiker am National Institute of Standards and Technology (NIST) haben einen Speicher für Quantencomputer auf Basis von Ionen demonstriert, der seine Daten länger als 10 Sekunden hält - mehr als 100.000-mal länger als in vorherigen Experimenten mit den gleichen Ionen. Damit kommt man praxistauglichen Quantencomputern wieder einen Schritt näher.
Quantencomputer basieren auf so genannten Qubits, die im Gegensatz zu Bits, die nur die zwei Zustände 0 oder 1 haben können, in einem Mischzustand aller möglichen Werte vorliegen. Durch die Ausnutzung von Quanteneffekten werden so Berechnungen möglich, die bisher als praktisch unlösbar galten. Quantencomputer sollen so beispielsweise Zahlen deutlich schneller faktorisieren können als herkömmliche Rechner.
Die Forscher am NIST konnten nun Informationen in einem einzelnen Beryllium-Ion für längere Zeit speichern, indem sie andere Energielevel des Ions nutzten, um die Werte 1 und 0 zu repräsentieren. Diese neuen Quantenzustände reagieren nicht auf leichte Veränderungen im Magnetfeld, was zuvor zu einem Verlust der in den Ionen gespeicherten Informationen geführt hat.
Quantenspeicher müssen in der Lage sein, eine Superposition zu speichern, so dass ein Qbit, in diesem Fall das Ion, 0 und 1 gleichzeitig repräsentiert. Der neue Ansatz erlaubt es nun, diese Superposition eine Million Mal länger zu halten als bisher.
Die Forscher konnten auch zeigen, dass ein Paar verschränkte Ionen ihre Quantenzustände für bis zu 7 Sekunden halten können.
Quelle und Links : http://www.golem.de/0508/39832.html
-
Nachdem es in den letzten Jahren still um ihn wurde, meldet sich der Kölner Physikprofessor Günter Nimtz zu seinem Lieblingsthema Überlichtgeschwindigkeit zurück. Eine neue Variante eines Experiments soll nun auch die letzten Zweifler von der Realität des Phänomens überzeugen.
Nimtz wollte bereits 1992 entdeckt haben, dass sich Zentimeterwellen in einem Hohlleiter schneller als Licht ausbreiten. Drei Jahre später führte er auf einem Kongress einen Versuch (Word-Dokument) vor, bei dem er eine Mozart-Sinfonie ebenfalls mit Überlichtgeschwindigkeit übertrug. Obwohl andere Forscher die Messungen des Kölner Physikers bestätigten, verlief die Diskussion letztlich im Sande. Mittlerweile existiert dazu auch ein Wikipedia-Eintrag.
Sein neues Experiment ging aus teilweise publizierten Studien (PDF-Datei) hervor und wandelt den älteren Versuchsaufbau in einem entscheidenden Punkt ab: Eine stete Folge von wenigen Nanosekunden langen Mikrowellen-Impulsen werden nicht mehr durch einen Hohlleiter, sondern auf einen Stapel von vier Plexiglasscheiben geschickt. Ein Teil des Signals durchquert die Scheiben und verschwindet, der Rest wird zurückgeworfen und von einer Trichterantenne aufgefangen. Die auf- und absteigende Impuls-Energie erzeugt auf dem Oszilloskop eine glockenförmige Kurve.
Nun wird hinter den Plexiglasscheiben eine Aluminiumplatte installiert. Zwar verschieben sich die reflektierten Impulse dadurch zeitlich nicht, aber ihre Energie steigt. Trifft ein Impuls vorne aufs Plexiglas, "spürt" er instantan, was sich weiter hinten befindet und drückt es in seiner Amplitude aus. Das kann man auch so deuten, dass der durchgehende Teil des Signals an der Alu-Platte reflektiert wird, wobei er für den Weg von den Scheiben zur Platte und zurück keine Zeit benötigt. Doch ob Informations- oder Energieübertragung, insgesamt wird die Strecke von der Rückseite des Scheibenstapels bis zur Empfangsantenne des Oszilloskops überlichtschnell bewältigt.
Günter Nimtz erklärt das verblüffende Resultat mit der Quantenphysik: Die vier Plexiglasscheiben und die hinter diesen platzierte Aluminiumplatte bilden einen quantenmechanischen "Berg", den spezielle elektromagnetische Wellen, so genannte evaneszente Moden, "durchtunneln" können. Nach Nimtz sind Tunnel "Räume ohne Zeit", in denen sich die Information unendlich schnell bewege. Sein Experiment verletze zwar keinesfalls die allgemeine Kausalität, nach der die Ursache zeitlich vor der Wirkung liegt, aber durchaus die Einstein-Kausalität, die nur die überlichtschnelle Ausbreitung von Energie und Information verbietet.
Fanden seine früheren Versuche fast ausschließlich in Fachkreisen Anklang, wendet Nimtz sich nun an die Öffentlichkeit: In Kooperation mit dem Landesmuseum für Technik und Arbeit in Mannheim installierte er sein neues Experiment in der Sonderausstellung "Einstein begreifen", die am heutigen Samstag eröffnet wird. Ab 16 Uhr können also Laien und Experten gleichermaßen versuchen, Albert Einstein in Verlegenheit zu bringen.
Quelle und Links : http://www.heise.de/newsticker/meldung/64004
-
Zwischen Wunschdenken und Metaphysik – Anmerkungen zur im Science-Fiction-Genre idealisierten Zeitreise
Man könnte sie getrost auch als chronometrische Transformation bezeichnen, als Transformation von Zeitpunkt A zu Zeitpunkt B – oder als eine zu anderen "Zeitpunkten". Letzten Endes aber entspricht eine Zeitreise nicht immer einer "klassischen" Zeitreise. Mal gelingt sie – ganz fiktiv – unter Einbeziehung der relativistischen Effekte (Spezielle Relativitätstheorie) im Rahmen der Zeitdilatation an Bord eines (annährend) lichtschnellen oder gar überlichtschnellen Raumschiffes. Mal gewinnt sie auf höchst klassische Weise in Gestalt einer Zeitmaschine à la H. G. Wells literarischen Niederschlag. Wie auch immer die fantastische Zeitreise im Well'schen Sinne daher kommt – ihr Realitätsfaktor ist aus heutiger Perspektive freilich gleich null.
Der ganze Artikel (http://www.heise.de/tp/r4/artikel/21/21274/1.html)
Quelle : www.heise.de
-
Mit der Erzeugung eines "Quantenbytes" könnte einer Wissenschaftlergruppe in Innsbruck ein wichtiger Schritt auf dem Weg zum Quantencomputer gelungen sein. Über den jüngsten Erfolg des Instituts für Quantenoptik und Quanteninformation (IQOQI) der Österreichischen Akademie der Wissenschaften sowie des Instituts für Experimentalphysik und des Instituts für Theoretische Physik der Universität Innsbruck berichtet das Wissenschaftsmagazin Nature in seiner Ausgabe vom 1. Dezember.
An Konzepten für Quantencomputer, deren Realisierung bisher bestenfalls in den Kinderschuhen steckt, wird weltweit eifrig geforscht. In enger Zusammenarbeit mit den Theoretikern Otfried Gühne und Wolfgang Dür aus der Innsbrucker Arbeitsgruppe von Hans Jürgen Briegel haben jetzt die IQOQI-Wissenschaftler um Rainer Blatt und Hartmut Häffner gezeigt, dass sie vier, fünf, sechs, sieben oder acht Ionen auf kontrollierte Art und Weise verschränken können. Dazu fangen sie Kalzium-Ionen mit elektromagnetischen Feldern in einer Ionenfalle ein, ordnen sie in einer Reihe nebeneinander an und verschränken sie mit ausgeklügelter Lasertechnologie in so genannten W-Zuständen. Im Fall des Quantenbytes mit acht Ionen erreichten sie damit einen Rechenraum aus 65.536 zum Großteil unabhängigen Elementen.
Nach den bisherigen Ergebnissen sollte das Verfahren skalierbar, die Anzahl der Ionen also noch weiter steigerbar sein. Die Forscher sehen in diesem Experiment daher den Beweis dafür, dass Ionenfallen, wie sie in Innsbruck verwendet wurden, die derzeit vielversprechendste Technologie für die Umsetzung größerer Rechenräume darstellen. Konkurrierende Verfahren setzen beispielsweise auf neutrale Atome statt auf Ionen.
Im Wettstreit mit einer konkurrierenden Gruppe um Dietrich Leibfried am National Institute of Technology (NIST) in Colorado, die in der gleichen Nature-Ausgabe über die Verschränkung von sechs Atomen berichtet, haben die Innsbrucker Forscher mit dem Quantenbyte jetzt die Nase vorn gehabt. Das sei zwar eine schöne Bestätigung, erklärte Blatt laut Presseerklärung des IQOQI, "für unsere Forschung ist allerdings entscheidend, dass wir mit diesem Experiment nun ein Werkzeug zur Hand haben, mit dem wir die Prozesse der Quanteninformationsverarbeitung sehr genau studieren können".
Das Quantenbyte ist nicht der erste Durchbruch in der Quantenforschung, der aus Innsbruck vermeldet wurde. Peter Zoller und Hans Jürgen Briegel arbeiten an weltweit beachteten Konzepten für Quantencomputer und die mit dem IQOQI verbundene Gruppe um Anton Zeilinger in Wien erregte vor einiger Zeit Aufmerksamkeit mit der ersten praktischen Anwendung der Teleportation von Quantenzuständen, einem Kunststück, mit dessen Demonstration IQOQI und NIST im vergangenen Jahr beide gleichauf lagen.
Quelle und Links : http://www.heise.de/newsticker/meldung/66825
-
Der Quantencomputer gilt als die große neue Revolution in der Informationstechnologie. Mit seiner Hilfe ließen sich Berechnungen durchführen, die mit den schnellsten denkbaren herkömmlichen Rechnern unmöglich zu bewältigen sind. Obwohl man noch weit davon entfernt ist, in der Praxis anwendbare Maschinen bauen zu können, ist man auf dem theoretischen Sektor schon recht weit fortgeschritten: Man weiß, wie ein Quantencomputer aufgebaut sein müsste und es gibt auch schon erste Algorithmen, auf deren Grundlage sich Programme entwickeln lassen. Doch nun können die Wissenschaftler möglicherweise diese erste Generation von Quantencomputern bereits wieder ad acta legen, bevor sie jemals in der Praxis getestet wurden.
Der ganze Artikel (http://www.heise.de/tr/aktuell/meldung/67176)
Quelle : www.heise.de
-
Wissenschaftler der University of Michigan haben eine Schlüsselkomponente für den Bau von Quantencomputern auf einem Silizium-Chip integriert. Das Team um Christopher Monroe beschreibt die erste so genannte Ionenfalle auf einem Chip in der Fachzeitschrift Nature. Der Chip besteht im Wesentlichen aus alternierenden Schichten von Legierungen aus Aluminium, Gallium und Arsenid auf einem Silizium-Träger, in die ein mit Elektroden versehenes Loch gebohrt wurde. In einem elektrischen Feld in dieser Bohrung kann man beispielsweise ein Kadmium-Ion einfangen, das dann mithilfe eines Laserpulses in überlagerte Anregungszustände versetzt wird, um so ein so genanntes Qubit zu bilden.
Weil Quantencomputer mit Hilfe solcher Überlagerungszustände sehr viele Rechenoperationen parallel ausführen können, werden sie als heiße Anwärter für die übernächste Rechnergeneration gehandelt. Dazu müsste man allerdings noch sehr viel mehr als nur ein Qubit auf einem Chip herstellen können. Österreichischen Forschern gelang vor kurzem – allerdings mit einer sehr viel größeren Apparatur – die Herstellung von acht Qubits.
* Zum Thema siehe auch die aktuelle Ausgabe der Technology Review: 'Zeitalter der Quanteninformation'
Quelle und Links : http://www.heise.de/newsticker/meldung/67828
-
Warum hat der Mensch 23 Chromosomensätze und der Menschenaffe 24? Warum sind Atomkerne mit zwei, acht oder 20 Protonen besonders stabil? Stecken Gesetze dahinter, Zufall oder ein Schöpfer? Ein Einblick in die mysteriöse Mathematik der Natur.
Zahlen wie drei, sieben oder 13 haben Menschen seit jeher fasziniert. Ob im Märchen, beim Spielen oder in der Bibel - überall begegnet man ihnen. Jedes Kind kennt Siebenmeilenstiefel und die sieben Zwerge. Und der dreifaltige Gott schuf die Welt an sieben Tagen und diktierte Moses die zehn Gebote.
Mathematiker verehren Primzahlen, also solche, die nur durch eins und sich selbst teilbar sind. Abergläubische fürchten die 13. Verschwörungstheoretiker finden immer neue "Beweise" dafür, dass eine bestimmte Zahl über die Geschicke der Welt bestimmt, etwa die 23, die in der Illuminatus-Trilogie von Robert Anton Wilson und Robert Shea eine entscheidende Rolle spielt.
Nach den Anschlägen des 11. September 2001 wurde sogar behauptet, die Quersumme des Datums 11 + 9 + 2 + 0 + 0 + 1 ergebe genau 23. Nun, die Addition stimmt zwar, allerdings handelt es sich dabei eben nicht um die Quersumme. Die Quersumme der Zahl 11 ist nämlich 2, in Wahrheit hat das Datum deshalb eine Quersumme von 2 + 9 + 2 + 0 + 0 + 1 = 14.
Wissenschaftler halten von derartiger Zahlenmystik wenig - doch auch sie können sich dem Zauber der Zahlen kaum entziehen. Aus einem einfachen Grund: Die Natur gibt durchaus bestimmten Zahlen den Vorrang, teils aus nachvollziehbaren, teils aus weniger gut erklärlichen Gründen.
Zahlenmystik und Zahlenmagie
Bekanntestes Beispiel dafür sind die magischen Zahlen aus der Kernphysik. Atomkerne mit einer bestimmten Anzahl von Protonen haben sich als besonders stabil erwiesen: Helium mit 2, Sauerstoff mit 8, Kalzium mit 20, Nickel mit 28, Zinn mit 50 und Blei mit 82 Protonen. Weil sie besonders stabil sind, kommen die Elemente auch besonders häufig vor. So besteht fast ein Viertel der sichtbaren Materie im Weltall aus Helium.
"Die magischen Zahlen für die Besetzung des Atomkerns ergeben sich direkt aus der Quantentheorie", erklärt der Darmstädter Kernphysiker Sigurd Hofmann. Für die Gesellschaft für Schwerionenforschung (GSI) fahndet er nach exotischen Atomkernen auf einer Stabilitätsinsel, die irgendwo zwischen 114 und 126 Protonen vermutet wird.
Grundlage der Theorie ist das sogenannte Schalenmodell, das sowohl für die Elektronenhülle als auch für den Kern existiert. Es postuliert, dass Protonen oder Elektronen mit steigender Zahl bestimmte Schalen besetzen, beginnend bei der untersten. "Der Drehimpuls der Elementarteilchen ist entscheidend für den Aufbau von Schalen", sagt Hofmann im Gespräch mit SPIEGEL ONLINE.
Die magischen Zahlen 2, 8, 20, 28, 50 und 82 könne man leicht aus den Welleneigenschaften der Elementarteilchen, ihrem Spin und dem Bahndrehimpuls herleiten. Dass es gerade diese Zahlen sind, ist quasi eine Konsequenz des Modells, obwohl natürlich die Atomkerne auch schon stabil waren, bevor Physiker im 20. Jahrhundert die Quantenmechanik ersannen.
Zehn Finger und der Zufall
Das Modell ist jedoch nicht ganz perfekt, denn bei der nächsten magischen Zahl jenseits der 82 liefert es kein eindeutiges Ergebnis: "Je nachdem, welche Parameter man für die Kernkräfte einsetzt, ergibt sich entweder 114, 120 oder 126", erklärt Hofmann.
Biologen haben es in Zahlenangelegenheiten nicht ganz so leicht wie Physiker - nicht nur, weil ihre Mathematikausbildung meist nur aus ein bisschen Statistik besteht. Dabei stehen sie vor ganz ähnlichen Fragen: Warum hat der Mensch ausgerechnet zehn Finger und nicht zwölf? Warum besitzen wir 23 Chromosomensätze und nicht 39 wie ein Hund oder 24 wie ein Menschenaffe? Weshalb gibt es genau zwei Geschlechter und nicht drei oder vier?
Der Münchner Evolutionsbiologe Josef Reichholf hält die fünf Finger an einer Hand für einen typischen Streich des Zufalls. Hände und Füße der Vierfüßer seien aus Fischflossen entstanden. Die ursprüngliche Zahl der "Strahlen", aus denen Finger und Zehen wurden, sei noch nicht festgelegt gewesen.
"In frühen Phasen gab es durchaus auch Tiere mit sechs oder sieben Zehen an einer Extremität", sagt er SPIEGEL ONLINE. Die Nachfahren der Fünf-Strahler hätten schließlich überlebt. "Fünf Finger sind ein uraltes Erbe der Evolution."
Die Zahl der Zehen von Wirbeltieren habe sich im Lauf der Evolution mehrfach reduziert: Bei Paarhufern wie Hirschen, Rindern und Ziegen seien es nur noch zwei. "Bei Unpaarhufern bleibt sogar nur die Mittelzehe übrig", erklärt Reichholf. Zu dieser Ordnung gehören Pferde, Nashörner und Tapire. "Wir Menschen sind mit unseren fünf Fingern 'altertümlich'."
Auch der Chromosomenzahl 23 misst der Biologe keine besondere Bedeutung bei. "Ob ich 23, 25 oder 10 Teile habe, ist gleichgültig." Die Zahl der Chromosomen sage relativ wenig aus über die Art. "Nur zu wenige Chromosomensätze sollten es nicht sein, weil sonst alle Erbinformationen auf wenigen Chromosomen gespeichert sind", betont Reichholf. "Die Chromosomen wären entsprechend länger und anfälliger für Fehler".
Wolfgang Enard vom Leipziger Max-Planck-Institut für Evolutionäre Anthropologie sieht die Sache ähnlich: "Letztlich ist es egal, wie viele Chromosomen man hat", meint Enard, der Teile des Schimpansengenoms sequenziert und mit dem des Menschen verglichen hat. "Nur zu viele oder zu wenige sollten es nicht sein." Eine optimale Chromsomenzahl scheint es offenbar nicht zu geben, eher so etwas wie einen zulässigen Bereich.
Zwei sind besser als drei
Anders ist die Situation bei der Zahl der Geschlechter - hier hat sich im Lauf der Jahrmillionen die Zahl Zwei als weit verbreitet herauskristallisiert. "Optimal wäre an sich nur ein Geschlecht", erklärt Enard, "denn zwei Geschlechter verdoppeln die Kosten". Vom Standpunkt der Evolutionsbiologie betrachtet, sind männliche Nachkommen eine riskantes, teures Unterfangen, weil niemals sicher ist, ob diese später tatsächlich mit einem Weibchen Nachkommen zeugen und so die Weitergabe der eigenen Gene sichern.
Weibchen hingegen gelten als sichere Investition - irgendein Männchen wird sich immer finden, so dass die Gene der Eltern tatsächlich erhalten bleiben.
Dass es trotzdem zwei Geschlechter (und damit auch Sex) gibt, hängt mit der dabei möglichen Rekombination zusammen - dem ständigen Zusammenwürfeln von Erbinformationen, bei dem neue Varianten entstehen können, die Vorteile im Überleben bieten.
"Drei Geschlechter würden die Kosten gegenüber zweien noch erhöhen", erklärt Enard. Außerdem sei es schon schwierig genug, dass sich zwei zusammenfinden müssten. Wie wäre das erst bei drei Partnern? "Zwei Geschlechter sind die billigste Lösung", stellt Enard fest. Die einzigen, die von drei Geschlechtern profitieren würden, wären wohl Paartherapeuten, die sich dann Triotherapeuten nennen und deutliche komplexere Beziehungsstrukturen entwirren müssten.
Kleine Primzahlexperten aus Amerika
Der Münchner Biologe Reichholf verweist zudem auf prinzipielle Schwierigkeiten bei der Meiose, der Bildung von Keimzellen, wenn es mehr als zwei Geschlechter gäbe. "Die Teilung in drei oder vier wäre sehr schwierig. Versuchen Sie mal, ein Molekül zu dritteln." Letztlich sei die Zweigeschlechtigkeit die effizienteste Form - "da sind die Fehlermöglichkeiten am kleinsten".
Wie sehr Mathematik die Biologie mitunter beherrschen kann, zeigen Zikaden. Die kleinen, nur ein paar Millimeter große Insekten sind zwar bislang nicht bei Mathematikwettbewerben aufgefallen, scheinen allerdings ziemlich genau zu wissen, dass Primzahlen besonders nützlich sind.
In weiten Teilen Nordamerikas treten Zikaden auf, die sich genau alle 13 oder 17 Jahre über der Erde massenhaft vermehren - danach leben sie als Larven wieder 12 oder 16 Jahre unter der Erde. Die explosive Vermehrung im Primzahlintervall überrascht, kann aber sehr gut mit Jäger-Beute-Beziehungen erklärt werden.
Wäre die Zyklenlänge zum Beispiel 12 Jahre, so könnten die Zikaden von Räubern gefressen werden, die alle 1, 2, 3, 4, 6 und 12 Jahre erscheinen. Mutieren die Zikaden jedoch in einen Zyklus von 13 Jahren, so müssen sie nur noch Fressfeinde fürchten, die jedes Jahr oder alle 13 Jahre auftreten - ein nicht zu unterschätzender Evolutionsvorteil.
Clevere Fichten
Selbst heimische Fichten setzen auf eine Primzahl. Alle 11 Jahre bilden die massenhaft Zapfen und erschweren Vögeln und Eichhörnchen so geschickt, sich auf diesen Zyklus einzustellen. "Die Tiere können ihre eigenen Zyklen damit nicht synchronisieren", erklärt Reichholf. "Das ginge noch bei 3 und 5 Jahren einigermaßen, wird aber ab 7 Jahren so gut wie unmöglich."
Mario Markus und Oliver Schulz vom Max-Planck-Institut für molekulare Physiologie entwickelten mit einem chilenischen Kollegen vor einigen Jahren sogar ein mathematisches Modell für die außergewöhnlichen Zikadenzyklen. Es erklärt die Perioden mit Mutation und Selektion von Räubern und Beutetieren. Das Modell erzeugte Primzyklen, die sich als stabil erwiesen - genau wie in der Natur. Nicht-Primzyklen wurden nach einer endlichen Zahl von Mutationen zu Primzyklen.
Das Evolutionsmodell taugt prinzipiell sogar zum Erzeugen hoher Primzahlen - womit sich der Kreis aus Evolution, Physik und Mathematik schließt. Die Natur als Primzahlgenerator - wer hätte das gedacht?
Quelle : www.spiegel.de
-
Kompakte Ionenfalle auf der Fläche einer Briefmarke
Forscher der Universität Michigan haben nach eigenen Angaben den bislang ersten skalierbaren Quanten-Computerchip entwickelt, hergestellt mit den gleichen Techniken, die auch zur Fertigung aktueller Computerchips zum Einsatz kommen.
In ihrem Paper "Ion Trap in a Semiconductor Chip" beschreiben die Forscher um Physik-Professor Christopher Monroe einen Ansatz, um mit Hilfe von auf herkömmliche Art und Weise hergestellten Chips ein einzelnes Atom einzufangen und mit elektrischen Signalen zu kontrollieren.
Damit kommen die Forscher einem Quantencomputer wieder einmal einen kleinen Schritt näher, denn die eingefangenen Atome dienen als QBits. Die Schwierigkeit liegt im ersten Schritt aber darin, die geladenen Atome (Ionen) einzufangen und von der Umwelt zu isolieren.
(http://www.golem.de/0601/42707-quantenchip.jpg)
Quanten-Chip der Universität Michigan
Doch genau dies soll der an der Universität Michigan entwickelte Chip vereinfachen, denn der Chip hält in seinem Inneren ein einzelnes Atom im freien Raum. Überwacht wird es mit speziellen Lasern, kontrolliert über elektrische Signale.
Die Anordnung fällt dabei sehr kompakt aus und benötigt nur etwa die Fläche einer Briefmarke. Die notwendigen Elektroden werden in einem lithografischen Prozess hergestellt, wie er auch heute in der Chip-Herstellung zum Einsatz kommt. In einem nächsten Schritt wollen die Forscher den Chip nun um viele weitere Elektroden erweitern, so dass er mehr Ionen aufnehmen kann.
Quelle : www.golem.de
-
Was war vor dem Urknall? Viele Forscher halten schon die Frage für Unfug, da es keine Zeit vor dem Beginn der Zeit selbst geben könne. Doch Physiker suchen immer intensiver nach einem Weltall vor dem unseren - und wollen es jetzt erstmals mathematisch gefunden haben.
Am Anfang war ein Knall. Es folgten einige hundert Millionen Jahre tiefster Finsternis, bis die ersten Sterne zündeten, mit ihrem Fusionsfeuer die heute bekannten Elemente produzierten und dem beobachtbaren Universum seine gegenwärtige Gestalt gaben. So etwa - natürlich grob vereinfacht - ist nach vorherrschender Meinung das Weltall entstanden. Was aber war vor dem Urknall? War da überhaupt etwas? Und, falls ja, wie und warum hat es den Urknall ausgelöst?
Viele Physiker halten schon diese Fragen für unwissenschaftlich: Da mit dem Urknall nicht nur der Raum, sondern auch die Zeit entstanden sei, sei es unsinnig, die Frage nach einer Zeit davor zu stellen. So ist die Zeit vor dem Urknall gewissermaßen auch Gottes letzter Schlupfwinkel: ein Bereich, der vor dem Zugriff der alles erklären wollenden Naturwissenschaft sicher ist und allein der Religion - oder aber der Philosophie - vorbehalten ist.
Doch das könnte sich bald ändern: Forscher haben nach eigenen Angaben eine physikalische Theorie über die Natur von Raum und Zeit so weit verfeinert, dass sie auch dort noch funktioniert, wo alle anderen Modelle wie Einsteins Relativitätstheorie und die Quantenmechanik versagen: In unmittelbarer zeitlicher Nähe des Urknalls und sogar darüber hinaus. Man habe "Fäden gefunden, die in eine frühere Zeit führen" - in die Zeit vor der Entstehung unseres heutigen Universums.
"Big Bounce" statt "Big Bang"
Verfolgt man die Entwicklung des Universums bis an dessen Anfänge zurück, bekommt die klassische Physik ein Problem: Die Krümmung der Raumzeit wird irgendwann unendlich und nähert sich der sogenannten Singularität, dem Nullpunkt des Universums. Sowohl Einsteins Allgemeine Relativitätstheorie, die Raum und Zeit im Großen beschreibt, als auch die Quantenmechanik für die Welt im Kleinsten brechen zusammen.
"Mit der allgemeinen Relativität kann man das Universum nur bis zu dem Punkt beschreiben, an dem die Materie so dicht wird, dass die Gleichungen nicht mehr funktionieren", sagt Abhay Ashtekar, Direktor des Institute for Gravitational Physics and Geometry an der Pennsylvania State University in den USA. "Jenseits dieses Punktes müssen wir Quanten-Werkzeuge einsetzen, die Einstein noch nicht zur Verfügung standen."
Der Physiker gehört mit der Erfindung der nach ihm benannten Ashtekar-Variablen zu den Begründern der sogenannten Schleifen-Quantengravitation, auch bekannt als "Loop Quantum Gravity". Mit Hilfe dieser Theorie, so glauben Ashtekar und seine Kollegen Tomasz Pawlowski und Parmpreet Singh, ist ihnen Erstaunliches gelungen: Sie haben ein Modell entwickelt, das Aussagen über ein Universum vor dem Urknall ermöglicht.
Erst zerknüllt, dann aufgebläht
Für diese Zeit habe der Computer ein Universum errechnet, das sich zu einem "Big Crunch" zusammenzieht, ansonsten aber in seiner Raumzeit-Geometrie unserem All verblüffend ähnelt. Deshalb sei unser Universum auch nicht in einem Knall aus dem Nichts entstanden. Vielmehr habe es eine Art Abpraller gegeben - einen "Big Bounce" statt eines "Big Bang". Gab es also gar keinen Anfang aller Dinge namens Urknall, sondern wurde ein früheres Universum auf kleinste Maße zerknüllt, nur um sich prompt wieder zu einem neuen All aufzublähen? Das Universum, eine titanische Ziehharmonika?
Genau das ist der Fall, glaubt man der Theorie von Ashtekar und seinen Kollegen, die in der aktuellen Ausgabe der "Geophysical Research Letters" erschienen ist. Die Gravitation habe das frühere Universum so weit zusammengezogen, dass die Quanteneigenschaften die Schwerkraft schließlich umgekehrt und in eine abstoßende Kraft verwandelt hätten. Durch das Kombinieren von Quantenphysik und allgemeiner Relativität habe sein Team zeigen können, "dass es tatsächlich einen Quanten-Rückstoß gibt", erklärt Ashtekar.
Dass die Gleichungen am Ende ein weiteres "klassisches Universum vor einem Urknall" ergeben hätten, sei so überraschend gewesen, dass man die Rechnungen monatelang mit verschiedenen Parametern geprüft habe. "Aber wir haben herausgefunden, dass das Big-Bounce-Szenario robust ist", so Ashtekar.
Besteht das Universum aus winzigen Schleifen?
Die Vorstellung, dass vor unserem jetzigen Universum bereits ein weiteres existierte, ist zwar nicht neu, räumen die Forscher ein. Doch sie seien die Ersten, denen es gelungen sei, die Existenz eines solchen Vor-Universums systematisch zu begründen und Rückschlüsse über dessen Raumzeit-Geometrie zu ziehen.
Der Einsatz der Schleifen-Quantengravitation habe das ermöglicht, erklären die Wissenschaftler. Das Rechenwerk ist neben der String-Theorie einer der meistversprechenden Ansätze, die bisher unvereinbaren Gegensätze zwischen Einsteins Relativitätstheorie und der Quantenmechanik zu überbrücken.
Die Schleifen-Quantengravitation besagt unter anderem, dass Raum und Zeit nicht vollkommen kontinuierlich verlaufen, wie es für Menschen den Anschein hat, sondern aus einem Gewebe kleinster Schleifen bestehen. Wie in Einsteins Relativitätstheorie ist es auch hier die Krümmung der Raumzeit, die für die Schwerkraft sorgt.
Ashtekar und seine Kollegen haben diese Theorie, die eigentlich die Wechselwirkungen zwischen Elementarteilchen beschreiben soll, auf das gesamte Universum angewandt. Auf dem Weg in die immer fernere Vergangenheit hätten die Formeln zunächst zu ähnlichen Ergebnissen geführt wie die klassische Kosmologie. An dem Punkt aber, wo alle anderen Gleichungen versagten, habe die Schleifentheorie gehalten.
Geteiltes Echo auf Ashtekar-Studie
Das hat zwar schon vor zwei Jahren der deutsche Physiker Martin Bojowald ausgerechnet, der damals am Potsdamer Max-Planck-Institut für Gravitationsphysik gearbeitet hat und jetzt wie Ashtekar an der Pennsylvania State University tätig ist. Doch Ashtekar und seine Kollegen glauben, die Theorie noch einen Schritt weitergebracht zu haben - über den Urknall hinaus.
Wenn sich die Raumzeit auflöst, so ihr Ergebnis, widersetzen sich die winzigen Schleifen einer weiteren Verdichtung. Der Stoff, aus dem die Raumzeit gemacht ist, werde "brutal zerrissen" - und die Gravitation verwandle sich durch die Quanteneffekte in eine stark abstoßende Kraft, die den Zusammensturz des Universums stoppe. Unmittelbar danach sortieren sich die Schleifen der Theorie zufolge wieder in ein glattes Raumzeit-Gefüge und sorgen für eine explosive Ausdehnung des Alls.
Andere Wissenschaftler lobten die Arbeit von Ashtekars Team. Die Ähnlichkeiten zwischen String-Theorie und Schleifen-Quantengravitation bei der Beschreibung des Universums nach dem Urknall seien ermutigend, sagte Joe Lykken vom Fermilab in Batavia, Illinois dem Magazin "New Scientist": "Endlich sprechen wir die gleiche Sprache."
Suche nach messbaren Spuren des Vor-Universums
Andere Forscher reagieren jedoch skeptischer auf Ashtekars Studie. "Zu simplistisch", meint Hermann Nicolai, Direktor am Potsdamer Max-Planck-Institut für Gravitationsphysik, im Gespräch mit SPIEGEL ONLINE. "Das Modell besteht aus einer drastischen Vereinfachung der Gleichungen."
Das Universum beruhe auf zahlreichen, möglicherweise gar unendlich vielen Variablen. Ashtekar aber reduziere alles auf zwei Größen. Sein Modell basiere unter anderem auf der Annahme eines Universums, "das vollkommen leer ist und in alle Richtungen gleich aussieht". "Ich persönlich habe starke Zweifel, dass man damit dem Problem wirklich zu Leibe rücken kann", sagte Nicolai, der den Artikel von Ashtekar und seinen Kollegen vor der Veröffentlichung in den "Physical Review Letters" als unabhängiger Experte begutachtet hat.
Zudem heize sich das Universum auf, je näher man dem Urknall komme, erklärt Nicolai. Das kompliziere die Dinge noch: Durch physikalische Prozesse kämen immer mehr Variablen ins Spiel, die Elementarteilchen lösten sich auf, neue kämen hinzu. Das Ergebnis sei "eine brodelnde Suppe von ungeheurer Komplexität".
Die neue Leistung von Ashtekar und seinen Kollegen sei, dass ihr Modell wesentlich näher an den Moment des Urknalls heranreiche als bisherige Versuche - so nahe, dass mit dem Auftreten von Quantengravitations-Effekten zu rechnen sei. "Doch die wahre Natur des Urknalls", meint Nicolai, "bleibt das große Rätsel."
Ashtekar aber will noch weiter gehen - und nicht nur theoretische, sondern auch messbare Hinweise für ein Universum vor dem unseren entdecken. "Der 'Big Crunch'", glaubt er, "löscht nicht alle Spuren dessen aus, was unser Universum früher einmal war."
Quelle : www.spiegel.de
-
Die größten Maschinen fangen klein an. In diesem Fall sogar winzig: Mit Atomen haben Bonner Physiker ein einfaches Rechenbrett gebaut. Wie Kiesel konnten sie darauf die Partikel per Laserstrahl sortieren. Schon einmal fingen Computer so simpel an - vor über 3000 Jahren.
Bonn - "Rechnung auff der Linihen" heißt das im Mittelalter beliebte Rechenlehrbuch Adam Rieses von 1518. Darin erklärte der Mathe-Meister den Kaufleuten seiner Zeit, wie sie große Zahlen fix addieren konnten - ohne die ganze Arbeit im Kopf erledigen zu müssen. Früher schon, mehr als 1000 Jahre vor Christus, hatten Menschen in Indien oder China den ersten Abakus erfunden - einen simplen Rechenschieber mit mehreren Stangen voller verschiebbarer Kugeln oder Steine.
Zählen und Verschieben, das ist der Anfang des mechanisierten Rechnens, die Grundlage jedes Computers. Insofern ist es ein erster Schritt in Richtung der Rechner der Zukunft, was Forscher vom Institut für angewandte Physik der Universität Bonn in der britischen Zeitschrift "Nature" vorstellen: Sie haben einzelne Cäsium-Atome entlang einer Linie angeordnet, verschoben und sortiert.
Zunächst kühlten die Forscher die Atome ab. Nahe des absoluten Nullpunkts (minus 273,15 Grad Celsius) bewegen sich die Teilchen kaum noch. Das Team um Arno Rauschenbeutel und Dieter Meschede hatte eine Art Rechenbrett aus Laserstrahlen gebaut, über dem sie die abgebremsten Teilchen ausleerten. Es handelt sich dabei um eine stehende Lichtwelle mit Bergen und Tälern, vergleichbar mit einem Stück Wellpappe, erläutern die Forscher.
"In welchem Wellental die Atome genau landen, lässt sich leider nicht vorhersagen", sagte Rauschenbeutel. "Das ist ähnlich, als würde man mehrere Eier aus einer großen Schüssel in einen Eierkarton schütten - in welche Vertiefung sie dabei rutschen, ist Zufall."
Diese Unordnung war sowohl der Schwachpunkt des Experiments als auch die Herausforderung für die Forscher. "Sämtliche Atome auf dem Förderband müssen denselben Abstand zueinander haben, nur dann können wir sie in einem sogenannten Quantengatter kontrolliert miteinander wechselwirken lassen", sagte Rauschenbeutel.
Atom-Fließband aus Laserstrahlen
Also setzten die Physiker die Atome mit Hilfe der Laserstrahlen in Bewegung. Senkrecht zu deren Richtung setzten sie weitere Laserstrahlen an - so wie sich überkreuzende Fließbänder. Das genügte, um Atome aus der unsortierten Reihe herauszupicken. "Dann fahren wir das Transportband an die gewünschte Stelle und setzten das Atom dort einfach wieder ein", erklärte Rauschenbeutel. Sieben Cäsiumatome so zu sortieren, dass sie einen gleichmäßigen Abstand von 15 Mikrometern zu ihren Nachbarn hatten, dauerte mit dieser Methode etwa zwei Sekunden.
Die Anordnung in gleichen Abständen ist der erste Schritt zu einem Raster, in dem auch einfache Rechenoperationen gelöst und Werte gespeichert werden könnten. Als nächsten Schritt planen die Bonner den Bau des Quantengatters, eines logischen Bausteins für Quantencomputer.
Das historische Vorbild Abakus - in Europa nur noch als Rechenhilfe für Kinder verbreitet und abwertend oft als "Idiotenharfe" bezeichnet - ist übrigens noch in vielen Weltgegenden in Gebrauch, natürlich in etwas handlicheren Abmessungen.
Quelle : www.spiegel.de
-
Wie viel Deuterium, das kurz nach dem Urknall entstanden ist, existiert noch heute? Mehr als vermutet, glauben Astrophysiker nach neuen Messdaten. Nun muss womöglich die Entstehungstheorie unserer Galaxie korrigiert werden.
Deuterium ist nicht nur für Chemiker etwas ganz besonderes, sondern auch für Astrophysiker. Der schwere Wasserstoff entstand nämlich wenige Minuten nach dem Urknall. Danach verbreitete er sich im Universum und einzelne Deuteriumkerne verwandelten sich in andere leichte Elemente. Deuterium war auch an der Entstehung von Sternen beteiligt. Deswegen war Astronomen bislang ein Rätsel, wie viel des ursprünglichen Deuteriums noch heute existiert.
(http://www.spiegel.de/img/0,1020,506336,00.jpg)
Milchstraße: Wesentlich mehr Deuterium als bislang vermutet
Bisher vermutete man, dass sich die Menge dieses Wasserstoffisotops in unserer Galaxie um ein Drittel verringert hat. Ein internationales Team um den Astrophysiker Jeffrey Linsky von der University of Colorado hat nachgemessen und kam zu einem anderen Ergebnis.
Statt um rund 33 Prozent hat sich demnach die Deuteriummasse in der Milchstraße nur um etwa 15 Prozent reduziert. Deswegen müssten nun die Modelle über die chemische Entwicklung der Milchstraße überprüft und dann womöglich korrigiert werden, berichten die Wissenschaftler.
Deuterium ist ein Isotop des Elements Wasserstoff: Es hat im Atomkern nicht nur ein Proton wie der Wasserstoff, sondern zusätzlich noch ein Neutron. Deswegen ist Deuterium etwa doppelt so schwer.
Dass Linsky und seine Kollegen aus den USA, aus Kanada und Frankreich wesentlich mehr Deuterium aufgespürt haben als andere Forschergruppen vor ihnen, hat einen einfachen Grund: Sie benutzten ein spezielles Gerät der US-Raumfahrtbehörde Nasa, das Far Ultraviolet Spectroscopic Explorer (FUSE). Damit konnte auch verstecktes Deuterium aufgespürt werden.
Flüssiges Deuterium hat sich vor Astro-Geräten versteckt
Mit anderen Techniken können Astronomen nur gasförmiges Deuterium leicht entdecken, FUSE hingegen registriert auch Deuterium, das sich in interstellaren Staubkörnern verflüssigt hat.
Mit dem High-Tech-Gerät FUSE konnte Linskys Team nun zeigen, dass nicht ganz so viel vom ursprünglichen Deuterium zerstört ist, wie Astronomen bislang dachten.
Die Forscher schließen aus ihren Messergebnissen, dass sich in den Sternen wesentlich weniger Deuterium in Helium oder schwerere Elemente verwandelte. Nach Angaben der Astrophysiker wäre es aber auch möglich, dass einfach mehr kurz nach dem Urknall entstandenes Deuterium in unsere Galaxie gelangt ist, als man bislang angenommen hatte.
Sollten die Messungen wirklich stimmen, dann müssten die Theorien zur Entstehung von Sternen und Galaxien geändert werden, berichtet Studienleiter Linsky. Die Untersuchungen seines Teams werden in den nächsten Tagen in der Fachzeitschrift "The Astrophysical Journal" publiziert.
Auf der Suche nach Erklärungen
Angesichts dieser womöglich weitreichenden Folgen fordert der Kosmologe Brian Fields von der University of Illinois, zunächst zu klären, warum wirklich noch so viel Deuterium in der Milchstraße ist.
Frank van den Bosch vom Max-Planck-Institut für Astronomie in Heidelberg überraschen die Ergebnisse von Linskys Team nicht, im Gegenteil: Es sei immer zu wenig Deuterium nachgewiesen worden, so der Kosmologe zu SPIEGEL ONLINE.
Wenn man vergleiche, wie viel Deuterium in unserer Galaxie vorkomme und wie viel der ebenfalls superleichten Elemente Helium und Lithium, dann habe im Prinzip immer eine gewisse Menge dieses Wasserstoff-Isotops gefehlt.
Dass dieser Anteil am galaktischen Deuterium nicht zerstört ist, sondern wirklich noch existiert - wenn auch in einer anderen, nämlich flüssigen Form -, würde den Widerspruch erklären, sagte van den Bosch.
Quelle : www.spiegel.de
-
Zwei US-Astrophysiker erhalten den Nobelpreis für ihre Arbeit zur Mikrowellenstrahlung im All. Erst damit sei die Kosmologie eine echte Wissenschaft geworden, begründete das Nobel-Kommitee - geistig sind die US-Forscher Erben des Deutschen Max Planck.
George Smoot erreichte der Telefonanruf mitten in der Nacht: Herzlichen Glückwunsch, Herr Professor, Nobelpreis! "Ich war überrascht, dass die überhaupt meine Nummer hatten", sagte er später. "Eine große Ehre und Anerkennung", sagte John Mather, "die Entdeckung war ja auch wirklich fabelhaft." - Welcher Wissenschaftler würde das nicht über sein Lebenswerk sagen. Ursprünglich hätten aber weder er noch Smooth überschaut, wie wichtig ihre Entdeckung sei, sagte Mather.
Das Nobelkomitee, das am heutigen Dienstag die Entscheidung für Smoot und Mather begründete, sah das ganz anders: Die Messungen der beiden Astrophysiker hätten "den Beginn der Kosmologie als exakte Wissenschaft gekennzeichnet." Und die beiden US-Amerikaner können sich zudem noch als die geistigen Enkel von Max Planck schätzen, jenem deutschen Physiker, der im Jahr 1918 den Nobelpreis erhalten hat - für eine Entdeckung, die Smooth und Mather auf das gesamte Universum übertragen haben.
Schnell meldeten die Nachrichtenagenturen: Forscher erhalten Nobelpreis für Bestätigung des Urknalls. Tatsächlich gehörten die beiden Astrophysiker zu den ersten, welche die Spuren des Anbeginns des Universums sichtbar machen konnten. Die kosmische Hintergrundstrahlung, oft auch als Echo des Urknalls bezeichnet, wurde indes schon in den siebziger Jahren entdeckt.
Zufällig Botschaft vom Anbeginn der Welt entdeckt
Es war reiner Zufall, dass der Deutsch-Amerikaner Arno Penzias und sein US-Kollege Robert Wilson 1964 die kosmische Hintergrundstrahlung entdeckten. Die beiden arbeiteten damals in der Forschungsabteilung der Bell Telephone Company in New Jersey. Ihr Auftrag: Die Herkunft des lästigen Radiorauschens zu untersuchen, das die Kommunikation mit Satelliten störte. Mit Hilfe eines Instruments von der Gestalt eines riesigen, gebogenen Hörrohrs suchten sie nach der Quelle des Rauschens.
Zunächst hatten sie auf Taubendreck getippt. Das war falsch. 1964 maßen sie schließlich eine Strahlung im Mikrowellen-Frequenzbereich, die aus dem Weltall stammte, einer Temperatur von etwa 3,5 Kelvin (-270 Grad Celsius) entsprach und gleichmäßig aus allen Richtungen zu kommen schien.
Schon diese Entdeckung regte die Phantasie von Astrophysikern an. Denn jeder Körper mit einer Temperatur oberhalb des absoluten Nullpunkts von -273,16 Grad Celsius (0 Kelvin) sendet auf Grund der Bewegungen seiner Elektronen ein leichtes Radiorauschen aus. Die Temperatur bestimmt dabei, wie stark der Körper auf einer bestimmten Wellenlänge strahlt. Daher ist der Effekt auch als Wärmestrahlung bekannt und baut auf Arbeiten Max-Plancks zur Schwarzkörperstrahlung.
Im Gedankenspiel eines perfekten Schwarzkörpers haben Physiker - theoretisch - einen Körper konstruiert, der selbst keinerlei Strahlung abgibt und elektromagnetische Wellen vollständig absorbiert.
Kosmologie: Von Spekulation zur harten Wissenschaft
In der Realität jedoch ist kein solcher Körper bekannt - und nach den Vorstellungen der Physik auch nicht möglich. Das ist der Grund, warum die Entdeckung der Radiotechniker Penzias und Wilson die theoretischen Physiker Robert Dicke und James Peebles von der Princeton University so sehr erregte: Ihnen war sofort klar, dass es sich bei den Mikrowellensignalen um Reste der Strahlung vom Anbeginn der Welt handeln konnte.
Gemessen hatte dieses Echo bis dahin noch niemand - geschweige denn die Milliarden Jahre alten Signale charakterisiert. Die gesamte Kosmologie, die Wissenschaft von der Entstehung des Universums, war lange Zeit eine höchst theoretische Angelegenheit gewesen - notgedrungen. Weil Forscher weder auf der Erde noch am Himmel Aufzeichnungen oder auch nur Spuren aus der fernen kosmischen Vergangenheit finden konnten, beschäftigten sie sich mit abstrakten Spekulationen: Wie könnte es gewesen sein? Doch nun endlich gab es Daten, mit denen man forschen konnte. 1978 erhielten Penzias und Wilson den Physik-Nobelpreis für ihre Entdeckung.
Satelliten auf der Suche nach dem Anbeginn
Die Mikrowellen aus dem All veränderten alles. Als am 18. November eine Rakete den Satelliten "Cobe" der US-amerikanischen Raumfahrtbehörde Nasa ins All trug, verfügten Menschen erstmals über ein Messinstrument, das ungestört von der Erdatmosphäre der geheimnisvollen Strahlung auf den Grund gehen konnte - mit im Forschungsteam: John C. Mather vom Goddard Space Flight Center der Nasa im US-Bundesstaat Maryland und George F. Smoot vom kalifornischen Lawrence Berkeley National Laboratory.
Die beiden gehörten zu den ersten, die Messungen von "Cobe" auswerteten - und deuteten. Als die Strahlung entstand, muss das Universum rund 3000 Grad Celsius heiß gewesen sein, konnten die Forscher aus den Daten herauslesen. Heute sind es bloß noch 2,7 Grad über dem absoluten Nullpunkt. Diese Abkühlung habe ausschließlich mit dem Szenario vom Urknall schlüssig erklärt werden können, betonte das Stockholmer Nobel-Komitee und seiner Erklärung vom heutigen Dienstag.
Mather und Smoot entdeckten in dem Rauschen aus dem All aber auch noch kleinste Temperaturunterschiede, abhängig von der Richtung, in die sie gemessen hatten. Diese Richtungsabhängigkeit wird mit dem sperrigen Begriff Anisotropie bezeichnet. Zwar geht es nur um Unterschiede in der Größenordnung weniger Hunderttausendstel Grad - doch gerade diese verraten den Forschern einiges darüber, wie das Universum überhaupt entstand und mit ihm Sterne und Galaxien. Bei exakter Gleichverteilung der Masse - und damit auch der Strahlung - im frühen Weltall hätten sich nie Strukturen wie unsere Milchstraße, das Sonnensystem und die Erde formen können.
Mit dem "Wmap"-Satelliten der Nasa erreichten Forscher bereits eine bessere Auflösung dieser Ungleichheiten. Die europäische Raumfahrtbehörde will Anfang 2008 ein Weltraumteleskop ins All schießen, von dem Forscher sich weitere Details über die Kindertage des Universums erhoffen. Es trägt den Namen "Planck" - nach dem Physiker, ohne dessen Vorarbeit heutige Wissenschaftler das kosmische Rauschen wohlmöglich nicht einmal richtig hätten deuten können.
Seine geistigen Enkel Mather und Smoot werden am 10. Dezember vom schwedischen König Carl Gustav XVI. die Medaillen mit dem Konterfei Alfred Nobels überreicht bekommen.
Quelle : www.spiegel.de
-
Das "Beamen" von Menschen auf fremde Planeten bleibt zwar Science-Fiction-Fantasie, doch ein neues Experiment lässt zumindest Verschlüsselungs-Experten hoffen: Erstmals ist es Forschern gelungen, Eigenschaften von Atomen mit denen eines Lichtstrahls zu verschränken und sie so zu teleportieren.
Albert Einstein hat von einer "spukhaften Fernwirkung" gesprochen. Ihm war die ganze neue Mode, die sein Physiker-Kollege Max Planck mit dem unvorsichtigen Gerede vom Quantum losgetreten hatte, suspekt. Wenigstens das ist auch für Laien leicht nachvollziehbar: Quantenphysik liegt im großen Spektrum der Naturwissenschaften nicht eben auf der Seite des Gegenständlichen. Am besten ist es, man vergisst alle Vorstellungen aus der bekannten Welt und akzeptiert bereitwillig die vertrackten Grundannahmen, die in der Quantenwelt nun einmal gelten.
Dazu gehört auch die Verschränkung: Die Eigenschaften zweier Teilchen bleiben voneinander abhängig, auch wenn die beiden Partner sich an völlig unterschiedlichen Orten befinden. Ändert man die Eigenschaft bei einem von ihnen, ändert sie sich auch beim anderen. Ebenso seltsam mutet an, dass man Quantenzustände nicht messen kann, ohne sie damit zu manipulieren. Ein Paradox: Ohne Messung kein Wissen über den Zustand, nach der Messung kein Zustand ohne Veränderung.
Diese Phänomene - die gemessen an der Erfahrung aus der Alltagswelt wahlweise an Zirkusexperimente oder Esoterik erinnern mögen - haben Wissenschaftler bereits anhand von Lichtteilchen vorgeführt. Der Österreicher Anton Zeilinger etwa hatte Lichtteilchen auf unterschiedlichen Seiten der Donau miteinander verschränkt. Sein Beitrag in der Wissenschaftszeitschrift "Nature" aus dem Jahr 1997 landete prompt auf der Top-10-Liste der am häufigsten zitierten wissenschaftlichen Aufsätze des Jahres 1998 (nach Zählweise des "ISI Web of Science") - der des populären Physikstücks lautete "Experimental Quantum Teleportation".
Dänische Forscher verschränken Materie und Licht
Teleportation, das ist das Wort, mit dem die spukhafte Extremphysik auch die Aufmerksamkeit Fachfremder erregen kann. Für Science-Fiction-Fans klingt es nach dem fantasievollen Transportweg vom "Raumschiff Enterprise" auf fremde Planeten. Banker, Geheimdienstler und Sicherheitsfachleute hingegen träumen von der absolut abhörsicheren Übertragung sensibler Daten. Für Star-Trek-Fans birgt der Bericht in der aktuellen Ausgabe von "Nature" nur wenig neues - Kryptografie-Interessierte hingegen dürften aufhorchen.
Erstmals ist Wissenschaftlern die Quanten-Teleportation zwischen Licht und Materie gelungen, konkret zwischen einem Laserstrahl und einem kleinen Häufchen Gasatomen. Der Zustand zwischen diesen beiden Medien sei erfolgreich ohne physischen Kontakt über eine Strecke von 50 Zentimetern verschränkt worden, schreibt eine Forschergruppe um Eugene Polzik vom Niels-Bohr-Institut der Universität Kopenhagen in einem "Nature"-Beitrag.
Polziks Team war von Ignacio Cirac vom Max-Planck-Institut für Quantenoptik in Garching bei München unterstützt worden. Er war es, der vor anderthalb Jahren auf die entscheidende Idee gekommen war: eine gemeinsame Eigenschaften zweier unterschiedlicher Systeme - wie Licht und Materie - zu verschränken. Im vorliegenden Experiment ist das die harmonische Schwingung.
Erfolgreich in 64 Prozent der Versuche
Die Forscher haben rund eine Billion Cäsium-Atome in einem kleinen Glaswürfel gefangen. Ein starkes Magnetfeld richtete den magnetischen Drehimpuls ("Spin") der Atome gleich, damit hatten sie quasi alle eine identische Eigenschaft. Dann jagten Polzik und seine Kollegen einen kurzen Laserimpuls durch den Glaskörper. Dabei verschränkte sich quantenphysikalisch gesehen der Spin der Atome mit der Polarisation des Lichtstrahls.
Dann kreuzten die Physiker den ersten Laserstrahl mit einem zweiten Lichtstrahl, dessen Polarisation teleportiert werden sollte. Die Polarisation dieses Lichtmixes wurde gemessen und das Ergebnis anschließend zur Spule zurückübertragen, die einen entsprechenden Magnetimpuls im mit Cäsium-Atomen gefüllten Glaswürfel erzeugte.
So gelang es den Forschern in rund zwei Dritteln aller Versuche, die Polarisation des zweiten Laserstrahls in Form von Spins auf Cäsium-Atome zu übertragen - das sind mehr als jene 50 Prozent, die man bei einem nicht verschränkten System erwarten würde. Erfolgreiche Verschränkung in 64 Prozent der Fälle, das ist noch kein Traumwert, doch das Experiment fand auch bei Zimmertemperatur statt. Würde das Cäsium heruntergekühlt, würden die Atome sich weniger heftig bewegen - und so die Qualität der Übertragung auch weniger beeinträchtigen.
"Das ist ein weiterer Schritt nach vorne, weil zum ersten Mal zwischen Licht und Materie teleportiert wurde. Das eine ist Informationsträger, das zweite Speichermedium", sagte Quantenphysiker Polzik. Verschlüsselungsexperten, die etwa davon träumen, Geheimcodes der Quantenverschränkung über weite Strecken zu übertragen, macht das Experiment Mut: Es zeigt, wenngleich im frühen Laborstadium, den Aufbau eines möglichen Verstärkers, weil die im Laserlicht verschränkte Information auf Materie übertragen und so gespeichert werden konnte.
Würde ein solcher Strahl voller Geheimnisse unterwegs einfach abgefangen und mitgehört, würde dadurch Information zerstört, so die Lehre der Quantenphysik. "Die Übertragung von Quanteninformation kann bedingungslos sicher gemacht werden", sagte Polzik - auch wenn sie Laien wie ein Spuk erscheint.
Quelle : www.spiegel.de
-
Einen Schritt näher an einem Quantencomputer aus Phosphor und Silizium
Physiker der Technischen Universität München, der University of Utah und des Hahn-Meitner-Instituts in Berlin-Adlershof sind der Realisierung eines Quantencomputers aus Phosphor und Silizium einen Schritt näher gekommen. Eine Kombination aus elektrischen, magnetischen und optischen Effekten erlaubt es, den magnetischen Zustand der Phosphoratome zu bestimmen.
Ursprünglich haben Klaus Lips, Projektleiter am Hahn-Meitner-Institut Berlin, und Christoph Böhme, jetzt Assistenzprofessor an der University of Utah, ihre Materialien mit Licht, Magnetfeldern und kurzen Mikrowellenimpulsen traktiert, um zu untersuchen, wie gut sie sich für Solarzellen eignen. Vor zwei Jahren hatten sie und ihre Kollegen um Martin Brandt von der Technischen Universität München dann die Idee, die Methode für ein Konzept zu verwenden, mit dem eines Tages vielleicht ein Quantencomputer realisiert werden könnte. Dem Forscherteam, dem auch die Münchener Doktoranden Andre Stegner und Hans Hübl angehören, ist nun dafür der experimentelle Beweis gelungen. Magnetische Informationen, die in Phosphoratomen eines Siliziumkristalls gespeichert sind, lassen sich über ein Messverfahren auslesen.
Die neue Messmethode wurde am Hahn-Meitner-Institut für Photovoltaikmaterialien entwickelt. Die Berliner Forscher diagnostizieren damit Fehler im Aufbau von Siliziumkristallen - denn solche Kristalldefekte verringern in Solarzellen den Wirkungsgrad. Um Fehler besonders genau erkennen zu können, nutzten die Physiker die Tatsache aus, dass Elektronen einen so genannten Spin besitzen.
Durch den Spin verhalten sich die Elektronen, aber auch die Atomkerne des Phosphors wie kleine Stabmagnete. Bereits 1998 hatte der amerikanische Physiker Bruce Kane deshalb vorgeschlagen, einen Quantencomputer zu realisieren, indem man einzelne Phosphorkerne nutzt, die in einem Siliziumkristall eingebettet sind. Wegen ihrer magnetischen Eigenschaften eignen sie sich dafür, Informationen zu speichern und zu verarbeiten.
Der große Vorteil dieses Konzepts: Es könnte sich beispielsweise mit Elektronik auf Siliziumchips verbinden lassen.
Bevor das Konzept realisiert werden kann, müssen allerdings noch viele Hürden genommen werden. Erstens müssen die Phosphoratome und Kristalldefekte mit einer Genauigkeit von weniger als einem Milliardstel Meter in dem Siliziumkristall angeordnet werden. Zweitens muss der Quantencomputer programmiert und zum Rechnen gebracht werden. Drittens muss am Schluss die in den Kernen der Phosphoratome kodierte Information ausgelesen werden.
"Für den letzten Schritt eignet sich im Prinzip unsere Methode", sagt Klaus Lips. Allerdings benötigen die Forscher derzeit die Elektronen von mindestens 10.000 Phosphoratomen, um ein Signal zu messen. In einigen Jahren werde es aber möglich sein, den magnetischen Zustand eines einzelnen Phosphorkerns zu erkennen, was für den Bau eines Quantencomputers nötig wäre, meint Lips.
Quelle : www.golem.de
-
In einem Nanoröhrchen aus Aluminium von nur 0,3 Mikrometer Durchmesser haben vier Physiker des Boston College noch ein zentrales Kohlenstoffröhrchen und Silizium als Dielektrikum untergebracht. Das Ganze bildet einen Wellenleiter für Licht, der wie das an Funkantennen oder der Kabel-TV-Dose hängende Koaxkabel funktioniert. Das TV-Koax ist aber zehn- bis dreißigtausendmal so dick wie die Nanovariante. Zum Einkoppeln der Energie steht ein Ende des inneren Röhrchens etwas über, es agiert als Lichtantenne.
Im Labor hat man mit dem Nanokoax rotes und grünes Licht übertragen. Die längste realisierte Leitung maß gerade mal 20 µm; die Ausbreitungsgrenze soll nach einem Bericht des New Scientist ohnehin bei nur etwa 100 Wellenlängen liegen – 50 bis 80 µm, also weniger als ein Zehntel Millimeter. Als Glasfaserersatz taugt Nanokoax folglich nicht. Praktische Anwendbarkeit vermuten die Bostoner vielmehr in Quantencomputern oder on-chip in optischen Prozessoren. Felder aus dicht gepackten, mit photovoltaischem Material statt Silizium gefüllten Nanokoaxen versprechen eine höhere Energieausbeute als heutige Solarzellen. Weiter stellt man sich vor, dass solche Felder auch als künstliche Netzhaut von Makuladegeneration Betroffenen einen Teil ihrer Sehfähigkeit wiedergeben könnten.
Quelle : www.heise.de
-
Der theoretische Physiker David Deutsch ist der Meinung, dass man wichtige Forschungsarbeiten zum Quantencomputer "gut und gerne auch schon in den 50ern, und selbst in den 30ern" hätte machen können. In einem Interview im Rahmen eines 16-seitigen Schwerpunktes zum Thema Quantenphysik in der neusten Augabe des Technologiemagazins Technology Review erklärt der zurzeit wohl prominenteste Vertreter der so genannten Multiversum-Theorie, warum er glaubt, dass unendlich viele Universen existieren.
Nach dem von den meisten Physikern akzeptierten "Kopenhagener Konsens" muss man einfach damit leben, dass sich Systeme in der Quantenwelt anders verhalten als in der makroskopischen Welt. Die alte Prämisse, nach der jede Wirkung auch eine eindeutige Ursache hat, und sich umgekehrt von einer Ursache auf eine eindeutige Wirkung schließen lässt, scheint in der Welt der kleinsten Teilchen aufgehoben: Erst beim eigentlichen Messprozess konkretisiert (im Fachjargon "kollabiert") eine Überlagerung der verschiedenen möglichen Zustände in einen bestimmten ("objektiven") Zustand, nämlich den gemessenen.
Deutsch hält dies für unmöglich: "Ich habe damals an der Frage geforscht, welche Mechanismen zum Beispiel welche Aspekte des Bewusstseins ein Universum auswählen und real machen und dafür sorgen, dass die anderen Universen reine Möglichkeiten bleiben. Als ich das versucht habe, wurde mir klar, dass es nicht geht. Die einzige funktionierende Alternative ist die Hypothese, dass alle Universen real und immer noch vorhanden sind." Er ist davon überzeugt, dass seine Interpretation der Quantenmechanik mehr und mehr Anhänger finden wird. "Jüngere Menschen sind offener dafür", sagt er. "Außerdem, und das ist wichtiger, ändert sich das philosophische Klima zurück dahin, die Realität zu respektieren."
Doch trotz des andauernden Streites um die physikalische Interpretation der Theorie gelingt es immer besser, die Welt der Quanten für ganz konkrete Produkte nutzbar zu machen: Das kanadische Unternehmen D-Wave Systems beispielsweise will nächstes Jahr einen Quantenprozessor auf den Markt bringen – erster Vorbote einer neuen Generation "Mimosenhafter Superrechner", von denen sich Physiker schon lange wahre Wunder an Rechenleistung versprechen. Und auch die Sicherheitsspezialisten profitieren von der absolut sicheren Verschlüsselung mit Hilfe von Quantenkryptographie.
Quelle : www.heise.de
-
Kann man Licht einfangen? Ja. US-Physiker haben Laserlicht in einer extrem kalten Substanz gestoppt, gespeichert und dann andernorts wieder austreten lassen. Der verblüffende Quanteneffekt könnte eines Tages zur Speicherung von Informationen genutzt werden.
Jedes Kind stellt sich irgendwann einmal die Frage, ob man Licht fangen kann - all jene, die die Suche nach einer Antwort nicht loslässt, werden womöglich Physiker. Lene Vestergaard Hau und ihre Kollegen von der Harvard University haben bereits 1999 gezeigt, dass man Licht abbremsen kann. Ein paar Jahre später gelang es dem Team der dänischen Physikerin sogar, einen Laserstrahl in einem sogenannten Bose-Einstein-Kondensat ganz zu stoppen.
(http://www.spiegel.de/img/0,1020,796881,00.jpg)
Quantenmechanischer Trick: Licht speichern und an anderer Stelle wieder abrufen
In diesem extremen Aggregatzustand vereinen sich bei Temperaturen sehr nahe des absoluten Nullpunkts von Minus 273,15 Grad Celsius alle Atome einer Substanz zu einer Art Superatom. Das bedeutet, dass sich die Atome sozusagen im Gleichschritt bewegen, sie befinden sich im selben quantenmechanischen Zustand.
Nun ist Hau und ihren Kollegen der nächste Coup geglückt: Sie haben einen Laserstrahl in einem Bose-Einstein-Kondensat verschwinden und anschließend aus einem zweiten, einen zehntel Millimeter davon entfernten Kondensat wieder austreten lassen. Das Licht wurde also gespeichert, gebeamt und wieder abgerufen.
Das Bose-Einstein-Kondensat bestand aus etwa zwei Millionen Natriumatomen, berichten die Forscher im Wissenschaftsmagezin "Nature" (Bd. 445, S. 623). In dieses System sandten sie einen Laserimpuls, der den Takt dieses Gleichschritts des Superatoms beeinflusste. Die im Laser enthaltene Information wurde so auf das Bose-Einstein-Kondensat übertragen.
"Quantenzauberei"
Bis dahin war der Ablauf der Experimente nichts Ungewöhnliches. Kohärentes Licht in die Spins von Atomen einzuprägen, gehöre zu den "Standards der Quantenzauberei", schreibt der Kaiserslauterner Physiker Michael Fleischhauer in einem Kommentar in "Nature". Spannend für die Wissenschaftler war jedoch der zweite Teil des Experiments: Hau und ihre Kollegen konnten nämlich Sekundenbruchteile später in dem zweiten, mehr als einen zehntel Millimeter entfernten Bose-Einstein-Kondensat den Laserimpuls wiederaufleben lassen. Das zweite Kondensat sandte einen Laserimpuls aus, der dem ersten exakt glich.
Wie gelangte die Information über das gespeicherte Licht von einem Kondensat zum nächsten? Über sogenannte Messenger-Atome, die in Wellenform überspringen, erklärt Fleischhauer von der TU Kaiserslautern im Gespräch mit SPIEGEL ONLINE. "Die Atome bekommen einen Impuls übertragen und laufen als Wellenpaket aus dem ersten Bose-Einstein-Kondensat heraus." Ein Atom kann zugleich als Welle als auch als Teilchen betrachtet werden - ein typisches Quantenphänomen.
Anwendung optische Datenübertragung
Diese Wellenpakete erreichen das benachbarte Kondensat und verändern dessen Zustand. Allerdings passiert dort zunächst nicht. "Die Atome im zweiten Kondensat würden von allein in dem Spinzustand bleiben. Der Zustand ist relativ stabil", sagt Fleischhauer. Es bedürfe einer zusätzlichen Stimulierung durch einen Laser, damit das gespeicherte Licht emittiert werde.
Genau das hat das Team von Hau dann getan. Das zweite Kondensat sandte daraufhin jene Lichtinformationen aus, die im ersten Kondensat gespeichert worden waren. Die Intensität war jedoch deutlich geringer als beim Original: Sie betrug nur ein Fünfzigstel.
Das störte die Physiker jedoch nicht besonders. Entscheidend für sie war, dass es ihnen gelungen war, Laserlicht zu speichern und an anderer Stelle wieder auftauchen zu lassen. Das Ganze ist weit mehr als eine quantenmechanische Spielerei: Der Effekt könnte dazu genutzt werden, um Informationen aus Licht zwischenzuspeichern, etwa an einem überlasteten Hub eines Netzwerkes, in dem Daten optisch übertragen werden. Auch könnten mithilfe von Bose-Einstein-Kondensatoren hochempfindliche Messgeräte gebaut werden, um beispielsweise die Gravitationskraft zu messen.
Quelle : www.spiegel.de
-
Das kanadische Start-up D-Wave Systems hat in Kalifornien einen Quantenprozessor mit 16 Qubits vorgestellt. Die Qubits werden von je einer kreisförmigen supraleitenden Stromschleife aus dem Metall Niob dargestellt. Die Betriebstemperatur des Prozessors beträgt 5 Millikelvin, 0,005 Grad über dem absoluten Nullpunkt. "Unser Durchbruch in der Quantentechnologie ist ein wichtiger Fortschritt bei der Lösung wirtschaftlicher und wissenschaftlicher Probleme, die bislang nur schwer in den Griff zu bekommen waren", erklärte D-Wave-Systems CEO Herb Martin.
Der bestechende Vorzug eines Quantencomputers ist seine hochparallele Arbeitsweise. Während ein klassisches Bit nur entweder den Wert Null oder den Wert Eins haben kann, darf ein so genanntes Quantenbit oder Qubit beide Werte zugleich annehmen (quantenmechanische Superposition). Ein PC mit 16 Bits kann nur einen von 64.000 binären Werten kodieren. Mit den 16 Qubits des in Kalifornien vorgestellten Quantenprozessors lassen sich dagegen 64.000 binäre Werte gleichzeitig verarbeiten – eine Vorstufe zu künftigen Quantenrechnern, die wegen ihrer hochparallelen Arbeitsweise eines Tages komplizierte Berechnungen wie Datenbanksuchen, Faktorisierungen oder Optimierungsprobleme deutlich schneller als herkömmliche Computer bewältigen sollen.
Ein marktreifes Produkt will D-Wave Systems 2008 ausliefern. Das Unternehmen plant bereits einen Quantenprozessor mit 1000 Qubits, dessen Prototyp ebenfalls im kommenden Jahr fertig sein soll.
Quelle : www.heise.de
-
Der Urknall fand zu keinem Zeitpunkt an keinem Ort, aber zugleich an jedem Punkt dieses Universums statt
Es liegt in der Natur des Urknalls, dass Astrophysiker bislang noch keinen direkten Beweis seiner "Echtheit" finden konnten. Wenngleich die kosmische Mikrowellen-Hintergrundstrahlung und die Rotverschiebung die Richtigkeit der Big-Bang-These untermauern, so haben sie aber bestenfalls nur Indiziencharakter. Eine Erkenntnis ist indes sicher: Sollte der Urknall wirklich den Raum kreiert und den Zeitpfeil auf seine unendliche (?) Reise geschickt haben, ist zumindest klar, "wann" und "wo" er sich (nicht) "ereignete"...
Mehr... (http://www.heise.de/tp/r4/artikel/24/24680/1.html)
Quelle : www.heise.de
-
Der Tunnel-Effekt gehört zu den bizarrsten Phänomenen der Quantentheorie. Blitzschnell können Teilchen aus dem Mikrokosmos eine Barriere überwinden, ohne über sie hinweg springen zu müssen. Erstmals haben Physiker nun Elektronen beim Tunneln beobachtet.
Wenn der Berg zu hoch ist, dann gräbt man am besten einen Tunnel, um auf die andere Seite zu gelangen. Leider sind Tunnel aber eine ziemlich teure Sache, weshalb der Mensch nur selten Gänge quer durch Felsen fräst oder sprengt. Elektronen haben es da leichter: Sie können einfach so durch einen Wall tunneln, ohne dass jemand zuvor einen Weg gebahnt hat - die Quantenmechanik macht's möglich. Auf diese Weise verlassen sie die Elektronenhülle des Atoms - übrig bleibt ein positiv geladenes Ion.
(http://www.spiegel.de/img/0,1020,840543,00.jpg)
Nun hat ein deutsch-österreichisch-holländisches Physikerteam erstmals Elektronen beim Tunneln beobachtet. Mit kurzen Laserimpulsen konnten Ferenc Krausz vom Max-Planck-Institut für Quantenoptik in Garching bei München und seine Kollegen diskrete Ionisationsstufen nachweisen, die nicht einmal ein Billiardstel Sekunde dauerten. Sie brachten Elektronen zum Tunneln, also zum Verlassen des Atoms, und wiesen den Effekt anhand der ionisierten Atome nach. Die Forscher bezeichneten ihre Arbeit als einen "Meilenstein", der helfe, ein tieferes Verständnis von der Bewegung der Elektronen in Atomen und Molekülen zu gewinnen.
Bei dem Berg, den die Elektronen durchlaufen, handelt es sich um einen sogenannten Potentialwall - aufgebaut durch die Anziehungskräfte im Atomkern. Um ihn auf klassischem Weg zu überwinden, müssten die Elektronen auf ein höheres Energieniveau gehoben werden. Dank des Tunneleffekts geht es jedoch auch auf dem kurzen Weg direkt durch den Potentialwall.
(http://www.spiegel.de/img/0,1020,840551,00.jpg)
Wegen ihres Wellencharakters können Elektronen den Wall mit einer gewissen Wahrscheinlichkeit durchqueren und das Atom verlassen. Dabei durchlaufen sie Gebiete, in denen sie sich nach den Gesetzen der klassischen Physik gar nicht aufhalten dürften. Der Tunnel-Effekt ist übrigens nicht auf kleine Teilchen beschränkt. Prinzipiell ist er auch bei makroskopischen Objekte denkbar. So kann ein Auto mit einer von Null verschiedenen Wahrscheinlichkeit eine Mauer durchqueren, ohne dabei Schaden zu nehmen. Dabei müsste jedes einzelne Teilchen des Autos die Potentialbarriere der Wand durchtunneln. Die Wahrscheinlichkeit, das dies geschieht, ist jedoch so extrem klein, das das Phänomen außerhalb des Mikrokosmos noch nie beobachtet worden ist.
Tunneln mit Attosekundenpräzision
In der Welt der Quantenteilchen gehört das Tunneln hingegen gewissermaßen zum Alltag: Das Phänomen wird für so verschiedene Prozesse wie den Zerfall von Atomkernen oder den Schaltvorgang in elektronischen Bauelementen verantwortlich gemacht. Weil das Tunneln aber nur eine unglaublich kurze Zeit dauert, ist es noch nie in Echtzeit beobachtet worden.
(http://www.spiegel.de/img/0,1020,840554,00.jpg)
Das Team von Krausz nutzte bei seinem Experiment zwei miteinander synchronisierte Laser: ein intensiver Puls aus nur wenigen Wellenzügen roten Laserlichts, und ein extrem kurzer Puls im UV-Bereich. Mit nur 250 Attosekunden dauernden ultravioletten Laserpulsen bestrahlten sie Neonatome. Die Zeitdauer entspricht einer Viertel Billiardstel Sekunde. Dadurch wurden die Neonatome für das spätere Tunneln präpariert, denn die Elektronen gelangten an die Peripherie des Atoms. Mit den roten Laserpulsen konnten Neonatome anschließend ionisiert werden, berichten die Forscher im Wissenschaftsmagazin "Nature" (Bd. 446. S. 627).
Dem Team von Krausz gelang es nach eigener Aussage, "mit Attosekundenpräzision" zu jedem beliebigen Zeitpunkt innerhalb der Laserwelle ein Elektron an die Peripherie befördern. Die Forscher verschoben diesen Zeitpunkt Schritt für Schritt, und maßen dabei die Zahl der Atome, die vom Laser ionisiert wurden. Auf diese Weise konnten sie den zeitlichen Verlauf der Ionisierung rekonstruieren. Das Tunneln fand immer genau dann statt, wenn die Atome sich in der Nähe der höchsten Wellenberge des roten Laserlichts befanden - genau wie es die Theorie vorhergesagt hatte.
Quelle : www.spiegel.de
-
Am 15. April 1707 wurde Leonhard Euler im schweizerischen Basel geboren.. Mathematiker wie Henri Poincaré feierten ihn als "Gott der Mathematik". Viele heute noch gebräuchliche mathematische Symbole gehen auf sein umfangreiches Werk mit über 800 Titeln zurück. Er begründete die Graphentheorie und die Topologie und etablierte den Zweig der angewandten Mathematik mit Berechnungen zur Statik, dem Verhalten von Flüssigkeiten und Wahrscheinlichkeitsberechnungen für Versicherungen und Lotteriegesellschaften.
Mit einem im Titel angeführten Spezialfall der Eulerschen Identität entwickelte er nach weit verbreiteter Ansicht die schönste Formel der Mathematik. Mit seinen insgesamt 200 "Lettres à une princess d'Allemagne sur quelques sujets de physique et de philosophie" an die Prinzessin von Anhalt-Dessau, einer Nichte Friedrichs des Großen, erwies sich der streng gläubige Euler als Protagonist der Aufklärung, die Wissenschaft auch für Laien verständlich zu machen. In den Briefen popularisierte Euler erstmals die Wellentheorie des Lichts, eine Theorie, die später Maxwell und Faraday aufgriffen.
Eulers Geburtstag wird in Basel, Berlin und St. Petersburg gefeiert, den drei Städten, in denen er sein gesamtes Leben verbrachte. Bis zum 30. April gastiert im Foyer der Humboldt-Universität die Ausstellung "Leonhard Euler – zwischen Wunderdingen und Zahlenspielen" im Rahmen des Projektes Euler 300. Bis zum 9. Juni zeigt die öffentliche Bibliothek der Universität Basel eine Ausstellung unter dem Titel: "Leonhard Euler und die Wonnen der Wissenschaft".
Als ältester Sohn eines Pfarrers sollte Leonhard Euler auch Pfarrer werden, doch der berühmte Mathematiker Johann Bernoulli, ein Freund der Familie, erkannte die herausragende mathematische Begabung von Euler, die er mit Privatunterricht förderte. 1726 promovierte Euler mit einer Arbeit über den Schall, wurde in Basel aber als zu jung für eine Professur erachtet. Im aufstrebenden Russland, das Forschungstransfer im großen Stil betrieb, konnte er mit zwanzig Jahren die Professur eines verstorbenen Sohnes von Bernoulli an der Universität St. Petersburg übernehmen. Hier lebte und forschte er 15 Jahre, bis er von Friedrich dem Großen an die Berliner Akademie berufen wurde. Euler nahm den Ruf an, weil Russland unsicher wurde, wurde aber in Berlin nicht wirklich anerkannt: Friedrich der Große titulierte den auf einem Auge erblindeten Euler spöttisch als "mein Zyklop". Nach 25 Jahren in Berlin ging Euler 1766 nach St. Petersburg zurück. Euler erblindete vollends 1771, dennoch stieg seine Produktivität und wuchs sein Werk stark an. Mit einem Kind auf dem Arm und der Katze im Nacken diktierte er seine Formeln, Beweise und Berechnungen: Euler dürfte einer der wenigen Mathematiker gewesen sein, die das laute Geschrei der Kinder, später der Enkel und Urenkel als Inspiration brauchten. Leonhard Euler starb am 18. September 1783 inmitten der Berechnungen der Bahn des vor kurzem entdeckten Planeten Uranus.
Im heutigen Sprachgebrauch ist Euler vor allem wegen der ihm zu Ehren so benannten Eulerschen Zahl e bekannt. Mitunter wird er aufgrund der Euler'schen Quadrate auch zum "Vater des Sudoku" erklärt. Die Computerwissenschaften ehrten den großen Mathematiker mit der mathematischen Experimentiersprache Euler.
Quelle : www.heise.de
-
"Schilde hoch", lautet der Befehl auf "Raumschiff Enterprise". In der wirklichen Welt sind Astronauten nicht feindlichem Beschuss, sondern dem Strahlen-Angriff der Sonne ausgesetzt. Jetzt basteln Forscher an einem Schutzschild nach Science-Fiction-Vorbild.
Dass Neil Armstrong und seine Kollegen ihre Füße auf den Mond setzen konnten, wohlbehalten zur Erde zurückkehrten und anschließend lange Jahre gesund blieben, war im Grunde ein reiner Glücksfall. Hätte heftige Sonnenaktivität die Besatzung von "Apollo 11" während ihres Fluges überrascht, hätte harte Strahlung die hauchdünne Außenhülle des Raumschiffs durchdrungen und den Innenraum geflutet. Akute Strahlenkrankheit oder gar der Tod der Astronauten wären die Folgen gewesen.
Bei den Mondflügen war die Gefahr noch überschaubar: Die Astronauten waren nur etwa zehn Tage im All. Auf einer permanenten Mondbasis oder während eines Fluges zum Mars - beides hat US-Präsident George W. Bush der Nasa als Ziel vorgegeben - wären die Besatzungen der Strahlungsgefahr weit länger ausgesetzt. Ein Schutzraum mit dicken Metallwänden aber, wie es ihn an Bord der Internationalen Raumstation (ISS) gibt, würde ein Langstrecken-Raumschiff viel zu schwer machen.
Britische Wissenschaftler haben sich jetzt eine futuristische Lösung ausgedacht: Sie wollen Astronauten mit einem magnetischen Schutzschirm vor Strahlung schützen - "Raumschiff Enterprise" lässt grüßen. Die Idee dahinter: Um das Raumfahrzeug wird ein Magnetfeld aufgebaut, das mit ionisiertem Gas - sogenanntem Plasma - gefüllt ist. Wenn die geladenen Partikel von der Sonne auf diese Blase treffen, werden sie abgebremst und umgelenkt.
Mini-Version der irdischen Magnetosphäre
Die Forscher halten dieses nach Science Fiction klingende Unterfangen für durchaus realistisch. "Unsere Arbeit ist keinesfalls nur theoretisch", sagt Ruth Bamford vom Rutherford Appleton Laboratory im englischen Chilton. "Schließlich besitzt die Erde einen solchen Schutzschirm, der gut funktioniert." Der Schild für Raumschiffe sei quasi eine Miniversion der irdischen Magnetosphäre.
Bamford und ihre Kollegen haben ihr Konzept jetzt auf der Tagung der britischen Royal Astronomical Society in Preston vorgestellt. Die Experimente sollen bereits in den nächsten Monaten beginnen. Die Forscher wollen zunächst eine magnetische Blase von der Größe eines Fingerhuts aufbauen - "um zu zeigen, dass die Physik hinter der Idee korrekt ist", erklärte Bamford im Gespräch mit SPIEGEL ONLINE. Ein Gerät aus der Plasmaforschung soll den Sonnenwind im Labor simulieren. Dann werde man die kleine magnetische Blase in den Teilchenstrom halten und sehen, ob die Barriere dauerhaft hält.
"So etwas funktioniert schon mit einem Elektromagneten oder einer einfachen Batterie", erklärt Bamford. "Alles, was man braucht, ist ein magnetisches Dipolfeld, wie es auch die Erde besitzt." Das eigentliche Problem sei nicht der prinzipielle Beweis, dass ein solcher Schutzschild funktioniert. "Es ist vor allem ein Konstruktionsproblem." Die Herausforderung sei, einen Schild für den Einbau in bemannte und unbemannte Raumschiffe zu entwickeln.
Möglicher Einsatz auf der Mondbasis
Das aber hält Bamford für keine allzu große Schwierigkeit, denn das Magnetfeld müsse nicht besonders stark sein. "Ein Feld mit einer Flussdichte von 15 Nanotesla reicht aus. Das ist etwa ein Zehntel dessen, was notwendig ist, um eine Kompassnadel zu beeinflussen." Das Magnetfeld um das Raumschiff könne durchaus einen Durchmesser von 20 bis 30 Kilometern besitzen.
Bamfords Kollege Mike Hapgood betont die Vorzüge des Plasma-Schutzschilds etwa für die geplante Mondbasis: Wenn Astronauten die schützenden Räume verließen, um die Oberfläche des Mondes zu erforschen, seien sie der Sonnenstrahlung ausgesetzt - egal, wie gut die Basis selbst abgeschirmt sei. Sonneneruptionen könne man aber nur sehr ungenau vorhersagen. "Man kann zwar gefährlichere Perioden eingrenzen, aber dann wäre man wochenlang in der Basis eingesperrt", meint Hapgood. Eine künstliche Magnetosphäre könne dagegen die Basis und ihr gesamtes Umfeld schützen.
Versuche mit Plasma-Schutzschilden laufen auch in den USA: Ein Team der University of Washington in Seattle arbeitet an einer Machbarkeitsstudie für einen Schutzschirm, bei dem ein Käfig aus dünnen Drähten die schützende Plasmawolke einsperren soll. Damit, argumentieren die Forscher um John Slough, ließe sich eine Abschirmung erreichen, die einer zentimeterdicken Aluminiumschicht entspreche.
Hoffen auf Test-Satelliten
1984 startete die Nasa das Projekt "Active Magnetospheric Particle Tracer Explorer". Drei Satelliten sollten die Wirkung des Sonnenwinds auf die Magnetosphäre erforschen. Einer von ihnen stieß eine Plasmawolke mit einem Durchmesser von mehreren tausend Kilometern aus, die die Satelliten vor dem Sonnenwind schützte. Allerdings gab es keine Vorrichtung, um das Plasma gefangen zu halten, weshalb es nach kurzer Zeit verschwunden war.
Bamfords Team hofft, in den nächsten Jahren die Mittel für einen Testsatelliten zu bekommen, um die Technik im All zu erproben. Ganz ohne Nachteile ist der Plasma-Schutzschirm freilich nicht. Kritiker wenden etwa ein, dass solche "aktiven" Schilde ausfallen können - im Gegensatz zu schützenden (passiven) Materialschichten. Auch ist nicht abschließend geklärt, welche Wirkung die Magnetfelder auf die Elektronik an Bord der Raumschiffe hätten.
"Die Ausrüstung könnte für einen solchen Einsatz entsprechend vorbereitet werden", meint Bamford. "Schließlich wäre es wenig sinnvoll, im All funktionierende Elektronik und tote Astronauten zu haben."
Quelle : www.spiegel.de
-
In der wirklichen Welt sind Astronauten nicht feindlichem Beschuss, sondern dem Strahlen-Angriff der Sonne ausgesetzt.
Noch nicht...
Aber in Fortsetzung der SDI-Pläne des hirnkranken Ex-Schauspielers sind die Amis bereits im Begriff, Weltraum-Waffen zu entwickeln, gegen die selbst recht widerstandsfähigige Konstruktionen wie Interkontinental-Raketen kaum zu schützen sind. Beispielsweise sind das enorm starke Laser, unüblich schnelle Geschosse und derlei mehr.
Und auch Mikro-Meteoriten mit 100 000 km/h wird ein solcher Plasma-Schirm sicher nicht abhalten können. Vor solchen schützen uns hier nur Dichte und Dicke der Atmosphäre, nicht Ladungen oder Felder.
Man sehe sich die Mondoberfläche an, um eine grobe Vorstellung zu erhalten, wovor wirklich geschützt werden müsste...
-
Die Kosmologen des Altertums waren nicht von "gestern"
Die hohe Schule der rein geistigen Fokussierung auf kosmologische Probleme beherrschten die griechischen und ionischen Philosophen der Antike par excellence. Fasziniert vom mediterranen kristallklaren Sternhimmel generierten sie einen kreativ-geistigen Urknall, der bis heute nachhallt: am stärksten in der Kosmologie. Ausgehend von dem Credo, dass nichts aus dem Nichts kommen kann, entwickelten sie ohne astronomische Instrumentarien Modelle und Theorien, die darauf abzielten, den Ursprung des Universums zu erklären. Auch wenn deren Theorien inzwischen überholt anmuten, so waren diese - gemessen an ihrer Zeit - erstaunlich progressiv.
Mehr... (http://www.heise.de/tp/r4/artikel/25/25106/1.html)
Quelle : www.heise.de
-
Die Quantenphysik revolutioniert unsere Vorstellung von der Realität
Wir gehen davon aus, dass die Wirklichkeit grundsätzlich da ist, ob sie nun gerade jemand beobachtet oder nicht. Die Quantenphysik bringt dieses Weltbild ins Wanken. Anders formuliert: Was ist wirklich da, wenn keiner schaut? Ein neues Experiment von Wiener Physikern stellt unser Konzept von Realität erneut in Frage.
(http://www.heise.de/tp/r4/artikel/25/25303/25303_1.jpg)
Verschränkung ist einer der Zustände der Quantenwelt, der unser herkömmliches Konzept der Wirklichkeit sprengt.
Wenn der gesunde Menschenverstand sich mit der Quantenphysik konfrontiert sieht, wird ihm leicht schwindelig. Oder wie Niels Bohr es formulierte: "Diejenigen, die nicht schockiert sind, wenn sie zum ersten Mal mit Quantenmechanik zu tun haben, haben sie nicht verstanden."
Den meisten Menschen fällt es schwer zu verstehen, von was die Quantenphysiker reden, obwohl wir ihre Erkenntnisse ständig praktisch nutzen, zum Beispiel in Form des CD-Players. Gleichzeitig stellen diese Erkenntnisse in Frage, was wir als Fundament unseres Seins annehmen: eine Welt da draußen, die wir versuchen zu verstehen. Eine Welt, die da ist, unverrückbar und klar bestimmbar. Sie ist auch da, wenn keiner guckt, total real. Und die Wissenschaft hilft uns, diese Welt zu sehen und zu begreifen, Stückchen für Stückchen. Aber dann kommen die Quantenphysiker und alles beginnt zu bröckeln.
Es entspricht unserer alltäglichen Erfahrung, dass die Objekte um uns herum ganz bestimmte Eigenschaften besitzen und zwar kontinuierlich, ob wir nun gerade hinschauen oder nicht. Ein Baum ist ein Baum, er hat einen braunen Stamm und grüne Blätter und seine Wurzeln halten ihn an einem ganz bestimmten Ort in der Erde fest. Geht ein kleiner Wind, so bewegen sich seine Zweige vielleicht ganz leicht, aber wenn wir ihn ansehen, uns abwenden und ihn danach wieder betrachten, wird er seine grundlegenden Eigenschaften beibehalten haben.
Also gehen wir davon aus, dass er da ist und zwar genau in dieser Form, an diesem Ort – ob wir ihn nun beobachten oder nicht. So setzen wir unser Bild von der Welt aus Objekten zusammen, von denen wir annehmen, dass sie Bestandteile der Realität sind, egal ob wir ihnen nun Aufmerksamkeit widmen oder nicht.
Die verrückte Welt der Quanten
Die Wirklichkeit wird bestimmt von den Regeln der Physik und bis die Quantenphysiker kamen, war auch alles in Ordnung. Denn die klassische Physik, inklusive der Relativitätstheorien von Albert Einstein baut auf die Prinzipien von Realismus und Lokalität. Realismus heißt, dass es eine externe Realität gibt, auch wenn keiner beobachtet oder misst, ganz unabhängig vom neugierigen Menschen. Der Begriff der Lokalität besagt, dass zwei weit von einander entfernte Objekte sich gegenseitig nicht beeinflussen. Aber die Quantenphysik wirft die verhängnisvolle Frage auf: Ist der Mond tatsächlich da, wenn niemand hinsieht?
Im Anfang stand die Erkenntnis, dass Licht sowohl aus Wellen als auch aus Teilchen besteht . Schnell wurde klar, dass sich nicht nur Lichtquanten unserer Vorstellung von klaren und jederzeit deutlich unterscheidbaren Eigenschaften entziehen. Die Welt der kleinsten Teilchen weist eine Unschärfe auf, die paradox wirkt. Das berühmteste Beispiel ist die Schrödinger Katze, die gleichzeitig tot und lebendig ist . Ein unangenehmer Zustand – für die Katze, aber auch für unser Verständnis von Logik.
Kein Wunder, dass unter den Quantenphysikern eine Debatte darüber tobt, wie diese Erkenntnisse gedeutet werden sollten. Verschiedene Schulen vertreten verschiedene Ansätze, dazu gehören die Kopenhagener Schule und die Viele-Welten-Theorie .
Einer der bekanntesten Quantenphysiker der Gegenwart, Anton Zeilinger von der Universität Wien, ist Anhänger der Kopenhagener Deutung. Er ist schon lange überzeugt: "Es stellt sich letztlich heraus, dass Information ein wesentlicher Grundbaustein der Welt ist. Wir müssen uns wohl von dem naiven Realismus, nach dem die Welt an sich existiert, ohne unser Zutun und unabhängig von unserer Beobachtung, irgendwann verabschieden".
Spukhafte Fernwirkung und eindeutige Eigenschaften
Zeilingers Forschungsgruppe stellt nun erneut unsere Vorstellungen von Wirklichkeit in Frage. In der aktuellen Ausgabe des Wissenschaftsmagazins Nature veröffentlicht ein Team um Simon Gröblacher die Ergebnisse eines neuen Experiments zur Lokalität .
Die Wiener gingen der Frage nach, ob es genügt, das Prinzip der Lokalität zu verletzen, um in der Welt der Quanten zu bestehen (die meisten Physiker gehen bislang davon aus). Seit den 60er Jahren ist bekannt, dass verschränkte Teilchen gegen diese Prinzipien verstoßen . Verschränkung bedeutet, dass ein Paar Photonen durch die Messung die gleichen Eigenschaften besitzt, auch über große Entfernungen. Wird ein Photon eines solchen verschränkten Paares in seinen Eigenschaften verändert, dann ändert sich auch das zweite, weit entfernte Photon. Albert Einstein entdeckte diesen Effekt bereits 1935 und er nannte ihn eine "spukhafte Fernwirkung".
Die Gruppe um Simon Gröblacher stellte sich die Frage, ob die Annahme der Lokalität oder die des Realismus in der Quantenwelt verworfen werden muss. Sie gingen dabei von einem theoretischen Ansatz aus, der vom Nobelpreisträger Anthony J. Leggett stammt und besagt, dass gewisse Eigenschaften, wie etwa der Spin eines Elektrons oder die Polarisation eines Photons, nicht gleichzeitig immer exakt definiert und mit einem entfernten Partnerteilchen nach den Regeln der Quantenphysik verbunden sein können.
Die Forscher verwendeten dazu im Experiment Photonenpaare mit verschränkter Polarisation. Die gemessene Polarisation an einem der Teilchen war also immer mit dem Messergebnis am Partnerteilchen korreliert. Laut der Theorie von Leggett sollten ganz bestimmte Messergebnisse (d.h. Ergebnisse von Polarisationsmessungen entlang ganz bestimmter Richtungen) selbst für nicht-lokale realistische Eigenschaften (hier: Polarisation) nicht mehr nachvollziehbar sein. Es zeigte sich allerdings, dass es nicht genügte, auf die Annahme der Lokalität zu verzichten. Die Messergebnisse verdeutlichten, dass zumindest Anteile des Realismus aufgeben werden müssen, um nicht in Widersprüche zu geraten.
Co-Autor Markus Aspelmeyer erläuterte gegenüber dem ORF: "Es scheint nicht zu gehen, eine fixe Polarisation zu messen und gleichzeitig eine beliebig starke Fernwirkung zu haben. Hält man am Konzept der Nicht-Lokalität fest, müssen meine realistischen Annahmen falsch sein. So einfach, wie wir es uns vorstellen, ist es nicht, man muss wohl notwendigerweise Einschränkungen an der Realität vornehmen. (…) Da wird in nächster Zeit sicher einiges passieren, künftig werden wir wohl genauer sagen müssen, was wir unter Realismus verstehen."
Die Gegebenheiten der Quantenwelt, der Welt des Allerkleinsten unserer Realität, zwingen uns, unser Konzept von Wirklichkeit gründlich zu überdenken. Und der gesunde Menschenverstand ist möglicherweise auch nicht mehr als "eine Anhäufung von Vorurteilen, die man bis zum 18. Lebensjahr erworben hat" – das soll zumindest Einstein gesagt haben. Vielleicht sollten wir ihn gleich zusammen mit dem klassischen Realismus grundsätzlich in Frage stellen.
Quelle : www.heise.de
-
Aber die Quantenphysik wirft die verhängnisvolle Frage auf: Ist der Mond tatsächlich da, wenn niemand hinsieht?
...das habe ich anders gelernt bzw. begriffen.
In der Quantenwelt wird jedes Objekt verändert bzw. zerstört, allein dadurch, dass man eine einzige seiner Eigenschaften zu messen versucht.
In diesem Sinne würde ein quantenmechanischer Mond in dem Moment aufhören zu existieren, wo ich ihn betrachte.
Und entsprechende Blondinen
und das Geld
und man selbst...
Es kommt wohl sehr selten vor, aber vielleicht hat mancher hier auch schon erlebt, wie sich Gedankengänge und ganze Postings plötzlich in Luft auflösen...
-
Künftige Astrophysiker werden sich in ihrer Galaxie sehr einsam fühlen. Weder Urknall, noch Rotverschiebung oder dunkle Energie werden sie erahnen können. Für diese düstere Vorhersage erhielten zwei US-Forscher einen Preis - auch wenn ihre Zukunft erst nach dem Ende der Erde beginnt.
Alleine auf einer Insel und bar jeder Möglichkeit, sich der Umgebung zu vergewissern - so malten sich zwei US-Astrophysiker die Zukunft ihrer Zunft aus. Es ist gleichwohl ein sehr fernes Übermorgen, denn runde drei Billionen Jahre denken Lawrence Krauss von der Case Western Reserve University und Robert Scherrer von der Vanderbilt University voraus. In dieser weit entfernten Zeit, erahnen sie, werden Himmelsforscher glauben, in einem statischen Universum zu leben.
"Die Rückkehr des statischen Universums und das Ende der Kosmologie", heißt der Aufsatz, in dem sie dieses Gedankenspiel voranspinnen. Wir spulen das gegenwärtige Universum in der Zeit vor, erklären sie darin ihren Lesern.
Dabei gehen sie von jenen Schlüssel-Faktoren aus, derer sich heutige Kosmologen bedienen, um Herkunft und Zustand des Universums zu erklären: Die Rotverschiebung, die Mikrowellen-Hintergrundstrahlung, die ersten Elemente - und die geheimnisvolle dunkle Energie. Von all diesen Dingen werden ihre fernen Kollegen einst keinen blassen Schimmer mehr haben, sind Krauss und Scherrer überzeugt, und so den Eindruck haben, in einem statischen Universum zu leben.
Spuren des Big Bang werden verschwinden
Dieses Gedankenspiel liegt der Fachzeitschrift "General Relativity and Gravitation" vor und soll in ihrer Oktoberausgabe erscheinen, wie Krauss' Universität mitteilte. Im Internet ist eine Vorabfassung des geradezu humorvoll geschrieben Artikels abrufbar. Und die Gravity Research Foundation zeichnete ihn nun als einen der fünf besten Aufsätze zum Thema Gravitation (in Theorie, Anwendung oder Auswirkung) der letzten zwölf Monate aus.
Folgendermaßen argumentieren die beiden Weit-Vorausblicker: Die Feststellung Edwin Hubbles aus zwanziger Jahren, dass das Weltall sich ausdehnt, fußt auf der Beobachtung der Rotverschiebung des Lichts sich von der Erde entfernender Sterne. So kamen die Menschen erst daraus, dass das gesamte Universum auseinanderstrebt ("expandiert"). Die Entdeckung der Mikrowellenstrahlung, die auch als kosmisches Hintergrundrauschen oder Nachhall des Urknalls bezeichnet wird, verfestigte in den folgenden Jahrzehnten das Big-Bang-Modell und damit die Vorstellung eines dynamischen Universums.
Diese Strahlung werde sich aber in längere und immer längere Frequenzen verschieben, so dass sie irgendwann nicht mehr innerhalb unserer Galaxie festgestellt werden könne. "Dann wird man sie sprichwörtlich nicht mehr detektieren können", sagte Krauss. Sternensysteme, in denen wir heute noch Deuterium feststellen können - eines der ältesten Elemente -, würden sich immer weiter im Universum verteilen und für einen Beobachter aus unserer Galaxie unsichtbar werden, so die beiden Physiker.
Versuch, die Schwerkraft abzuschaffen
All das mag aus heutiger Perspektive ziemlich abstrus klingen. Und auch die Anfänge der Gravity Research Foundation, welche die Autoren auszeichnete, muten eigentümlich an: Sie wurde nach dem Zweiten Weltkrieg von dem Geschäftsmann Roger Babson gegründet, der Ideen fördern wollte, um die Schwerkraft zu mindern oder ganz außer Kraft zu setzen. Babson hatte in seiner Kindheit eine Schwester verloren - sie war ertrunken. Später schrieb er: "Sie konnte die Schwerkraft nicht besiegen, die heraufkam und sie packte wie ein Drache und sie zum Grund hinabzog."
Erfolgreich war seine Initiative indes nicht. Die Gesellschaft stellte in den sechziger Jahren ihre Tätigkeit ein - bis auf die jährliche Preisverleihung für die lesenswertesten Forschungsaufsätze über die vermaledeite Gravitation.
Überraschenderweise finden sich auf der Liste der bisherigen Preisträger Geistesgrößen der Physik wie der britische Pop-Physiker Stephen Hawking (mehrmals), der jüngste Physiknobelpreisträger George Smoot (mehr...), Cern-Forscher John Ellis und der Hamburger Physiker Christoph Burgard. Ein Grund also, die düsteren Visionen von Krauss und Scherrer nicht ganz leichtfertig abzutun.
Die ungeheuren Entfernungen, welche die Galaxien nach drei Billionen Jahren voneinander trennen werden, könnte dazu führen, dass sich die Milchstraße in einem überwältigend schwarzen Nichts wiederfindet. Schlecht für künftige Astronomen: Denn nur durch die Beobachtung ferner Galaxien ziehen sie heutzutage Rückschlüsse auf die Kraft, welche die Welt im Innersten zusammenhält. Die dunkle Energie - 75 Prozent des Weltalls bestehen daraus (mehr...) - lässt sich nicht direkt beobachten. Nur aus ihrer Wirkung auf Sterne können Kosmologen folgern, dass die dunkle Energie da ist und was sie macht.
Dunkles, einsames Universum ohne heutige Hinweise
All das würde Bewohnern unserer Galaxie in drei Billionen Jahren entgehen. "Letztendlich wird das Universum dann statisch erscheinen", sagte Krauss. "Alle Beweise der modernen Kosmologie werden verschwunden sein."
Das gilt allerdings ebenso für die Sonne. Experten gehen davon aus, dass sie im Alter von rund 12,5 Milliarden Jahren als Weißer Zwerg enden wird. Heute hat sie bereits rund 4,5 Milliarden Jahre auf dem Buckel. Die Erde wird sie schon deutlich vor ihrem Ende verbrennen. Um das von Krauss und Scherrer beschriebene statischen Universum überhaupt wahrzunehmen, müssten sich also in ferner Zukunft auf anderen Planeten der Milchstraße intelligente Zivilisationen entwickeln, die obendrein auch noch Interesse an der Sternenkunde haben.
"Wir leben in einer ganz besonderen Phase der Entwicklung des Universums", schließen die Astrofuturologen höchst philosophisch, "zur einzigen Zeit, in der wir bestätigen können, dass wir in einer ganz besonderen Phase der Entwicklung des Universums leben."
Keine Frage, die beiden Preisträger sehen ihren Job im ganz großen Kontext. Beide veröffentlichen übrigens in ihrer Freizeit seit langem Science-Fiction-Prosa.
Quelle : www.spiegel.de
-
Zwei Qubits auf einem Chip und Datenübertragung zwischen Qubits
Wissenschaftler des deutschen Max-Planck-Instituts und der niederländischen Universität von Delft haben unabhängig voneinander neue Forschungsarbeiten zu Quantencomputern veröffentlicht. Während man sich in München mit der Datenübertragung zwischen mehreren Quantenspeichern beschäftigt hat, haben die Niederländer zwei so genannte Qubits auf einem Halbleiter-Element miteinander verbunden.
Die Verbindung der "Qubits", die in einem Quantencomputer gleichzeitig als Prozessor und Speicherelement dienen, ist neben neuen Algorithmen eines der größten Probleme bei der Herstellung der Super-Rechner. Am Max-Planck-Institut für Quantenoptik in Garching bei München ist es jetzt gelungen, den Quantenzustand eines Rubidium-Atoms, das als Qubit diente, auf ein Photon zu übertragen. Damit ist es möglich, beispielsweise ein Rechenergebnis auszulesen und es auf einen anderen Speicher zu übertragen.
Die Forscher regten dazu ein Rubidium-Atom mittels Laser-Impulsen zum Schwingen und der Aussendung von Photonen im gleichen Quantenzustand an, wie er auf dem Rubidium gespeichert ist. Die Abstrahlung wird dabei durch einen Resonator aus Spiegeln gefiltert, der nur Photonen-Ströme einer genau definierten Frequenz mit einer bestimmten Abstrahlungsrichtung zulässt. In einem nächsten Schritt wollen die Wissenschaftler zwei Resonatoren koppeln, um die Informationen auch von einem Qubit auf ein weiteres zu übertragen.
Dies soll für eine Vernetzung von Quantenrechnern dienen, wie sie bisher noch nicht möglich war. Ihre Forschungen wollen die Garchinger in einer kommenden Ausgabe des Magazins "Science" veröffentlichen, für Abonnenten des Dienstes steht der Artikel jedoch schon bei Science Express vorab als PDF-Datei zur Verfügung.
Um die direkte Verbindung zweier Qubits auf einem Halbleiter haben sich Wissenschaftler der Universität Delft in den Niederlanden bemüht. Das Ergebnis soll ein 2-Qubit-Quantencomputer sein, der mit herkömmlichen Methoden der Chipfertigung herzustellen ist. Die Forscher haben dazu zwei supraleitende Ringe aus Halbleitern konstruiert. Wie die Qubits dabei kommunizieren und welche Umgebungsbedingungen die Supraleiter voraussetzen, haben die niederländischen Wissenschaftler bisher nur in Ausgabe 447 der Zeitschrift "Nature" vom 14. Juni 2007 veröffentlicht.
Quelle : www.golem.de
-
Ein neues Modell soll Einblicke in die Zeit vor dem Urknall ermöglichen. Ein deutscher Physiker glaubt berechnen zu können, welche Eigenschaften das Universum vor unserem Universum gehabt haben könnte. Ganz nebenbei führt sein Modell noch ein neues Phänomen ein: die kosmische Vergesslichkeit.
Menschen mögen Ordnung und Strukturen. Dinge sollten einen Anfang haben und möglichst auch ein Ende, die Unendlichkeit macht eher Angst. Umso dankbarer nimmt man da zur Kenntnis, dass unser Universum einen Anfangspunkt hatte: den Urknall. Vor rund 14 Milliarden Jahren soll quasi aus dem Nichts all das entstanden sein, was wir am Nachthimmel bewundern dürfen. Seitdem dehnt sich das Universum stetig und immer schneller aus. Die Frage, was vor dem Urknall war, ist für Verfechter der Urknall-Theorie unsinnig - weil nicht nur der Raum, sondern auch die Zeit erst seit dem Big Bang existiert.
Doch seit einiger Zeit stellen Physiker diesen kategorischen Anfangspunkt des Universums in Frage. Der Kosmologe Paul Steinhardt von der Princeton University glaubt sogar an ein zyklisches Universum. Ein "Big Bang" folge auf den anderen, das Universum kontrahiere und expandiere immer wieder aufs Neue, schrieb er im Jahr 2002 gemeinsam mit seinem Kollegen Neil Turok im Magazin "Science".
Der deutsche Physiker Martin Bojowald weckt nun in einem Aufsatz für das Fachblatt "Nature Physics" die Hoffnung, dass man vielleicht eines Tages in die Zeit vor dem Urknall blicken kann - zumindest indirekt. Dass es ein Davor gibt, ist für ihn keine Frage mehr. Bojowald, der an der Pennsylvania State University forscht, beruft sich auf ein Modell aus der sogenannten Schleifen-Quantengravitation (Loop Quantum Gravity), mit der Physiker die extremen Zustände kurz nach dem Urknall beschreiben können.
Die Schleifen-Quantengravitation wurde entwickelt, um Quantenphysik und die allgemeine Relativitätstheorie zu vereinigen - sie ist eine wichtige Alternative zur Stringtheorie (mehr...). Die neue Theorie soll auch noch bei den extremen Dichten und Drücken nahe dem Urknall funktionieren. "Einsteins Relativitätstheorie schließt die Quantenphysik nicht ein, die man braucht, um die extrem hohen Energien zu beschreiben, die das Universum in seinen Anfängen bestimmten", sagt Bojowald.
Indirekte Beobachtungen möglich
Das Verrückte an der Schleifen-Quantengravitation ist, dass sie den Urknall als solchen in Frage stellt. Statt eines "Big Bang" habe es einen "Big Bounce" gegeben, postulierte Abhay Ashtekar von der Pennsylvania State University vor einem Jahr: Der Urknall sei in Wahrheit eine Art Abpraller (mehr...). Das Universum habe sich infolge der Gravitation so weit zusammengezogen, bis die Quanteneigenschaften schließlich der Schwerkraft entgegengewirkt hätten. Sein Team habe zeigen können, "dass es tatsächlich einen Quanten-Rückstoß gibt", erklärte Ashtekar.
Bojowald, der vom Potsdamer Einstein-Institut zur Pennsylvania State University gewechselt ist, geht mit seinem Modell nun noch einen Schritt weiter: "Ein direkter Blick in die Vergangenheit vor dem Urknall ist nicht möglich", sagt er im Gespräch mit SPIEGEL ONLINE. "Aber indirekte Beobachtungen können sehr wohl darüber Aufschluss geben."
In seinem Modell existiere "definitiv" ein Universum vor dem Urknall. Dies sei, verglichen mit anderen Modellen, "schon ein Fortschritt". Die zeitliche Entwicklung der Größe des Universums sei etwa spiegelbildlich zur derzeitigen gewesen.
Unschärferelation und Kosmische Vergesslichkeit
Der Physiker musste die bisherigen Ansätze der Schleifen-Quantengravitation, die vor allem auf numerischen Methoden beruhen, durch ein neues Modell ersetzen, um die Zeit vor dem "Big Bounce" genauer beschreiben zu können.
Kollegen wie Carlo Rovelli vom Centre de Physique Theorique in Marseille halten Bojowalds Arbeit für "bemerkenswert". Aussagen des Modells müssten mit kosmischen Beobachtungen verglichen werden, sagte Rovelli dem Online-Dienst "Space.com". Der Princeton-Forscher Steinhardt meint, die Berechnungen seien anschaulich, müssten jedoch weiter ausgebaut werden.
Die Gleichungen von Bojowalds Modell erfordern Parameter, die den Zustand des gegenwärtigen Universums genau beschreiben. Dann soll man mithilfe des Modells auch zurück in die Vergangenheit blicken können. Die Crux ist jedoch, dass diese Parameter sehr schwer zu ermitteln sind. "Man müsste die Größe und Expansionsrate des derzeitigen Universums sehr genau und wiederholt messen", sagt Bojowald.
Blick zurück wird erschwert
Aus kleinen Schwankungen der Messungen um deren Mittelwert könne man im Prinzip einen relevanten Parameter, nämlich die Fluktuation der Größe des Universums, ablesen. "Derzeit, und wohl auch für die absehbare Zukunft, reicht die Präzision der Daten für eine exakte Bestimmung der Fluktuationen nicht aus", schränkt er ein.
Das Modell enthält zudem eine Art Unschärferelation, wie man sie aus der Quantenphysik kennt. Ein Parameter sei ausschließlich für den Zustand vor dem "Big Bounce" wichtig, ein anderer für den Zustand danach, so der Physiker. Beide stünden komplementär zueinander, ähnlich wie Ort und Geschwindigkeit in der Quantenwelt. Man könne nur den einen oder den anderen Wert genau bestimmen, nie jedoch beide zugleich. Die gegenseitige Abhängigkeit der beiden Parameter, die die Unschärfe in der Größe des Universums vor und nach dem "Big Bounce" repräsentierten, erschwere den Blick zurück, sagt Bojowald.
Und als ob das nicht schon genug Einschränkungen wären, zeigt das Modell noch ein weiteres Phänomen, das die Zeit vor dem "Big Bounce" weiter verwischt: die kosmische Vergesslichkeit. Mindestens ein Parameter, der vor dem Urknall wichtig sei, überlebe "den Trip durch den 'Big Bounce' nicht" - fast so, als sollten wichtige Spuren des früheren Universums vernichtet werden.
Eine wahrscheinliche Folge des Parameter-Verschwindens: Das Universum vor dem "Big Bounce" dürfte kaum identisch sein mit dem danach. "Die ewige Wiederkehr absolut identischer Universen scheint durch die kosmische Vergesslichkeit verhindert zu werden", sagt Bojowald.
Das ist auf jeden Fall beruhigend. Denn es bedeutet, dass unser Universum doch etwas Besonderes zu sein scheint und nicht das Super RTL der Kosmologie, das vor allem aus Wiederholungen besteht.
Quelle : www.spiegel.de
-
Neues Verfahren kommt ohne Verschränkung aus
Wissenschaftlern auf dem fünften Kontinent ist es gelungen, mit Effekten der Quantenmechanik Teilchen über weite Strecken zu teleportieren. Als Medium kommt dabei eine Glasfaser zum Einsatz, zudem soll die Methode ohne den Effekt der "Verschränkung" auskommen.
Bereits 1993 machten Wissenschaftler den Vorschlag, sich die so genannte "Verschränkung" von Teilchen zur Teleportation zu Nutze zu machen. Dabei sind zwei oder mehrere Atome auch über große Entfernungen über Quantenzustände miteinander verbunden, die auch die australischen Forscher in ihrer aktuellen Arbeit als "bizarr" beschreiben. Der Zustand verschränkter Teilchen lässt sich im Verbund bestimmen, aber nie die Eigenschaften eines einzelnen Teilchens. Daher schien die praktische Anwendung der Teleportation von verschränkten Atomen nicht möglich.
(http://scr3.golem.de/screenshots/0707/Teleporter/Quanten-Teleportation.png)
An der Universität von Queensland ist es nun aber einem Team von Forschern um Dr. Murray Olsen gelungen, Teilchen mit annähernd Lichtgeschwindigkeit von einem Ort zum anderen zu transportieren, ohne dass die Partikel verschränkt sein müssen. Die Wissenschaftler stellten dazu zunächst bei Temperaturen von einem Milliardstel Grad über dem absoluten Nullpunkt (-273,15 Grad Celsius) ein Bose-Einstein-Kondensat her. Bei diesen sehr tiefen Temperaturen gehen alle Teilchen des Kondensats in einen quantenmechanischen Zustand über und verhalten sich ähnlich. Sie bewegen sich nicht mehr einzeln, sondern in einer gleichmäßigen Welle.
Dieses Kondensat beschossen die Forscher dann mit einem Laser. Die Lichtteilchen nehmen dabei den Quantenzustand des Kondensats auf. Dort, wo das Licht - geleitet über eine Glasfaser - wieder austritt, nimmt ein weiteres Bose-Einstein-Kondensat den Quantenzustand des Ausgangsmaterials an. Die Teilchen des ersten Kondensats "verschwinden" dabei und der Effekt der Teleportation ist erreicht - denn das Original der Kopie existiert nicht mehr.
Was so futuristisch klingt, vergleicht Dr. Olsen im Interview mit der australischen Ausgabe von News.com durchaus mit dem "Beamen" aus der Science-Fiction-Welt von "Star Trek". Der Wissenschaftler gibt aber auch zu bedenken, dass sich mit der Übertragung einzelner Atome noch nicht abzeichnet, dass damit Menschen von Ort zu Ort geschickt werden könnten. Wie die Forscher in ihrer auch als PDF ( http://www.arxiv.org/pdf/0706.0062 ) veröffentlichten Arbeit angeben, soll die Methode durch den Verzicht auf die Verschränkung die Erforschung von Teleportation stark vereinfachen.
Quelle : www.golem.de
-
Forscher zeigen, wie sich das bekannte Gedankenexperiment in die experimentelle Praxis übersetzen lässt
Dass sich das deutsche Wort "Gedankenexperiment" in die englische Sprache einschleichen konnte, hat es nicht unwesentlich dem österreichischen Physiker Erwin Schrödinger zu verdanken. Seine einige der Grundlagen der Quantentheorie illustrierende, ständig vom Tod durch Giftgas bedrohte Katze ist mittlerweile zum Klassiker geworden, die sogar zum Party-Gesprächsstoff taugt. Das Gedankenexperiment versetzt das arme Tier in eine Überlagerung zweier Zustände: Weil der vom rein statistischen Kernzerfall ausgelöste Giftmord nicht vorhersagbar ist, ist die Katze gleichzeitig tot und lebendig. Erst, wenn ein Beobachter die Katzenkiste öffnet, fallen die überlagerten Zustände in sich zusammen (man spricht von Dekohärenz). Das Ergebnis: der Beobachter sieht eine lebende Katze. Oder eine Leiche.
Mehr... (http://www.heise.de/tp/r4/artikel/25/25971/1.html)
Quelle : www.heise.de
-
Deutsche Wissenschaftler testen neuen Aufbau zur Quantenmechanik
Das bereits seit über zehn Jahren in der Wissenschaft diskutierte "Tunneln" von Photonen wurde in einem neuen Experiment erneut beobachtet. Dabei sollen sich Photonen mit Überlichtgeschwindigkeit von einem Ort zum anderen bewegt haben.
Bereits 1995 zeigten Günter Nimtz und Alfons Stahlhofen, heute tätig an den Universitäten von Köln und Koblenz, den Tunneleffekt von Mikrowellen: In einem Metallrohr sollte ein sich verjüngender Abschnitt als Barriere für die Wellen dienen. Tatsächlich kamen am Ende der Strecke aber Photonen an, noch bevor am Anfang Teilchen abgeschickt wurden.
Dieses Experiment wurde in der Wissenschaftswelt kontrovers diskutiert, bis es einige Monate später an der US-Universität von Berkeley mit einem ähnlichen Aufbau bestätigt werden konnte. Seitdem wurden mehrere Theorien zu den Ursachen des unzweifelhaft vorhandenen Effekts entwickelt. Am populärsten ist eine Erklärung unter der Annahme noch nicht nachgewiesener Teilchen, in die die Photonen am Beginn der Strecke aufgespalten werden. Falls dabei noch die Heisenberg'sche Unschärferelation greift, können einige der Teilchen quasi sofort das Ende der Strecke erreichen. Laut Heisenberg lassen sich Impuls und Ort eines Teilchens nicht gleichzeitig bestimmen, so dass die Partikel im Rahmen der Messung die Regeln Einsteins durchbrechen und schneller als das Licht reisen.
Nimtz und Stahlhofen wollten für ihr neues Experiment wissen, wie weit die Strecke der Sofort-Übertragung sein darf. Sie wählten dabei als Barriere ein Doppelprisma, das aus einem in der Diagonale in zwei Hälften geteilten Glaswürfel von 40 Zentimeter Kantenlänge besteht. Die Schnittflächen spielten eine optische Sperrschicht. Dabei "tunneln" einige Photonen aber dennoch durch die Barriere aus Luft. Da die Wellen eine Länge von 33 Zentimetern hatten, konnten sie im Prisma stets gebrochen werden.
Die Wissenschaftler stellten fest, dass dieser Effekt unabhängig von der Entfernung der beiden Prismen auftritt, sie konnten ihn aber nicht bei Distanzen größer als 1 Meter beobachten. Das Experiment gewinnt derzeit an Anerkennung, so berichtet unter anderem das Magazin New Scientist darüber. Eine Beschreibung ihres Aufbaus haben die Quantenphysiker in der Datenbank Arxiv (PDF) hinterlegt.
Quelle und Links : http://www.golem.de/0708/54183.html
-
Sie sind ein alter Menschheitstraum: Reisen durch die Zeit, in die Zukunft und vor allem in die Vergangenheit. Jetzt hat ein Forscher eine Theorie vorgestellt, die eine der bisherigen Schwierigkeiten von Reisen in frühere Epochen überwindet.
Die Prüfung war schlecht gelaufen. Als der junge Mann das Klassenzimmer verließ, ärgerte er sich. Hätte er die Fragen der mündlichen Abiturprüfung vorher gewusst, hätte er die Antworten lernen können. Gäbe es doch bloß eine Zeitmaschine! Mit seinem jetzigen Wissen könnte er bei einem erneuten Versuch eine glatte Eins machen. Doch Zeitreisen in die Vergangenheit gibt es nur in Science-Fiction-Geschichten, nicht in der Realität. Oder doch?
Wissenschaftler diskutieren schon seit langem die Möglichkeiten von Zeitreisen. Der israelische Physiker Amos Ori hat nun ein neues theoretisches Modell, das einer Zeitmaschine nahe kommt, in der Fachzeitschrift "Physical Review" vorgestellt. Damit könnten zukünftige Generationen eventuell in die Vergangenheit reisen, schreibt Ori, Professor für Theoretische Physik am Technion Israel Institute of Technology in Haifa. Zwar liefert er keine fertige Bauanleitung für eine Zeitmaschine, doch hat er eine bislang vorhandene Hürde hin zum Zeitreisen übersprungen.
Reisen in die Zukunft sind im Prinzip möglich - siehe Zwillingsparadoxon (Kasten oben). Nicht so einfach verhält es sich mit Zeitreisen in die Vergangenheit, denn die Zeit fließt immer nur in eine Richtung. Einstein zufolge ist sie auch unmittelbar an den dreidimensionalen Raum gekoppelt. Physiker sprechen von der Raumzeit und zeichnen zur Veranschaulichung Gitterflächen an ihre Tafeln. Eine Koordinate ist dabei die Zeit.
Dass die Relativitätstheorie Rückwärtsreisen in der Zeit nicht explizit verbietet, hatte der österreichische Mathematiker Kurt Gödel schon vor 60 Jahren bewiesen. "Zeitreisen sind denkbar, indem man die Raumzeit verbiegt", sagt Rainer Schimming, Mathematiker an der Universität Greifswald. Dabei können sogenannte Wurmlöcher entstehen, die Sprünge zu anderen Zeitpunkten erlauben (siehe Kasten).
Doch die Probleme, ein solches Wurmloch zu finden oder zu erzeugen, es zu stabilisieren und sicher nutzen zu können, scheinen unüberwindbar zu sein. Eine der vielen noch ungelösten Schwierigkeiten ist, dass die theoretischen Modelle eine sogenannte exotische Materie verlangen, die eine negative Dichte haben soll. Selbst für Physiker ist das schwer vorstellbar. "Außerdem verursachen Wurmlöcher immer eine komplizierte Raumzeit-Geometrie", sat Schimming.
Ein neues Universum
Ähnliche Abkürzungen wie Wurmlöcher nutzt auch der israelische Physiker Ori in seiner Theorie. Dazu hat er ein eigenartiges Universums ersonnen. "Meine Ausgangsfrage war: Ist es möglich, die Raumzeit so zu krümmen, dass sich Zeitschleifen bilden?", sagte Ori zu SPIEGEL ONLINE. "Dabei fand ich heraus, dass wir die bislang für nötig gehaltene exotische Materie mit ihrer negativen Dichte gar nicht benötigen."
Oris Beschreibung klingt fantastisch: "Wenn jemand eine Zeitreise unternehmen will, muss er sich entlang einer Zeitschleife der gebogenen Raumzeit bewegen." Physiker sprechen von sogenannten geschlossenen zeitartige Kurven in der Raumzeit. So lautet der wissenschaftliche Ausdruck für Reisen durch die Zeit.
Ungelöste Probleme bei Reisen in die Vergangenheit
Doch eine solche Zeitmaschine ist kein Fortbewegungsmittel wie in Science-Fiction-Filmen. "Maschine ist eigentlich gar kein gutes Wort für meine Theorie. Meine Zeitmaschine ist selbst Raumzeit, also kein Super-Auto", sagt Ori. Und selbst dann könnte man nur zu dem Zeitpunkt zurückreisen, an dem die erste Zeitmaschine gebaut wurde. Reisen ins Alte Rom oder ins Mittelalter, so Ori, seien prinzipiell ausgeschlossen.
Zudem hat seine Theorie einen Haken: Sie nutzt ein realitätsfernes Universum. "Ori konstruiert hier einen ganz speziellen Raum, damit sein Ansatz zum Zeitreisen funktioniert. Doch eine solche Welt ist nicht unsere. Unser Universum ist ganz anders als Oris Modell", sagt Peter Aufmuth. Der theoretische Physiker beschäftigt sich am Max-Planck-Institut für Gravitationsphysik in Hannover mit der Detektion von Gravitationswellen.
Modelluniversen aus mathematischen Formeln
Dieser Schwierigkeiten ist sich Ori durchaus bewusst. "Ich vermute sogar, dass die Probleme, vor denen wir noch stehen, niemals gelöst werden. Aber das ist noch unklar." Zwar halten es Physiker wie Aufmuth für einen Vorteil, auf die exotische Materie mit ihrer negativen Dichte verzichten zu können. Doch es blieben weitere offene Punkte. "Die Frage etwa, ob sein Modell stabil ist, klammert Ori ganz bewusst aus."
Ori beobachte eben nur ein Modelluniversum, um einen weiteren Schritt hin zu einer realistischen Beschreibung unseres Kosmos zu gelangen und dabei hinzuzulernen, erklärt Aufmuth. Dies sei eine übliche Vorgehensweise in der theoretischen Physik. "Aber eine Zeitmaschine kann man damit nicht bauen", sagt Aufmuth. "Uns fehlt auch die Technologie, um die riesigen Gravitationsfelder, die man benötigt, kontrollieren zu können", gibt Ori selbst zu.
Wider die Logik
Was durch Zeitreisen alles möglich werden könnte, trägt teils bizarre Blüten - Kausalitätsparadoxie heißt eine davon. "Die Allgemeine Relativitätstheorie erlaubt Wurmlöcher und Zeitreisen", sagt Schimming. "Letztere können jedoch Probleme mit der Kausalität verursachen, wenn der Zeitreisende die Geschichte ändert." So reist der Protagonist des Films "Zurück in die Zukunft" in die Vergangenheit seiner Eltern. Da sich seine Mutter dort in ihn anstatt in seinen Vater verliebt, droht seine eigene Zeugung niemals stattzufinden. Das Paradox: Wie könnte jemand seine eigene Zeugung verhindern, wenn er dann doch niemals geboren sein dürfte?
Derlei Widersprüche verwirren nicht nur Kinobesucher. Auch Wissenschaftler machen sich Gedanken über solche Paradoxien. Der berühmte Physiker Stephen Hawking sagte: "Die Gesetze der Physik haben sich verschworen, eine Zeitreise von makroskopischen Objekten zu verhindern."
Viele andere Welten sind möglich
Eine Antwort auf die Kausalitätsfrage könnte eine nicht unumstrittene quantenmechanische Interpretation liefern, die sogenannte Vielwelten-Theorie. Ein Multiversum verzweigt sich demnach zu jedem Zeitpunkt in viele Welten - für jede mögliche Zukunftsentwicklung ein Universum: Ein Universum, in dem der junge Mann im Klassenzimmer die Antworten der mündlichen Abiturprüfung weiß, und eines, in dem er sie nicht weiß. Um besser abzuschneiden, bräuchte er dann schon ein Sprungbrett, um zwischen diesen Welten hin- und herzuspringen.
Doch noch sind weder solche Sprungbretter erfunden, noch Zeitmaschinen gebaut. Abiturienten werden sich also auch in Zukunft auf alle denkbaren Fragen vorbereiten müssen.
Quelle : www.spiegel.de
-
Schularithmetik gilt nur im Großen, nicht im Kleinen: Entnimmt man einer Menge Quanten ein Element, vergrößert sich unter bestimmten Umständen die Gruppe sogar
"Ich habe vier Äpfel und nehme einen weg, wieviel sind dann übrig?" Solche Fragen, mit denen man schon Kindergartenkindern die Grundlagen der Mathematik beibringt, verlieren in der Quantenphysik ihren Sinn. Daran ist wieder einmal die Heisenbergsche Unschärferelation schuld - oder besser gesagt die Eigenschaft der Materie im Kleinen, die man mit dieser grundlegenden Aussage der Quantenmechanik beschreibt. Sie sorgt zunächst dafür, dass Messungen nicht kommutativ sind - es spielt eine Rolle, in welcher Reihenfolge man hinzuzählt oder malnimmt.
Das ist aus dem Alltag nicht anschaulich: Ob ich erst einen Apfel wegnehme, um ihn dann wieder hinzuzufügen, oder ob ich andersherum verfahre - das ist für die Gesamtzahl der Äpfel irrelevant. Gleichgültig ist auch, in welcher Reihenfolge ich die physikalischen Eigenschaften eines Objekts messe. Ob eine Polizeistreife nun zuerst Impuls und dann Ort eines Fahrzeugs feststellt oder andersherum, das wirkt sich auf den Betrag auf dem Strafzettel nicht aus. Im Quantenreich müssen sich Autofahrer aber auf unterschiedliche Ergebnisse einstellen.
In der aktuellen Ausgabe des Wissenschaftsmagazins Science beschreiben nun italienische Wissenschaftler ein Experiment, mit dem sie diese verqueren (und der Theorie lang bekannten) Eigenheiten anschaulich darstellen. Das Team um Valentina Parigi befasst sich mit der Arithmetik von Photonen, den Lichtteilchen, speziell mit deren Addition und Subtraktion. Mit einer geschickten Versuchsanordnung gelingt es den Physikern, einzelne Photonen zu einem Lichtfeld hinzuzufügen und wieder daraus zu entfernen.
Die grundsätzliche Versuchsanordnung dazu ist relativ simpel: Ein Laserstrahl wird durch eine rotierende Glasplatte geleitet und anschließend in einem Quantenzustandsanalysator untersucht. Die sich drehende Glasplatte gibt dem Lichtfeld thermische Eigenschaften - das heißt, sie verschafft dem Licht die für thermische Quellen typische Boltzmann-Verteilung. In diesem Zustand weist das Feld keine nichtklassischen Eigenschaften auf. Nun wenden die Physiker verschiedene Operatoren auf das Lichtfeld an - und erhalten aus dem klassischen Leben nicht zu erwartende Resultate.
Wenn sie zum Beispiel mit Hilfe eines Strahlenteilers ein einzelnes Photon entfernen, dann wächst die mittlere Anzahl der Lichtteilchen im Feld. Das Hinzufügen eines Photons mit Hilfe eines optischen Verstärkers führt jedoch nicht zu einer Abnahme der Photonenzahl - auch hier steigt sie, allerdings weit stärker als bei der Subtraktion. Führt man nun erst die Addition und dann die Subtraktion durch, erhält man prompt ein anderes Ergebnis, als wenn man erst eines abzieht und dann eines hinzufügt. Interessanterweise ist gerade im letzten Fall die mittlere Photonenzahl des Lichtfeldes am größten.
Ihre Versuche, hoffen die Wissenschaftler, können aber nicht nur die Seltsamkeiten der Quantenwelt illustrieren - sie könnten auch Quanteninformationstechnik und Quantenoptik neue Impulse geben. Denn die Wissenschaftler konnten mit dem Versuch zeigen, wie sich einem klassischen System (dem thermischen Lichtfeld) Quantenzustände aufprägen lassen. Das ist der Modulation einer Rundfunkwelle vergleichbar. Die Hoffnung: Licht ließe sich im rein klassischen Zustand auf konventionelle Weise übertragen, ohne dass man ein Zusammenfallen von Quantenzuständen (Dekohärenz) befürchten müsste - und trotzdem könnten dem Übertragungsmedium Quanteninformationen aufgeprägt sein, die sich am Ziel auch wieder auf ein nichtklassisches System (etwa einen Quantencomputer) übertragen lassen.
Quelle : www.heise.de
-
Über dies Phänomen staunte selbst Albert Einstein: Unter bestimmten Bedingungen verhalten sich zwei Atome absolut identisch - als wären sie einfach verdoppelt worden. Physiker wollen nun zeigen, dass der bizarre Quanteneffekt auch bei Alltagsgegenständen funktioniert.
Vielleicht sollten Physiker nicht von Verschränkung sprechen, sondern eher von Verrenkung. Denn genau das kann mit den Gedanken geschehen, wenn Theoretiker diesen seltsamen quantenmechanischen Effekt zu erklären versuchen: Zwei Photonen befinden sich weit voneinander entfernt, doch sie verhalten sich wie zwei Synchronschwimmer. Was der eine tut, macht der andere auch, egal ob es die Polarisation - oder bei zwei Protonen den Spin - betrifft.
Der Wiener Physiker Anton Zeilinger nutzte 1997 die Verschränkung, um Quantenzustände über mehrere Hundert Meter von einem Ufer der Donau zum anderen zu teleportieren. Bislang gingen die meisten Physiker davon aus, dass solche Verschränkungen - wie viele andere quantenmechanische Phänomene auch - nur bei mikroskopischen Objekten auftreten können.
Forscher vom Max-Planck-Institut für Gravitationsphysik in Hannover glauben aber, dass sich auch größere Objekte verschränken lassen. "Wir haben gezeigt, dass es theoretisch geht", sagt Roman Schnabel im Gespräch mit SPIEGEL ONLINE. Gemeinsam mit vier Kollegen hat er soeben die Theorie der Verschränkung zweier Spiegel im renommierten Fachblatt "Physical Review Letters" veröffentlicht. Nun planen die Wissenschaftler das Experiment dazu.
Im Prinzip gleicht das Vorhaben dem Versuch, zwei Würfel dazu zu bringen, bei jedem Wurf die gleiche Augenzahl anzuzeigen. Und selbst wenn die Würfel sich in verschiedenen Räumen oder Gebäuden befänden, ihr Verhalten wäre stets absolut synchron. Genau das ist das charakteristische Merkmal für miteinander verschränkte Objekte.
Quantenphänomen zum Anfassen
Die Physiker aus Hannover wollen jedoch statt Würfeln zwei Spiegel synchronisieren. Im Experiment soll ein Laserstrahl in zwei Teile aufgespalten werden, die sich daraufhin in einem Winkel von 90 Grad voneinander entfernen. Nach jeweils zehn Metern Weg treffen sie auf je einen hochreflektierenden Superspiegel. Die beiden Spiegel sollen mehrere Kilogramm schwer sein und hängen im Vakuum an Quartzfäden - zum Schutz vor Vibrationen und Störungen von außen. Am Ausgangspunkt der Aufspaltung kommen die Strahlen schließlich wieder zusammen und überlagern sich – so weit der Plan. "Das Interferenzmuster erlaubt Rückschlüsse auf Orte und Impulse der Spiegel relativ zueinander", erklärt Schnabel.
Wie aber kommt es zur eigentlichen Verschränkung? Das sei nicht so leicht zu erklären, räumt der Physiker ein. "Der Laserstrahl hat Rückwirkungen auf den Spiegel, dieser wird angestoßen." Zu Beginn des Experiments handle es sich noch um völlig normales Laserlicht. Das ändere sich dann aber: "Es kommt zu einer Kopplung von Laserlicht und Spiegeln", erklärt Schnabel. Sowohl die beiden Laserstrahlen als auch die Spiegel würden dadurch miteinander verschränkt. "Der Laser ist zugleich das erzeugende und das beobachtende Medium."
Wenn die Spiegel verschränkt sind, müssten ihre Pendelbewegungen unvorhersagbar sein - trotzdem würden sie sich perfekt synchron bewegen. Bei dem geplanten Experiment wäre dieses Verhalten an den beiden Lichtmustern zu erkennen, meint Schnabel: Die beiden Lichtmuster würden sich ständig in unvorhersagbarer Art und Weise, aber im Gleichtakt ändern.
Zufällig und synchron zugleich
"Die Kombination von echter Unvorhersagbarkeit und perfekter Korrelation macht den Effekt der Verschränkung aus", erklärt Schnabel. Deshalb sei das Experiment auch gut mit den zwei Würfeln zu vergleichen, die stets identische, jedoch zufällige Augenzahlen liefern.
Dass zwei Objekte auf solch mysteriöse Weise verbunden sein können, hatte Albert Einstein schon 1935 gemeinsam mit seinen Kollegen Boris Podolsky und Nathan Rosen erkannt. Einstein war die Sache jedoch nicht geheuer - er bezeichnete die Verschränkung deshalb abschätzig als "spukhafte Fernwirkung".
Die Max-Planck-Forscher aus Hannover sind nicht die einzigen, die derzeit versuchen, die Gültigkeit der Quantenmechanik für größere Objekte zu beweisen. Wiener Forscher um Anton Zeilinger und Markus Aspelmeyer setzen dabei zum Beispiel auf mit Laserlicht gekühlte Systeme. "Die Theorie der Quantenmechanik sagt nicht, dass es eine Grenze für Quantenphänomene gibt", sagte Zeilinger im Gespräch.
Welche Wirkung hat die Schwerkraft?
Sein Team hofft, durch Kühlung makroskopischer Systeme die Tür zur Quantenmechanik aufzustoßen. "Bei extrem tiefen Temperaturen gibt es keine Wechselwirkungen mit der Umgebung", erklärte Zeilinger. Diese Wechselwirkung, auch allgemein als Dekohärenz beschrieben, gilt als Ursache dafür, dass quantenmechanische Phänomene im Alltag nicht beobachtet werden. "Wir glauben, dass man eines Tages Quanteneffekte bei Viren oder Mikroorganismen sehen kann", sagte Zeilinger. "Zum Beispiel die Superposition, also die Überlagerung von zwei Zuständen."
Ausdrücklich erwähnte der Wiener Physiker auch die Verschränkung makroskopischer Objekte, er glaubt somit wie seine deutschen Kollegen prinzipiell daran, dass das Phänomen nicht auf die Welt des Mikrokosmos beschränkt ist. "Wir wollen dieses Experiment am Albert-Einstein-Institut in Hannover durchführen", sagt Schnabel. "Sollten wir tatsächlich eine Verschränkung zwischen den Spiegeln finden, wäre das eine kleine Sensation."
Es gibt freilich Physiker, die bezweifeln, ob das Experiment überhaupt gelingen kann. Der Brite Roger Penrose, unter anderem Entdecker einer nach ihm benannte Parkettierung, glaubt beispielsweise, dass die Schwerkraft die Verschränkung prinzipiell verhindern könnte. Das Kraftfeld, das makroskopische Objekte zwangsläufig erzeugen, sei zu groß und zerstöre quantenmechanische Effekte. Wer Recht hat, wird wohl erst das Experiment zeigen. Es soll in diesem Jahr beginnen, mit ersten Ergebnissen rechnen die Forscher 2009 oder 2010.
Quelle : www.spiegel.de
-
Verstärkung durch Zwischenspeicherung
Wissenschaftlern aus Deutschland, Österreich und China ist ein neuer Schritt in der Teleportation von Quantenzuständen gelungen. Sie haben dabei den unbekannten Quantenzustand eines Photons zunächst auf einen atomaren Quantenspeicher übertragen, wo der Zustand für etwa acht Mikrosekunden zwischengespeichert wurde. Danach wurde der Quantenzustand ausgelesen und auf ein Photon übertragen.
Es sei die erste Vorführung von Quanten-Teleportation von einem photonischen Qubit auf ein atomares Qubit mit integriertem Speicher gewesen, erklärte einer der beteiligten Wissenschaftler. Sie werten das Ergebnis als Grundlagenerfolg. Zwar wurden bereits die Quanten-Teleportation und der Quanten-Speicher in Experimenten gezeigt. Neu jedoch ist die Kombination von einer Quanten-Teleportation von photonischen Qubits mit einem integriertem Speicher.
Die Quantenzustände, auch Quanten-Bits oder Qubits genannt, gelten als Informationsträger bei Quantencomputern. Allerdings geht der Informationgehalt des Qubits nach einer gewissen Strecke verloren. Das Experiment der Forscher von der Universität Heidelberg, der University of Science and Technology of China und der TU Wien hat nun gezeigt, wie die Quanteninformation durch die Zwischenspeicherung auch über größere Strecken transportiert werden kann.
Quelle : www.golem.de
-
Wichtiger Schritt für Quantencomputer
Wissenschaftler vom Swiss Nanoscience Institute an der Universität Basel und vom Massachussetts Institute of Technology haben einen wichtigen Fortschritt bei der Entwicklung des Quantencomputers erzielt: Sie konnten den magnetischen Zustand eines Elektrons, den so genannten Elektronenspin, eine Sekunde lang stabil halten. Bislang war das nur Bruchteile von Sekunden lang möglich.
Für das Experiment haben die Forscher zunächst in einer speziellen Falle aus Nanostrukturen ein einzelnes Elektron isoliert. Dabei herrschte eine Temperatur, die nur ein Zehntel Grad über dem absoluten Nullpunkt (-273,15 Grad Celsius) liegt. Daneben setzten sie das Elektron starken Magnetfeldern aus.
Ein stabiler Elektronenspin gilt als wichtige Voraussetzung für den Bau eines Quantencomputers. Diese Computer der Zukunft, die auf den Prinzipien der Quantenphysik basieren, werden sehr viel leistungsfähiger sein als heutige Systeme. So soll ein Quantencomputer die heute üblichen Verschlüsselungsalgorithmen in Sekundenschnelle knacken können.
Quelle : www.golem.de
-
Erstmals Teleportation zwischen Atomen über eine größere Entfernung
Wissenschaftlern in den USA ist es gelungen, den Quantenzustand von einem Atom zu einem anderen über einen Meter zu teleportieren. Bisher war das nur zwischen wenige Mikrometer voneinander entfernten Atomen möglich. Die Entdeckung könnte ein wichtiger Schritt bei der Entwicklung von Quantenkommunikation und Quantencomputer sein.
Wollten Captain Kirk und Mister Spock von der Enterprise auf einen fremden Planeten, ließen sie sich von Chefingenieur Scott hinunterbeamen, also teleportieren. Was in der Makrowelt jedoch - noch - Science-Fiction ist, ist in der Quantenwelt möglich. Allerdings lässt sich auch hier keine Materie, sondern nur Informationen übermitteln, genauer gesagt die Quanteneigenschaften wie die Polarisation eines Photons oder der Spin eines Teilchens.
Forscher konnten schon Quantenzustände von Photon zu Photon, von Photonen zu Wolken aus Gasatomen sowie zwischen Atomen teleportieren. Über größere Entfernungen gelang das bisher jedoch nur mit Photonen. So übertrugen Forscher in Wien 2004 Quantenzustände von Photonen über einen knappen Kilometer. Bei Atomen gelang das bisher nur über die Distanz weniger Mikrometer.
Ein Team von Physikern der Universität von Maryland um Steven Olmschenk hat die Messlatte hier nun deutlich höher gelegt. Ihnen gelang es, den Quantenzustand von einem Ytterbiumion zu einem anderen, das einen Meter entfernt war, zu schicken, beschreiben die Forscher in der aktuellen Ausgabe des US-Wissenschaftsmagazins Science (Ausgabe vom 23. Januar 2009, S. 486).
Dazu isolierten sie zunächst die beide Ionen in Fallen aus elektrischen Feldern. Dann schrieben sie mit einem Mikrowellensignal in eines der Ionen eine Information. Im nächsten Schritt verschränkten die Forscher jedes der beiden Atome mit einem Photon, indem sie die Atome mit einem Laserstrahl beschossen. Die Atome emittierten daraufhin jeweils ein Photon und verschränkten sich damit. Wenn sich zwei Teilchen verschränken, sind ihre Eigenschaften miteinander verbunden, selbst wenn sich die beiden an ganz verschiedenen Orten befinden. Die Wissenschaftler brachten dann die beiden Photonen zusammen und überlagerten sie. So übertrugen sie den Quantenzustand des einen Ytterbium-Ions auf das andere.
Die Entdeckung der Wissenschaftler aus Maryland könnte ein wichtiger Schritt bei der Entwicklung von Quantenrepeatern und Quantencomputern sein. Interessant dabei ist, dass sowohl Atome als auch Photonen genutzt werden. Letztere dienen zur schnellen Übertragung von Informationen. Atome hingegen eignen sich gut als Quantenspeicher, da sie Informationen relativ lange speichern.
Allerdings müssen Olmschenk und seine Kollegen noch die Effektivität ihrer Methode steigern: Im Schnitt brauchen sie rund 30 Millionen Versuche oder 12 Minuten, um zwei Ionen zu verschränken.
Quelle : www.golem.de
-
In der Science-Fiction-Serie Star Trek schützen sich die Astronauten gegen harte kosmische Strahlung wie den Sonnenwind mit einem magnetischen Abwehrschild.
Forscher um die britische Physikerin Ruth Bamford haben jetzt im Experiment herausgefunden: Das funktioniert tatsächlich. Sie verwendeten eine Apparatur aus der Fusionsforschung, in der wie in der Sonne Wasserstoffatome miteinander verschmelzen. Der hiervon ausgehenden Strahlung setzten die Forscher ein Raumschiffmodell aus, das ein Magnetfeld erzeugte.
Ergebnis: Die Partikel wurden von dem künstlichen Feld abgelenkt – wie die Sonnenpartikel vom Erdmagnetfeld. Die transportable Minimagnetosphäre könnte Astronauten z. B. eine anderthalbjährige Marsmission gesund überstehen lassen.
Um ein solches Feld zu erzeugen, müsste im Raumschiff ein großer Elektromagnet installiert werden. Im All ließen sich seine Wicklungen problemlos auf minus 270 Grad Celsius abkühlen, sodass sie ihren Widerstand verlören und als Supraleiter kaum Elektrizität benötigten.
Quelle : www.pm-magazin.de
-
Vom Ansatz her denkbar, durchaus.
Aber selbst wenn sowas funktionieren sollte, hätte es doch einige Nebenwirkungen und Beschränkungen:
Es gibt durchaus Strahlungsarten, die die Raumfahrer eigentlich haben wollen würden, u.a. die Radiowellen, die man zur Kommunikation benötigt, aber auch sichtbares Licht zur Orientierung. Wenn harte kosmische Strahlung weitestgehend deflektiert würde, müssten aber Strahlungen mit niedrigerer Quantenenergie durchaus auch betroffen sein. Schliesslich gelten die Maxwellschen Gleichungen für alle...
Also müssten die Felder default aus sein und nur im Bedarfsfalle schnell aktivierbar. Dazu allerdings bräuchte man trotz Supraleitung sehr viel Energie. Oder eine Art smarten Curie-Temperatur-Schalter plus ggf. einen guten Ladungsspeicher, beispielsweise.
Dann bedenken wir bitte noch, dass es in der Raumfahrt nichts teureres gibt als zusätzliches Gewicht.
Man wird um jeden Preis anderswo sparen müssen.
An Bord würden z.B. nicht nur Schweiss und Urin recycelt werden müssen, sondern auch Kot, Hautschuppen, Haare, Fussnägel...
Mahlzeit :o
Ich will nicht vergessen, Magnetfelder sind prinzipiell nie sphärisch, also nicht umfassend.
Eintreffende Strahlung dagegen kommt von überall her, wenngleich auch relativistisch spektralverschoben. Aber was für eine Art von "Nordlichtern" dann zu erwarten wäre, darüber möchte ich hier nicht spekulieren.
Ein weitaus grösseres Problem entstünde durch Partikelstrahlung, denn diese enthält gemäss Einstein erhebliche Energieäquivalenzen, für die das Feld auch ausgelegt werden müsste, und sie würde vor allem sehr heftig mit dem Magnetfeld interagieren. Jedenfalls anders als reine elektromagnetische Energie.
Starker Partikelfluss kann im Feld zusätzliche harte Bremsstrahlung neu erzeugen. Das Äussere der Raumschiffs als übergrosse Röntgenröhre...
-
Ein deutscher Physiker hat sich aufgemacht, Einsteins Werk zu vollenden. Dessen Relativitätstheorie beschreibt das Wechselspiel von Massen und leerem Raum. Doch am Urknall kollabiert sie. Eine neue Theorie soll Abhilfe schaffen - und öffnet zugleich den Blick in ein früheres Universum.
Selbst Martin Bojowald ist nur selten einmal ein Blick zurück vor den Urknall vergönnt, und wenn er sich auftut, dann geschieht es meist unverhofft.
Besonders oft klappt es beim Joggen, wenn die Beine wie von selbst zu laufen und die Gedanken zu fließen beginnen. Wenn das Blut so durchs Gehirn pulst, lässt Bojowald im Geiste die Raum-Zeit wallen, bis sich irgendwann wieder ein Fenster öffnet in ein neues, nie zuvor gesehenes Reich.
Bojowald, 36, lehrt theoretische Physik an der Pennsylvania State University. Nichts an seiner etwas bubenhaften Erscheinung und seiner stillen, unaufgeregten Art lässt den Revolutionär erahnen, der schon im Alter von 27 eine neue Art der Kosmologie begründet hat.
Und doch zählt er zu einer kleinen, sehr exklusiven Gemeinde von Forschern, die sich aufgemacht haben, das Erbe Albert Einsteins anzutreten. Im Alleingang hatte der große Physikpionier eine neue Lehre der Schwerkraft begründet und der Nachwelt seine Allgemeine Relativitätstheorie hinterlassen. Viele halten sie noch heute, gut 90 Jahre später, für das Brillanteste, was die theoretische Physik je hervorgebracht hat.
Doch inzwischen ist klar: Selbst Einsteins großer Wurf weist Mängel auf. Nur wenn die Forscher den Weg, den er einst eingeschlagen hat, in aller Radikalität zu Ende gehen, wartet auf sie womöglich eine Formel, die den Namen Weltformel wirklich verdient. Es wird dazu nötig sein, die letzten Rätsel von Raum und Zeit zu knacken. Wie das gehen könnte, das hat Martin Bojowald jetzt in einem neuen Buch beschrieben*.
Eher zufällig ist er vor rund zehn Jahren zu seinen heutigen Mitstreitern gestoßen. In einer Mathematikvorlesung an seiner Heimatuniversität in Aachen war am Rande von Einsteins großem Werk die Rede gewesen. Im Physikstudium dagegen war es nie aufgetaucht.
Denn eigenartig: Es scheint, als wollten die Physikprofessoren ihren Studenten das Juwel ihres Fachs vorenthalten. Die Allgemeine Relativitätstheorie kommt im normalen Physikstudium oft überhaupt nicht vor: Zu schwierig sei sie, so heißt es, und zu irrelevant für praktische Zwecke.
In der Tat hat sich Einstein mit seiner Gravitationslehre sehr weit in eine Welt vorgewagt, die der menschlichen Erfahrung kaum mehr zugänglich ist. Viele Studenten jedoch schreckt das wenig. "Mich", sagt Bojowald, "hat besonders fasziniert, dass der Raum in der Relativitätstheorie eine ganz neue Rolle spielt." Der nämlich ist bei Einstein nicht mehr bloße Bühne des Weltgeschehens; Raum und Zeit treten vielmehr selbst als Akteure auf.
Unter dem Einfluss jedes Körpers verbiegt sich in Einsteins Theorie der Raum in seiner Umgebung. Die Schwerkraft ist dann nichts anderes als die Wirkung, die diese Krümmung des Raums auf andere Körper ausübt. Masse, Raum und Zeit bilden so ein sich wechselseitig bedingendes Ganzes. Beschrieben wird es von den Einsteinschen Feldgleichungen.
Gefürchtet und verehrt sind diese Formeln, elegant und äußerst tückisch, wenn es ans praktische Rechnen geht. Und doch bedürfen selbst diese Gleichungen, aller mathematischen Brillanz zum Trotz, noch grundlegender Korrekturen. Denn so befriedigend sie auch den ewigen Umlauf der Planeten, das Kreiseln von Galaxien, ja sogar die Blähung des gesamten Kosmos beschreiben, so versagen sie doch am Beginn allen Seins.
Nach rund 14 Milliarden Jahren der Expansion sei das Universum zu dem geworden, was es heute ist, so die Aussage von Einsteins Theorie. Doch wie ist das Ganze entstanden? Angesichts dieser Frage kapituliert Einsteins Formelwerk.
Je näher darin der Anfang der Zeit rückt, desto mächtiger ballt sich die Materie, immer dichter presst sie den Raum zusammen, bis die Gleichungen schließlich im Strudel des Ursprungs nichts mehr als bedeutungslose Unendlichkeiten ausspucken.
"Urknall" nennen die Physiker dieses pathologische Verhalten - und wissen dabei doch ganz genau: Der inzwischen so vertraut klingende Name kann nicht darüber hinwegtäuschen, dass die Theorie hier an ihre Grenze gelangt. Was, so fragt sich die Forschergemeinde um Bojowald, ist eine noch so schöne Theorie wert, die zwar die Geschichte des Kosmos richtig beschreibt, an dessen Anfang aber nichts als Unsinn gebiert?
Immer wieder haben junge Physiker versucht, dem Mangel mit gewagten gedanklichen Kapriolen abzuhelfen. Keine Idee schien ihnen dabei zu absurd, um sie nicht wenigstens auszuprobieren - doch vergebens, es blieb dabei: Im Urknall verlor alles Sein seinen Sinn.
Besonders hoch im Kurs standen zuletzt komplizierte Konstrukte, die unter dem Namen Stringtheorie selbst unter Laien Berühmtheit erlangt haben. Teilchen jedweder Art, gleichgültig ob Elektron, Neutrino, Quark oder Photon, werden darin als Schwingungszustände aberwitzig winziger Saiten beschrieben. Alles Weltgeschehen stellt sich dar als eine phantastische kosmische Stringsymphonie.
In den drei sinnlich erfahrbaren Raumdimensionen jedoch lassen sich die Stringgleichungen nicht formulieren; die Forscher waren gezwungen, dem Raum noch sechs oder sieben weitere Dimensionen hinzuzufügen. Und weil diese sich in der wirklichen Welt nicht wahrnehmen lassen, wurden sie von den Stringforschern kurzerhand durch eine Art mathematischen Taschenspielertrick zu unsichtbar winzigen Knäueln verschnürt.
Doch ist all das nicht nur ein großes mathematisches Glasperlenspiel? Lässt sich so wirklich der Welt ihr letztes Geheimnis entreißen?
Bojowald und seine Mitstreiter haben ihre Zweifel daran. Sie wollen auf andere Weise die Mängel des derzeitigen Weltbildes beheben. Nicht die Materie ist Ausgangspunkt ihres Denkens. Sie beginnen, wie schon ihr großes Vorbild Einstein, mit dem Raum selbst.
Wenn schon die Materie aus kleinsten Teilchen besteht, so ihre Argumentation, könnte es dann nicht sein, dass der Raum, in dem sich diese Materie bewegt, ebenfalls aus einer Art kleinsten, nicht weiter teilbaren Raumatomen zusammengesetzt ist? Ermutigt fühlen sie sich dadurch, dass sich durch geschicktes Hantieren mit den wichtigsten Naturkonstanten eine Art Elementarlänge errechnen lässt.
Kein Anfang, kein Ende
Plancklänge wird sie genannt, und sie beträgt etwa 10-33 Zentimeter - eine unvorstellbar winzige Zahl. In einem einzigen Atomkern finden mehr dieser Raumatome Platz als Staubkörner im gesamten Sonnensystem.
Als Bojowald sich vor gut zehn Jahren den Fragen der Gravitation zuwandte, da war es seinen heutigen Mitstreitern bereits gelungen, den Raum zu zerstückeln. Ihre Gleichungen erzeugten eine Art Granulat aus Raum und aus Zeit. Eng verwoben wogt und wallt dieses Raum-Zeit-Geflecht, wenn es von der Wirkung einer Masse in Bewegung versetzt wird. "Schleifen-Quantengravitation": So hatten die Forscher ihre Kopfgeburt getauft.
Doch erst Bojowald gelang es, sich mit Hilfe dieser Gleichungen bis zum Beginn allen Seins vorzutasten. Wie, so seine Frage, spielt sich ein Urknall in diesem Raum-Zeit-Gewebe ab? Und vor allem: Würde er auch dieses Mal nur in sinnlose Unendlichkeiten münden?
Der Durchbruch, meint Bojowald, sei seiner Unkonzentriertheit zu verdanken gewesen. Noch sehr gut kann er sich an den Sommer des Jahres 2000 erinnern, als das nervende Zirpen der Grillen kein En- de nehmen wollte und drückende Hitze seinen Kopf bis spät in die Nacht umnebelte. Der junge Forscher hatte gerade den Umzug von Aachen in die USA hinter sich, alles war neu für ihn hier an der Penn State, und einige Wochen lang hatte für ihn einmal nicht die Physik allein im Mittelpunkt gestanden.
Wahrscheinlich sei nur so zu erklären, dass er, als er sich wieder an den Schreibtisch setzte, alle Sorgfalt fahrenließ und sich in Rechnungen stürzte, die eigentlich zu gar keinem vernünftigen Ergebnis hätten führen dürfen: "Bei etwas klarerem Kopf hätte ich das wohl gar nicht erst versucht", sagt er heute.
Bojowald hatte Glück. Plötzlich schien sich alles zu fügen, und der Forscher erkannte, wie sich in seinen Gleichungen in groben Konturen die Geburt eines Universums abzuzeichnen begann.
Je weiter Bojowald die Zeit zurücklaufen ließ, desto höher sah er die Dichte wachsen. Irgendwann war in jedem Kubikzentimeter die Masse von Abermilliarden Sonnen vereint.
Dann aber, fast scheint der Urknall schon erreicht, verändert sich das Verhalten des Modell-Universums: Plötzlich weigert sich der Raum, sich noch weiter zusammenzuziehen. Einem Schwamm gleich hat er sich bis zum Äußersten voll mit Energie gesogen.
Und dann geschieht es: Der Raum prallt an sich selbst ab.
Mehr noch: Als Bojowald die Uhr in seiner Modellwelt noch weiter bis vor den Ursprung zurückstellte, begann sich der Raum sogar wieder zu spreizen; das Universum, das sich gerade noch in einem unaufhaltbar scheinenden Schrumpfprozess befunden hatte, schwoll wieder an.
Zweierlei war dem jungen Physiker damit gelungen: Er hatte seine Modellwelt heil durch den Urknall manövriert, ohne dass die Gleichungen zusammengebrochen waren. Und: Durch das Nadelöhr des Raum-Abpralls hindurch war es ihm gelungen, einen Blick in ein Universum zu erhaschen, wie es vor dem Urknall existiert haben muss.
Viel kann Bojowald bisher freilich noch nicht über diese Welt vor unserer Welt sagen: "Das Einzige, was wir wissen, ist, dass das Universum vor dem Urknall offenbar invertiert war. Ähnlich wie bei einem Luftballon, der verkehrt herum aufgeblasen nwird, war sozusagen das Innere nach außen gekehrt." Welche Bedeutung dies für das Dasein in dem eigenartigen Spiegeluniversum hatte? Das vermag der Forscher nicht zu sagen.
Doch so spärlich auch Bojowalds Erkenntnisse noch sind, könnten sich seine Gleichungen doch als Beginn einer neuen Ära erweisen. Denn erstmals erlauben sie handfeste Aussagen über eine Welt jenseits des bekannten Universums. Das ewige Vergehen und Entstehen von Welten könnte so Gegenstand beobachtender Forschung werden.
Helfen soll dabei eine neue Generation von Satelliten, die empfindlich wie nie zuvor Signale vom anderen Ende des Kosmos auffangen. Bereits im vergangenen Jahr Stellung bezogen hat das Fermi Gamma-ray Space Telescope, das rätselhafte Blitze extrem hochenergetischer Strahlung am Himmel untersuchen soll.
Hinter sich haben diese Strahlen eine Durchquerung fast des gesamten sichtbaren Weltalls. Wenn aber der Raum tatsächlich, wie von den Schleifen-Quantentheoretikern angenommen, aus Raumatomen besteht, dann müsste sich diese Körnung nach der weiten Reise in Form kleiner Laufzeitänderungen bemerkbar machen. Die Mikrostruktur des Raums lässt sich so also direkt unter die Lupe nehmen.
Aber auch den Urknall selbst hoffen die Forscher schon bald beobachtend studieren zu können. Ein erster Schritt dorthin steht bereits im nächsten Monat auf dem Programm. Dann startet der europäische Forschungssatellit "Planck".
Mit nie zuvor erreichter Präzision soll er Fotos der Hintergrundstrahlung schießen, die den gesamten Kosmos erfüllt. Entstanden ist diese zwar erst rund 380.000 Jahre nach dem turbulenten Ursprung, der die Schleifen-Quantentheoretiker interessiert. Doch weist die Strahlung winzige Schwankungen auf, die Rückschlüsse auch auf die Zeit zuvor erlauben.
Noch gut zehn Jahre wird es dauern, dann, so die Hoffnung von Bojowald und seiner Forschergemeinde, könnten sogar die ersten direkten Signale vom Urknall eintreffen. Im Jahr 2019 nämlich soll das Weltraumobservatorium "Lisa" starten, bestehend aus einem Satellitentrio, das möglicherweise empfindlich genug sein wird, um Gravitationssignale aus den ersten Sekunden dieser Welt auffangen zu können.
Bojowald darf sich also freuen: Es besteht Aussicht, dass er seine Theorie noch zu Lebzeiten durch einen Schnappschuss aus dem Kreißsaal des Universums bestätigt sehen wird.
Quelle : www.spiegel.de
-
Der Stringtheoretiker und Bestseller-Autor Michio Kaku schreibt für Technology Review über die Physik von Zeitreisen und überlichtschnellen Antrieben. Als Ergänzung zu diesem Essay legt Technology Review dem Heft eine Hörbuch-CD mit vier aktuellen SF-Erzählungen bei. TR 05/2009 ist ab heute am Kiosk oder portokostenfrei online zu bestellen.
"Ist letztendlich alles möglich, wenn die Wissenschaftler nur genügend Fantasie beweisen?" fragt Kaku in seinem Essay. "Um etwas Ordnung in die Beantwortung dieser Frage zu bringen, habe ich 'Unmöglichkeit' in drei Kategorien eingeteilt: Unsichtbarkeit gehört für mich zu den 'Unmöglichkeiten ersten Grades'. Das sind Entwicklungen, die nur scheinbar die bekannten physikalischen Gesetze verletzen, in den kommenden Jahrzehnten oder Jahrhunderten aber dennoch möglich werden könnten. Die in der klassischen Science-Fiction gern verwendeten Dinge wie Strahlenwaffen, Lichtschwerter, intelligente Roboter, Raumschiffe und Antimaterie-Antriebe verletzen nicht die Gesetze der Physik und stellen daher hauptsächlich ein Ingenieursproblem dar.
Bei 'Unmöglichkeiten zweiten Grades' dagegen handelt es sich um Techniken, die zwar heute unmöglich sind, allerdings in einigen Jahrtausenden möglich werden könnten. Das berühmteste Beispiel dafür ist die Zeitreise, die schon seit Jahrhunderten die Fantasie von Science-Fiction-Autoren angeregt hat: Der Astrophysiker Stephen Hawking hat zwar versucht zu beweisen, dass Zeitreisen unmöglich sind: Sie verletzten ein grundlegendes Gesetz der Physik, das er die Chronologie-Schutzhypothese nannte und das 'die Geschichte sicher für Historiker machen' würde. Nach einigem Aufwand musste er jedoch schließlich zugeben, dass er seine Hypothese nicht beweisen kann."
Die Kategorie der 'Unmöglichkeiten dritten Grades' schließlich treibt Kaku an die Grenzen der Physik: "Könnten die Gesetze der Physik in einem Paralleluniversum nicht vielleicht ganz andere sein? Oder gelten die Beschränkungen, denen wir hier unterworfen sind, überall im Multiversum der Universen? In der Stringtheorie gibt es viele gültige Lösungen der grundlegenden Gleichungen. Jede dieser Lösungen beschreibt ein Universum, in dem eine ganz andere Art von Physik gilt. Die Stringtheorie selbst ist eine Metatheorie, deren Formulierung unabhängig von der konkreten Physik des gerade betrachteten Universums ist. Es wäre also durchaus denkbar, dass es unterschiedliche Universen mit unterschiedlichen Naturgesetzen gibt."
Die vier vertonten Science-Fiction-Erzählungen, die dem aktuellen Heft beigelegt sind, zeigen, dass die Science Fiction noch einiges mehr zu bieten hat, als Erzählungen von Raumschiffen und fernen Planeten: Der australische Schriftsteller Greg Egan etwa stellt die Frage, was passiert, wenn ein Wissenschaftler einen Schwarm von Nano-Robotern darauf programmiert, ihn nach seinem Tod wiederzubeleben? Mit Bruce Sterling lässt Technology Review einen Mitbegründer des so genannten Cyberpunk zu Wort kommen: In seiner Erzählung "Das Monument" schildert Sterling, was passiert, wenn Architektur und das "Internet der Dinge" aufeinander prallen.
In "Glas" von Daryl Gregory, der unter anderem im Jahresband "The Year's Best Science Fiction" veröffentlichte, geht es um ein neues Medikament, das Menschen, denen im wahrsten Sinne des Wortes das Mitgefühl fehlt, helfen soll. Algis Budrys dagegen gehörte zur alten Riege amerikanischer SF-Autoren. Seine Erzählung "Das ferne Dröhnen der Motoren" ist eine klassische Kurzgeschichte des Genres, die erstmals 1959 im heute legendären "Magazine of Fantasy and Science Fiction" gedruckt wurde.
Quelle : www.heise.de
-
Teilchen, die gleichzeitig hier und auch anderswo sein können? Gibt´s nicht! Oder doch? In der Quantenphysik schon. Es ist ein Mysterium, das selbst für hartgesottene Physiker nicht einfach zu entschlüsseln ist. Quantenteilchen sind weder hier noch da so richtig – sie befinden sich an mehreren Orten gleichzeitig. Man sagt auch, sie nehmen mehrere Zustände gleichzeitig an.
(http://www.pm-magazin.de/media/1/1108/1150/3511/24896.jpg)
Schon lange träumen Experten davon, diese Besonderheit dazu zu verwenden, die Kommunikation zu revolutionieren: mit dem Bau eines Quantencomputers. Ein solcher Computer basiert auf den Quanten-Bits (qubits) – diese sind für die Informationsübertragung zuständig. Da sie an vielen Orten gleichzeitig sein können, und deshalb viele verschiedene Informationen gleichzeitig transportieren können, verarbeiten sie auch eine enorm größere Datenmenge in viel kürzerer Zeit, als wir dies von jetzigen Computern gewohnt sind.
Qubits arbeiten nicht wie herkömmliche Bits sequentiell, sondern simultan. Ein Beispiel dafür: Wenn ein normaler Computer nach einer Person in einem elektronischen Telefonbuch sucht, geht er alle eingetragenen Profile durch, bis der Name übereinstimmt. Ein Quantencomputer hingegen kann alle Namen gleichzeitig durchstöbern. Das ermöglicht eine exponentielle Steigerung der Prozessorgeschwindigkeit.
An der US-amerikanischen Purdue University haben Physiker jetzt eine molekulare Struktur entdeckt, die den Traum vom Quantencomputer realistischer macht. Wird ein normales Arsen-Molekül unterschiedlichen elektrischen Feldern ausgesetzt, taucht plötzlich ein neues, künstliches Atom in ihm auf. Die Elektronen sind an mehreren Stellen gleichzeitig (gelber Fleck auf dem Bild). Dies könnte der Schlüssel zu den raffinierten Quanten-Bits sein.
Anders die heute verwendeten Computer, die noch immer nach demselben Prinzip wie vor 50 Jahren arbeiten: Informationen werden in Bits dargestellt – ihr Inhalt ist entweder 1 oder 0. Die qubits im Quantencomputer können dagegen 0 und 1 gleichzeitig sein, was den Rechner so extrem schnell macht.
Das Folgende klingt nach heutigen Maßstäben noch wie kühne Science-Fiction, ist aber durch die Quantenphysik durchaus abgesichert, was auch der Forschungsbericht der Purdue Universität (siehe Link unten) herausstellt: Die Multi-Lokalität der qubits setzt Quantencomputer imstande, über riesige Distanzen hinweg miteinander zu kommunizieren, theoretisch über ganze Sonnensysteme hinweg.
Bildbeschreibung: Die Illustration der Purdue Universität von David Ebert erklärt das neu gefundene atomare Phänomen – auch Hybrid-Atom genannt. Die trichterförmige Struktur am linken Bildrand ist das Arsen-Atom. Es ist Teil eines nano-kleinen Schalters aus Silicium. Dessen Spannung wird verändert. Plötzlich entsteht ein neues Atom, welches durch die scheibenförmige Wolke dargestellt wird. Dabei gehen die Arsen-Elektronen in den Quantenzustand über, sind also an mehreren Orten zugleich, wie der gelbe Fleck andeutet.
Quelle : http://www.pm-magazin.de
-
Über einen spannenden Fall von mathematischer Frühbegabung berichten die Kollegen der schwedischen Tageszeitung Dagens Nyheter. Ein erst 16 Jahre alter Einwanderer aus dem Irak namens Mohamed Altoumaimi entwickelte als Gymnasiast eine Formel, mit der sich die sogenannten Bernoulli-Zahlen erklären und vereinfachen lassen.
(http://www.heise.de/bilder/139659/0/0)
Dieses Problem galt unter Mathematikern jahrhundertelang als ungelöst. Nachdem Mohamed seine Formel den Lehrern an seiner Schule gezeigt hatte und auf Skepsis gestoßen war, wandte er sich an Professoren der Universität Uppsala, die seinen Erfolg bestätigten.
(http://www.heise.de/bilder/139659/1/0)
Nach der Sichtung aller Unterlagen bot die Uni Mohamed einen Studienplatz an. Dieser will allerdings erst einmal sein Abi abschließen und das Angebot der Uni zunächst in Form von Ferienkursen annehmen.
Quelle : www.heise.de
-
Im Internet kursiert derzeit eine Meldung über einen spannenden Fall von mathematischer Frühbegabung. So berichten die Kollegen der schwedischen Tageszeitung Dagens Nyheter, dass ein erst 16 Jahre alter Einwanderer aus dem Irak namens Mohamed Altoumaimi eine Formel entwickelt habe, mit der sich die sogenannten Bernoulli-Zahlen erklären und vereinfachen lassen.
Die Universität Uppsala hat dieses Gerücht dementiert: Der junge Forscher habe zwar in der Tat die richtige Formel gefunden – doch ist sie bereits seit langem bekannt.
Quelle : www.heise.de
-
Wissenschaftlern der Universitäten Regensburg und Utrecht haben gemeinsam mit Forschern des IBM-Labors in Rüschlikon bei Zürich erstmals den Ladungszustand von einzelnen Atomen direkt gemessen. Mit Hilfe eines Rasterkraftmikroskops konnten sie dabei zwischen ungeladenen, positiv oder negativ geladenen Atomen unterscheiden – bei einer nanometergenauen räumlichen Auflösung. Dies eröffnet nach Auffassung der Wissenschaftler völlig neue Möglichkeiten für die Erforschung von molekularer Elektronik, der Katalyse oder der Photovoltaik.
Leo Gross und Kollegen berichten über die Arbeit in der aktuellen Ausgabe der Fachzeitschrift Science. Sie berichten darin, wie sie einzelne, unterschiedlich geladene Gold- und Silberatome abbilden und deren Ladungszustand aufgrund kleinster Unterschiede in der Kraft zwischen der Spitze eines Rasterkraftmikroskops und diesen Atomen exakt bestimmen konnten.
Ein Rasterkraftmikroskop misst mittels einer atomar feinen Spitze, die auf einem schwingenden Federbalken angebracht ist, die Kräfte, die zwischen dieser Spitze und der zu untersuchenden Probe auftreten. In der vorliegenden Arbeit verwendeten die Forscher einen so genannten qPlus Kraftsensor, bei dem die Spitze eines Zinkens auf einer Art Stimmgabel angebracht ist, während der andere Zinken fixiert ist. Die Stimmgabel wird mechanisch angeregt. Wird die Spitze nun sehr nah über der Probe, etwa über einem einzelnen Atom, platziert, verändert sich die Resonanzfrequenz der Stimmgabel aufgrund der Kräfte, die zwischen Probe und Spitze auftreten. Die Kraftdifferenz zwischen einem neutralen Goldatom und einem Goldatom mit einem zusätzlichen Elektron, beträgt nur etwa 11 Pikonewton – die Messgenauigkeit dieser Experimente liegt im Bereich von einem Pikonewton. „Ladungszustand und –verteilung sind kritische Grössen in der Katalyse und bei der Umwandlung von Licht in elektrische Energie", erklärt IBM-Forscher Leo Gross. "Das Abbilden der Ladungsverteilung auf atomarer Skala könnte zu einem besseren Verständnis der grundlegenden Abläufe auf diesen Gebieten führen.“
IBM gilt seit der Erfindung des Rastertunnelmikroskops im Jahr 1981 durch Gerd Binnig und Heinrich Rohrer am Zürcher Labor als Pionier auf dem Gebiet der Nanowissenschaft. Für diese Entwicklung erhielten Binnig und Rohrer 1986 den Nobelpreis für Physik. Im vergangenen Sommer hatten die Eidgenössische Technische Hochschule (ETH) Zürich und IBM den Bau eines gemeinsamen Nano-Labors angekündigt.
Quelle : www.heise.de (http://www.heise.de)
-
Der deutsche Astrophysiker Martin Bojowald wagt den Sprung zurück zum Ursprung des Universums – und in die Zeit davor
Gab es vor dem "Big Bang" Zeit und Raum, oder regierte das Nichts? Hat es unsere Welt schon einmal gegeben? Martin Bojowald versucht diese Frage mit der von ihm weiterentwickelten Schleifengravitation-Theorie zu beantworten, in der Raumzeit-Atome den Raum aufbauen. Bojowald (geb. 1973) hat nach dem Studium am Max-Planck-Institut für Gravitationsphysik in Potsdam gearbeitet und ist nun Assistant Professor an der Penn State University (USA). In seinem unlängst erschienenen Buch "Zurück vor dem Urknall" stellt er seine These detailliert vor, von der er selbst sagt: "Genau genommen verstehe ich die Theorie der Schleifengravitation selbst noch nicht so ganz."
Irgendwann zu keinem Zeitpunkt und irgendwo an keinem bestimmten Ort öffnete sich der Vorhang zum ersten Akt des größten kosmischen Dramas aller Zeiten. Es war eine Premiere ohne Generalprobe, die kein Zuschauer sehen, kein Auditorium hören und kein Chronist protokollieren konnte: eine gewaltige Ouvertüre eines grandiosen Schauspiels. Als sich der Urknall (engl.: Big Bang) vor ungefähr 13,7 Milliarden Jahren völlig lautlos und absolut lichtfrei in Szene setzte, befreiten sich Raum, Zeit und Materie aus einem unendlich heißen und dichten Punkt: der Urknall-Singularität. Binnen einer Quintillionstel (Zahl mit 30 Nullen nach dem Komma) Sekunde blähte sich der Raum weit über die Größe des heute beobachtbaren Universums auf. Seitdem expandiert das Universum – mit zunehmender Geschwindigkeit.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_1.jpg)
ART hat versagt
Heute, 13,7 Milliarden Jahre später, ist die Urknall-Theorie trotz einiger Anfechtungen "auf dem Markt der kosmologischen Theorien", wie es der franko-kanadische Astrophysiker Hubert Reeves charakterisiert, nach wie vor "die bei weitem beste Wahl". Die Expansion des Raumes, die sich in der Rotverschiebung widerspiegelt und das "Echo" des Urknalls, das sich in der Mikrowellen-Hintergrundstrahlung verewigt hat, avancierten zu den beiden heiligen Säulen der Urknall-Theorie.
Doch seit einigen Jahren rüttelt ein deutscher Astrophysiker mit einem neuen Modell an den Festen der Kosmologie, das zwar die historische Dimension des Urknalls nicht in Frage stellt, jedoch der Urknallsingularität den Garaus macht. "Die Allgemeine Relativitätstheorie (ART) hat in punkto Anfangssingularität völlig versagt", so der deutsche Astrophysiker Martin Bojowald. Einsteins Theorie ignoriere, dass die Konzentration der Materie und die Stärke der Gravitation durch die feine Quantenstruktur der Raumzeit begrenzt werde.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_2.jpg)
Bojowald, der an der Pennsylvania State University in den USA lehrt und forscht, wendet schon seit knapp zehn Jahren als erster seines Genres eine vergleichsweise neue Theorie auf den Urknall an. Der 36-jährige, von Boulevard-Gazetten längst als zweiter Einstein gefeiert, hat sein Theorie-Fundament auf die Schleifenquantengravitation (Loop-Theorie oder kurz Schleifengravitation) gebaut. Ein Modell, das bereits Ende der 1980er Jahre konzipiert und seither ständig verbessert wurde. Es teilt den Raum und die Zeit in kleinste Einheiten auf, in so genannte Raumzeit-Atome. Sie verhindern, dass das Universum im Urknall auf die Größe null schrumpft. Denn in Bojowalds modifiziertem Konzept hat es sich ausgeknallt mit dem Urknall. Einst als Anfang alles Seins gefeiert, degradiert der deutsche Theoretiker den Big Bang zum "Grenzfall". Er sei bestenfalls eine Grenze, ein Übergangsstadium, sagt Bojowald.
Um hinter die Fassade des Urknalls zu blicken, nimmt Bojowald die Raumzeit mit Argusaugen unter die Lupe und versucht, ihre Feinstruktur präzise zu erfassen. Die Relativitätstheorie sei blind dafür, sagt er.
Dass für die Raumzeit in unserer Gedankenwelt überhaupt Raum ist, verdanken wir Albert Einstein. Zu einer Zeit, als Physiker den Raum noch als nicht-physikalisches Gebilde ansahen, der einfach und immer schon existent war, erkannte Einstein als Erster, dass die Raumzeit nicht bloß die Bühne lieferte, auf der das Drama des Universums abläuft, sondern selbst das Geschehen aktiv mitgestaltet.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_3.jpg)
Martin Bojowald. Bild: Harald Zaun
Materielle Raumzeit-Quanten
In Bojowalds Konzept gewinnt die Einstein'sche Raumzeit sogar an deutlichen Konturen. Während bislang viele kosmologische Theorien die Raumzeit schlichtweg vernachlässigten, wertet Bojowald sie bewusst auf und beseelt sie sogar mit materiellen Bausteinen: den Raumzeit-Quanten. Laut Schleifengravitation existieren derlei Gebilde nicht wie normale Atome in einem bereits bestehenden Raum, sondern bilden ihn, bauen ihn auf, geben ihm Form, Struktur und Aussehen. "Stellen wir uns einfach zwei Punkte in einem Raum vor, die aufgrund des Fehlens von Raumzeit-Atomen zueinander eine Distanz von Null haben", so Bojowald. "Fügen wir nun einige Raumzeit-Atome hin zu, vergrößert sich die Entfernung zwischen den beiden Punkten. Je mehr Raumzeit-Atome hinzu stoßen, desto größer wird die Distanz der Punkte zueinander." Auf diese Weise entsteht Raum.
Dabei ist das komplexe Gewebe der Raumzeit-Atome so dicht strukturiert, dass es wie ein Kontinuum wirkt. Mit einer Größe von nur 0,00000000000000000000000000000001 Millimeter (Planck-Länge) sind Raumzeit-Atome weitaus kleiner als ihre herkömmlichen materiellen Kollegen. Selbst das beste Elektronenmikroskop könnte ein einzelnes hypothetisches Raumzeit-Atom mitnichten auflösen. Direkt wird sich die atomar strukturierte Raumzeit also nicht nachweisen lassen; indirekt vielleicht schon, hofft Bojowald. "Wenn Raumzeit-Atome existieren, wird es nicht wie bei den materiellen Atomen Jahrhunderte dauern, Indizien dafür zu finden." Mit etwas Glück könnte der im Mai dieses Jahres erfolgreich gestartete ESA-Forschungssatellit Planck winzige Schwankungen in der kosmischen Hintergrundstrahlung detektieren und daraus Informationen über die Quantengravitation extrahieren.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_6.jpg)
Martin Bojowald, Zurück vor dem Urknall, S. Fischer-Verlag, Frankfurt a. M. 2009
Da in der Schleifengravitation der Raum in Atome des Volumens unterteilt ist, kann der Raum nur endlich viel Materie und Energie speichern. Existieren wie bei einer Singularität sehr hohe Energiedichten, verändert die atomare Struktur der Raumzeit das Wesen der Schwerkraft. Und zwar dergestalt, dass sie abstoßend wird, ähnlich einem porenreichen, nassen Schwamm, der einmal voll gesogen, das überschüssige Wasser wieder abstößt. Übertragen auf den Beginn des Universums kann es in kosmischer Urzeit daher keine Anfangssingularität gegeben haben. Allenfalls besaß das frühe Universum eine sehr hohe, aber endliche und keineswegs unendliche Dichte. Auf einem Raumgebiet von der Größe eines Protons konzentrierten sich vor 13,7 Milliarden Jahren sage und schreibe eine Billion Sonnenmassen (Planck-Dichte). Als darauf hin die Gravitation ihre abstoßende Kraft entfachte, übernahm die Expansion des Raums die Regie.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_14.jpg)
Wunderschöne Sombrero-Galaxie. Bild: ESO
Kosmos mit negativer Zeit
Da Bojowalds Modell keine Urknallsingularität erlaubt, fällt auch der starre Anfangspunkt weg, an dem der Zeitpfeil abgeschossen wurde. Astrophysiker nennen ihn Planck-Zeit. Sie definiert gemäß der Einstein'schen Relativitätstheorie den frühest möglichen Zeitpunkt der Welt (zehn hoch minus 43 Sekunden nach dem Urknall). Alles, was sich vor der Planck-Zeit jemals abgespielt hat, ist nach Ansicht vieler Wissenschaftler ein Buch mit "acht" Siegeln.
Für Bojowald jedoch nicht. Er hält es für durchaus denkbar, dass unser Universum bereits vor dem Urknall existiert hat – und zwar als Spiegeluniversum in einer negativen, umgestülpten Zeitdimension. "Das Universum hatte keinen Anfang. Es existierte immer schon", so Bojowald.
Wie sich bei seinen mehrjährigen Berechnungsmarathon herauskristallisierte, präsentierte sich das vorangegangene Universum als bizarre Welt mit negativer Zeit, in der der Kosmos nicht mehr expandiert, sondern kollabiert. Raum und Zeit sind demnach schon vor dem Urknall in der Welt; allerdings in einer verkehrten. "Der Raum wird praktisch in sich selbst umgestülpt. Das kann mit einem ideal kugelförmigen Luftballon veranschaulicht werden, aus dem die Luft entweicht. Übrig bleibt ein leerer Ballon, wobei alle Teile der Hülle aufeinander stoßen – wie in einer Singularität", erläutert Bojowald. Dann werde sich der Ballon zwangsläufig wieder zu einer Kugel aufblähen, wobei die vorherigen Innenseiten nun außen seien.
(http://www.heise.de/tp/r4/artikel/30/30531/30531_15.jpg)
Unendliche Weiten in einem unendlich endlichen Kosmos, der Bojowald Theorie zufolge immer schon existiert haben könnte. Bild: NASA, ESA, J. Blakeslee and H. Ford (Johns Hopkins University)
Dieser Prozess kann zyklisch verlaufen, sich also für alle Ewigkeit wiederholen, vermutet der Astrophysiker. Der Urknall war daher eher eine Art Urprall. Mit Sicherheit aber war das Schattenuniversum dem Unsrigen ziemlich ähnlich. In ihm regierten die uns bekannten Naturgesetze mit genauso großer Strenge. Und in ihm flog auch ein artverwandter Zeitpfeil ins Ungewisse der Zukunft. Und in ihm fanden auch, glaubt Bojowald, intelligente Lebensformen eine Nische. "Ob diese aber wirklich die gleichen Theorien wie wir entwickeln, wage ich jedoch zu bezweifeln."
Quelle : http://www.heise.de/tp/ (http://www.heise.de/tp/)
-
Seit Jahrhunderten erklären Wissenschaftler Technologien für unmöglich, die später selbstverständlich werden. Um zu verstehen, was die Zukunft bringen könnte, dürfen wir nicht eindimensional denken, meint Technology Review-Essayist Michio Kaku.
Michio Kaku hat an der Harvard-Universität Physik studiert und 1972 am Lawrence Berkeley National Laboratory der University of California, Berkeley, promoviert. Als Wissenschaftler beschäftigt er sich hauptsächlich mit der Stringtheorie. Darüber hinaus hat er mittlerweile zahlreiche populärwissenschaftliche Bücher zu theoretisch-physikalischen Themen verfasst.
Fragen Sie die klügsten Menschen der Welt, die besten Wissenschaftler und Techniker unserer Zeit: Was ist unmöglich? Die Frage ist ja auf den ersten Blick ganz einfach, und die Antwort wird immer ähnlich ausfallen: Alles, was gegen die Naturgesetze verstößt.
Aber was bedeutet das konkret? Leider sind die Seiten der Geschichtsbücher voll von vernichtenden Urteilen berühmter Wissenschaftler über Technologien, die heute völlig selbstverständlich sind: William Thomson etwa, der Nachwelt besser bekannt als Lord Kelvin, der vielleicht berühmteste Physiker der viktorianischen Epoche, hielt Flugmaschinen, die schwerer als Luft sind, schlicht für unmöglich – genauso wie Röntgenstrahlen. Und er war davon überzeugt, dass die Erde unter keinen Umständen älter sein könnte als ein paar Millionen Jahre. Oder nehmen wir Lord Rutherford, den Entdecker des Atomkerns. Der erklärte die Idee der Atombombe für völligen Unsinn. Die in einem Atomkern enthaltene Energie sei einfach zu klein für den Bau einer Waffe, meinte er.
Natürlich gibt es auch Gegenbeispiele. Oft vertraten die einfallsreichsten Wissenschaftler Ideen, die selbst Science-Fiction-Autoren für zu bizarr gehalten hätten, frei nach dem von Albert Einstein formulierten Motto: "Wenn eine Idee nicht auf den ersten Blick absurd erscheint, taugt sie nichts." 1914 hatte der britische Schriftsteller H. G. Wells, neben Jules Vernes einer der großen Pioniere der Science-Fiction, in seinem Roman "Befreite Welt" beschrieben, wie ein Wissenschaftler 1933 das Geheimnis der Atombombe entdeckt. Der Physiker Leó Szilárd stolperte 1932 über die Geschichte, die ihn zur Idee der Kettenreaktion inspirierte. Damit begann im Folgejahr – genau wie von Wells vorhergesagt – die Entwicklung der ersten Atombombe. Die Kettenreaktion konnte die Energie, die durch die Spaltung eines einzigen Atomkerns beginnt, so stark vervielfachen, dass Rutherfords Einwand hinfällig wurde.
Robert Goddard, der Vater der modernen Raketenforschung, hielt trotz heftiger Kritik an seiner Entwicklung einer Theorie der Raketenantriebe für die Raumfahrt fest, obwohl ihm seine Gegner vorhielten, mangels Luft, an der die Rakete sich abstoßen könne, sei es ganz unmöglich, im All vorwärts zu kommen. Die Redakteure der "New York Times" schäumten 1921 gar: "Professor Goddard kennt das Verhältnis zwischen Aktion und Reaktion nicht und weiß auch nicht, dass man etwas Besseres als Vakuum braucht, an dem eine Reaktion erfolgen kann. Ihm scheint das grundlegende Wissen zu fehlen, das täglich in unseren High Schools gelehrt wird." Knapp 50 Jahre später brachte eine Rakete die ersten Menschen zum Mond.
Warum sollten sich also nicht auch andere, scheinbar absurde Ideen aus der Science-Fiction verwirklichen lassen? Die Serie "Raumschiff Enterprise" beispielsweise inspirierte den mexikanischen Physiker Miguel Alcubierre dazu, sich Gedanken zu überlichtschnellen Antrieben zu machen. Die Idee, dass Raum und Zeit miteinander verknüpft sind, hatte Albert Einstein zwar bereits 1915 vorgestellt (siehe Kasten). Erst Alcubierre fand aber eine exakte Lösung für Einsteins Gleichungen, die genau die aus den Fernsehserien bekannten Eigenschaften ermöglichte. Anders als in "Star Trek" werden dafür allerdings keine "Dilizium-Kristalle" benötigt, sondern ein völlig neuer Brennstoff – die sogenannte nega-tive Materie, die in der Natur bisher noch nicht entdeckt wurde.
Antimaterie hingegen, ebenfalls bekannt aus derselben SF-Serie, wurde nicht etwa von Gene Roddenberry, dem Schöpfer von "Star Trek", erfunden. Diese Ehre gebührt dem britischen Physiker Paul Dirac, dessen relativistische Beschreibung der Quantenmechanik bereits 1928 eine neue, eigentümliche Art von Materie vorhersagte, die vollkommen identisch sei mit der uns bekannten Materie, bis auf den entscheidenden Unterschied, dass alle Teilchen genau die entgegengesetzte elektrische Ladung besitzen wie normalerweise: Ein Elektron ist also positiv geladen, ein Proton negativ. Heute können wir mit Teilchenbeschleunigern wie dem Large Hadron Collider tatsächlich Antimaterie-Strahlen erzeugen und sie zum Beispiel für medizinische Zwecke nutzen.
Bis heute stimuliert die Science-Fiction neue physikalische Entwicklungen: Über die Unsichtbarkeit, die schon die antiken Griechen diskutiert haben, habe ich früher selbst in meinen Optikkursen erzählt, sie sei unmöglich. Dafür müsste man Licht gewissermaßen um ein Objekt herumwickeln und es auf der Rückseite des Objektes neu formieren, ähnlich wie ein Bach um Steine fließt. Das ist nicht möglich, so dachte man jedenfalls.
2006 demonstrierten Forscher der Duke University in North Carolina und vom Imperial College in London, dass Mikrowellen sich mithilfe solcher Materialien wie Wasser um ein Objekt herumleiten und dahinter wieder vereinigen lassen, wodurch das Objekt unsichtbar wird. Im August 2007 zeigten Wissenschaftler von der University of California in Berkeley, von der Universität Karlsruhe und vom Ames Laboratory in Iowa, dass man Laserlicht im sichtbaren Bereich auf der mikroskopischen Ebene auf ähnliche Weise um Gegenstände falten kann. Auch wenn es noch viele Jahrzehnte dauern wird, bis die Technik perfektioniert ist – das Prinzip ist bewiesen, und Harry Potters Tarnumhang steht nicht mehr außer Frage. Es gibt nur noch kleinere Hindernisse zu umschiffen: Zum Beispiel könnte der Zauberschüler, würde er in einen Zylinder dieses Metamaterials gesteckt, nicht hindurchsehen. Also müsste man zwei Gucklöcher hineinstanzen – dann würden aber Außenstehende zwei in der Luft schwebende Augen sehen. Zudem müsste es für jede Frequenz ein anderes Metamaterial geben.
Ist also letztendlich alles möglich, wenn die Wissenschaftler nur genügend Fantasie beweisen? Um etwas Ordnung in die Beantwortung dieser Frage zu bringen, habe ich "Unmöglichkeit" in drei Kategorien eingeteilt: Unsichtbarkeit gehört für mich zu den "Unmöglichkeiten ersten Grades". Das sind Entwicklungen, die nur scheinbar die bekannten physikalischen Gesetze verletzen, in den kommenden Jahrzehnten oder Jahrhunderten aber dennoch möglich werden könnten. Die in der klassischen Science-Fiction gern verwendeten Dinge wie Strahlenwaffen, Lichtschwerter, intelligente Roboter, Raumschiffe und Antimaterie-Antriebe verletzen nicht die Gesetze der Physik und stellen daher hauptsächlich ein Ingenieursproblem dar.
Bei "Unmöglichkeiten zweiten Grades" dagegen handelt es sich um Techniken, die zwar heute unmöglich sind, allerdings in einigen Jahrtausenden möglich werden könnten. Das berühmteste Beispiel dafür ist die Zeitreise, die schon seit Jahrhunderten die Fantasie von Science-Fiction-Autoren angeregt hat: Der Astrophysiker Stephen Hawking hat zwar versucht zu beweisen, dass Zeitreisen unmöglich sind: Sie verletzten ein grundlegendes Gesetz der Physik, das er die Chronologie-Schutzhypothese nannte und das "die Geschichte sicher für Historiker machen" würde. Nach einigem Aufwand musste er jedoch schließlich zugeben, dass er seine Hypothese nicht beweisen kann.
Wenn Zeitreisen prinzipiell möglich sind, muss die Physik aber auch eine Lösung finden für die in Science-Fiction-Werken häufig vorkommende Frage des Zeitparadoxons. So wäre es zum Beispiel möglich – Zeitreisen vorausgesetzt –, dass man zu seinem eigenen Vater oder Sohn oder zur eigenen Mutter oder Tochter wird. Eine Frau könnte sich beispielsweise zu einer Geschlechtsumwandlung entschließen, dann als Mann in der Zeit zurückreisen und mit sich selbst als Teenager-Mädchen ein Techtelmechtel anfangen. Würde das Mädchen schwanger und bekäme sie eine Tochter, mit der der Mann anschließend weiter in die Vergangenheit reiste, könnte das Baby zum ursprünglichen Teenager und später zu der Frau vom Anfang der Geschichte heranwachsen.
Die Lösung dieses Paradoxons kann man in Science-Fiction-Geschichten mit Paralleluniversen entdecken – ein Konzept, dass sich auch in der Quantentheorie wiederfindet. Wenn die Zeit ein Fluss ist, dann wäre der neue Kniff dabei, dass der Zeitfluss Strudel hat und sich sogar in zwei Flüsse aufspalten kann. Genau das ist eine Lösung dieser klebrigen Zeitparadoxa, die es zum Beispiel auch erlauben, seine Eltern umzubringen, bevor man selbst geboren wird – die Aufspaltung des Zeitflusses in zwei Flüsse. Eine Zeitreise wäre in diesem Fall einfach das Wechseln von einem Quantenzeitstrom in den anderen. Folglich hat man einfach die Vergangenheit von jemand anderem in dessen Zeitstrom geändert, der eigene Zeitstrom dagegen bleibt gleich. Man kann also nur die Vergangenheit von anderen Menschen ändern.
Unglücklicherweise entsteht genau in dem Moment, in dem man die Zeitmaschine betritt, ein weiteres Problem: Quanteneffekte führen zur Entstehung von Strahlung, möglicherweise so viel, dass es den Zeitreisenden umbringt oder das Zeitportal verschließt. Daraus folgt, dass wir zur Lösung der Zeitreisen-Frage eine "Theorie von allem", eine alles umfassende, universelle Theorie brauchen, die jene Theorie der Raumzeit und der Gravitation mit der Quantentheorie verknüpft. Damit verdiene ich meine Brötchen: Ich arbeite an der sogenannten Stringtheorie, der führenden und bisher einzigen Kandidatin für eine solche "Weltformel".
Meine persönliche Science-Fiction-Inspiration waren Wieder- holungen der alten "Flash Gordon"-Filme, die ich in meiner Kindheit gesehen habe. Ich war völlig fasziniert davon, wie Buster Crabbe das Universum mit seinem klapprigen Raumschiff und seiner Strahlenwaffe eroberte. Nach einiger Zeit erkannte ich, dass der eigentliche Held der Serie nicht Flash Gordon war, sondern der Physiker Dr. Zarkov: Er war es, der Gordons Raumschiff baute, die Stadt in den Wolken und den Unsichtbarkeitsstrahl konstruierte. Damals wurde mir klar: Ohne Wissenschaft gibt es keine Science-Fiction. Flash war der Frauenheld, Zarkov war der eigentliche Motor der Show.
Später habe ich begeistert die Foundation-Trilogie von Isaac Asimov gelesen. Die eröffnete mir ein ganz neues Universum an Unmöglichkeiten der Kategorie II: Asimov verführte seine Leser dazu, sich eine Zivilisation vorzustellen, die 5000 Jahre in der Zukunft liegt. Auf dieser Zeitskala könnte es natürlich Technologien geben, deren Entwicklung noch sehr, sehr lange dauern würde – also musste ich lernen zu unterscheiden: zwischen Technologien, die zwar sehr kompliziert herzustellen wären, letztendlich aber "nur" die Lösung von Ingenieursproblemen beinhalten würden, und Technologien, die fundamentale Gesetze der Physik verletzen. Solche Technologien nenne ich Unmöglichkeiten der Kategorie III: Maschinen, mit deren Hilfe man in die Zukunft sehen kann etwa oder das berühmte Perpetuum mobile – ein Antrieb, der ohne äußere Energiezufuhr unendlich lange läuft.
Die Gesetze der Physik einfach zu ignorieren, ist für die Autoren von Science-Fiction oder Fantasy natürlich eine leichte Übung. Wir Physiker aber können so etwas nicht auf die leichte Schulter nehmen. Als junger Doktorand habe ich viel über Unmöglichkeiten der Kategorie III nachgedacht. Was ist der Ursprung dieser fundamentalen Gesetze der Physik, die unseres Wissens nach nicht verletzt werden können, wie beispielsweise das Gesetz von der Erhaltung der Energie? Ich fiel buchstäblich fast vom Stuhl, als ich vom sogenannten Noether-Theorem erfuhr: Emmy Noether, eine brillante deutsche Mathematikerin, die Anfang des 20. Jahrhunderts in Göttingen gelehrt hatte, bis sie vor den Nazis in die USA floh, hatte folgende sehr grundlegende Idee: Wenn ein physikalisches Gesetz eine Symmetrie besitzt, gibt es einen dazu entsprechenden Erhaltungssatz in der Physik. Die Energieerhaltung beispielsweise folgt aus der Tatsache, dass physikalische Gesetze unabhängig vom gewählten Startzeitpunkt immer gleich sind.
Die Erkenntnis traf mich wie ein Schlag: Wenn wir Licht aus entfernten Galaxien beobachten, die Milliarden von Lichtjahren entfernt sind, und die Spektrallinien dieser Galaxien sind genau die gleichen wie hier auf der Erde, dann bedeutet dies, dass die physikalischen Gesetze sich in diesem Zeitraum nicht verändert haben. Und mindestens genauso lange ist auch die Energie des Universums konstant.
Diese Erkenntnis eröffnete mir allerdings auch ein kleines intellektuelles Schlupfloch: Könnten die Gesetze der Physik in einem Paralleluniversum nicht vielleicht ganz andere sein? Oder gelten die Beschränkungen, denen wir hier unterworfen sind, überall im Multiversum der Universen? In der Stringtheorie gibt es viele gültige Lösungen der grundlegenden Gleichungen. Jede dieser Lösungen beschreibt ein Universum, in dem eine ganz andere Art von Physik gilt. Die Stringtheorie selbst ist eine Metatheorie, deren Formulierung unabhängig von der konkreten Physik des gerade betrachteten Universums ist. Es wäre also durchaus denkbar, dass es unterschiedliche Universen mit unterschiedlichen Naturgesetzen gibt.
Tatsächlich könnte die Vorstellung vom Multiversum eine sehr verwirrende Eigenschaft der Natur erklären: Die Naturkonstanten in diesem Universum, wie etwa die Elementarladung des Elektrons, die Lichtgeschwindigkeit oder das Plancksche Wirkungsquantum, sind rätselhafterweise genau so "eingestellt", dass Leben entstehen kann. Wenn die Kernkräfte nur ein winziges bisschen schwächer wären, hätte nie auch nur ein einziger Stern angefangen zu leuchten. Wenn die Kernkräfte stärker wären, wären die Sterne viel zu schnell verglüht, bevor Leben hätte entstehen können. Wenn die Gravitationskraft ein kleines bisschen stärker oder schwächer wäre, dann wäre das Universum vielleicht schon längst in einem einzigen Punkt kollabiert oder hätte sich unendlich ausgedünnt.
Hier und jetzt aber leben wir in einer Welt, in der diese Konstanten die glückliche Mitte treffen. Manche Menschen sehen in diesem bemerkenswerten Treffer einen Beweis dafür, dass es einen "großen Gestalter" gibt, der das Universum genau für diesen Zweck entworfen hat – der Entstehung von Leben. Die Wahrscheinlichkeit, dass dies rein zufällig passiert sei, sei so klein wie die, dass ein Hurrikan aus einem Haufen Metallteile eine Boeing 747 zusammensetzt, argumentieren sie.
Aber es gibt eine andere Erklärung für dieses Rätsel, und die kommt ohne Gott aus: Es ist sehr viel wahrscheinlicher, dass es unendlich viele parallele Universen gibt, in denen die Naturkonstanten einen anderen Wert haben. Die meisten dieser Universen sind kalte, tote Orte, in denen die Gesetze der Physik, die hier das Leuchten von Sternen ermöglichen, und die Entstehung der DNA nicht gelten. Wir haben einfach den Hauptgewinn gezogen in dieser "kosmischen Lotterie" – deswegen sind wir hier und können uns all diese merkwürdigen Fragen stellen. Möglicherweise leben wir in dem einzigen von all diesen unendlich vielen Universen, in dem so etwas wie Science-Fiction entsteht.
Quelle : http://www.heise.de/tr/ (http://www.heise.de/tr/)
-
Die Aufgabe, acht Damen so auf einem Schachbrett zu platzieren, dass sich keine davon gegenseitig schlagen können, läuft früher oder später jedem Informatik-Erstsemester über den Weg. 92 Möglichkeiten gibt es, und ein aktueller PC benötigt ungefähr null Sekunden, um sie alle auszurechnen. Doch wie bei vielen kombinatorischen Problemen werden die Zahlen und damit die Zeiten, sie zu ermitteln, schnell gigantisch, wenn man die Aufgabe größer macht: Wie viele Möglichkeiten gibt es, n Damen bedrohungsfrei auf einem n×n-Schachbrett zu platzieren?
Bis vor kurzem waren die Lösungen bis n=25 bekannt; für n=25 dauerten die Berechnungen durch die Forschergruppe OASIS von Oktober 2004 bis Juni 2005 und verschlangen insgesamt 53 Jahre an CPU-Zeit. Das Projekt Queens@TUD der Technischen Universität Dresden hat sich daraufhin der Frage n=26 angenommen und am 11. Juli fertiggezählt: 22.317.699.616.364.044 Möglichkeiten gibt es.
Um diese Zahl zu ermitteln, gossen die Dresdner das Problem in Hardware, genauer in FPGAs. Ein Field Programmable Gate Array ist ein programmierbarer Logikbaustein: Seine Software ist sozusagen ein Schaltplan, und einmal programmiert, lässt sich solche eine Schaltung mit einer Taktfrequenz in der Größenordnung von 100 MHz betreiben. Das klingt im Vergleich mit aktuellen Allzweckprozessoren nicht nach viel, doch kann ein Spezialprozessor, dessen alleiniger Daseinszweck das Überprüfen von Damen-Stellungen ist, diese Aufgabe in erheblich weniger Taktzyklen erledigen.
Zunächst wurde das Problem in Teilprobleme aufgeteilt, bei denen die Damen in den ersten sechs Spalten fest platziert waren. Nach Symmetrie-Überlegungen blieben etwa 25 Millionen solcher Teilprobleme übrig, die dann von den FPGAs durchgekaut wurden. Nach neun Monaten massiv parallelen Rechnens auf zwischenzeitlich noch erweiterter Hardware stand das Ergebnis schließlich fest. Das konkurrierende NQueens@Home-Projekt, das dieselbe Aufgabe mit verteiltem Rechnen übers Internet zu lösen versucht, rechnet übrigens immer noch ...
Quelle : www.heise.de (http://www.heise.de)
-
Die Quantentheorie ist äußerst erfolgreich, nur über ihre Interpretation streiten Experten noch. Einige Wissenschaftler erklären die bizarren Phänomene der Mikrowelt mit verborgenen Variablen. Experimentalphysiker haben ein derartiges Modell nun widerlegt.
Man muss eine Formel nicht philosophisch durchdrungen haben, um damit richtige Ergebnisse ausrechnen zu können. Die Quantenphysiker machen es vor: Ihre Theorie beschreibt die Phänomene aus der Welt des Mikrokosmos sehr gut. Sie erlaubt allerdings statt präziser Prognosen in der Regel nur Wahrscheinlichkeitsaussagen für die Zukunft. Die große philosophische Frage lautet daher: Ist die Quantenmechanik schlicht nur eine Beschreibung physikalischer Erscheinungen? Oder weist sie womöglich auf eine hinter den Phänomenen verborgene, uns bislang unbekannte Realität hin? Falls ja, wie sieht diese dann aus?
Physiker haben für die Quantentheorie verschiedene Interpretationen entwickelt, die meisten sind Anhänger der sogenannten Kopenhagener Deutung. Diese besagt unter anderem, dass Messungen ein System beeinflussen und dass im Mikrokosmos tatsächlich der Zufall regiert. Wann beispielsweise ein Teilchen zerfällt, lässt sich deshalb nicht vorhersagen.
Verfechter der Theorie der sogenannten verborgenen Variablen sehen das etwas anders: Die Quantenmechanik beschreibt ihrer Meinung nach die Natur keinesfalls umfassend. Die Theorie soll vielmehr unvollständig sein, weil angeblich noch verborgene Variablen existieren. Würde man diese kennen, ließe sich ein zukünftiges Messergebnis exakt vorhersagen - wie in der klassischen Mechanik. Der Zufall in der Quantenmechanik wäre damit letztlich mit dem Unvermögen der Forscher erklärt, die verborgenen Variablen zu messen.
Alltagserfahrung widerspricht Quantenphänomenen
Wissenschaftler aus Österreich und Spanien haben dieser umstrittenen Interpretation nun experimentell zugesetzt. Vollständig widerlegt sind verborgene Variablen damit zwar noch nicht, Christian Roos vom Institut für Quantenoptik und Quanteninformation in Innsbruck und seine Kollegen konnten jedoch für bestimmte Variablen-Modelle zeigen, dass diese nicht stimmen können. Über ihre Studie berichten die Forscher im Fachblatt "Nature" (Bd. 460, S. 494 - 497).
"Modelle verborgener Variablen lehnen sich an unsere Alltagserfahrung an", erklärt Roos im Gespräch mit SPIEGEL ONLINE. Ein Gegenstand habe bestimmte Eigenschaften, unabhängig davon, ob man sie messe oder nicht. "Wenn es verborgene Variablen gäbe, dann würde dies bedeuten, dass Größen bereits festgelegt sind und eine Messung ihre Werte quasi ans Licht holt."
Das Modell verborgener Variablen müsse jedoch auch erklären, warum man bei mehrmaliger Durchführung eines Quantenexperiments nicht stets dieselben Resultate erhalte, sagt Roos. Forscher sprechen vom sogenannten Indeterminismus der Quantenmechanik.
Weshalb beispielsweise ist der Spin eines immer auf gleiche Weise präparierten Quantensystems bei einer Messung +1/2 und bei einer anderen -1/2? Üblicherweise erklären Verfechter verborgener Variablen dies damit, dass Experimentalphysiker schlicht nicht in der Lage sind, Systeme so zu präparieren, dass sie bei wiederholten Messungen identische Messergebnisse liefern.
Gesunder Menschenverstand reicht nicht
Diesen Angriffspunkt haben Roos und seine Kollegen geschickt umschifft. Sie experimentierten mit einem System, bei dem es gar nicht darauf ankommt, dass es in einem ganz bestimmten Zustand präpariert ist. Die Forscher speicherten zwei Ionen in einer Ionenfalle und führten danach nacheinander drei Messung von Spinkomponenten in dem System durch.
Es existieren verschiedene Modelle mit verborgenen Variablen, die Innsbrucker Physiker untersuchten sogenannte nichtkontextuelle Modelle. Bei diesen ist das Ergebnis einer Messung von anderen gleichzeitig durchgeführten Messungen unabhängig. Bereits 1967 hatten die Mathematiker Simon Kochen und Ernst Specker auf dem Papier gezeigt, dass solche Erklärungsversuche mit verborgenen Variablen nicht funktionieren können. Die Forscher vom Institut für Quantenoptik und Quanteninformation haben diese theoretische Arbeit nun experimentell bestätigt.
"Wir haben unser Experiment in verschiedenen Varianten einige Tausend Mal durchgeführt", erzählt Roos. Dies sei nötig, um genug Daten für die Statistik zu haben. Die Resultate waren eindeutig: Die drei nacheinander durchgeführten Messungen korrelierten. Das heißt: Das Ergebnis einer Messung im System war abhängig von anderen, zuvor durchgeführten Messungen.
"Wären die Variablen nichtkontextuell, hätten wir andere Ergebnisse gehabt", sagt der Forscher. In der Quantenmechanik gebe es aber durchaus Größen, die kann man gleichzeitig messen könne, ohne dass sich die Messungen gegenseitig störten, betont Roos. Für das untersuchte System treffe dies jedoch nicht zu. Die Studie zeige, dass nichtkontextuelle Modelle falsche Aussagen über die Messdaten lieferten.
Das Verständnis der Quantenmechanik wird durch die Experimente in Innsbruck allerdings nicht unbedingt erleichtert. Eher im Gegenteil: Mit gesundem Menschenverstand allein ist die Theorie des Mikrokosmos nicht zu begreifen, wie die Forscher selbst einräumen.
Quelle : www.spiegel.de (http://www.spiegel.de)
-
Bisher war transparentes Aluminium vor allem aus dem 4. Star Trek-Film »Zurück in die Gegenwart« bekannt, in dem Chefingenieur Scotty die Information über das Material an einen Ingenieur des 20. Jahrhunderts gab. Doch wie die Universität von Oxford meldet (http://www.ox.ac.uk/media/news_stories/2009/090727_2.html), ist es nun tatsächlich gelungen, transparentes Aluminium herzustellen, indem das Metall mit dem stärksten Röntgen-Laser der Welt beschossen wurde.
Ein kurzer Puls, der mehr Energie enthielt als eine ganze Stadt benötigt, riss ein Elektron aus jedem Aluminium-Atom, ohne die Struktur des Metalls zu zerstören. Danach war das Metall zumindest für extreme ultraviolette Strahlung nahezu unsichtbar. Es handelt sich nach Ansicht der Wissenschaftler um einen neuen Zustand von Materie, den man noch nie zuvor gesehen habe und der auch nur 40 Femtosekunden lang anhielt. Man erhofft sich Kenntnisse, die für die Nutzung von Kernfusion hilfreich sein könnten.
Quelle : www.gamestar.de (http://www.gamestar.de)
Femtosekunde
Hmm , ein billiardstel Teil einer Sekunde :-\
1 fs = 1·10-15
-
Qudits können nicht nur mehr Informationen speichern, sie eignen sich auch prinzipbedingt für mit Qubits nicht mögliche Experimente. So beschreiben Physiker der University of California in Santa Barbara im Wissenschaftsmagazin Science, wie sie mit ihrer auf einem tiefgekühlten supraleitenden Schwingkreis basierenden Technik das Verhalten von Spins simulieren konnten – ein, wie es der Physiker Friedemann Reinhard von der Universität Stuttgart einschätzt, "spektakulärer Beweis, dass der Schwingkreis tatsächlich ein anderes quantenmechanisches System simulieren kann".
Das in Science beschriebene Herangehen der Forscher hat einen weiteren Vorteil: Als d-dimensionales Quantensystem kamen supraleitende Stromkreise zum Einsatz, die makroskopische Dimensionen besitzen. So lassen sich die Phänomene der Quantenphysik aus der Mikro- in die Makrowelt holen. Ein auf dieser Grundlage aufgebauter Quantencomputer wäre technisch leichter realisierbar – auch, weil die Eigenschaften der supraleitenden Stromkreise mit den bekannten Mitteln der Lithografie einstellbar und die Quantenübergänge über Strom und Spannung steuerbar sind.
Schließlich eignen sich Qudits auch noch dazu, quantenkryptografische Prozesse zu vereinfachen. Als Sicherheitsgewinn versprechen sie, die maximal erlaubten Fehlergrenzen bei der technischen Realisierung eines Quantenkryptografen zu erhöhen.
Für Physiker, meint Quanten-Experte Reinhard, sei das Ergebnis aber noch aus einem anderen Grund interessant: "Je mehr Strompakete der Schwingkreis enthält, desto schneller scheint er sie auch wieder zu verlieren. Der quantenmechanische Zauber zeigt sich, so die allgemeine Beobachtung, nur für sehr gut kontrollierte Systeme mit wenig Teilchen. Es wäre interessant zu verstehen, wie groß das größte System sein kann, an dem man die Quantenmechanik noch beobachten kann. Das nämlich würde uns besser erklären, warum diese mysteriösen Phänomene in unserer Alltagswelt keine Rolle spielen".
Siehe dazu auch den Telepolis-Artikel:
* Vom Qubit zum Qudit (http://www.heise.de/tp/r4/artikel/30/30882/1.html)
Quelle : www.heise.de (http://www.heise.de)
-
Eine scheinbar triviale Behauptung führt womöglich zur Herleitung der Quantenphysik aus rein informationstechnischen Prinzipien
Die Angehörigen der klassischen Welt haben es gut. Hier ist alles klar, Spuk und Fernwirkung gehören ins Reich der Magier und Esoteriker, von jedem Bewohner lassen sich, geeignete Hardware und passende Gesetze vorausgesetzt, mühelos Bewegungsprofile erstellen, die Impuls und Ort gleichzeitig erfassen – jedenfalls hat die hier gültige Physik nichts dagegen einzuwenden. Ähnlich simpel gestaltet sich die Weitergabe von Informationen: Wenn eine Person A eine Menge von n Fakten kennt, sie aber der Person B nur eine Untermenge von m Werten mitteilt (mit m<n), dann entspricht der Informationsgewinn von B genau der mitgeteilten Informationsmenge. Empfänger B erfährt nie mehr, als A ihm mitgeteilt hat. Allgemeiner formuliert, nennt man diese Beziehung Informations-Kausalität, und die besagt im Grunde: B erfährt höchstens so viel, wie A ihm verrät. Selbst die effizientesten Geheimdienste haben noch keinen Weg um diese Grundregel herum gefunden.
In der Quantenwelt jedoch, das wissen Telepolis-Leser längst, ist alles ein bisschen anders, nein, genau genommen ist alles ganz schön anders. Der gesunde Menschenverstand hat dabei vor allem mit zwei Phänomenen zu kämpfen, die miteinander zusammenhängen. Zum Trost: selbst Albert Einstein hatte gewisse Probleme, sich mit der "spukhaften Fernwirkung" anzufreunden. Es geht dabei um das Prinzip der Verschränkung mehrere Bestandteile eines Quantensystems und die sich daraus ergebende Fernwirkung, die Nicht-Lokalität.
Die Verschränkung ist ein Zustand, bei dem die physikalischen Eigenschaften der verschränkten Objekte miteinander korrelieren. Ändert man den einen Gegenstand, ändert sich auch der andere. Dazu müssen sich beide nicht an einem Ort befinden – die Wirkung ist nicht-lokal. Entfernt man zwei verschränkte Objekte voneinander, kann man sogar eine Fern-Manipulation vornehmen. Aber wie soll das, bitteschön, meldet sich der gesunde Menschenverstand, funktionieren, wenn die beiden Objekte nichts voneinander wissen? Denn dass sie voneinander nichts erfahren können, dafür sorgt die Relativitätstheorie mit ihrer endlichen Lichtgeschwindigkeit.
Der Physiker fragt lieber, wie er die aus dem Quantenreich bekannten Tatsachen mit seinen hübschen anderen Theorien unter einen Hut bekommt – namentlich mit der klassischen Physik und der Relativitätstheorie. Den Übergang zur klassischen Physik erreicht man, indem man einen Informationsaustausch annimmt. Das verschränkte Objekt muss irgendwie erfahren, dass sein Zwilling im Geiste gerade gemessen wurde. Ha, also ein Widerspruch zur Relativitätstheorie? Nein, der Austausch darf nur nicht auf Kommunikation beruhen, denn solche, die schneller als mit Lichtgeschwindigkeit abläuft, ist nun einmal ausgeschlossen. Informationsaustausch ohne Kommunikation – das klingt zwar widersinnig, ist aber gerade charakteristisch für die Quantenphysik.
Informations-Kausalität wird eingehalten
Und wie steht es hier um das Prinzip der Informations-Kausalität? So verwirrend die Quantenwelt sich sonst verhält, hier ist sie brav, wie ein internationales Forscherteam zunächst via Archive.org und nun im renommierten Fachmagazin Nature schreibt. Die Quantenphysik hält die Informations-Kausalität ein. Sie ist allerdings nicht die einzige mögliche Theorie, die die Wechselwirkungen im Kleinsten beschreibt.
Theoretisch denkbar wären noch weit gewagtere Theorien, die mit deutlich stärkeren Korrelationen arbeiten als die Quantenphysik. Woher weiß man nun, welche dieser Theorien die Wirklichkeit widerspiegeln? Indem man sie auf Informations-Kausalität testet, meinen die Forscher in ihrem Artikel. Tatsächlich zeigt sich, dass unsere geliebte Quantenphysik die Theorie mit den stärkstmöglichen Korrelationen ist, die trotzdem noch die Informations-Kausalität einhält.
Informationelle Ursuppe?
Für die Wissenschaft ergeben sich daraus gleich drei spannende Perspektiven. Zum einen eröffnet diese Betrachtungsweise womöglich den Weg dahin, die Quantentheorie aus grundlegenden Eigenschaften der Natur abzuleiten. Die Herleitung einer Theorie aus den Grundprinzipien, das ist quasi der Heilige Gral jeder Wissenschaft. Zum anderen könnte Informations-Kausalität auch das passende Werkzeug dafür sein, physikalische und nicht-physikalische Theorien auseinanderzuhalten. Oder, populär gesprochen: die sinnvollen von den sinnlosen Theorien zu trennen. Noch gewagter ist aber die letzte mögliche Schlussfolgerung: Bestimmen gar nicht die Gesetze der Physik den grundlegenden Lauf der Natur, sondern lassen sich diese aus einer Art informationellen Ursuppe ableiten, aus informationstheoretischen Grundlagen, die das Wesen des Universums ausmachen?
Die Antwort auf diese Fragen wird noch eine Weile auf sich warten lassen. Die Nature-Autoren konnten zum Beispiel das Prinzip der Informations-Kausalität bisher nur auf eine bestimmte Reihe von Theorien anwenden, nämlich all diejenigen, die die so genannte Tsirelson-Grenze verletzen. Diese setzt den möglichen quantenmechanischen Korrelationen ein oberes Limit. Ob jedoch auch hypothetische Korrelationen, die dieser Grenze genügen, zum Prinzip der Informations-Kausalität stehen, ist bisher noch offen – der Informations-Kausalität ist also ihr Status als ein Grundprinzip der Natur noch nicht sicher.
Quelle : http://www.heise.de/tp/
-
Forscher haben ein weiteres, bisher nur theoretisch vorhergesagtes Phänomen der Quantenwelt entdeckt: halbe Quanten-Vortices
"Ein Quanten-Vortex erzeugt ein Nullpunkt-Feld, das die besten Voraussetzungen für Befreiung und Kreation schafft. Wer den Vortex-Strahl betritt, kann über eine direkte Verbindung zum höheren Selbst und zum Universum seine Wünsche und Vorstellungen wahr werden lassen." – Nein, der Autor ist nicht wahnsinnig geworden, das Zitat bietet nur einen Auszug daraus, was Esoteriker mit dem hübschen Begriff "Quantum-Vortex" schon angestellt haben. Und er klingt ja auch wirklich wie von einem Startrek-Drehbuchschreiber erfunden. Ist nicht Raumschiff Enterprise irgendwann einem Quanten-Vortex zu nahe gekommen?
Tatsächlich ist das dahinter stehende Phänomen zwar wirklich faszinierend, das Zustandekommen des Begriffs aber doch erstaunlich trivial. Ein Vortex ist in diesem Zusammenhang nicht mehr und nicht weniger als ein Loch – oder wissenschaftlich ausgedrückt: ein topologischer Defekt. Eine Störung also in der Struktur des Stoffes. Quantum Vortices kann man in Supraleitern und Supraflüssigkeiten beobachten. Beider Gemeinsamkeit ist, das sagt schon der Name, dass es sich um quantisierte Effekte handelt. Zudem entspricht die Natur des "Inhalts" des Lochs gerade nicht der Natur des Trägermediums: Bei einer Supraflüssigkeit ist der Vortex nicht suprafluid, beim Supraleiter nicht supraleitend.
Bei einer Supraflüssigkeit benötigt man Quantum-Vortices, wenn die Flüssigkeit rotiert. Der Vortex übernimmt dann das Drehmoment des Systems. Was wirklich im Loch steckt, ist eigentlich egal – Vakuum, Teilchen, was auch immer. Typischerweise ist so ein Quanten-Vortex sehr klein (also so viel zum Thema "den Quanten-Vortex betreten") – bei suprafluidem Helium etwa in der Größenordnung von deutlich unter einem Nanometer.
Bei einem Supraleiter hingegen entstehen Quanten-Vortices wegen des Meißner-Ochsenfeld-Effekts: Der Tatsache, dass Supraleiter magnetische Felder aus ihrem Inneren verdrängen. Ist nun das Magnetfeld stark genug, wird der Supraleiter gequetscht – es kann allerdings auch energetisch günstiger sein (nämlich bei Typ-II-Supraleitern, zu denen auch alle Hochtemperatur-Supraleiter gehören), dass sich Löcher bilden, die den magnetischen Fluss aufnehmen. Und da haben wir dann unsere Quanten-Vortices. Um den Vortex herum bleibt die supraleitende Phase erhalten.
Und wie darf man sich nun halbe Löcher vorstellen?
Das "halb" nimmt hier Bezug auf das Ausmaß der Rotation, das in diesem Fall nicht 2*Pi, sondern nur Pi beträgt. Halbe Quanten-Vortices sagt die Theorie für zweidimensionale Supraflüssigkeiten mit vorhandenem Spin voraus. Solche Flüssigkeiten müssen also schon einmal aus Quasiteilchen bestehen – in der Natur wurde Suprafluidität bisher nur bei Helium und Lithium beobachtet. In diesem Fall handelt es sich um eine Polariton-Flüssigkeit – die Gemeinschaft der den Energieaustausch zwischen Exzitonen (also Loch-Elektron-Paaren) in einem Halbleiter beschreibenden "Teilchen".
Diese Exziton-Polaritonen besitzen einen ganzzahligen Spin, es handelt sich also um "Quasi-Bosonen". Auch die Bose-Einstein-Kondensation ist für ein Polaritonengas schon nachgewiesen worden. Für Polaritonengase stellen Halb-Quantum-Vortices elementare Anregungen dar. Sie tragen weniger Energie als gewöhnliche Quanten-Löcher. Im Wissenschaftsmagazin Science beschreibt nun ein internationales Forscherteam, wie die tatsächliche Beobachtung dieses bisher nur theoretisch bekannten Phänomens gelungen ist. Eigentlich, meinen die Forscher, müssten sich Halb-Quanten-Vortices auch in Helium 3 oder einigen Supraleitern nachweisen lassen – das ist bisher jedoch nicht eindeutig erreicht worden.
Die Exziton-Polaritonen erleichterten den Wissenschaftlern nun die Arbeit, weil sie eine effektive Masse von einer Tausendstel Elektronenmasse besitzen – dadurch kann man sie schon bei relativ hohen Temperaturen (also warmen 10 Kelvin) zur Bose-Einstein-Kondensation bringen, bei der der suprafluide Effekt erst einsetzt. Trotzdem war noch eine Kombination aus Interferometrie, Spektroskopie und Rasterkraftmikroskopie nötig, um die Vortices tatsächlich ausfindig zu machen. Praktische Auswirkungen hat die Arbeit nicht – abgesehen von dem Nachweis, dass erneut ein von der Theorie vorhergesagtes Phänomen auch in der Praxis auftritt. Was das Vertrauen in die Theorie stärkt.
Quelle : http://www.heise.de/tp/
-
Physiker am National Institute of Standards and Technology (NIST) haben einen ersten universell programmierbaren Quantenprozessor demonstriert. Dieser soll in der Lage sein, jedes Programm auszuführen, das die Regeln der Quantenmechanik mit zwei Qubits zulassen.
Gelang es anderen Forschern bislang nur, Quantenprozessoren für bestimmte Aufgaben zu entwickeln, wollen die NIST-Forscher erstmals einen Prozessor entwickelt haben, der jedes mit zwei Qubits realisierbare Programm ausführen kann. Ihre Forschungsergebnisse beschreiben sie in der aktuellen Ausgabe von Nature Physics.
"Erstmals hat jemand einen programmierbaren Quantenprozessor mit mehr als einem Qubit gezeigt", kommentiert der an dem Projekt beteiligte David Hanneke. Es sei ein Schritt hin zum großen Ziel, Berechnungen mit sehr vielen Qubits durchführen zu können: "Die Idee besteht darin, viele dieser Prozessoren zusammenzuschalten", so Hanneke.
Der NIST-Prozessor speichert binäre Informationen in zwei Beryllium-Ionen, die in einer elektromagnetischen Falle gehalten und mit zwei ultravioletten Lasern manipuliert werden. Zwei Magnesium-Ionen helfen bei der Kühlung von Beryllium-Ionen.
(http://scr3.golem.de/screenshots/0911/Quantenprozessor/thumb480/DavidHanneke_NIST.jpg)
Dabei können die Forscher den Zustand jedes einzelnen Beryllium-Qubits verändern und die Ionen auch in eine Superposition bringen, die den Werten 1 und 0 zugleich entspricht und den großen Vorteil eines Quantencomputers ausmacht. Zudem können die Forscher zwei Qubits miteinander verschränken, also dafür sorgen, dass die Eigenschaften der Qubits aneinandergekettet sind, auch wenn sie physisch getrennt sind.
So kann das NIST-Team 160 unterschiedliche Rechenroutinen mit den beiden Qubits durchführen. Auch wenn es eine unendliche Zahl möglicher Zwei-Qubit-Programme gebe, sei diese Auswahl von 160 Routinen groß und unterschiedlich genug, um von einem universellen Prozessor zu sprechen, meint Hanneke. Ausgewählt wurden die Routinen mit einem Zufallsgenerator.
Die im Rahmen der Experimente ausgeführten Programme bestanden aus 31 logischen Operationen, von denen 15 im Programmierprozess variiert wurden.
Quelle : www.golem.de
-
An der Universität von Hamburg hat ein Team von deutschen und US-amerikanischen Wissenschaftlern erstmals zur gleichen Zeit den Spin von Elektronen bestimmt, eingestellt und ihn dabei sichtbar gemacht. Das Experiment könnte zu einer Beschleunigung der Entwicklung von Datenspeichern auf Basis von Spintronik führen.
Die Erforschung des Spins ist eines der spannendsten Felder der Quantenmechanik, weil sich der Spin von Elementarteilchen wie Elektronen bisher zwar bestimmen und auch manipulieren ließ, aber die Darstellung der Effekte solcher Experimente nicht zur gleichen Zeit erfolgen konnte. Daher konnten die Wissenschaftler nie sicher sein, wie sich der Messaufbau auf das Verhalten des Spins selbst auswirkt.
Das ist nach einer Mitteilung der Universität von Ohio nun gelungen. Die Experimente fanden an der Universität von Hamburg statt, wurden aber auch von Forschern aus Ohio mit US-Fördergeldern unterstützt.
(http://scr3.golem.de/screenshots/1004/Spin-Foto/thumb480/Spin-Hamburg.jpg)
Unter einem Rastertunnelmikroskop brachten die Wissenschaftler dabei Kobaltatome auf einer Oberfläche aus Mangan an. Die Kobaltatome mit ihren Orbitalen stellen sich unter dem Mikroskop als Erhebungen dar. Die Form dieser Erhebungen lässt sich durch die mit Eisen beschichtete Spitze des Mikroskops beeinflussen: Ist der Spin eines Elektrons nach oben gerichtet, erscheint eine Erhebung. Ist der Spin nach unten gerichtet, werden zwei flachere Erhebungen gleicher Höhe sichtbar.
Laut Darstellung der Wissenschaftler lässt sich aus dem gemessenen Spin sogar schließen, in welchem Winkel die Spitze des Mikroskops zu den Kobaltatomen steht - das erinnert an Methoden zum Lesen und Schreiben von Daten, etwa an die Nadel eines Plattenspielers.
Ein Ziel der Spintronik ist, den Spin zur Datenspeicherung zu verwenden. Toshiba etwa forscht in dieser Richtung, hat jedoch erste Transistoren mit Spintronik frühestens für 2015 in Aussicht gestellt. Denn die Bedingungen für einen kontrollierbaren Spin sind derzeit nur etwas fürs Labor: Die Wissenschaftler in Hamburg mussten für ihr Experiment ein Hochvakuum erzeugen und mit flüssigem Helium den Aufbau auf 10 Kelvin kühlen.
Das Team um den Hamburger Andre Kubetza hat seine Arbeit auch bei Nature Nanotechnology (http://www.nature.com/nnano/journal/vaop/ncurrent/full/nnano.2010.64.html) veröffentlicht.
Quelle : www.golem.de
-
Forscher der University of Toronto haben ein kommerziell verfügbares Quantenkryptographie-System erfolgreich gehackt. Theoretisch ist die Quantenkryptographie tatsächlich absolut – das heißt mathematisch beweisbar – sicher, denn sie beruht auf der Übertragung von Quanten in definierten Zuständen. Um die Kommunikation abzuhören, müsste ein Angreifer diese Quantenzustände auslesen, womit er sie gleichzeitig zerstört. Sender und Empfänger können das bemerken, indem sie die Fehlerrate bei der Übertragung im Auge behalten: Jedes Quant abzuhören, erzeugt eine Fehlerrate von 25 Prozent. Um auch das teilweise Abhören einzelner Quanten auszuschließen, wird der Alarm in der Regel bei 20 Prozent ausgelöst, denn in der Praxis muss man damit rechnen, dass Übertragungsfehler auch ohne Abhören entstehen können.
In den vergangenen Jahren hatte es trotz der mathematisch beweisbaren Sicherheit jedoch immer wieder erfolgreiche Angriffe auf jeweils konkrete Implementierung von quantenkryptographischen Systemen gegeben. Die erforderten allerdings oftmals einen physischen Zugang zum eigentlichen Quantensystem. So konnten beispielsweise Qin Liu und Sebastien Sauge auf dem Chaos-Kommunikations-Kongress einen so genannten „Fake State“-Angriff zeigen, bei dem den Quantendetektoren des Empfängers ein bestimmtes Messergebnis vorgetäuscht wird.
Feihu Xu, Bing Qi und Hoi-Kwong-Loi konnten nun ohne einen physischen Zugang auf die Endgeräte zeigen, dass das so genannte BB84-Protokoll, das unter anderem von kommerziell verfügbaren Systemen des Schweizer Unternehmens idQuantique verwendet wird, mit Hilfe ihrer bereits 2007 vorgeschlagenen „Phase Remapping“-Technik angreifbar ist. idQuantique, eine Ausgründung der Universität Genf, ist seit 2002 mit Quanten-Hardware auf dem Markt und hatte 2009 gemeinsam mit Siemens angekündigt, die Quantenkryptographie breit kommerziell verfügbar machen zu wollen.
Die Idee der kanadischen Hacker beruht im Wesentlichen darauf, dass die Information beim BB84-Protokoll in polarisierten Photonen kodiert ist. Die hatten sie so geschickt abgefangen, dass die Fehlerrate knapp unter 20 Prozent blieb, sodass Sender und Empfänger keinen Verdacht schöpfen. Einzelheiten verraten die Forscher in einem Aufsatz, den sie jetzt auf dem Physik-Server von ArXiv.org veröffentlicht haben (http://arxiv.org/abs/quant-ph/0601115). Mit dem Paper dürfte der Wettlauf zwischen Sicherheitsfachleuten und Codebrechern auch in der Quantenwelt in eine neue Runde gehen.
Quelle : www.heise.de
-
Wissenschaftler der Australian National University haben erstmals einen Festkörper-Quantenspeicher realisiert. Einzelheiten ihres Experimentes, bei dem sie einen Laserpuls in einem tiefgekühlten Kristall gestoppt haben, beschreiben (http://www.nature.com/nature/journal/v465/n7301/full/nature09081.html) die Forscher in der aktuellen Ausgabe des Wissenschaftsjournals Nature.
Ein funktionierender Quantenspeicher könnte nicht nur die Arbeit an Quantencomputern enorm voranbringen, sondern auch die bislang auf Punkt-zu-Punkt-Verbindungen beschränkte Quantenkryptograpie in kompletten Netzwerken ermöglichen. Denn nur Quantenspeicher können so genannte verschränkte Quantenzustände speichern, ohne sie beim Auslesen gleich wieder zu zerstören. Erst Quantenspeicher auf der Basis von Rubidiumdampf wurden zwar bereits 2004 gezeigt; Speicherdauer und Effizienz waren jedoch bislang noch recht kurz.
Das wollen die Wissenschaftler um Matthew Sellars nun ändern. Sie nutzen einen mit Praseodym dotierten Yttrium-Orthosilikatkristall, an den sie, während der zu speichernde Laserpuls auf den Kristall trifft, ein elektrisches Feld anlegen. Bei Umkehrung des elektrischen Feldes gibt der Kristall den Lichtpuls quasi wieder frei. Mit dieser Technik erreichten sie eine Effizienz von 69 Prozent. Im nächsten Schritt wollen die Wissenschaftler nun die bislang unerreicht hohe Effizienz bei der Speicherung mit langen Speicherzeiten kombinieren – theoretisch, so die Wissenschaftler, spräche nichts dagegen, Licht über Stunden hinweg im Kristall zu speichern.
Quelle : www.heise.de
-
Mit Hilfe des Jülicher Supercomputers JUROPA haben Forscher eine spezielle Keramik entwickelt, die in der Lage sein könnte, eine für die Wissenschaft hochspannende Frage zu klären: Haben Elektronen ein permanentes Dipolmoment?
(http://www.heise.de/imgs/18/5/4/5/2/6/6/784_2010-07-19-naturematerials.jpg-665e72d571f065ff.jpeg)
Ein permanentes Dipolmoment des Elektrons könnte die Existenz von Materie erklären
Nach bestehender Lehre sollten Elektronen eigentlich voll symmetrisch sein – einige Forscher nehmen jedoch an, sie könnten doch eine ganz schwache Asymmetrie besitzen und somit ein kleines permanentes, also nicht fluktuierendes Dipolmoment aufweisen. Solch eine Entdeckung einer vierten Elementareigenschaft (neben Masse, Ladung und Spin) würde die Elementarteilchenphysik erheblich umkrempeln, mit der gängigen Physik wäre das nicht zu erklären. Etwas fundamental Neues müsste dahinterstecken.
In der Astrophysik wäre die Entdeckung aber sehr willkommen, um die Frage zu lösen, warum das Universum überhaupt in der uns bekannten Form entstehen konnte. Denn nach gängiger Theorie hätte beim Urknall vor etwa 13,7 Milliarden Jahren genauso viel Materie wie Antimaterie entstehen müssen. Und da beide sich auslöschen, wäre nichts geblieben. Tatsächlich entstand aber offensichtlich mehr Materie als Antimaterie. Ein elektrisches Dipolmoment von Elektronen könnte das Ungleichgewicht erklären.
Doch noch ist es niemandem gelungen, das prophezeite winzige Dipolmoment nachzuweisen. Mit der vom Institut für Festkörperphysik am Forschungszentrum Jülich und sowie Wissenschaftlern der kalifornischen Universität Santa Barbara von JUROPA simulierten Keramiksubstanz aus Europium-Barium-Titanat kann man die Empfindlichkeit gegenüber bisherigen Messmethoden um etwa Faktor zehn steigern, vielleicht genug, um ein elektrisches Dipolmoment der Elektronen aufzuspüren.
Tschechische Teamkollegen aus Prag (Institut für Physik, Karls-Universität, Czech Geological Survey) haben die entworfene Keramik bereits synthetisiert und sind nun zusammen mit Forschern der Universität Yale dabei, mit einem extrem empfindlichen SQUID-Magnetometer die Magnetisierung des Keramikstücks in einem elektrischen Feld zu vermessen, um so auf kompliziertem, indirektem Weg den Nachweis des Dipolmomentes zu führen. Genaueres über das Keramikmaterial steht in der aktuellen Ausgabe der Fachzeitschrift nature materials (http://www.nature.com/nmat/journal/vaop/ncurrent/abs/nmat2799.html).
Quelle : www.heise.de
-
Wie reist man in die Vergangenheit, ohne aus Versehen die Zukunft zu ändern?
Wer einen der "Zurück in die Zukunft"-Filme gesehen hat, kennt das Problem: Kaum stellt sich der Zeitreisende mal ungeschickt an, löscht er die ein oder andere Existenz. Adieu, Ursache-Wirkungs-Beziehung. Goodbye, Logik im Filmplot - wenn der Zuschauer nur verwirrt genug ist, glaubt er auch die aberwitzigsten Wendungen. Wer hat sich nach dem Verlassen des Kinos nach einem der Zeitreise-Flicks nicht schon mal gedanklich um ein "Aber was wäre, wenn..." im Kreise gedreht?
Nun machen es Filmzuschauer Regisseuren in der Regel deutlich einfacher als die Natur ihren Analysten, den Wissenschaftlern. Ergibt sich im Ergebnis einer Theorie ein Paradoxon, dann ist das kaum mit ein paar schnellen Schnitten zu verstecken. Die Tatsache, dass allein das Erscheinen eines Menschen in der Vergangenheit zu Veränderungen in der Zukunft führen muss, kennt die Forschung als das Großvater-Paradoxon: Wer in der Vergangenheit seinen Opa umbringt, löscht damit die eigene Existenz aus - doch wie soll ein gar nicht existenter Mensch seine Vorfahren beseitigen können?
Das Paradoxon ist allerdings nicht mehr und nicht weniger als ein Bild. Es kommt gar nicht auf die Verwandtschaftsbeziehungen an. Es kommt nicht einmal darauf an, ob ein Mensch in der Zeit reist - schon ein einziges Photon, das zusätzlich in der Vergangenheit auftaucht, kann und muss die Zukunft verändern. Dieses Dilemma allein macht die Existenz von Zeitreisen schon zweifelhaft - wir brauchen gar nicht erst von den schwierigen Begleiterscheinungen zu sprechen, die je nach Theorie zum Beispiel von einem notwendigen Besuch in einem Wurmloch erzählen, um die hier gebogene Raumzeit zu durchstoßen.
Helfen kann uns hierbei womöglich die Quantenmechanik. Ein Physikerteam beschreibt in einem bei arxiv.org Quantum Mechanics veröffentlichten Paper (http://arxiv.org/abs/1007.2615), was dazu nötig ist. Punkt 1 ist dabei die Idee der Postselection, das ist die Fähigkeit eines quantenmechanischen Systems, bei einer Berechnung automatisch nur bestimmte Resultate zuzulassen. Wenn es etwa darum geht, die Werte von ein paar Variablen zu finden, mit denen eine Gleichung erfüllt wird, käme man klassischerweise mit Ausprobieren ans Ziel - unter Umständen ein langwieriger Prozess. Ein Quantencomputer mit der Fähigkeit der Postselection würde die Gleichung mit zufällig gewählten Werten berechnen, die Postselection sorgt anschließend dafür, dass nur Ergebnisse übrig bleiben, bei denen die Gleichung erfüllt ist. Postselection ist bislang ein rein theoretischer Mechanismus, ob er von der Quantenmechanik erlaubt wird, ist noch nicht endgültig entschieden. Gäbe es diesen Mechanismus, würde er Quantencomputer zu sehr mächtigen Werkzeugen machen - gleichzeitig aber auch zu derzeit unmöglich erscheinenden Folgerungen führen (die ja ein Markenzeichen der Quantenphysik sind).
Die Forscher um den für seine Vorstellung vom Universum als Computer bekannten MIT-Physiker Seth Lloyd brauchen aber noch einen zweiten Mechanismus, um eine theoretische Zeitmaschine zu konstruieren. Dabei setzen sie auf so genannte Closed Timelike Curves (CTCs) - Raumzeit-Pfade, die an ihren Ursprung zurückkehren und damit geradezu "Zeitmaschine" rufen. CTCs gehören zu den Folgerungen aus Einsteins Allgemeiner Relativitätstheorie - Objekte, für die CTC-Eigenschaften nachgewiesen wurden, sind zum Beispiel die allen Science-Fiction-Fans bekannten Wurmlöcher oder auch die Tipler-Zylinder: massive, unendlich lange Zylinder, die sich um ihre Längsachse drehen.
Lloyd und Co. konstruierten nun eine CTC im Quantenreich, indem sie Quanten-Teleportation mit Postselection kombinieren. Bei der Quanten-Teleportation nutzt man das Phänomen der Verschränkung, um Zustände von einem Punkt in der Raumzeit zu einem anderen Punkt zu senden - es handelt sich nicht um eine Klonierung, sondern um eine echte Teleportation, der Ursprungszustand wird hierbei zerstört. Tatsächlich ist das auch schon in der Praxis erprobt. Nutzt man nun zusätzlich die Möglichkeit der Postselection, kann man den Prozess umkehren. Dabei wählt man das Selektionskriterium geschickt derart, dass nur selbst-konsistente Zustände übertragen werden, also solche, deren vergangener und gegenwärtiger Zustand quasi zueinander passen. Paradoxa würden ausgeschlossen.
Was in der Mikrowelt wie eine mathematische Spielerei aussieht, hätte in der Makro-Praxis jedoch skurrile Auswirkungen. Eine nach dieser Vorschrift durchgeführte Zeitreise hätte zur Folge, dass sich die Wahrscheinlichkeiten für bestimmte Ereignisse ändern müssten. Es wäre plötzlich, bildlich gesprochen, unendlich schwer, den Großvater zu erschießen. Vielleicht wären nur Blindgänger im Magazin, vielleicht würde auch eine sehr unwahrscheinliche plötzliche gemeinsame Bewegung aller Teilchen der Kugel in eine gemeinsame Richtung das Projektil an seinem Ziel vorbei lenken. Es würde nichts unmögliches passieren, aber die Zeitreisenden müssten sich auf jede Menge Überraschungen einstellen - die Gilde der Zeitreise-Drehbuchschreiber hat das vermutlich schon immer gewusst.
Quelle : http://www.heise.de/tp/
-
Ein Team um den Münchner Professor Rudolf Gross hat nun eine extrem starke Wechselwirkung zwischen Licht und Materie erzielt. Die Kopplung von Quantenbits mit Lichtquanten könnte ein Schritt in Richtung Quantencomputer sein.
Die starke Kopplung von Quantenbits mit Lichtquanten ist ein Schlüsselprozess beim Bau eines Quantencomputers. Hier vermelden Physiker der TU München, des Walther-Meißner-Instituts für Tieftemperaturforschung der Bayerischen Akademie der Wissenschaften (WMI) und der Universität Augsburg zusammen mit Partnern aus Spanien einen wesentlichen Fortschritt: Sie erzeugten eine ultrastarke Wechselwirkung von Mikrowellenphotonen mit den Atomen eines nanostrukturierten Schaltkreises. Die dabei erreichte Wechselwirkung ist zehnmal stärker als die bisher für solche Systeme erzielten Werte.
(http://scr3.golem.de/screenshots/1008/Ultrastrong-Coupling/thumb480/162953.jpg)
Elektronenmikroskopische Aufnahme des supraleitenden Quantenschaltkreises (rot: Qubit aus Aluminium, grau: Resonator aus Niob, grün: Siliziumsubstrat)
Das einfachste System zur Untersuchung der Wechselwirkung zwischen Licht und Materie besteht aus einem sogenannten Hohlraumresonator, in dem genau ein Lichtteilchen, ein Photon, und ein Atom eingesperrt sind (Cavity quantum electrodynamics, cavity QED). Die Experimente sind hierbei extrem aufwendig, da die Wechselwirkung sehr schwach ist. Eine sehr viel stärkere Wechselwirkung lässt sich mit nanostrukturierten Schaltkreisen erzielen, in denen bei Temperaturen knapp über dem absoluten Nullpunkt Metalle wie Aluminium supraleitend werden (circuit QED). Richtig aufgebaut verhalten sich die vielen Milliarden Atome der nur wenige Nanometer dicken Leiterbahnen des Schaltkreises so wie ein einziges künstliches Atom und gehorchen den Gesetzen der Quantenmechanik. Im einfachsten Fall erhält man so ein System mit zwei Energiezuständen, ein sogenanntes Quantenbit oder Qbit.
Bei seinen Experimenten fing das Team um Professor Gross ein Photon in einem Resonator aus einer supraleitenden Niob-Leiterbahn ein, die an beiden Enden mit für Mikrowellen sehr gut reflektierenden Spiegeln ausgestattet war. In diesem Resonator wird das aus einem Aluminiumschaltkreis bestehende "Atom" so platziert, dass es mit dem Photon optimal wechselwirken kann. Möglich wurde dies durch Zuhilfenahme eines supraleitenden Josephson-Kontakts.
Die dabei gemessene Wechselwirkungsstärke erreichte bis zu zwölf Prozent der Resonatorfrequenz. Sie ist damit zehnmal stärker als bisher in Circuit-QED-Systemen gemessene Wechselwirkungen und viele tausendmal stärker als die in echten Hohlraumresonatoren messbaren Effekte. Die gezielte Manipulation solcher Paare aus Atom und Photon könnte der Schlüssel zum Bau von Quantencomputern sein, so die Forscher.
Allerdings tut sich für die Forscher mit den Ergebnissen auch ein neues Problem auf: Bisher beschrieb das 1963 entwickelte Jaynes-Cummings-Modell alle beobachteten Effekte gut. Im Gebiet der ultrastarken Wechselwirkungen scheint die Theorie jedoch nicht mehr zu gelten: "Die Spektren sehen so aus, als hätten wir es hier mit einem völlig neuen Objekt zu tun", sagte Professor Gross. "Die Kopplung ist so stark, dass das Atom-Photon-Paar als eine neue Einheit betrachtet werden muss, eine Art Molekül aus einem Atom und einem Photon."
Ihre Ergebnisse veröffentlichten die Forscher in der Onlineausgabe des Magazins Nature Physics unter dem Titel Circuit quantum electrodynamics in the ultrastrong-coupling regime (http://www.nature.com/nphys/journal/vaop/ncurrent/abs/nphys1730.html).
Quelle : www.golem.de
-
Eines der wichtigsten offenen Probleme, mit denen sich Mathematiker und theoretische Informatiker herumschlagen, scheint gelöst: die Frage, ob die beiden so genannten Komplexitätsklassen P und NP identisch sind oder nicht. Der bei den HP Labs im kalifornischen Palo Alto beschäftigte Forscher Vinay Deolalikar behauptet, sie sind es nicht, und hat dafür einen knapp einhundertseitigen Beweis (PDF (http://www.win.tue.nl/~gwoegi/P-versus-NP/Deolalikar.pdf)) vorgelegt.
In der Komplexitätstheorie umfasst die Klasse P all die Probleme, die sich mit einer deterministischen Rechenmaschine in einer Rechenzeit t lösen lassen, die von der Größe der Eingangsdaten n höchstens polynomisch abhängt, das heißt t ≤ nk. Als Modell einer deterministischen Rechenmaschine verwenden Theoretiker üblicherweise eine Turing-Maschine, aber auch alle herkömmlichen digitalen Computer gehören dazu. Die Komplexitätsklasse P umfasst also alle Aufgabenstellungen, die sich mit vertretbarer Rechenzeit exakt berechnen lassen.
Die theoretische Informatik kennt neben deterministischen Automaten noch andere Modelle, darunter die nichtdeterministische Turing-Maschine: Sie entscheidet sich bei jedem Rechenschritt zufällig für einen von mehreren möglichen Wegen, die Berechnung fortzusetzen; der genaue Ablauf der Berechnung ist nicht von vornherein bestimmbar. Probleme, die eine solche Maschine in Polynomialzeit lösen kann, bilden die Komplexitätsklasse NP.
P ist eine Teilmenge von NP, denn Probleme, die sich deterministisch in Polynomialzeit lösen lassen, können auch nichtdeterministisch mit polynomischem Aufwand berechnet werden. Die bislang unbeantwortete Frage lautet, ob das auch umgekehrt gilt oder nicht. Etwas salopp formuliert: Könnten nichtdeterministische Maschinen bestimmte Rechenprobleme schneller lösen als bisherige Computer? Genau diese Frage bejaht Deolalikar nun in seinem Papier.
Die Arbeit ist ganz frisch und noch nicht ausführlich von Kollegen geprüft. Der HP-Forscher gilt aber als Experte auf diesem Forschungsgebiet und erste Einschätzungen halten die Arbeit für stichhaltig. Ob sie genaueren Prüfungen standhält, wird sich noch zeigen müssen, aber dass es diese Prüfungen geben wird, kann als sicher gelten: Immerhin ist das P-NP-Problem eines von sieben Fragestellungen, die das Clay Mathematics Institute (CMI) in Cambridge in die Liste der so genannten Millennium-Probleme (http://www.claymath.org/millennium/) aufgenommen und für deren Lösung es jeweils ein Preisgeld von einer Million US-Dollar ausgelobt hat.
Quelle : www.heise.de
-
Multiple Existenzen im Multiversum
Das im Urknall entstandene klassische "Universum" wird inzwischen durch Begrifflichkeiten wie Quanten-, Parallel-, Mega- oder Metauniversum, vor allem aber durch das schillernde Gebilde des "Multiversums" verdrängt und überboten. Giordano Brunos frühe Vision eines unendlichen Universums mit unendlich vielen Planeten und Lebewesen zeigt bereits, dass klassische Vorstellungen eines einheitlich formierten Kosmos nie unangefochten waren. Für eine Wissenschaft, die traditionell die einfachere Erklärung gegenüber der aufwändigeren bevorzugt (Ockhams Rasiermesser), ist ein wucherndes Multiversum jedoch ebenso eine Zumutung wie der bizarre Teilchenverkehr der Quantenmechanik. Wie paradox ist es, im hiesigen Universum immer ausgedehntere Theoriewelten zu produzieren, nur um eines zu erklären?
Welche Welt hätten Sie denn gerne?
Kosmologen und Physiker favorisieren inzwischen mit wachsender Überzeugung, aber höchst unterschiedlichen Konsequenzen dieses kosmische Überbietungsszenario. Denn das Multiversum löst einige kosmische Ungereimtheiten auf, die in den tradierten Konstruktionen unerklärt blieben.
(http://www.heise.de/tp/r4/artikel/32/32983/32983_1.jpg)
Illustrationen: Goedart Palm
Für Max Tegmark steht daher nicht mehr die Existenz des Multiversums an sich im Mittelpunkt seiner Überlegungen, sondern dessen Bauart. Der schwedisch-amerikanische Kosmologe hat eine vierstufige Hierarchie von Multiversen entwickelt, in der die Entwürfe im Blick auf unseren Kosmos immer fremdartiger erscheinen. Auf Ebene 1 präsentiert sich ein unendliches Universum der Abweichungen, das mit je verschiedenen Anfangsbedingungen zahlreiche Varianten des von uns beobachteten Kosmos zulässt. Auf Ebene 2 siedelt Tegmark das Schaumbad-Multiversum der inflationären Ausdehnung an. Es produziert Universen wie Blasen, in denen es mitunter wie bei uns zugeht oder aber andere Naturkonstanten, Elementarteilchen und Symmetrien für erhebliche Abweichungen sorgen. Zu diesem Typus gehören auch John Archibald Wheelers oszillierendes Universum und Lee Smolins kosmisches Evolutionsuniversum, das nachwachsende Baby-Universen erfolgreiche Universums-Typen übernehmen lässt.
Ebene 3 bezeichnet das bereits länger bekannte "Quantenuniversum", in dem die berüchtigte Schrödinger-Katze weiterhin ihr (Un)Wesen treibt. Dieses Universum der "Viele-Welten-Theorie" Hugh Everetts (1957) spaltet sich in einem ewigen Existenz/Nichtexistenz-Spiel auf, ohne dass die einzelnen Zustände miteinander kommunizieren können. In der "Theorie der universalen Wellenfunktion" steht die Welt permanent am Scheidewege, die unsere Möglichkeitsvarianten als Wirklichkeit in immer neue Parallelwelten schicken.
Mit diesem Weltverzweigungssystem im exponentiellen Maßstab ist alles physikalisch Mögliche wirklich wie umgekehrt – was an Georg Wilhelm Friedrich Hegels berüchtigten Spruch erinnert, dass das, was vernünftig ist, wirklich ist und was wirklich ist, auch vernünftig sei. Eine philosophische Korrespondenz findet diese Idee auch in David Lewis' modalem Realismus, dem alle möglichen Welten als reale gelten. Der stärkste intuitive Beleg solcher Welten finde sich im "kontrafaktischen Denken", also in unseren permanenten Vorstellungen alternativer Weltverläufe, in denen unsere konkrete Wirklichkeitserschließung erst möglich wird.
(http://www.heise.de/tp/r4/artikel/32/32983/32983_4.jpg)
Auf Ebene 4 versammelt Max Tegmark alle mathematisch möglichen Konstruktionen, frei nach dem Spruch "Alles ist Zahl", der auf den Vorsokratiker Pythagoras von Samos verweist. Dieses disparate, nur aus Logik zementierte Sammelbecken von Welten lässt fliegende Spaghettimonster, diesmal als absolut reale Gottheiten, genauso zu wie uns grotesk erscheinende Naturgesetze, wenn etwa die Lichtgeschwindigkeit die langsamste Geschwindigkeit wäre. In der näheren Betrachtung ist dieses Multiversum, das weit weniger Anhänger gefunden hat als die vorgenannten drei, dem platonischen Reich der Ideen nahverwandt. Nur die Ideen, also auch die mathematischen Gleichungen, sind real, alles andere dagegen Schein oder menschliche Erkenntnisschwäche. Die stärkste Intuition dieses "verrücktesten" aller Multiversen gründet auf der innigen Beziehung zwischen Denken und Wirklichkeit, Modell und Empirie, Virtualität und Realität.
Diese vier Ebenen beschreiben nach Tegmark keine exklusive Beziehung des Weltenbaus, sondern sind mehr oder weniger frei kombinierbar, wie es sich besonders plausibel im Zusammenhang eines inflationär unendlichen Raums mit der parallel geschalteten Schachtelwelt der Quantenphysik darstellt.
Von der Existenz zur Multi-Existenz
Andrej Linde und Alexander Vilenkin haben seit Alan H. Guths Paradigmenwechsel in den 1980er Jahren mit im Einzelnen erheblichen Theoriefortschritten das "inflationäre Universum" vorgestellt, um die im kosmologischen Standardmodell auftretenden Konsistenzprobleme zu lösen und auch die Situation vor dem Urknall zu fokussieren.
Dieses in der Binnenansicht unendliche Universum ist ein Ewigkeits-Szenario: Es gibt laufend neu entstehende und ältere Gebiete in diesem inflationär expandierenden Ozean, die diesen Prozess bereits wie unsere Universum durchlaufen haben. Solche "Insel-Universen" eröffnen wegen der Begrenzung der Variierbarkeit der Elementarteilchen eine endliche Zahl von Geschichten, die an unendlich vielen Orten spielen. Tobias Hürter und Max Rauner haben das illustrative Beispiel eines Zuschauers gewählt, der auf seinem Fernseher durch unendlich viele Programme zappen kann, aber wegen der endlichen Zahl von Bildpunkten des Monitors unweigerlich auf Programmwiederholungen stößt. Das Multiversum findet in exakten Kopien unserer Welt und völlig anderen Versionen statt. Es mag noch harmlos sein, wenn nun der Bundesliga-Champion zum Absteiger wird, aber was ist mit einer Welt, die von dir Leser in einer grausamen Diktatur beherrscht wird?
Alex Vilenkin deprimiert der Verlust einer weiteren menschlichen Zentralperspektive im inflationären Multiversum, wenn zahllose kosmische Doppelgänger von uns just gerade dasselbe tun wie wir. Nach Max Tegmark findet sich im schwer oder gar nicht zu überwindenden Abstand von 10 hoch 10 hoch 29 Metern ein Autor, der just diesen Artikel oder aber einen besseren schreibt. Einzigartigkeit wird im Multiversum nicht mehr gewährt.
Doch der Zugewinn an Weltentwürfen und die dem zugeordnete Seinsweisen bietet auch bedingten Trost gegenüber dem Verlust narzisstischer Selbstgewissheit: Einige unserer Multiversums-Zwillinge haben das günstigere Schicksals-Los gezogen, weil ihre Welten besser sind als unsere. Leibniz, der Philosoph der besten aller möglichen Welten, wird nun endgültig auf das Altenteil seines kleinräumigen Monaden-Universums beschieden. Gott war erheblich erfindungsreicher, als es uns die barocke Physik mit ihren Harmonisierungszwängen zwischen Theologie und Physik bei wissenschaftlich schlechteren "Sichtverhältnissen" als den gegenwärtigen erklärt. Oder können wir den lieben Gott als "transzendenten Koordinator" (Bernulf Kanitscheider) ganz verabschieden, wenn an Stelle von metaphysischen nun eine Unzahl von physikalischen Welten mit unterschiedlichsten Eigenschaften rücken?
(http://www.heise.de/tp/r4/artikel/32/32983/32983_3.jpg)
Der von einer Vatikan-Kommission 2004 mit der "Genesis" für kompatibel erklärte "Urknall" löste jedenfalls nie die Philosophen seit Anbeginn quälende alte Frage, warum etwas ist und nicht nichts. In inflationärer Perspektive wird indes auch die Entstehung der Welt aus dem Nichts, also die berühmte, für menschliche Anschauung unvorstellbare "creatio ex nihilo" mehr oder minder plausibel erläutert. Inzwischen reklamiert die Kosmologie mit diesen Schwindel erregenden, noch längst nicht überprüfbaren Weltvervielfachungen Zuständigkeiten, die vormals der Theologie, Metaphysik und literarischen Fiktion vorbehalten waren. Physik wird zur Fortführung der Metaphysik mit anderen – besseren – Mitteln, aber dadurch auch zu einem Ort ethischer Meditationen.
Multiversale Ethik
Der Philosoph, Moralist und Kosmologe Immanuel Kant war vor allem von zwei Dingen besonders ergriffen: "Der bestirnte Himmel über mir, und das moralische Gesetz in mir." Die Wichtigkeit des Menschen werde in der Unendlichkeit der "Welten über Welten" vernichtet, während die moralische Selbsterfahrung den Menschen unendlich erhöhe.
Kants Versuch, diese beiden Phänomene dialektisch zu verschränken, muss im Multiversum brisanter formuliert werden. Gibt es zahllose Spiegeluniversen, gibt es unzählige Varianten des Seins, dann relativieren sich die schicksalhaften, unabänderlichen Umstände, denen ich in diesem Universum unterworfen bin, so folgenreich wie meine kosmische Winzigkeit. Denn im nächsten, spätestens übernächsten Universum bin ich der König, der Bettler, der Jedermann. Glück und Pech, Freiheit und Fügung werden nicht mehr allein in diesem Universum verrechnet, sondern im multiversalen Maßstab – und damit in der Summe aller möglichen Existenzen letztlich abgeschafft.
(http://www.heise.de/tp/r4/artikel/32/32983/32983_2.jpg)
Haben wir früher vergeblich gerechnet und gerechtet, ohne die göttliche oder kosmische Gleichung hinter all dem zu erkennen, erscheint die Welt nur noch ungerecht, wenn sie als einzige begriffen wird. Allerdings gibt Alex Vilenkin zu bedenken, dass immer dann, wenn man ein mögliches Unglück denkt, man sicher sein darf, dass es in einigen Regionen des Multiversums auch genau so gekommen ist. Gerechtigkeit verteilt sich nun auf Myriaden von Personen, die ich bin und doch wieder nicht bin. Zugleich wird nämlich auch die Identität zu einem bloß vorläufigen Seinsgefühl, das sich in zahllosen Varianten des Multiversums auflöst.
Hier ist das spätestens seit Ende des 19. Jahrhunderts in Wissenschaft und Literatur fragil definierte Ich endgültig "unrettbar" (Ernst Mach), wenn es Entwürfe gibt, die im Kreis der "hiesigen" Identität bleiben und Neuschöpfungen, die nur noch von ferne an unsere irdische Kondition erinnern. Immerhin brauchen uns von 10500 Universen, die von der Stringtheorie errechnet wurden, ohnehin nur die zu interessieren, die für uns fassbar sind - was das anthropische Prinzip als die Verknüpfung der kosmischen Bauweise mit unseren Beobachtereigenschaften zu neuen Ehren hat kommen lassen. Eine multiversale Ethik heißt nun, über alle moralischen Zustände des anthropisch zugänglichen Multiversums reflektieren und darin einer neuen praktischen Vernunft zu folgen, der eigenen Identitätsversion mit mehr kosmischer Gelassenheit zu begegnen.
Existenzen sind nicht mehr schicksalhaft unwiderruflich, sondern spreizen sich in weltenreiche Möglichkeiten, die hier so und dort anders realisiert sind. Nicht jeder Schritt wäre unausweichlich und irreversibel, wie es der Fatalist meint, der unsere nicht beweisbare, aber hartnäckige Intuition von Willensfreiheit provoziert. Die klassische ethische Position der goldenen Regel bzw. des kategorischen Imperativs (Immanuel Kant) erhält im Multiversum auch eine dynamische Neuformulierung: Handle stets mit der Vorstellung, dass du in einer anderen Welt dein Gegenüber bist.
"Ich" ist also, wie es Arthur Rimbaud und Jacques Lacan poetisch bis psychoanalytisch behaupteten, tatsächlich und leibhaft ein "Anderer". Das schafft allerdings auch moralische Unwägbarkeiten. Könnte ich nicht gleich zum Verbrecher werden, wenn die persönliche Verantwortung im Hier und Jetzt in der Perspektive des Multiversums zum unbeachtlichen Zufall verkommt und "ich" unzählige Seinweisen habe – so wenig sich das personale Seinsgefühl in diesem Universum deshalb auflöst. Doch wer hier rücksichtslos ist, "verwandelt" sich in jenem Multiversum zum Opfer. Reicht diese Überlegung zu unseren vielförmigen Zwillings-Existenzen vielleicht, mit mehr multiversaler Solidarität Menschen und andere Mitgeschöpfe zu behandeln?
Das Diesseits als Jenseits
Die Idee plural geschalteter Welten erlöst die hiesige Existenz zwar nicht so paradiesisch von aller Unbill, wie es die Weltreligionen verheißen, aber doch so, dass die schwer erträgliche "Geworfenheit" (Martin Heidegger) in diese vermeintlich einzige Welt der Irrungen und Wirrungen zur vorwissenschaftlichen Perspektive verkümmern könnte.
Die Verkopplung der kosmischen Bauweise mit der individuellen Existenz bietet zwei Perspektiven, die den Vorstellungskreis unserer Erfahrungswelt besonders provozieren: So behauptet David Deutsch, der den Begriff des Multiversums in seiner aktuellen Bedeutung entwickelt hat, dass gute Entscheidungen den jeweiligen Wahrscheinlichkeitsstrang multiversaler Existenz verstärken. Kurz gefasst: Gutes gebiert Gutes, Böses Böses. Die Wahrscheinlichkeiten eines sinnvollen Lebens in möglichst vielen Welten reduziert die katastrophischen Varianten. So könnten sich Doppelgänger entweder durch ethische Solidarität quantenmechanisch wechselseitig helfen oder im räumlich geschlossenen Multiversum-Modell schließlich doch vormals für unüberwindlich gehaltene Distanzen überbrücken.
(http://www.heise.de/tp/r4/artikel/32/32983/32983_5.jpg)
Hier wie dort prägt der "dual use" die moralische Qualität der Parallelwelten: Philip K. Dick ließ in seinem literarischen Paralleluniversum die dunkle Fantasie zu, dass der Göring eines siegreichen Nazi-Deutschlands seinem scheiternden "alter ego" Hilfstruppen schickte. Für Sinnsucher dürfte dagegen die Perspektive interessanter sein, dass ein unendliches, ewig inflationäres Universum auch ewiges, allerdings diesseitiges Leben bietet. Denn Neu- bzw. Wiedergeburten "unseres" Universums in identischen Kopien oder in Varianten, die permanent zeitversetzt entstehen, geben jedem Individuum die (Überlebens)Perspektive auf ewige Wiederkehr. Diese Idee ist für Wiedergeburtsreligionen wie den Hinduismus, aber auch für den "Zarathustra" Friedrich Nietzsches eine geläufige Tatsache.
Physik und Kosmologie übernehmen mit der bizarren Theorie des "Multiversums" vorläufig die Welterklärungshoheit, mit der das provoziert wird, was Philosophie, Theologie und Mythologie bisher im Maßstab irdischer Zuständigkeiten konstruiert haben. Der nun durch unzählige Parallelzustände überbotene Schöpfungsmythos ist indes weit mehr als ein mathematisches oder physikalisches Spekulationsobjekt, zugleich ist es ein projektiver Horizont der Wünsche und Ängste, der die positivistische Entzauberung der Welt wieder zurücknimmt. Jene irdischen Zustände, die wir als Mangel erfahren, könnten nur eine Variante unserer Seinsweisen sein. Auch zu diesem Aspekt des Multiversums gibt es Vorläufer wie etwas Platons berühmte, auch quantenmechanisch plausible Erzählung der getrennten Doppelwesen ("Gastmahl"), die ständig auf der Suche nach ihrem Widerpart sind. Die perfekteste aller möglichen Welten erkennen wir nun in einem Metareich, das von den konkreten Existenzen abstrahiert und uns als multiple Wesen neu erfindet.
Immerhin gehört zu diesem neuen multiplen Sein weit über den Beobachtungshorizont hinaus auch die Hoffnung auf eine bessere als die vorgefundene Welt, sodass eine Intuition bleibt, selbst wenn das "Multiversum" dieser oder jener Bauart eine unbestätigte Hypothese bleiben sollte: Menschen haben in ihren Innenräumen schon je das Multiversum ihrer erwartungsvollen Existenzentwürfe konstruiert und damit das vollzogen, was Mathematik, Physik und Kosmologie noch nicht letztgültig überprüfen können, aber mit immer plausibleren Annäherungen an die Wirklichkeit aufzuspüren hoffen.
Quelle : http://www.heise.de/tp/
-
Hier geht es meiner Ansicht nach um Geisteswissenschaften, nicht um Physik oder Astronomie.
Wir haben nicht nur praktisch sondern auch theoretisch keinerlei Möglichkeit, aus irgendeinem anderen Universum irgendwelche Informationen zu erhalten.
Bei'm Gang durch welchen Ereignishorizont auch immer bleibt einfach nix beieinander.
Schon die Frage, ob ein Schwarzes Loch rotiert, ist grundsätzlich sinnlos.
Mag sein, dass das auf dieser Seite seines Ereignishorizonts feststellbare Magnet- oder Gravitationsfeld irgendwelchen Veränderungen unterliegt, oder auch nicht.
Das kann uns betreffen und daher interessieren.
Aber entweder gibt es keinerlei Möglichkeit, irgendetwas über's Innere zu erfahren, oder das Denkmodell des Ereignishorizonts ist grundsätzlich falsch oder mindestens unvollständig.
Und damit ebenso das des Schwarzen Lochs an sich.
Dasselbe gilt unvermeidlich auch für andere begrenzte - z.B. sog. Wurmlöcher oder Singularitäten - und eventuelle äussere Ereignishorizonte, i.e. andere Universen.
Es ist auch ohne jeden Belang, ob nach dem vermuteten Urknall irgendwann ein Big Crunch erfolgt, in irgendeiner Menge von Milliarden Jahren, denn so lange hält jedenfalls keine Sonne, kein Planet oder Raumschiff, keine Pyramide, auch nicht das menschliche Genom, nix auf der Welt.
Insofern ist es mir auch wurschtegal, ob das, was wir meinen, vom Urknall ganz weit draussen zu sehen, wirklich davon stammt, oder ob es vielleicht doch nur in einem unendlichen Universum eine noch unbekannte Skalierungserscheinung des Raums an sich ist, oder ob Photonen doch irgendwann altern.
Es ist nicht vernünftig anzunehmen, dass es irgendwann verwendbare und nicht-tödliche Technologien geben wird, die auf anderen Universen basieren.
Einmal angenommen, es gäbe eine übergeordnete Struktur ausserhalb unseres Universums, so stellte sich nicht einmal die Frage, ob unsere Zelle dadurch entstand oder auch wieder vergehen kann, denn selbst wenn, wäre auf unserer Seite niemand Zeuge.
Sollte ich mich irren, möge sich gerne irgendein Allmächtiger an mich wenden.
Aber bitte nicht zur Unzeit und nur nach rechtzeitiger Ankündigung.
So ein Weltenübergang wäre doch recht lästig, wenn man gerade am Duschen ist...
Jürgen
-
In einem Beitrag (http://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2010.197.html) für Nature Photonics beschreibt eine Gruppe von Forschern aus Bayern und Dänemark, wie sich echte Zufallszahlen durch Ausnutzung eines Quantenphänomens (Vakuumfluktuationen) erzeugen lassen. Denn sogar in völliger Dunkelheit ist die Energie eines halben Photons vorhanden. Es ist zwar unsichtbar, sein Quantenrauschen lässt sich jedoch messen.
Dazu schicken die Forscher einen Laserstrahl durch einen Strahlteiler mit zwei Ein- und Ausgängen. Der eine Eingang wird blockiert. Das Quantenrauschen der Vakuumfluktuation ist dort jedoch weiterhin vorhanden und beeinflusst die beiden Teilstrahlen an den Ausgängen. Aus der Intensitätsdifferenz dieser beiden Teilstrahlen lässt es sich ermitteln.
(http://www.heise.de/imgs/18/5/6/5/8/8/5/c789fec9282d782b.png)
Die Intensität des Quantenrauschens
folgt der Gausschen Normalverteilung.
Die so ermittelte Intensität des Quantenrauschens unterliegt der Normalverteilung, die durch eine Glockenkurve repräsentiert wird. Um aus einem gemessenen Wert eine Zufallsziffer zu erhalten, ordnen die Forscher jeweils gleich großen Teilflächen unter der Glockenkurve eine Bitfolge zu. Je nach Kurvenstück, zu dem die Intensität gehört, ergibt sich so ein zufälliger Bitwert.
Allerdings sind die auf diese Art ermittelten Rohdaten noch durch die deterministischen Einflüsse der Messgeräte beeinflusst. Um diese zu eliminieren, wird der Informationsgehalt dieser Rohdaten durch eine Hash-Funktion vermindert. In ihrem Beitrag verweisen (http://www.nature.com/nphoton/journal/vaop/ncurrent/fig_tab/nphoton.2010.197_T1.html) die Wissenschaftler darauf, dass die so ermittelten Zufallszahlen alle Prüfungen der Crush-Sequenz der C-Bibliothek TestU01 (PDF (http://www.iro.umontreal.ca/~lecuyer/myftp/papers/testu01.pdf)) bestehen. Sie analysiert rund 35 Milliarden Zahlen mit 96 statistischen Verfahren.
Interessenten finden Sammlungen der mit diesem Verfahren erzeugten Zufallszahlen online (http://www.mpl.mpg.de/quantumbits).
Quelle : www.heise.de
-
Forscher des Centre for Quantum Photonics an der Universität Bristol haben gemeinsam mit Kollegen aus Japan, Israel und den Niederlanden einen neuartigen Chip für Quanten-Bits (Qubits) entwickelt (http://www.bristol.ac.uk/news/2010/7216.html). Anders als Bits können Qubits mehrere Zustände zur selben Zeit speichern, wodurch ein Quantencomputer wesentlich komplexere Berechnungen vornehmen kann als bisher möglich. In dem Chip nutzen die Forscher zum Rechnen ein als "Quantum Walk" bezeichnetes Experiment mit zwei identischen Photonen. Nach ihren Angaben war das bislang nur mit einem Photon möglich. Im nächsten Schritt wollen die Forscher neue Simulationswerkzeuge damit entwickeln; langfristig soll der Weg hin zum Drei- und Mehr-Photonen-Quantum-Walk gehen. In weniger als 10 Jahren soll so der erste Quantencomputer seinen Dienst aufnehmen können – bisher ist man von mehr als 25 Jahren ausgegangen.
Quelle : www.heise.de
-
Wer auf eine Leiter steigt, altert schneller - das haben US-Forscher mit extrem genauen Uhren nachgewiesen
Wenn im Physik-Leistungskurs Einsteins Spezielle Relativitätstheorie anschaulich erklärt werden soll, muss dazu meist das Zwillings-Paradox herhalten. Das bietet Menschen auf der Suche nach ewiger Jugend zumindest eine theoretische Lösung: Wer in ein möglichst schnelles Raumschiff steigt, seinen Zwilling zu Vergleichszwecken auf der Erde zurücklassend, ist bei seiner Rückkehr weniger gealtert als das in der Heimat verbliebene Geschwister.
Damit das auch an der Faltenzahl des Gesichts ablesbar ist, muss der Astronaut möglichst nah an der Lichtgeschwindigkeit unterwegs gewesen sein. Es hat deshalb auch ein bisschen gedauert, bis die Wissenschaft Einsteins Theorie nachmessen konnte - am besten funktionierte das noch bei astronomischen Dimensionen. Inzwischen ist die Technik aber so weit, dass sich Relativität auch in alltäglichen Größenordnungen zeigen kann. In der aktuellen Ausgabe des Wissenschaftsmagazins Science beschreiben Physiker des amerikanischen National Institute of Standards and Technology (NIST), mit welch überraschender Genauigkeit sie dabei vorgegangen sind.
Als Arbeitsmittel nutzten die Forscher dazu so genannte optische Atomuhren - das "optisch" bezieht sich dabei nicht auf die Art des Ablesens, die im Experiment benutzten Uhren haben also keine Zeiger oder ähnliches. Vielmehr kamen Atomuhren zum Einsatz, wie sie als Zeit-Referenzen schon länger im Einsatz sind. Allerdings mit einem kleinen Unterschied: Die vom NIST getesteten "Uhren" arbeiten, wie die Forscher es formulieren, im "optischen Regime" - das heißt, die zur Zeitmessung genutzten Zustandsübergänge liegen nicht wie bei den sonst eingesetzten Atomuhren etwa auf Cäsium-Basis im Mikrowellen-, sondern im optischen Bereich.
Atomare Stimmgabel
Die Uhr "tickt" aber ansonsten wie jede gewöhnliche Atomuhr: Durch Anregung nimmt sie Energie auf, nimmt einen anderen Zustand ein und gibt die Energie nach einem kurzen, aber sehr konstanten Zeitraum wieder ab. So entsteht eine Art atomarer Stimmgabel. Die allerdings nicht mit Hertz oder Kilohertz schwingt, sondern pro Sekunde über eine Billiarde Mal. Den Forschern gelang es dabei, die Stimmgabel äußerst ausdauernd zu konstruieren - das Ion bleibt für 400.000 Milliarden Zyklen mit der Anregungsfrequenz synchron. Eine derart ausdauernde Stimmgabel müsste für über 10.000 Jahre konstant klingen. Bei der Al-Uhr sind die 400 Milliarden Zyklen zwar schon in einem wortwörtlichen Augenblick vorbei - aber für die Messung relativistischer Phänomene ist das der passende Zeitrahmen.
(http://www.heise.de/tp/r4/artikel/33/33372/33372_1.jpg)
NIST-Forscher bei der Arbeit (Zeichnung: Loel Barr / NIST)
In zwei Experimenten stellten die NIST-Forscher nach, was Einstein noch als Gedankenexperiment entwickelt hatte. Zum einen platzierten sie die beiden, 75 Meter voneinander entfernten und via Glasfaserkabel synchronisierten Uhren in unterschiedliche Höhe. Die Höhendifferenz von einem Drittel Meter entspricht ungefähr ein oder zwei Leitersprossen. Nach der Speziellen Relativitätstheorie müsste die Uhr, die der höheren Gravitationswirkung ausgesetzt ist (also die untere, die sich näher am Erdkern befindet), etwas langsamer ticken. Das Experiment bestätigte dies - obwohl der Effekt so gering ist, dass er sich nach einer mittleren Lebensspanne von 79 Jahren gerade einmal auf 90 Milliardstel Sekunden addiert hat.
In einem zweiten Versuch prüften die Wissenschaftler das oben erwähnte Zwillings-Paradox. Dazu versetzten sie das "Mess-Ion" einer der beiden Uhren in eine langsame, periodische Bewegung, mit einer Geschwindigkeit von einigen Metern pro Sekunde - also so schnell wie ein Radfahrer oder ein langsames Auto. Auch hier verhielten sich die Zeitmesser brav nach der Theorie: Die bewegte Uhr tickte etwas langsamer als der stationäre Zwilling. Nun ist es eigentlich nicht mehr nötig, Einsteins Spezielle Relativitätstheorie zu beweisen - das haben schon andere erledigt. Interessant ist die Anwendung aber unter anderem für die Erdvermessung, Geophysik und Hydrologie - oder auch bei künftigen, weltraumgebundenen Nachweisen anderer grundlegender Theorien. Mit weiteren Verbesserungen wollen die Forscher die Genauigkeit der Zeitmessung zudem noch um den Faktor Zehn erhöhen.
Quelle : http://www.heise.de/tp/
-
Zukunft ist das, was noch keine Zeit erzeugt hat
Bis ins 20. Jahrhundert hinein galt die Zeit als etwas Absolutes und von den Dingen Losgelöstes. Erst im Zuge der Entwicklung der Relativitätstheorie veränderte sich unser Zeitverständnis. Die Relativitätstheorie beschreibt Zeit als etwas Relatives, abhängig von Geschwindigkeit und Gravitation. Die Zeit soll zusammen mit den drei Raumkoordinaten eine Art "vierte Dimension" darstellen.
Dies weckte auch die Fantasie der Science-Fiction-Autoren, denn ist die Zeit von ihrem Wesen her raumhaft, könnte man dann nicht in ihr reisen, sozusagen von einem Raum-Zeit Ort zum nächsten? Leider scheint diese Vorstellung dann aber mit einem weiteren modernen Mythos zu kollidieren: der Vorstellung der Kausalität.
Jeder kennt das sog. "Großvater-Paradoxon": Jemand reist in die Vergangenheit und beseitigt die Ursachen seiner Existenz. Schade nur, dass dieses Paradoxon knapp an der eigentlichen Problematik vorbeischrammt. Es ist nämlich völlig unerheblich, ob der Zeitreisende seinen Vater, seinen Großvater oder sonst einen Vorfahren erschießt. Sein Vater ist nicht sein Vater und sein Großvater ist nicht sein Großvater. Er hat gar keine Vorfahren. Die wesentlichen Ursachen seiner Existenz existieren gar nicht, denn sie liegen in der Zukunft.
Der eigentliche Skandal ist dagegen seine Ankunft in der Vergangenheit. Zum einen stellt seine Ankunft in der Vergangenheit ein spontanes, akausales Ereignis dar, welches dem Grundsatz widersprechen würde, dass nichts ohne Grund sei. Dieser Grundsatz geistert seit mehr als zweitausend Jahren durch die Philosophiegeschichte. Seine bekannteste Ausprägung findet er in Leibnitz' Satz vom "zureichenden Grunde".
Zum anderen haben wir es im Falle von Zeitreisen mit zwei Vergangenheiten zu tun: Einmal ohne und einmal mit dem Zeitreisenden. Ist die Zeit ein vierdimensionales Raum-Zeit Kontinuum, dann ist selbiges unmöglich, denn es kann an demselben Punkt der Raum-Zeit nicht etwas existieren und in gleicher Hinsicht nicht existieren.
Einige Autoren unterstellen nun separate "Zeitlinien" (was immer das sein mag), in einer "wissenschaftlichen" Ausprägung werden wir mit "Vielwelten-Theorien" konfrontiert, die, mit allerhand mathematischer Lyrik über unendlichdimensionale Hilbert-Räume unterfüttert, uns vor solchen Paradoxien beschützen wollen. Es gibt sogar Leute, die uns tatsächlich weismachen wollen, im Bedarfsfall entstünden spontan Paralleluniversen, in denen sich die verschiedenen Möglichkeiten realisieren. Das soll nicht nur im Falle von Zeitreisen so sein, sondern sich auch so in unserem quantenphysikalischen Alltag abspielen.
Der physikalisch gebildete Zeitgenosse kennt die diversen Doppelspaltexperimente, in denen sich Teilchen manchmal wie Teilchen und dann wieder als Wellen aufführen, je nachdem ob man versucht zu messen, durch welchen Spalt ein Teilchen fliegt. Soll sich das Universum also jedes Mal aufspalten, wenn sich so ein Teilchen, akut schizophren, nicht festlegen mag, durch welchen Spalt es geflogen kam? Die "Kopenhagener Deutung" dieser Phänomene geht hingegen – vereinfacht gesagt - davon aus, dass es die Beobachtung selbst ist, die die Wirklichkeit erschafft. Insofern erteilt sie dem "physikalischen Realismus", nach dem die Dinge sind, wie sie sind, unabhängig von einem sie wahrnehmenden Bewusstsein, eine klare Absage und verfolgt einen transzendental - idealistischen Ansatz.
Beide Erklärungsansätze haben einen entscheidenden Nachteil: Sie sind wohl prinzipiell nicht empirisch falsifizierbar, also reine Spekulation. Es geht aber auch viel einfacher, der "physikalische Realismus" braucht auch nicht aufgegeben zu werden.
Zeit entsteht durch Wechselwirkung zwischen Objekten
Was wäre denn, wenn "Zeit" ständig neu entstünde und zwar als Ergebnis einer Wechselwirkung zwischen Objekten? Im Falle der erwähnten Doppelspaltexperimente entsteht beim wechselwirkungsfreien Flug eines Teilchens durch einen Spalt gar keine Zeit. Das Interferenzmuster, das wir sehen, stellt die Zukunft des bzw. der Teilchen dar, denn zukünftig nennen wir das, was noch keine Zeit erzeugt hat. Jede Messung stellt aber eine mittelbare oder unmittelbare Wechselwirkung zwischen dem zu Messenden und dem Messinstrument dar. Versucht man nun zu messen, durch welchen Spalt die Teilchen fliegen, erzeugt man Zeit und das Interferenzmuster bricht zusammen. Auch andere schwer erklärbare Dinge, wie z.B. die "spukhafte Fernwirkung" verschränkter Teilchen, Quantenradierer usw. können so plausibel erklärt werden.
Diese These hat an sich einen weiteren großen Vorteil: Sie ist empirisch prinzipiell falsifizierbar. Wie könnte ein Experiment aussehen, das diese These widerlegt? Erinnern wir uns, das Doppelspaltexperiment erzeugt ein Interferenzmuster, welches zusammenbricht, wenn man versucht zu messen, durch welchen Spalt ein Teilchen fliegt. Die These behauptet nun, dass das auf dem Schirm abgebildete Interferenzmuster die Zukunft der Teilchen hinsichtlich ihrer Möglichkeiten und Wahrscheinlichkeiten darstellt. Das Aussehen des Interferenzmusters wird u.a. von der Spaltengeometrie bestimmt. Wenn man nun die Spaltengeometrie ändert, dann sollte sich das Interferenzmuster ohne Zeitverzögerung entsprechend ändern, denn die Teilchen haben sofort eine andere Zukunft. Zu erwarten wäre andernfalls, dass sich das Interferenzmuster erst mit der zeitlichen Verzögerung ändert, die der Flugzeit der Teilchen von den Spalten bis zum Schirm entspricht. Tritt Letzteres ein, dann war's doch wenigstens eine originelle Idee (eine ausführliche Diskussion dieser und anderer Thesen findet sich in einem von mir verfassten philosophischen Essay (http://www.sine-metaphysica.de/zeit.pdf).
Hansjörg Pfister
Quelle : http://www.heise.de/tp/
-
Zeichentrickfilm macht Gedankenexperiment für jeden verständlich
Eine Person, die theoretisch mit Lichtgeschwindigkeit ins All reist, würde langsamer altern als ihr auf der Erde verbliebener Zwilling.
Das Gedankenexperiment von Albert Einstein ist als Zwillingsparadoxon bekannt und eine Folge der sogenannten Zeitdilatation.
Hier geht es weiter , Quelle der Standard (http://derstandard.at/1297818519431/Entzueckende-Animation-erklaert-Einsteins-Zwillingsparadoxon)
-
Bisher sind Quantencomputer nur theoretisch erforscht, praktisch nutzbare Realisierungen liegen noch in ferner Zukunft. Im Experiment arbeiteten bisher nur einige Systeme mit wenigen "Qbits". Bei der Forschung geht es nicht nur um Verschlüsselung oder die extrem schnelle Suche in Datenbanken. Für die Praxis wichtiger wäre das Berechnen von Quantensystemen mit solchen quantenmechanischen Hilfsmitteln, woran die klassische Informatik bisher wegen Komplexität und schierem Umfang dieser Aufgaben scheitert.
In dieser Hinsicht könnte mit der Nature-Veröffentlichung "Quantum Metropolis Sampling (http://iqoqi.at/news%26newsid=163)" von Temme, Osborne, Vollbrecht, Poulin und Verstraete wenigstens ein theoretischer Durchbruch gelungen sein. Es gelang den Autoren, den seit 1953 bekannten Metropolis-Algorithmus, der unter anderem Grundlage für komplexe Optimierungsverfahren ist, auf quantenmechanische Systeme zu übertragen. Dies ist ein altes Problem, auf das bereits 1982 der Nobelpreisträger Richard Feynman hinwies. Bei seiner Lösung muss mit "negativen Wahrscheinlichkeiten" gerechnet werden, die in der uns vorstellbaren Welt keinen Sinn ergeben.
Die komplexen Hintergründe erläutert ein PDF-Dokument (http://www.nature.com/nature/journal/v471/n7336/extref/nature09770-s1.pdf). Die praktische Bedeutung dieser Arbeit ist nicht zu unterschätzen, weswegen Nature unüblicherweise ein derart theoretisches Werk publizierte. Mit Berechnungen (selbst kleiner) quantenmechanischer Vielkörperprobleme ließen sich zahllose Eigenschaften etwa von chemischen Verbindungen, Legierungen, Flüssigkeiten und Plasmen vorherzusagen, was bis heute nur in grober Näherung möglich ist.
Das Forschungsprojekt von Wissenschaftlern der Universitäten in Wien, Hannover und Sherbrooke in Quebec (Kanada) sowie des Max-Planck-Instituts für Quantenoptik wurde von der EU gefördert.
Quelle : www.heise.de
-
Spanische Forscher haben genauer gemessen, als die Heisenbergsche Unschärferelation eigentlich erlaubt
Zu den Seltsamkeiten der Mikrowelt gehört, dass polizeiliche Geschwindigkeitskontrollen hier genau genommen undurchführbar sind. Der Wachtmeister mit dem Laser könnte zwar die Geschwindigkeit eines Nanofahrzeugs messen, wäre aber nicht in der Lage, gleichzeitig den genauen Ort der Messung nachzuweisen. Der Fahrer könnte sich bequem damit herausreden, zum Messzeitpunkt auf der Autobahn in der Nähe unterwegs gewesen zu sein. Das Phänomen hat Werner von Heisenberg 1927 erstmals formuliert, deshalb trägt es auch seinen Namen.
Im einfachsten Fall ist das Produkt der Unschärfen der beiden Messgrößen größer als das Plancksche Wirkungsquantum h (genauer gesagt: größer als h/4*Pi). Nun ist die Planck-Konstante sehr, sehr klein, deshalb spielt die Unschärferelation im Maxi-Alltag leider keine Rolle - und eignet sich vor den strengen Augen des Gesetzes auch nicht als Ausrede für Verkehrssünder.
Doch die Technik ist mittlerweile an einem Punkt angekommen, wo dieses Grundprinzip der Quantenmechanik allmählich lästig wird - sei es bei der Messung von Gravitationswellen, sei es bei der Magnetresonanztomografie oder bei der Konstruktion erdumspannender Navigationshilfen wie GPS. Denn auch wenn es nur darum geht, nur eine Größe zu messen (etwa die Frequenz einer Welle), braucht man dazu zwingend eine zweite Größe mit ebensolcher Genauigkeit (nämlich den Zeitpunkt, zu dem die Messung angefertigt wird - ohne diesen wird das Ergebnis sinnlos).
Die Wissenschaft ist deshalb längst auf der Suche nach Verfahren, wie man Messungen trotz der Unschärferelation präzisieren könnte. Dabei gibt man sich nicht der Illusion hin, Heisenberg widerlegen zu können (wobei sich die Unschärferelation nicht direkt aus anderen Aussagen der Quantenmechanik ergibt, sie stellt eher eine zusätzliche, vielfach bestätigte Annahme dar). Vielmehr geht es darum, ihr Limit auszutesten. Dazu bedient man sich der Tricks, die das Quantenreich eben so bietet, insbesondere der Verschränkung.
Über die Heisenberg-Grenze hinaus skalieren
In einem Artikel in Nature (http://dx.doi.org/10.1038/nature09778) zeigen nun Forscher der Universität Barcelona eine viel versprechende Herangehensweise. Dazu nutzten sie die bereits vorher bekannte Tatsache, dass zwei Faktoren die Genauigkeit einer Messung verbessern: Die Interaktion von Partikeln einerseits und deren Verschränkung andererseits. Es galt also, beide Faktoren zu kombinieren - und das gelang den Wissenschaftlern mit Hilfe eines gepulsten Lasers, mit dem sie eine Wolke von etwa einer Million ultrakalten Rubidium-Atomen bestrahlten. Die polarisierten Photonen des Lasers interagieren mit den Rubidium-Atomen.
Das Ergebnis lässt sich spektrometrisch analysieren - es verrät Daten über die atomare Magnetisierung (den Spin) der Atome. Die Forscher zeigen in ihrer Arbeit, dass sich ihr Verfahren über die Heisenberg-Grenze hinaus skalieren ließe - das ist die eigentliche Neuerung. Die praktische Ausführung bleibt allerdings künftigen Wissenschaftlern überlassen. Der Preis ist heiß: Eine höhere Genauigkeit etwa bei der Messung von Magnet- oder Gravitationsfeldern würde verschiedenste Disziplinen voranbringen.
Heißt das, dass die Heisenbergsche Unschärferelation falsch ist? So seltsam es klingt - nein. Dabei geht es um die gleichzeitige Messung verschiedener Parameter. Wir können nicht den Ort eines Teilchens präzise bestimmen und gleichzeitig seinen genauen Impuls kennen. Diese Verknüpfung ist fundamental und auch von den Spaniern in ihrem Nature-Paper nicht widerlegt.
Quelle : http://www.heise.de/tp/
-
Innsbrucker Forscher haben einen wichtigen Entwicklungsschritt hin zum Quantencomputer gemacht: Sie haben erstmals 14 Qubits miteinander verschränkt und so ein Quantenregister mit 14 Recheneinheiten geschaffen. Nebenbei haben sie damit auch ihren eigenen Rekord gebrochen.
Wissenschaftlern der Universität im österreichischen Innsbruck ist es gelungen, 14 Quantenbits oder Qubits kontrolliert miteinander zu verschränken. Das gilt als ein wichtiger Schritt in der Entwicklung eines Quantencomputers.
Quantenregister mit 14 Recheneinheiten
Die Forscher um Rainer Blatt haben 14 Kalziumatome in einer Ionenfalle gefangen und diese mit einem Laserlicht manipuliert. Interne Zustände jedes Atoms bilden dabei einzelne Quantenbits. Das sind Quantensysteme, die zwei Zustände annehmen können. Sie sind die kleinste Speichereinheit beim Quantencomputer, entsprechend einem Bit beim herkömmlichen Computer. Zusammen bilden die Qubits ein Quantenregister mit 14 Recheneinheiten. Das bildet das Kernstück eines zukünftigen Quantencomputers.
Blatt und seine Kollegen haben damit ihren eigenen Rekord für die meisten verschränkten Qubits gebrochen: 2005 gelang es ihnen, acht Qubits zu verschränken und so das erste Quantenbyte zu erzeugen.
Empfindlich
Allerdings ist so ein Quantenregister ein fragiles System: Die Physiker stellten fest, dass die Störungsempfindlichkeit mit der Anzahl der Teilchen quadratisch zunimmt. Bislang wurde angenommen, dass die Empfindlichkeit linear ansteigt. Das Phänomen heiße Superdekohärenz, erklärt Thomas Monz. Bisher sei es beim Bau von Atomuhren oder Quantensimulationen aufgefallen. "In der Quanteninformation wurde dieses Phänomen bisher kaum wahrgenommen", sagte der Innsbrucker Physiker.
Die Forscher können in ihren Ionenfallen bis zu 64 Teilchen fangen. Allerdings könnten sie so viele Ionen noch nicht verschränken, sagt Monz. "Die aktuellen Ergebnisse ermöglichen nun aber ein besseres Verständnis über das Verhalten von vielen verschränkten Teilchen." Die Forscher hoffen, dass sie schon bald mehr Teilchen verschränken können.
Empfindlich
Bei einer Quantenverschränkung können die miteinander verschränkten Teilchen nicht mehr als einzelne Teilchen mit definierten Zuständen beschrieben werden, sondern nur noch das Gesamtsystem. Die verschränkten Teilchen bleiben miteinander verbunden, auch wenn sie sich an verschiedenen Orten befinden. Wird auf eines der verschränkten Teilchen eingewirkt, wirkt sich das auch auf die anderen aus. Durch die Verschränkung von Quantenbits kann ein Quantencomputer bestimmte Probleme deutlich schneller lösen als ein klassischer Computer.
Ihre Arbeit haben die Forscher in einem Aufsatz in Physical Review Letters (http://prl.aps.org/abstract/PRL/v106/i13/e130506) beschrieben. Das Fachmagazin wird von der US-Physiker-Gesellschaft, der American Physical Society, herausgegeben.
Quelle : www.golem.de
-
Kann man ein Objekt teleportieren, ohne seine Eigenschaften zu kennen?
Der klassische Transporter, wie man ihn als Star-Trek-Fan kennt, funktioniert absolut deterministisch: Man misst die Eigenschaften sämtlicher Atome des zu beamenden Objekts, überträgt diese Information ans Ziel und konstruiert daraus das Objekt im Originalzustand. Hat man ausreichend genau gearbeitet, materialisiert sich das teleportierte Objekt, wie es vorher war - mit all seinen Gedanken und Eigenschaften. Mal davon abgesehen, dass die Star-Trek-Erfinder damit recht klar die Existenz von so etwas immateriellem wie einer Seele verneinen, haben sie natürlich mit Unfällen gerechnet. Mal begegnet Commander Riker seinem Double, mal verschmilzt der Talaxianer Neelix mit dem Vulkanier Tuvok. Selbst die moderne Form der Flugangst, die Panik vor dem Beamen, hat es schon in eine Folge geschafft.
Und dafür gibt es auch allen Grund - es steht eine ganze Reihe physikalischer Gesetze dagegen, das Beamen wie von den Star-Trek-Erfindern vorgesehen ablaufen zu lassen. Zuallererst natürlich die Heisenbergsche Unschärferelation, die es verbietet, alle Parameter eines Zustands genau zu messen. Wie passt das zu den unter anderem vom österreichischen Physiker Anton Zeilinger energisch voran getriebenen Idee der Quanten-Teleportation? Hier steht ein anderes physikalisches Phänomen im Vordergrund, nämlich das der Verschränkung. Zwei verschränkte Quantenzustände stehen in einer magisch anmutenden Verbindung, die von der Entfernung unabhängig ist - ändert man eine Eigenschaft des einen Teils der Verschränkung, ändert sich im selben Moment auch der andere Teil. Quanten-Teleportation passiert also, wie das Beamen bei Star Trek, sofort.
(http://www.heise.de/tp/artikel/34/34544/34544_1.jpg)
Der Experiment-Aufbau im Labor der Forscher
Bisher hat man sich allerdings damit befasst, bekannte Quantenzustände zu teleportieren. Das ist unter anderem für die Quanten-Kryptografie interessant, weil man sofort merkt, wenn jemand lauscht: Durch eine heimliche Messung kommt es zur Dekohärenz, der Empfänger erhält nur noch Quantenmüll. Einem japanischen Forscherteam ist es nun gelungen, das Prinzip auf einen unbekannten Zustand zu übertragen - genauer gesagt auf die quantenmechanische Überlagerung zweier Zustände, wie sie der Physiker Erwin Schrödinger in seinem Gedankenexperiment mit der gleichzeitig lebenden und toten Katze visualisiert hat. Im Wissenschaftsmagazin Science beschreiben die Forscher ihr Experiment.
Ausgangspunkt ist dabei eine Quanten-Überlagerung von zwei Lichtwellen - sie stellt hier die Schrödinger-Katze dar. Gleichzeitig, aber unabhängig davon haben die Forscher die beiden Lichtpakete miteinander verschränkt, das ist die Voraussetzung für eine Quanten-Teleportation. In einem komplizierten Prozess gelang es dann, die "Katze" zunächst komplett zu löschen, um sie am Ausgang wieder auferstehen zu lassen. Soweit man bei einem nicht lebenden und nicht toten Wesen von Auferstehung sprechen kann. Der Versuch ist nicht nur für Startrek-Fans interessant, würde er doch die unmögliche Aufgabe ersparen, sämtliche Teilcheneigenschaften eines zu beamenden Objekts messen zu müssen. Praktisch könnte man daraus auch ein logisches Element für einen Quantencomputer konstruieren - vor allem aber freut sich die Fachgemeinde, wie gut man inzwischen sehr delikate Quantenzustände konservieren und bearbeiten kann.
(http://www.heise.de/tp/artikel/34/34544/34544_2.jpg)
Im Experiment konstruiert man eine "Schrödinger-Katze", die aus der Quanten-Überlagerung von zwei Lichtwellen besteht - die eine Welle könnte man dabei als die lebende, die andere als die tote Katze interpretieren, in der Überlagerung entsteht Schrödingers Gedanken-Erfindung. (B) und (E) zeigen in der Grafik die gemessene Lichtamplitude am Ein- und Ausgang des Experiments. (C) und (F) sind die Photonen-Statistiken für die Eingangs- und Ausgangs-Licht-Zustände. (A) und (D) sind numerische Funktionen ("Wigner-Funktionen"), die sich wie Wahrscheinlichkeitsverteilungen verhalten und die statischen Eigenschaften der gemessenen Amplituden beschreiben. Die zwei positiven Peaks in beiden Bildern stellen die zwei unabhängigen Lichtwellen dar. Der negative Peak in der Mitte ist ein Symptom für die aus der Quantenüberlagerung entstehende Interferenz - und gleichzeitig eine Signatur für die Anwesenheit des Schrödinger-Katzen-Zustands, der auch nach der Quantenteleportation erhalten blieb.
Quelle : http://www.heise.de/tp/
-
Hat das Elektron Dellen in seiner Gestalt? Die Antwort könnte die Struktur des Universums bestimmen
Es hätte so schön einfach sein können: Das Elektron ist auf den ersten Blick eins der letzten echten Elementarteilchen, wie es von den Physikern im vergangenen Jahrtausend gesucht wurde. Es zerfällt nicht, besitzt keine innere Struktur und ist gar so klein, dass es mit Fug und Recht als Punkt behandelt werden kann. Doch wie so oft, steckt der Teufel im Detail. Denn welcher Punkt kann schon eine Ausrichtung für sich beanspruchen, mit der er in eine beliebige Raum-Richtung zeigen kann?
So lässt sich jedenfalls der Spin (1/2) des Elektrons interpretieren. Aus den Wechselwirkungen des Teilchens mit anderer Materie ergibt sich zudem, dass das Elektron durchaus eine Gestalt haben muss, die von asphärischer Natur ist: rotationssymmetrisch, wobei die Form nicht Ausschnitt einer Kugeloberfläche ist.
Diese Gestalt, so die Theorie, hat eventuell ein paar Dellen. Und zwar genau dann, wenn das Elektron ein elektrisches Dipolmoment besitzt. Die Existenz seines magnetischen Dipolmoments ist unbestritten: Mit Hilfe eines Magnetfelds kann man Elektronen deshalb in Bewegung setzen. Aber kann auch ein elektrisches Feld ein Elektron in Rotation versetzen? Die Frage scheint irrelevant, wo doch der Elementarladungsträger so winzig ist. Die Antwort entscheidet aber so ganz nebenbei, welche Struktur das Universum hat.
Die Astrophysiker wären vermutlich froh, wenn sich tatsächlich ein elektrisches Dipolmoment fände. Denn es würde zum Beispiel erklären, warum das Universum so aufgebaut ist, wie wir es tagtäglich beobachten: Aus jeder Menge Materie und verschwindend wenig Antimaterie. Diese Asymmetrie passt nicht ins System, es gibt nichts, was gewöhnliche Materie vor Antimaterie auszeichnet.
Wären allerdings all die Teilchen, die wir kennen, nur ein Teil einer viel größeren Gesamtheit, könnten sich neue Erklärungen für das Ungleichgewicht ergeben. Diese Teilchen, so vermutet man, warten im unendlichen Pool des Kosmos auf ihre Existenz. Sie tauchen auf und verschwinden wieder, ohne dass wir genug Zeit haben, sie zu beobachten. Da diese virtuellen Teichen, so die Idee, sehr massereich sind, genügen unsere Teilchenbeschleuniger bei weitem nicht, um in ihre Bereiche vorzustoßen.
Die Physiker können aufatmen
Hier kommen die Elektronen ins Spiel. Die virtuellen Teilchen können wir zwar nicht direkt beobachten, wohl aber ihre Wechselwirkungen. Bei den Elektronen müssten sich diese Wechselwirkungen in der Existenz des elektrischen Dipolmoments äußern. Die virtuellen (und hypothetischen) Teilchen verleihen den Elektronen ihr Dipolmoment. Könnte man zeigen, dass es Realität ist, hätte man einen Beweis auch für den Rest der Theorie. Den großen Rest der Physikergemeinde würde eine solche Entdeckung aber in Probleme stürzen. Denn mit dem gegenwärtigen Standardmodell der Physik ist sie nicht kompatibel, wir bräuchten eine neue Physik.
Wie es aussieht, können die Physiker aber erst einmal aufatmen. Ein britisches Forscherteam berichtet (http://www.nature.com/doifinder/10.1038/nature10104) in der aktuellen Ausgabe des Wissenschaftsmagazins Nature, dass das elektrische Dipolmoment zumindest kleiner sein muss, als man erhofft hatte.
(http://www.heise.de/tp/artikel/34/34826/34826_1.jpg)
Das für die Messung benutzte Lasersystem (Bild: Joe Smallman)
Dieser Nachweis war gar nicht so trivial. Denn um eine sehr schwache Wirkung eines elektrischen Felds auf ein Elektron zu testen, müsste man das Teilchen einem möglichst starken Feld aussetzen. Die Wirkung eines elektrischen Felds auf ein Elektron ist allerdings bekannt: Die Teilchen flitzen, wie der US-Physiker Aaron Leanhardt in einem begleitenden Kommentar in Nature schreibt, wie von Sinnen auf die nächstbeste Wand zu.
Ein Effekt, der sich sehr schön zur Erzeugung von Röntgenstrahlung nutzen lässt, aber beim Experimentieren sehr hinderlich ist. Um ihre Testobjekte festzuhalten, nutzen die britischen Forscher deshalb die Tatsache, dass sie in Atomen und besonders Molekülen relativ stabile Orbitale einnehmen. Äußere elektrische Felder polarisieren Atome oder Moleküle zunächst.
Im konkreten Fall kam Ytterbium-Fluorid zum Einsatz (YbF). Im Vergleich zu früheren Experimenten gelang es den Forschern damit, die Nachweisgrenze für das elektrische Dipolmoment um den Faktor 1,5 zu verringern. Es ergibt sich ein Maximalwert von 10,5 x 10(-28)*e Zentimetern (e = Elementarladung) - das sind 16 Größenordnungen weniger als beim magnetischen Dipolmoment. Die Forscher rechnen allerdings damit, dass mit diesem Experiment-Design noch eine Verbesserung um einen Faktor von bis zu 100 möglich ist. Insofern ist die Entwarnung für die heutige Physik womöglich nur temporär.
Quelle : http://www.heise.de/tp/
-
Auf dem Weg zur molekularen Maschine, die Entscheidungen treffen und ausführen kann: ein DNA-Computer, der Quadratwurzeln ziehen kann
Als in den Neunzigern erstmals Computer, die mit Erbmasse rechnen, in den Labors konstruiert wurden, hatte man noch keine richtige Vorstellung von deren künftiger Anwendung. Zunächst hatte man nur das Potenzial im Blick: Sechs Gramm DNA in einem Liter Flüssigkeit, so berechnete man, könnten drei Trilliarden Bytes speichern. Da DNA-Computer massiv parallel arbeiten, wäre eine Rechengeschwindigkeit von einer Trillion Operationen pro Sekunde möglich. So weit die Theorie - doch bisher hat es sich als erstaunlich kompliziert erwiesen, die von der Natur bereitgestellten Werkzeuge ebenso effizient zu nutzen wie das die Natur selbst schafft.
Hinzu kommt, dass auch die konventionelle Rechentechnik seit Erfindung der ersten DNA-Computer erstaunliche Fortschritte gemacht hat. Aktuelle Grafikchips rechnen so schnell wie "damals" die Supercomputer. Und am Horizont wartet der sowieso alles übertreffende Quantencomputer auf seinen Einsatz.
Die Erbsubstanz hingegen, darüber sind sich die Forscher weitgehend einig, soll gewissermaßen bei ihren Leisten bleiben und idealerweise Probleme dort lösen, wo sie herkommt und die größte Rolle spielt: in der Zelle. Dabei schwebt den Forschern ein Diagnose-Werkzeug vor, das die analysierten Probleme auch gleich noch lösen kann. Bis es so weit ist, dürften allerdings noch ein paar Jahrzehnte vergehen, da viele Probleme noch ungelöst sind.
Hilfe über Wippen
Immerhin zeigen (http://dx.doi.org/10.1126/science.1200520) nun zwei US-Forscher in der aktuellen Ausgabe des Wissenschaftsmagazins Science, wie sie zumindest einige der Hindernisse aus dem Weg räumen konnten. Sie setzen auf eine besonders einfache Herangehensweise, indem sie so genannte Seesaw-Gates ("Wippen") konstruieren, die DNA-Einzelstränge in bestimmten Positionen hybridisieren lassen - und dann die beiden Booleschen Werte True und False darstellen.
Die Forscher demonstrieren, dass sich mit solchen Seesaw-Gates eine komplette Logik darstellen lässt: Sie nutzen ihren "Computer", um die Quadratwurzel aus Vierbit-Zahlen zu ziehen. Die dabei ablaufenden chemischen Reaktionen funktionieren autonom, das ist ein weiterer Vorteil, also ohne externe Steuerung. Angetrieben wird das ganze von zusätzlichen DNA-Strängen, dem "Treibstoff", die die nötige Energie liefern. Der Aufbau hat zudem den Charme, dass er relativ gut skalierbar ist.
Allerdings gibt es noch immer, wie der Informatiker John Reif in einem begleitenden Artikel schreibt, diverse Probleme. So ist die Ausführungsgeschwindigkeit sehr gering: Jedes Seesaw-Gate benötigt zwischen 30 und 60 Minuten, um seinen Zustand zu ändern. Die simple Quadratwurzel brauchte im Experiment deshalb sechs bis zehn Stunden. Das liegt vor allem an den langen Signal-Laufzeiten. Da ist uns die Natur schon noch um einiges voraus, denn sie kann im Sekundenrhythmus reagieren.
Wie bringt man den DNA-Computer in einer Zelle unter?
Außerdem mussten die Forscher für ihr Experiment ein paar Milliarden DNA-Abschnitte einsetzen - auch hier gibt sich die Natur weitaus bescheidener. Dass die Forscher so viel Experimentiermasse einsetzen mussten, liegt daran, dass jedes der Gates global über die ganze Anordnung definiert ist, man kann den Zustand eines Gates nur bestimmen, indem man den gesamten Zustand betrachtet.
Reif schlägt deshalb vor, sich hier bei der gewöhnlichen Halbleitertechnik zu bedienen, die rein lokal arbeitet: Der Zustand eines Gates wirkt sich nur auf die direkten Nachbarn aus. Ließe sich das auf die Arbeit mit DNA übertragen, würde sowohl die Reaktionsgeschwindigkeit steigen als auch die nötige Anzahl an DNA-Strängen sinken.
Ein weiteres Problem wäre damit allerdings noch nicht gelöst: Wie bringt man den DNA-Computer dort unter, wo er nach aktueller Vorstellung hingehört, also in einer Zelle? Hier sind ja Enzyme etc. am Werk, die die Arbeit eines DNA-Computers beeinflussen würden. Behelfen könnte man sich hier, so Reif, indem man die DNA aus ungewöhnlichen Basen konstruiert oder besonders kurze RNA-Schnippsel nutzt.
Quelle : http://www.heise.de/tp/
-
...und was in aller Welt soll so ein künstlicher Rechenapparat in einer Zelle ausrichten?
Mir fehlen da alle für logische Steuerungen erforderlichen Schnittstellen, rein wie raus.
Für ihre eigene Funktion hat die typische Zelle von Natur aus, was sie so braucht.
Nun könnte man ja denken, eine Nervenzelle verfügt über ihre Ganglien über elektrische I/O-Schnittstellen, die sich vielelicht sinnvoll einsetzen liessen.
Nur stellen diese ihre Verbindungen her, oder trennen diese, nach Regeln, von denen wir keine Ahnung haben.
Auch wissen wir inzwischen, dass manche Nervenzellen doch im L.aufe des Lebens vergehen und neu entstehen können.
Bedeutung und Macht der einzelnen Zelle sind begrenzt, variabel und nicht mathematisch-logisch.
Scheint mir nicht gerade die ideale Umgebung für's Rechnen...
Aber ein Aspekt dürfte für die Industrie doch recht interessant sein, nämlich die Vergänglichkeit.
Aufbauend auf biologischen oder gar lebenden Substanzen, bräuchte man sich keine Sorgen mehr um zu langlebige Hardware zu machen, um Zeug, das nach monatelangem Stillstand immer noch funktioniert, oder das der eifrige Schrauber immer noch selbst neuen Zwecken zuführen kann.
-
Physiker wollen erstmals gemessen haben, dass auch ein einzelnes Photon nicht in Überlichtgeschwindigkeit reisen kann
Zeitreisen können die Fantasie beflügeln. Es wäre doch schön, die grausame Irreversibilität der Wirklichkeit, die es im Virtuellen nicht gibt, umgehen zu können. Der Tod oder die Geburt wären keine unwiederholbaren Ereignisse mehr, man könnte sich beliebig durch die Geschichte bewegen - und dann deren Geschehnisse auch nach den eigenen Wünschen verändern.
Nach einer Studie von Physikern aus Hongkong müssen wir die Vorstellung aber in der Science Fiction belassen. Wir kommen aus der irreversiblen Zeitachse nicht heraus. Das wäre nur möglich, wenn etwas sich beispielsweise schneller als Lichtgeschwindigkeit fortbewegen könnte. Dann ließe sich die "Zeit" überholen. Manche glaubten, dass etwa Photonen schneller als die Lichtgeschwindigkeit reisen könnten, die von Einstein in seiner Relativitätstheorie als die absolute Geschwindigkeit behauptet hatte. Das wollen die Physiker nun empirisch bestätigt haben, wie sie in einem Beitrag (http://prl.aps.org/abstract/PRL/v106/i24/e243602) für die Zeitschrift Physical Review Letters berichten.
Erstmals haben die Wissenschaftler, wie sie schreiben, die Geschwindigkeit eines einzelnen Photons beobachten könnten, das sich durch ein Vakuum bewegt. Da man bislang dies nicht messen konnte, war behauptet worden, dass unter bestimmten Bedingungen Photonen sich auch schneller als Lichtgeschwindigkeit bewegen könnten. Die Physiker seien nun in der Lage gewesen, auch die optischen Vorläufer eines Photons messen und damit zeigen zu können, dass sich nichts schneller als die Lichtgeschwindigkeit bewegen können. Selbst die schnellsten Teile eines Photons hätten sich im Vakuum nicht schneller als die Lichtgeschwindigkeit bewegen können. Selbst in einem superluminalem Medium, wo die Gruppengeschwindigkeit der Teile eines Photons schneller als die Lichtgeschwindigkeit sein können, habe der zentrale Kern eines einzelnen Photons keine Möglichkeit, sich schneller bewegen zu können.
Die scheinbare Überlichtgeschwindigkeit, die man vor 10 Jahren entdeckt zu haben glaubte, seien nur visuelle Effekte, da die scheinbar schneller als die Lichtgeschwindigkeit bewegenden Photonen keine Informationen übermitteln können. Aber auch ein einzelnes Photon kann nicht schneller reisen, was man nun bewiesen habe, so dass Einsteins Kausalität, dass eine Wirkung nicht vor ihrer Ursache eintreten kann, bestätigt werden könne. Es gibt also Realität, d.h. Irreversibilität, mithin die unumkehrbare Zeit und damit auch den Tod.
Quelle : http://www.heise.de/tp/
-
Physiker der Universitäten Ulm und Siegen haben eine Möglichkeit gefunden, Quantenzustände von Ionen durch Mikrowellenstrahlung zu stabilisieren. Die neuen Erkenntnisse könnten beispielsweise ein Baustein auf dem Weg zum leistungsfähigen Quantencomputer sein.
"Um Ionen unter Kontrolle zu bringen, werden sie in Ionenfallen gefangen und mit Laserlicht gekühlt. Dann stellt sich die Frage, wie man die elektrisch geladenen Partikel miteinander in Wechselwirkung bringt", erklärte Humboldt-Professor Martin Plenio. Bereits vor zehn Jahren habe der Mitautor der jüngsten Publikation, Christof Wunderlich von der Universität Siegen, vorgeschlagen, Ionen zusätzlich einem starken Magnetfeld auszusetzen.
In diesem Fall bestimmt die Ausrichtung der im Ion befindlichen Elektronen die Gesamtenergie des Partikels. Eine Änderung dieser Ausrichtung verschiebt das ganze Ion in der Falle. Das benachbarte Ion registriert die Verschiebung und ändert seine Position dementsprechend. Die Verschiebung kann dann auf Elektronen dieses Teilchens übertragen werden. "Derartige angestrebte Wechselwirkungen können mit einer Stuhlreihe verglichen werden. Rückt die äußerste Person einen Platz weiter, stößt diese Bewegung eine Kettenreaktion an", so Plenio.
Das Problem: Die zusätzlichen Magnetfelder sind nicht stabil und ändern ihre Stärke zufällig. Deshalb geraten die Ionen nach und nach außer Kontrolle, in der Physik nennt man dieses Phänomen Rauschen. Um ein solches Chaos zu vermeiden, muss den Ionen ein Takt vorgeben werden. Diese Rolle haben die Wissenschaftler zusätzlichen Mikrowellen, also oszillierenden elektromagnetischen Feldern, zugewiesen, die in Ionenfallen integriert werden können. Dadurch wurden Zufälligkeiten in den Elektronen-Ionen-Wechselwirkungen erfolgreich unterdrückt.
Künftig wollen die Wissenschaftler ihre Erkenntnisse auf weitere physikalische Fragestellungen anwenden und durch die "Mikrowellenkontrolle" zum Beispiel Mess-Sensoren verbessern. Eine Besonderheit des Forschungsprojekts ist die enge Zusammenarbeit von Ulmer Theoretikern und Experimentalphysikern aus Siegen, die ihre Erkenntnisse nun gemeinsam im renommierten Wissenschaftsmagazin 'Nature' veröffentlichten.
Quelle : http://winfuture.de
-
Neutrinos, die sich schneller als das Licht bewegen, hat ein Labor in Italien zusammen mit dem europäischen Kernforschungszentrum Cern festgestellt. Das ist eigentlich nicht möglich und widerspricht den bisher etablierten Naturgesetzen.
Das Opera-Experiment, das einen Neutrinostrom vom europäischen Kernforschungszentrum Cern im 730 km entfernten italienischen Labor Gran Sasso untersucht, hat eine ungewöhnliche Geschwindigkeit der Neutrinos gemessen. Diese bewegen sich minimal schneller als das Licht.
Untersucht wurden über 15.000 Neutrino-Ereignisse, die in Gran Sasso gemessen wurden. Die Ergebnisse belegen, dass sich Neutrinos minimal schneller als das Licht bewegen. Und das dürfte nach den bisherigen physikalischen Theorien eigentlich nicht der Fall sein: Die Lichtgeschwindigkeit wurde bisher als natürliche kosmische Obergrenze angesehen.
(http://scr3.golem.de/screenshots/1109/Opera/thumb620/2011n01896h.jpg)
Opera-Experiment (Quelle: INFN - Istituto Nazionale di Fisica Nucleare)
Da das Ergebnis sehr weitreichende Konsequenzen hätte, seien zunächst weitere Untersuchungen notwendig, bevor der Effekt widerlegt oder bestätigt werden könne, heißt es dazu in einer Ankündigung des Cern. Die an Opera beteiligten Forscher haben sich entschieden, ihre Ergebnisse offenzulegen, damit diese unabhängig geprüft werden können. Die Daten sind unter arxiv.org (http://arxiv.org/abs/1109.4897) zu finden.
Da die Opera-Ergebnisse im Widerspruch zu etablierten Naturgesetzen stehen, haben die Forscher viele Ansätze verfolgt, um Gründe für die Abweichungen von Einsteins Theorien zu finden, bislang aber ohne Erfolg. So wurde unter anderem die Strecke zwischen Quelle und Ziel von 730 km Länge auf eine Genauigkeit von 20 cm vermessen und die Zeit, die die Neutrinos benötigen, um diese Strecke zurückzulegen, mit GPS-Systemen und Atomuhren auf 10 Nanosekunden genau bestimmt.
Opera-Sprecher Antonio Ereditato nennt die Ergebnisse eine Überraschung. "Die potenziellen Auswirkungen auf die Wissenschaft sind zu groß, um voreilige Schlüsse zu ziehen", sagt Ereditato. Neutrinos seien immer noch rätselhaft.
Quelle : www.golem.de
-
Es besteht also Wieder Hoffnung, dass wir irgendwann mit WARP-Geschwindigkeit durch's all sausen. :jb
dvb_ss2
-
:startrek Energie
;D
-
Cool, nach Einstein würde das wohl bedeuten, dass die Neutrinos jünger werden ... :aah
-
Nanu, sollten das die sagenhaften Tachyonen sein?
Ich denke eher, dass solche Abweichungen zu erwarten sind, weil man bekanntlich nur einen extrem kleinen Teil der Neutrinos beobachten kann, während der bei weitem allergrösste Teil sämtliche Messwerke spurlos passiert, und den Planeten nebenbei.
Dieser messbare Anteil ist so absurd gering, dass schon die winzigste Wechselwirkung zwischen den Neutrinos die Messergebnisse beeinflussen könnte. Streuung, Beugung, wasweissich...
Massebehaftet sollen sie ja wohl sein, wenn auch sehr gering, also müssen sie auf Schwerkraft / Raumkrümmung reagieren, diese aber auch selbst erzeugen.
Und sie müssen zudem auch de Broglie Wellen erzeugen können, und zwar alle, auch die nicht gemessenen.
Also gehe ich einfach mal, bis zum Gegenbeweis, von einer Art Phasenverschiebung aus, ähnlich dem angeblich überlichtschnellen Tunneleffekt im Hohlleiter, mit dem wir ja schon vor ein paar Jahren beeindruckt werden sollten.
Das war etwa zeitgleich mit angeblicher Antigravitation aus Supraleitung.
Und bis heute kann ich keine revolutionäre Umwälzung von Physik und Technik feststellen, die auf so einem Effekt basierte.
Der einzige Beweis für ein kleines Schwarzes Loch dagegen ist längst Alltag.
Ein solches befindet sich in meiner Geldbörse.
Wieviel auch immer ich da hinein gebe, es löst sich doch verlässlich und schnell in Nichts auf...
-
(http://www.heise.de/imgs/18/7/1/6/0/4/8/575f77b183c5c1e4.jpeg)
In einem gut zweistündigen Webcast hat Dario Auterio, Physiker am Institut für Nuklearphysik in Lyon (CNRS), die Meßergebnisse und Meßverfahren des OPERA-Experiments ausführlich vorgestellt, die den Neutrinoteilchen eine Geschwindigkeit von etwa 0,025 Promille, also etwa 75 km/s über Lichtgeschwindigkeit bescheinigen. Wer die Veranstaltung verpasst hat, kann sich die Aufzeichnung des Webcasts (http://cdsweb.cern.ch/record/1384486) ansehen. (Sollte dieser Server überlastet sein, empfiehlt das CERN groovygecko webcast (http://dl.groovygecko.net/anon.groovy/clients/cern/index1.html) oder elmundo.es webcast (http://www.elmundo.es/especiales/2011/09/ciencia/cern/index.html)).
Die anwesenden Experten konnten zumindest auf den ersten Blick keine handwerklichen Fehler erkennen, weder bei der Zeitmessung, der Entfernungsmessung, noch bei der Analyse. Überall sei mit äußerster Sorgfalt vorgegangen worden, konzedierten sie.
Mögliche Störungen durch Jahreszeiten, Temperatur, Mondphasen, Supernovae, seismische Verschiebungen – alles Fragen, die Auterio gestellt wurden, die aber nach seinen Ausführungen berücksichtigt wurden oder die nicht ursächlich für dieses unerwartete Ergebnis sein können.
Die Zeitmessung erfolgt mit zwei über GPS synchronisierten Cäsium-Uhren, die von dem Schweizer Metrologie-Institut (METAS) geliefert und kalibriert wurden. Zusätzlich hat die PTB in Braunschweig das Messverfahren mit mobilen Messgeräten gegengeprüft und im Rahmen von 2,3 +-0,9 ns Meßgenauigkeit bestätigt. Die Entfernung zwischen dem tief im Berg gelegenen Detektor am Gran Sasso Tunnel und dem Messpunkt bei CERN in Genf von rund 730 km wurde mit GPS-Technik auf etwa 20 cm ausreichend genau bestimmt, obwohl man mit ein bisschen mehr Aufwand den Abstand noch genauer bestimmen könnte. Doch dazu müsste man eine Zeitlang den Autoverkehr im Gran-Sasso-Tunnel komplett stoppen, um die Entfernung zu dem GPS-Punkt am Rande des Autobahntunnels präziser vermessen zu können und das wollten die Wissenschaftler den italienischen Autofahrern nicht zumuten, jedenfalls noch nicht.
Bei den seit 2008 laufenden Messungen konnten die Wissenschaftler bei den täglichen Koordinatenmessungen eine leichte kontinuierliche Verschiebung um wenigen Zentimeter pro Jahr und bei einem Erdbeben 2009 einen Sprung von 6 cm nach Norden und Osten ausmachen. Die 1400 Meter Felsen über dem Neutrino-Detektor schirmen 99,9 Prozent der kosmischen Strahlung ab, die sonst die Messungen überlagern würde.
Die Laufzeit eines einzelnen Neutrinos kann man allerdings nicht messen, sondern nur die Wahrscheinlichkeitsverteilung in einem Bündel. Aus dem Vorbeschleuniger (SPS) des Large Hadron Colliders werden über Kicker-Magnete 10,4-µs-lange Protonenbündel mit 400 GeV ausgekoppelt. Ihnen aufmoduliert ist die Synchrotronfrequenz von 500 kHz und die Radiofrequenz von 200 MHz. Die Zeitstruktur der Bündel wird in einem Beam Current Transformer Detector (BCT) mit einem hochauflösenden Wave Form Digitizer (WFT) mit 1 Gigasamples/s bestimmt. Die Protonen knallen auf einen 2 m langen Graphitblock, wobei Mesonen (Pions, Kaons) produziert werden. Diese Mesonen zerfallen irgendwo im 1000 m langen Vakuumtunnel in Myons, wobei Myon-Neutrinos entstehen. Den genauen Punkt weiß man nicht, da aber die Mesonen nahezu die gleiche Geschwindigkeit wie die Neutrinos besitzen, kann man den Unterschied vernachlässigen. Über einen 18-m-langen Kohlenstoff-Eisen-Block werden dann die verbleibenden schweren Teilchen abgefangen und die Myons vermessen. Die Neutrinos wandern 730 km durch die Erdkruste, wandeln sich zwischenzeitlich zu Tau-Neutrinos und werden dann in dem 1500 Tonnen schweren Detektor aufgefangen. Etwa die Hälfte der detektierten Neutrinos reagiert mit dem Felsen des Berges (externe Events), der Rest mit dem Target (interne Events). Diese unterschiedlichen Events werden dann getrennt verrechnet.
Dabei ergibt sich letztlich eine Verschiebung der Wahrscheinlichkeitsverteilung gegenüber dem zu erwartenden Wert bei Lichtgeschwindigkeit von 60,7 ns +/-14,5 ns mit einer Signifikanz von 6,0.
Den Forschern ist dieses Ergebnis selbst nicht geheuer: "Wir versuchen keine theoretischen oder phänomenologischen Interpretationen", so ihr Schlusssatz. Aber CERN-Chef Heuer hat schon angekündigt, dass der bisherigen CERN-Seitenlinie namens OPERA nun weit mehr Bedeutung zukommen wird -- doch will man die Suche nach dem Higgschen-Teilchen dabei nicht vergessen.
Viele weitere Details findet man in der offiziellen Veröffentlichung (pdf (http://static.arxiv.org/pdf/1109.4897.pdf)). Angesichts der aufgelisteten Schar der Wissenschaftler müsste im Falle eines Falles der Nobelpreis auf über Hundert aufgeteilt werden.
Quelle : www.heise.de
-
Die US-amerikanischen Fermilabs hoffen, die vom CERN gemeldete Überlichtgeschwindigkeit von Neutrinos in bereits vier bis sechs Monaten bestätigen oder als Messfehler entlarven zu können. Das hat Jenny Thomas, Professorin für Teilchenphysik am University College London in einer E-Mail an TPM’s Idea Lab bekräftigt. Thomas ist Sprecherin des MINOS-Experiments, das im Prinzip schon im Jahre 2007 mit ähnlichen Ergebnissen aufwartete. Allerdings wiesen diese Ergebnisse größere Messungenauigkeiten auf, sodass eine Überlichtgeschwindigkeit nicht mit der erforderlichen Signifikanz festgestellt werden konnte.
Nun wollen die Wissenschaftler mit neueren Messmethoden die verschiedenen Laufzeiten nachträglich sorgfältiger einmessen und dann die alten Daten mit höherer Genauigkeit neu verrechnen – sonst wäre der ehrgeizige Zeitrahmen von nur sechs Monaten wohl nicht zu schaffen. Aber sie wollen auch die MINOS-Messungen mit einer Vielzahl von Verbesserungen wiederholen und unter anderem zehnmal mehr Daten ermitteln.
Bei MINOS schickt der Tevatron-Vorbeschleuniger die erzeugten Neutrinos auf eine wie zufällig ebenfalls 732 km lange Reise (und meist darüber hinaus) zur Soudan Mine in Minnesota. In einigen Jahren soll dann der geplante Linearbeschleuniger "Projekt X" im Large Base Neutrino Experiment (LBNE) seine Neutrinos zu den 1000 km entfernten Sanford-Untergrund-Laboren in South Datoka schicken.
Manchem Forscher am Fermilab kommt möglicherweise das Abschalten des Großbeschleunigers Tevatron sogar entgegen, der am 30. September um 2 Uhr Ortszeit seine letzten Protonen in den Entsorgungskanal aus Graphit, Aluminium und zuletzt Stahl schicken wird. Sie freuen sich auf das "Ausschlachten" des Tevatron mit all seinen Geräten in dem etwa 6,3 km langen Tunnel, von denen sich etliche für andere Experimente nutzen lassen. Andere werden nach 28 Jahren sehr erfolgreichen Betriebs des Beschleunigers sicher die ein oder andere Träne verdrücken, aber der LHC ist bezüglich Hochenergieforschung eben noch leistungsfähiger, auch sind dort schließlich die Fermilabs bei dem LHC-Großexperiment CMS maßgeblich dabei. Am Standort in Illinois wollen die Femilabs ansonsten von Hochenergie auf Hochintensität wechseln.
Speziell die Neutrinoforschung und die Suche nach dunkler Materie sowie Energie soll in den Fermilabs intensiviert werden. Dazu werden viele neue aufwendige Experimente vorbereitet, neben dem LBNE unter anderem auch NOvA, das die Oszillation von Myon-Neurionos in Elektron-Neurinos vermessen soll.
Hinzu kommt die Forschung an neuen Beschleunigern mit Supraleitung- und Hochfrequenztechnologie, die insbesondere für den geplanten Linearen Protonenbeschleuniger "Projekt X" gedacht ist, der auf dem Gelände des Tevatron ab 2015 seinen Betrieb aufnehmen soll. Von ihm versprechen sich die Wissenschaftler weitaus intensivere Neutrino-, Myon- und Kaon-Teilchenströme als bisher möglich.
Quelle : www.heise.de
-
Einen Anfängerfehler unterstellt der niederländische Physiker Ronal A.J van Elburg den Wissenschaftlern der schweizerischen und deutschen Metrologie-Einrichtungen METAS und PTB in seinem Aufsatz "Time-of-flight between a Source and a Detector observed from a Satellite" (PDF-Datei (http://arxiv.org/abs/1110.2685)) – und wirbelte damit viel Staub auf. Die Wissenschaftler hätten für die Synchronisation der beiden Uhren bei CERN und dem Gran-Sasso-Labor die relativistische Zeitverschiebung durch die Bewegung der GPS-Satelliten nicht berücksichtigt. Nach seinen Berechnungen kommt er auf einen Korrekturwert von 62 ns, also nahezu genau den Wert, den die Neutrinos nach den OPERA-Messungen zu schnell sein sollen.
Über das verwendete Zeitmessverfahren "Common View", das schon 1980 vom amerikanischen Standardisierungsinstitut NIST entwickelt und seitdem immer weiter verfeinert wurde, hat sich der Autor aber offenbar nicht wirklich informiert. Dr. Thorsten Feldmann von der PTB in Braunschweig, der das Verfahren für GPS Bases Time Link Calibration bei der PTB mit entwickelt hat, schüttelt über van Elburgs Unterstellung nur den Kopf: "Selbstverständlich sind relativistische Effekte bei GPS berücksichtigt. Das ist sogar für relativ ungenaue Messgeräte, wie zum Beispiel ein Autonavi, nötig".
Für die Synchronisation gemäß Common View ist sogar nicht einmal der genaue Zeitpunkt relevant, sondern nur die Laufzeit vom Satelliten zur den beiden Bodenstationen. Schön zusammengefasst kann man den Einfluss relativistischer Effekte in Neil Ashbys Arbeit "Relativity in the Global Positioning System" nachlesen. Der Autor listet hier die durchaus zahlreichen Effekte auf, die sich sowohl auf die Uhren in den Satelliten als auch auf die Laufzeiten der Signale auswirken.
Neben dem relativistischen Dopplereffekt (unter anderem in einem Papier von japanischen Wissenschaftlern genau beschrieben), der in etwa das berücksichtigt, was van Elburg offenbar im Sinn hatte, wirkt sich auch die allgemeine Relativitätstheorie aus, insbesondere auf eine Frequenzverschiebung der Satellitenuhren (lustigerweise genau in der anderen Richtung wie die speziellen Relativitätstheorie), aber auch auf die Laufzeit (Shapiro Propagation Delay). Zum Teil liegen diese Einflüsse nur im Picosekundenbereich, die man aber alle berücksichtigen muss, will man bis hinab zu etwa 1 mm genau messen.
(http://www.heise.de/imgs/18/7/2/5/6/5/7/56344df070eb6cda.jpeg)
Nicht berücksichtigt hat van Elburg zudem, dass das Messverfahren der Schweizer von den deutschen Kollegen der PTB gegengecheckt wurde. Mit zwei portablen Cäsium-Uhren der PTB wurde es im Rahmen von etwa 2 ns Messungenauigkeit bestätigt. Dabei kam zusätzlich ein Zweiwege-Zeitvergleich (TWSTFT) über einen geostationären Kommunikationsatelliten zum Einsatz, bei dem beide Stationen jeweils ein Signal senden und beide Signale denselben Weg in unterschiedlicher Richtung durchlaufen, wobei sich alle Laufzeitverzögerungen etwa auch durch Tropo-, Iono- und Atmosphäre aufheben (weitere Informationen zu TWSTFT auch bei der PTB).
Dr. Feldmann fand außerdem auch gleich einen Fehler in der Arbeit von van Elburg. In Gleichung (2) werden einfach Satelliten- und Signalgeschwindigkeit klassisch statt relativistisch aufaddiert.
Der Fehler in der OPERA-Messung, falls überhaupt vorhanden, muss also wohl woanders liegen.
Quelle : www.heise.de
-
Forscher der britischen Universität in Bristol haben ein neues System aus Wellenleitern für Quantencomputer gebaut, mit dem sich die Verschränkung von Photonen gezielt steuern lässt. Dazu entwickelten sie einen Chip, der sich wie ein herkömmlicher Halbleiter fertigen lässt.
Statt mehrere Quadratmeter großen Versuchsaufbauten, wie sie bisher meist für Quantencomputer nötig waren, haben britische Forscher einen Chip aus Silizium gebaut. Er ist nur 3 x 70 mm groß. Darauf hat das Team um Jeremy O'Brien mehrere Wellenleiter aus Siliziumdioxid erzeugt. Der Bau solcher Strukturen wird heute bereits millionenfach in Halbleiterfabriken vollzogen, so dass die Wissenschaftler ihren Baustein als einen wichtigen Schritt zur praktischen Anwendung von Quantencomputern sehen.
In den Wellenleitern des Chips können gezielt Photonen verschränkt werden, die dabei verschiedene Quantenzustände annehmen. Diese Zustände können vorher definiert werden, so dass sich ein programmierbarer Quantencomputer mit zwei Qubits ergibt. Dazu sitzt an den Enden der vier Wellenleiter je eine Elektrode, deren Spannungen und Stromstärke in Verbindung mit den Wellenleitern die erwünschte Verschränkung erzeugen kann.
Hohe Genauigkeit
Vollständig reproduzierbare Rechenergebnisse liefert der britische Quantencomputer jedoch noch nicht, weil Quantenzustände selten lange stabil bleiben. Viele dieser Effekte sind noch unerforscht. Dennoch sprechen die Forscher in ihrer Veröffentlichung bei Nature Photonics von einer "hohen Wiedergabetreue", die sie in tausenden von Konfigurationen beobachtet hätten.
Im nächsten Schritt soll der Chip komplexer werden. Eine höhere Zahl von Qubits haben die Briten aber noch nicht versprochen. Bisher steht der Rekord bei 14 Qubits, die österreichische Wissenschaftler verschränkt hatten.
Quelle : www.golem.de
-
Am Dienstag um 14 Uhr will CERN in einem per Webcast (http://webcast.cern.ch/) übertragenen Seminar und anschließender Pressekonferenz Neuigkeiten zur Suche nach dem Higgs-Boson verkünden. Dieses letzte noch nicht nachgewiesene Teilchen des Standard-Modells der Elementarteilchenphysik aufzuspüren oder seine Nichtexistenz zu beweisen, ist eines der Hauptziele des viele Milliarden Euro teuren Large Hadron Colliders LHC.
Die beiden Großexperimente ATLAS und CMS wollen nun über den Stand der Dinge berichten, wobei sie inzwischen über erheblich mehr Datenmaterial verfügen als in den Sommermonaten, wo die Wissenschaflter in gemeinsamen Konferenzen die mögliche Masse des Higgschen Bosons auf 114 bis 141 GeV eingrenzen konnten. Die von vielen schon geäußerte Hoffnung, dass man bereits eindeutige Belege für die Existenz oder Nicht-Existenz des gesuchten Teilchens vorlegen werde, entkräftete CERN jedoch bereits in der Ankündigung (http://press.web.cern.ch/press/). Allerdings habe es signifikante Fortschritte bei der Suche gegeben; es dürfte also spannend werden.
Quelle : www.heise.de
-
Das Higgs-Boson, noch fehlendes Teilchen im Standardmodell der Elementarteilchenphysik, hat wahrscheinlich eine Masse zwischen 115 und 130 Gigaelektronenvolt (GeV) – falls es überhaupt existiert. Zwar haben die beiden CERN-Großexperimente ATLAS und CMS dem Bekunden der Forscher nach "verlockende Hinweise" darauf geliefert, dass sich das lang gesuchte Teilchen irgendwo im Massebereich zwischen 116 und 130 GeV (laut Ergebnissen von ATLAS) beziehungsweise zwischen 115 und 127 GeV (laut Ergebnissen von CMS) versteckt. Allerdings, so betonten ATLAS-Sprecherin Fabiola Gianotti und ihr CMS-Kollege Guido Tonelli im Rahmen eines CERN-Seminars heute unisono, sei die Datenlage noch nicht ausreichend, um von einer wirklichen Entdeckung zu sprechen.
Das Higgs-Boson ist ein Teilchen des Standardmodells, das noch nicht direkt nachgewiesen werden konnte. Die Wissenschaftler nehmen daher seine Fährte auf: Beispielsweise stellen sie Hypothesen darüber auf, in welche Zerfallsprodukte sich Higgs-Bosonen bei Kollisionen aufspalten könnten, suchen dann nach auffälligen Häufungen dieser Zerfallsprodukte und grenzen darüber die Masse des Ausgangsgebildes ein. Dabei gilt es, die beobachteten Effekte mit statistischen Methoden vom Hintergrund des zu erwartenden Rauschens des Standardmodells zu isolieren und zu interpretieren.
Die aktuellen Ergebnisse von ATLAS und CMS engen nun das Massefenster für ein mögliches Higgs-Boson weiter ein – noch im Sommer fasste man die Grenzen mit 114 bis 141 GeV deutlich weiter. Nach wissenschaftlichen Maßstäben ist die Masse des Teilchens damit aber noch längst nicht bestimmt, geschweige denn das Higgs-Boson nachgewiesen. Genau dieser Nachweis ist eine der Haupaufgaben des etliche Milliarden Euro teuren Large Hadron Colliders (LHC) – oder die endgültige Widerlegung der Theorie vom Higgs-Teilchen und damit des Standardmodells der Elementarteilchen.
Quelle : www.heise.de
-
Der schleppende Fortschritt im Quantencomputing könnte nun vielleicht Fahrt aufnehmen, berichtet Technology Review in seiner Online-Ausgabe. Zhengbing Bian und seinen Kollegen von der kanadischen Firma D-Wave Systems ist es gelungen, mit 84 Qubits so genannte Ramsey-Zahlen zu berechnen. Das anspruchsvolle Problem ist nach einem britischen Mathematiker benannt, der es 1930 erstmals in einem Aufsatz formuliert.
In dem Quantencomputer von D-Wave Systems, den die Forscher hierfür einsetzten, bestehen die Qubits aus supraleitenden Schleifen. In diesen fließt ein eingespeister Strom entweder im oder gegen den Uhrzeigersinn, und das, weil Supraleiter keinen elektrischen Widerstand zeigen, beliebig lange. Da die Schleifen Quantensysteme sind, existieren bis zu einer Messung beide Stromrichtungen überlagert, also gleichzeitig, und repräsentieren so "0" und "1". Die Berechnung besteht darin, dass manche der supraleitenden Schleifen magnetisch miteinander gekoppelt werden und man dann wartet, bis das System seine Gesamtenergie minimiert hat. Aus deren Wert lässt sich dann das Ergebnis ablesen.
Zuletzt war es um den Quantencomputer jedoch recht still geworden. Noch vor einigen Jahren wurde er als unerhörte Zukunftstechnologie gepriesen, die irgendwann wahnwitzige Berechnungen in Sekundenschnelle anstellen und heutige Rechner alt aussehen lassen würde. Was die ersten einfachen Quantencomputer in Forschungslaboren bisher demonstriert haben, ist jedoch nicht mehr als ein Proof of Principle.
Für D-Wave Systems könnte diese Arbeit nun ein wichtiger Meilenstein sein. Die kanadische Firma vermarktet seit mehr als vier Jahren einen 128-Qubit-Rechner für zehn Millionen Dollar. D-Wave Systems habe jedoch nicht zeigen können, dass die beschriebene, langsame Variante des Quantencomputings in dem System wirklich stattfinde, kritisiert Physiker.
Mehr zum Thema in Technology Review online:
Frischer Wind fürs Quantencomputing (http://www.heise.de/tr/artikel/Frischer-Wind-fuers-Quantencomputing-1417416.html)
Quelle : www.heise.de
-
(http://www.golem.de/1202/sp_90080-30959-i.jpg)
3D Qubit von IBM (Bild: IBM)
IBM vermeldet einen Durchbruch auf dem Weg zum Bau eines Quantencomputers: IBM-Forscher konnten die Leistung wesentlicher Bauteile von Quantencomputern so weit verbessern, dass es fast möglich ist, einen praktisch nutzbaren Quantencomputer in nennenswerter Größe zu bauen.
Die Forscher in den IBM Labs haben einige dort entwickelte Technologien kombiniert und drei wesentliche Fortschritte auf dem Weg zum Bau eines Quantencomputers erzielt. Es gelang ihnen, die Zahl der Fehler bei elementaren Berechnungen so weit zu reduzieren, dass Fehlerkorrekturverfahren effektiv eingesetzt werden können. Zudem konnten sie die Integrität der quantenmechanischen Eigenschaften von Qubits deutlich steigern.
Während ein Bit in klassischen Computern nur zwei Zustände haben kann - 0 oder 1 -, können Qubits diese beiden Werte auch gleichzeitig enthalten, was in der Quantentheorie als Superposition beschrieben wird. Qubits, als kleinste Informationseinheit in einem Quantencomputer, ermöglichen es so, mehrere Millionen Berechnungen parallel auszuführen. Herkömmliche Computer können nur eine kleine Zahl von Berechnungen gleichzeitig abwickeln. So enthält laut IBM ein Quantencomputer mit 250 Qubits mehr Bits an Information, als es Atome im Universum gibt.
Video: IBM auf dem Weg zum Quantencomputer (Quelle: Youtube)
Diese Eigenschaften haben große Auswirkungen für Verschlüsselungstechniken, die in erster Linie darauf basieren, dass es mit herkömmlicher Technik sehr aufwendig ist, sehr große Zahlen in ihre Faktoren zu zerlegen. Quantencomputer können dies deutlich schneller erledigen. Aber auch bei Datenbanken unstrukturierter Informationen und Optimierungsaufgaben sehen die IBM-Forscher Einsatzgebiete für Quantencomputer. Diese könnten helfen, bislang unlösbare mathematische Probleme zu lösen.
(http://scr3.golem.de/screenshots/1202/Quantencomputern/thumb620/6921565619_7684d9cf3b_o.jpg)
CNOT mit Qubits (Quelle: IBM)
Quantencomputer rückt in greifbare Nähe
Nun gibt es verschiedene Ansätze, um einen funktionieren Quantencomputer zu entwickeln. IBM konzentriert sich auf supraleitende Qubits. Dabei experimentiert IBM mit einem dreidimensionalen supraleitenden Qubit (3D Qubit), einer Idee, die an der Universität Yale entstand. Damit konnte IBM die Zeitspanne, für die ein Qubit seinen Quantenstatus behält, im Vergleich zu den bisherigen Rekorden um das Zwei- bis Vierfache verlängern. Damit sei gerade so das Minimum erreicht, um Fehlerkorrektursysteme effektiv einzusetzen, erklärte IBM. So könnten sich Ingenieure um Fragen der Skalierbarkeit kümmern.
"Unsere Arbeiten im Bereich Quantencomputer zeigen, dass es hierbei nicht länger um ein rein physikalisches Experiment geht. Es ist Zeit, damit zu beginnen, Systeme auf Basis dieser wissenschaftlichen Erkenntnisse zu entwickeln, die die Computerei an neue Grenzen heranführen", sagt der Leiter von IBMs Quantencomputer-Forschungsteams, Matthias Steffen.
In einem weiteren Experiment konnten die IBM-Forscher ein eher traditionelles, zweidimensionales Qubit präsentieren und eine logische Operation - Controlled-NOT (CNOT) - mit zwei Qubit umsetzen, ein wichtiger Baustein beim Bau eines Quantencomputers. Die Operation war in 95 Prozent aller Fälle erfolgreich. Das wurde durch eine lange Kohärenzzeit von 10 Mikrosekunden ermöglicht. Damit werde fast die für den Einsatz von Fehlerkorrektursystem notwendige Grenze erreicht, so IBM.
Quelle: www.golem.de
-
Ohne Überlichtgeschwindigkeit wäre kaum ein Science-Fiction-Film denkbar. Doch könnte der Warp-Antrieb aus "Star Trek" tatsächlich funktionieren? Forscher bezweifeln das: Nach ihren Berechnungen würde Captain Kirks "Enterprise" jeden besuchten Planeten mit Strahlung braten.
(http://cdn2.spiegel.de/images/image-35795-panoV9-lfuw.jpg)
Was wäre "Star Trek" ohne den Warp-Antrieb? Langweilig. Ohne die Fähigkeit, schneller als das Licht zu fliegen, wären Captain Kirk und seine Nachfolger vermutlich gerade mal bis zum Mars gekommen. Dort gibt es bekanntlich bestenfalls ein paar alte Bakterien oder deren Überbleibsel, nicht aber Vulkanier oder gar noch merkwürdigere Lebensformen.
Angesichts des in der Star-Trek-Fangemeinde verbreiteten Physik-Nerdtums verwundert es fast, dass Miguel Alcubierre 1994 - 28 Jahre nach der ersten Folge von "Raumschiff Enterprise" - erstmals eine ernstzunehmende theoretische Grundlage des Warp-Antriebs präsentierte.
Grob vereinfacht geht die Theorie des mexikanischen Physikers so: Vor dem Raumschiff wird die Raumzeit zusammengezogen, hinter ihm dagegen ausgedehnt - und schon rast das Ziel mit Überlichtgeschwindigkeit näher. Praktischerweise wird Einsteins Relativitätstheorie, derzufolge sich nichts schneller bewegen kann als das Licht, dabei nicht verletzt: Statt des Raumschiffs bewegt sich der Raum selbst - als ob man eine Tischdecke zusammenfalten würde, um an den Salzstreuer zu kommen.
Allerdings muss am Ende gebremst werden - und dabei würde es zu einem Problem kommen, wie Forscher jetzt berechnet haben: Wer das Pech hätte, sich vor dem ankommenden Schiff zu befinden, würde von extrem starker Strahlung geröstet.
Gebraten von hochenergetischen Partikeln
Brendan McMonigal von der australischen University of Sydney und seine Kollegen haben sich angeschaut, welchen kosmischen Partikeln ein Raumschiff auf seiner überlichtschnellen Reise begegnen würde. Dabei kam heraus, dass die Teilchen in die Warp-Blase rund um das Raumschiff eindringen würden.
Am Ziel der Reise geschähe dann das Ungeheure, wie die Forscher im Fachblatt "Physical Review D" schreiben: Die Partikel würden vom Schiff weggeschleudert - und erreichten dadurch, dass sich ihre Wellenlängen extrem verkürzen würden, unvorstellbare Energien. Das Gebiet vor dem Schiff würde einen "konzentrierten Strahl" aus extrem hochenergetischen Partikeln und Gammastrahlung abbekommen, heißt es in dem Fachbeitrag (http://arxiv.org/abs/grqc/0009013). "Jeder Mensch am Ziel der Reise würde weggeblasen."
Damit sind die schlechten Nachrichten noch nicht zu Ende. Theoretisch hätte die freiwerdende Energie am Reiseziel keine Obergrenze, haben McMonigal und seine Kollegen berechnet. "Je länger man unterwegs ist, desto größer wird die Energie, die am Ende freigesetzt wird", sagte McMonigal der Website "Universe Today". "Das ist einer der seltsamen Effekte der Allgemeinen Relativitätstheorie."
Dadurch wären schon kleine Ausflüge mit Warp-Antrieb kaum möglich - zumindest nicht, wenn man ein wenig Rücksicht auf seine Weltraum-Mitbewohner nehmen wollte. "Unglücklicherweise wäre selbst bei sehr kurzen Reisen die freigesetzte Energie so groß, dass alles vor einem Liegende vernichtet würde", meint McMonigal.
Immer Ärger mit der Blauverschiebung
Ihre Energie bekommen die Partikel den Berechnungen zufolge durch die Verschiebung zu extrem kurzen Wellenlängen. Die Grundlage dafür ist der sogenannte Doppler-Effekt, der auch dafür sorgt, dass die Sirene eines vorbeifahrenden Polizeiautos ihre Tonhöhe zu verändern scheint. Ähnliches geschieht mit elektromagnetischer Strahlung wie etwa Licht: Bewegt sich das Raumschiff auf sie zu, wird sie praktisch gestaucht und dadurch kurzwelliger, der Abstand zwischen den Wellenbergen wird kleiner und die Energie dadurch immer größer.
Nun könnte man meinen, dass der Kapitän einfach darauf achten müsste, den Bug seines Schiffs bei der Ankunft nicht genau auf den Zielplaneten zu richten. Doch auch das wäre womöglich keine Lösung. Denn McMonigal und seine Kollegen haben nur die Raumebene vor und hinter dem Raumschiff betrachtet - die todbringenden Partikel könnten aber durchaus in alle Richtungen wegfliegen.
Es ist nicht das erste Mal, das Zweifel an Alcubierres Warp-Antrieb (http://arxiv.org/abs/grqc/0009013) aufkommen. Schon 2002 veröffentlichte der portugiesische Wissenschaftler José Natario einen Fachartikel, in dem er die Blauverschiebung zum zentralen Problem von Alcubierres Warp-Antrieb (http://www.spiegel.de/wissenschaft/weltall/0,1518,187667,00.html) erklärt. In seinen Berechnungen wurde sie innerhalb der Warp-Blase unendlich groß - und hätte damit das gesamte Weltall aus den Angeln gehoben.
Quelle : www.spiegel.de
-
...die Blauverschiebung ... wurde ... innerhalb der Warp-Blase unendlich groß - und hätte damit das gesamte Weltall aus den Angeln gehoben.
Das wäre allerdings ein Effekt, der sich exakt mit Lichtgeschwindigkeit ausbreiten müsste.
Bedeutet erstens, dass das niemand bemerken könnte, bevor es für ihn zu spät ist, weshalb man die Existenz solch einer Katastrophe bis zuletzt ungestraft abstreiten könnte.
Und zweitens würden großen Teilen des bekannten Universums Abermilliarden von Jahren bleiben, bis es sie vielleicht auch erwischt.
Wäre das also schon irgendwo geschehen, würden wir es nie bemerken, nur irgendwann plötzlich weg sein.
Natürlich ist das sinnlose Spekulation, wie auch der vorausgegangene Artikel.
Es gibt keinerlei Ansatz, wie überhaupt die Energien für so eine Warp-Blase gewonnen werden könnten.
Und selbst wenn das irgendwann möglich werden sollte, stellten sich sofort neue Fragen, wie beispielsweise, ob so extreme energetische Gradienten eventuell eine neue Art von Schwarzschild-Grenze / Erkenntnishorizont erzeugen und somit ein Verlassen unserer Raumdimensionen bewirken würden, des Raumschiffs oder seiner Emissionen. Oder ob so eine enorme Energiekonzentration nicht spontan in eine hochkonzentrierte Bildung schwerer Teilchen(paare) ausufern müsste, was die Blase entweder in einer massiven Hülle aus Neutronium erstarren oder zum Schwarzen Loch werden oder in einer gewaltigen Materie-Antimaterie-Explosion enden lassen würde, bis hin zum neuen Urknall.
Nichts davon ist nach heutigem Stand der Erkenntnis weniger wahrscheinlich als diese angedachte Reise mit Überlichtgeschwindigkeit...
Ich behaupte ohnehin, dass der einzige überhaupt denkbare Ansatz zu einer Überwindung der Barriere der Lichtgeschwindigkeit allenfalls in der Quantenmechanik zu suchen sein würde, niemals aber im üblichen Makrokosmos.
Völlig egal, wie groß die Bomben der irren Weltzerstörer jemals werden können...
Jürgen
-
US-Forscher haben eine Maschine gebaut, welche die Genauigkeit von Atomuhren drastisch erhöhen soll. Statt bisher üblichen Abweichungen von einer Sekunde in einer Million Jahren soll die gleiche Ungenauigkeit erst in 140 Milliarden Jahren erreicht werden.
Was in dem steckt, das gemeinhin "Funkuhr" genannt wird, ist - wenn die Uhr in Deutschland funktioniert - ein Empfänger für den Sender DCF77 der physikalisch-technischen Bundesanstalt PTB. Das Signal dieses Senders wird von der Cäsium-Atomuhr CS2 gespeist, die nach Angaben der PTB nur eine Abweichung von einer Sekunde in einer Million Jahren erreicht.
Obwohl die CS2 vor kurzem aufgerüstet wurde, soll ihre Genauigkeit von einer neuen US-Konstruktion deutlich übertroffen werden. Wissenschaftler der US-Universität Georgia Tech, der Universität von Nevada und der australischen Universität von New South Wales haben sie entwickelt.
Sie setzen dabei auf das Element Thorium, das sie in zwei Isotopen verwenden. Angeregt von einem Laser im Petahertz-Bereich soll dabei nicht mehr ein Elektron wie bei den meisten Atomuhren, sondern ein Neutron zum Schwingen gebracht werden. Die Forscher bezeichnen ihre Konstruktion folglich auch als "nuclear clock" im Gegensatz zur "atomic clock", weil sie den Kern - engl. nucleus - selbst verwenden.
Genauere Positionsbestimmung
Wie meist, wenn so hohe Frequenzen gemessen werden sollen, muss jede andere Bewegung auf ein Minimum beschränkt werden. Daher funktioniert auch die Thorium-Uhr nur im Vakuum und bei Temperaturen nahe Null Kelvin.
Genauere Uhren sollen unter anderem die Positionsbestimmung verbessern. Teil von Verfahren wie GPS ist dabei stets die Laufzeit von Funksignalen, die möglichst genau gemessen werden muss. Dazu braucht das gesamte System eine möglichst genaue Zeit als Bezugsgröße. Nach Angaben der Wissenschaftler wird die Arbeit zur Thorium-Uhr demnächst in den Physical Review Letters (http://prl.aps.org/) veröffentlicht.
Quelle : www.golem.de
-
Die aktuelle (Un)Genauigkeit von GPS ist nicht von der bisheriger Referenzuhren abhängig.
Abgesehen von den Nutzertyp-abhängigen Auflösungsgrenzen gibt es andere Limitierungen, die sich u.a. aus der schwankenden Dichte und Feuchte der Atmosphäre ergeben, zudem von aus der zur verwendeten Downlink-Frequenz gehörenden Wellenlänge (zwischen 19 und 25 cm).
Zudem ist die immer wieder verwendete Angabe einer Sekunde in soundsoviel Millionen oder Milliarden Jahren logischer Unsinn.
Praktisch von Nutzen kann immer nur eine Angabe der Toleranz bezüglich einer kurzen Zeitspanne sein, die so wiederholbar gemessen werden könnte.
Das ist nämlich Statistik, und es verbietet sich, ihre Mittel auf ein einziges Ereignis anzuwenden.
Hinzu kommt, dass die Genauigkeit einer Frequenzbestimmung, auch nach Fourier, unmittelbar von der bisherigen ungestörten Dauer der Schwingung abhängt.
Periodendauern lassen sich zwar schneller bestimmen, aber erstens bedarf es dazu einer noch genaueren Referenz, die hier natürlich nicht existiert, zweitens sind aufgrund des begrenzten Zeitrasters ebendieser sehr viele Wiederholungsmessungen vonnöten, bis das Ergebnis als gültig betrachtet werden darf.
So ist es ja auch bei hochpräzisen Messungen über die verschlüsselten Signale des GPS, die Messdauer steigt stark mit der erwünschten Auflösung.
Logisch zulässig wäre hingegen nur eine Angabe einer Toleranz in Bezug auf eine praktikable und im Idealfall auf einer Basiseinheit beruhende Messdauer, z.B. in Form von Attosekunden pro Sekunde.
Nur sagt das weder Journalisten noch Chefredakteuren irgendwas, noch bewegt das Politiker dazu, einen Etat zu bewilligen...
Jürgen
-
Bis zum "Beam me up, Scotty" ist es noch ein sehr langer Weg - aber einen kleinen Schritt haben Wissenschaftler der University of Science and Technology in Shanghai möglicherweise gemacht: Sie haben einen neuen Rekord beim Teleportieren von Photonen aufgestellt.
Mit der Hilfe von Quantenverschränkung haben Forscher der University of Science and Technology of China in Shanghai nach eigenen Angaben (http://arxiv.org/abs/1205.2024) einen neuen Rekord bei der Teleportation von Photonen aufgestellt. Ihnen ist in einem Versuch gelungen, ein sogenanntes Quantenbit mit einem Laserstrahl über eine Distanz von 97 Kilometern zu verschicken, schreibt Technology Review (http://www.technologyreview.com/blog/arxiv/27843/).
Als Teleportation gilt das, weil die Teilchen dabei nicht physikalisch von A nach B transportiert wurden. Stattdessen wird über die nach wie vor mysteriöse Quantenverschränkung lediglich die Informationen über sie weitergereicht, die dann auf ein verwandtes Objekt am Zielort übertragen werden.
Mit der etwa aus Star Trek bekannten Teleportation von Gegenständen oder gar Menschen hat das aber wenig zu tun. Eher hat es etwas mit der sogenannten Quantenkryptografie und Quantenkommunikation zu tun, mit denen sich beispielsweise extrem abhörsichere Wege der Informationsübertragung realisieren lassen könnten - insbesondere über Satelliten, so die Forscher. Allerdings sind die theoretisch vorstellbaren Datenraten derzeit noch extrem niedrig.
Interessant ist, wie schnell die Wissenschaftler die Reichweite ihrer Quantenteleportation ausdehnen können. Die gleichen Physiker aus China hatten erst 2010 einen Rekord über eine Distanz von 16 Kilometern aufgestellt. Ein Jahr zuvor hatten Forscher aus den USA die Teleportation über einen Meter gefeiert.
Quelle : www.golem.de
-
Kaum etwas hält die moderne Physik so auf Trab wie die Suche nach der Dunklen Materie. Ihren Namen verdankt sie der Tatsache, dass sie bislang kein Physiker zu Gesicht bekommen hat. Dass sie existiert, schließen Wissenschaftler aus Anomalien in der Rotation von Galaxien, die mit "normaler" Materie allein nicht zu erklären sind. Eine Forschergruppe um Katherine Freese, Astrophysikern an der University of Michigan in Ann Arbor, und George Church, Genetiker an der Harvard University, hat nun einen kühnen Vorschlag unterbreitet, wie eine Apparatur zur Detektierung Dunkler Materie aussehen könnte, berichtet Technology Review in seiner Online-Ausgabe.
Als Nachweismedium schlagen sie tatsächlich DNA vor. Genauer: Sehr lange Einzelstränge des Moleküls, das die biologische Erbinformation aller Lebewesen speichert. Diese Einzelstränge sollen wie ein dichter Wald an einem Goldblech befestigt werden. Sie hätten dabei alle die identische Reihenfolge "genetischer Buchstaben", den Nukleotiden A, G, C und T – bis auf das freie Ende, dessen Buchstabenkombination die genaue Position eines Stranges auf dem Blech kodiert.
Angenommen, ein Dunkles Materieteilchen würde nun in das Goldblech krachen und einen Goldatomkern herausschlagen. Dann würde dieser Kern, wenn er von der richtigen Seite getroffen wird, eine Schneise durch den DNA-Wald schlagen. Die getroffenen DNA-Stränge fielen dann, so die Idee der Forscher, auf ein Auffangtablett, das stündlich geleert wird. Sie würden dann allesamt mittels der Polymerase-Kettenreaktion vervielfältigt, um ihr Positionsetikett verlässlich auslesen und damit ihre Position notieren zu können.
Aber natürlich steckt der Teufel im Detail. Bislang ist die Wechselwirkung zwischen schnellen Goldatomkernen und DNA nicht untersucht. Die wollen die US-Forscher nun anpacken. Des Weiteren sind sehr lange DNA-Einzelstränge mit 10.000 Nukleotiden vorgesehen, damit der DNA-Wald wirklich ein Hindernis für den Goldatomkern ist. Handelsübliche DNA-Stränge werden aber nur mit einer Länge von bis zu 250 Nukleotiden synthetisiert.
Quelle : www.heise.de
-
Sehr erstaunlich finde ich, dass diese Forscher bei ihrem Ansatz von Eigenschaften der Dunklen Materie ausgehen, die noch nicht einmal ansatzweise bekannt sind.
Ein Goldatom aus einem Kristallverband herauszuschlagen, das verlangt ziemlich viel Impuls, also Produkt aus Masse und Geschwindigkeit des Auslösers.
Da aber Dunkle Materie noch nie direkt beobachtet wurde, weiß man noch überhaupt nichts über Zusammensetzung und Verhalten jenseits bloßer Gravitation (Partikel oder räumlich unscharfe DeBroglie-Welle, mit Trägheit und Bewegungsvektoren behaftet / mechanisch reaktionsfähig oder nicht, ggf. Materie oder Antimaterie usw. ...).
So gibt es auch keinerlei Indizien für geeignete Detektortechnik.
Immerhin ist nicht einmal auszuschließen, dass Dunkle Materie nur aus uralten und nicht mehr strahlenden Sternleichen besteht, oder auch gar nicht physisch existiert, sonder nur eine uns noch nicht verständliche Eigenschaft des Raums und / oder der Zeit darstellt.
Aber irgendetwas dürfte man mit der Apparatur sicherlich ab und an beobachten.
So erscheint mir denkbar, das fast relativistische Alpha-Teilchen (aus der kosmischen Strahlung), schnelle Neutronen und andere recht seltene Ursachen vereinzelte Auslösungen bewirken dürften, über die man anschließend jahrelang trefflich spekulieren kann.
Unter genüsslichem Verbrauch reichlicher Forschungsgelder natürlich...
Jürgen
-
Mit dem für 2012 vorgesehenen Weltuntergang wird es ja nun doch etwas knapp - eine präzisere Schätzung für das Ende der Welt liefern nun chinesische Forscher
Kosmologen haben es nicht leicht. Wie das Universum begann (und was davor passierte, siehe Die Zeit vor der Zeit) lässt sich mit ein bisschen Geduld durch den Blick ins Weltall herausfinden: Denn Spuren der Vorgänge vor rund 13,7 Milliarden Jahren sind noch immer nachweisbar. Doch wie wird es mit dem Universum zu Ende gehen? Um diese Frage zu beantworten, gilt es, die bisherige Entwicklung in die weit entfernte Zukunft zu extrapolieren, aus Daten also, die maximal einer Momentaufnahme entsprechen.
(http://www.heise.de/tp/artikel/37/37297/37297_1.jpg)
Bild vom Hubble Space Telescope, das einen Ring dunkler Materie zeigt, der laut Nasa "wahrscheinlich exisitiert" und das Zentrum von CL0024+17. Quelle und Erklärung: NASA; ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)
Stellen Sie sich vor, Sie dürften zwei Sekunden eines Krimis ansehen - und müssten daraus eine Theorie entwickeln, wer der Mörder ist. Selbst, wenn Sie die Gesetze des Genres kennen, ist das keine leichte Aufgabe.
Es sollte deshalb nicht verwundern, dass durchaus verschiedene Todesarten für den Kosmos in der Diskussion sind. Mit den exotischeren beginnend (die Bezeichnungen sind zum Teil vom Autor, zum Teil aus der Literatur) wären das:
Big Trick: Vielleicht sitzen wir schon seit ewiger Zeit einem Trick der Natur auf - was wir für Raum im Grundzustand halten, das Vakuum, könnte sich auch in einem quantenphysikalisch höheren Zustand befinden. Messtechnisch lässt sich das nicht ausschließen. In diesem Fall könnte sich das Vakuum eines Tages, mir nichts, dir nichts, in diesen energetisch niedrigeren Zustand bewegen. Was für den gegenwärtigen Zustand der Materie vermutlich ungünstig wäre.
Big Collapse: Falls unser Universum Teil eines Multiversums ist, in dem auch Universen aus Antimaterie existieren, könnte es zu einem Zusammenstoß mit fatalen Folgen kommen.
Big Squeeze: Falls die Dunkle Energie (die das Universum auseinander treibt) noch schneller zunimmt, als das Universum expandiert, würde sich die Dichte des Weltalls stetig erhöhen. Irgendwann würde der Raum zähflüssig und schließlich fest, es gäbe für ewige Zeiten keine Bewegungsmöglichkeit mehr und damit kein Leben.
Big Crunch: Die Expansion des Universums stoppt irgendwann, danach zieht es sich wieder zusammen. Ein Urknall mit umgekehrter Zeitrichtung - der zum "Big Bounce" würde, falls es danach erneut zur Expansion kommt.
Big Freeze: Das Universum dehnt sich immer stärker aus - wodurch seine Temperatur stetig sinkt, bis irgendwann keine freie Energie mehr vorhanden ist. Die Teilchen und damit die Welt bleiben stehen, und in diesem Moment stoppt auch die Zeit. Eine beinahe gleichwertige Alternative ist der "Hitzetod", der eintritt, wenn sich die Temperatur einem im ganzen Weltall gleichen Mittelwert näher. Auch dann fehlen die Temperaturunterschiede, die Leben erst möglich machen.
Für am wahrscheinlichsten halten die Forscher allerdings den "Big Rip". Denn messbar beschleunigt sich die Expansion des Universums schon seit etwa sechs Milliarden Jahren. Schuld ist die Dunkle Energie, von der man davon abgesehen im Grunde nichts weiß. Möglich ist, dass sie eine Komponente enthält, die Forscher Phantom-Energie nennen. Sie hat die Eigenschaft, falls sie denn existiert, die Beschleunigung der Expansion noch zu beschleunigen. Als praktische Konsequenz ergäbe sich aus diesem Szenario, dass alles, inklusive der kleinsten Bausteine der Materie, im "Big Rip" irgendwann auseinander gerissen wird. Für diesen Fall haben jetzt chinesische Forscher eine Abschätzung (http://phys.scichina.com:8084/Jwk_sciG_en/EN/abstract/abstract506891.shtml#) getroffen, wann es mit uns zu Ende geht.
Die Computersimulation, gefüttert mit den bekannten Parametern der aktuellen Expansion des Kosmos und diversen Unbekannten, gibt dem Universum noch wenigstens 16,7 Milliarden Jahre - es wäre damit noch nicht einmal in der Lebensmitte angekommen. Ungemütlich wird es demnach schon etwas früher: etwa 32,9 Millionen Jahre vor dem Big Rip löst sich die Struktur der Milchstraße auf. Dass bis zum Untergang nur noch zwei Monate bleiben, werden wir daran erkennen, dass die Erde ihre Umlaufbahn um die Sonne verlässt. Fünf Tage vor Schluss müssen wir uns vom Erdmond verabschieden. Und 16 Minuten vor Ultimo wird die Erde explodieren.
Quelle : http://www.heise.de/tp/
-
Ein neues Prinzip, Information zu verarbeiten, haben Wissenschaftler des Max-Planck-Instituts für Dynamik und Selbstorganisation (MPIDS) in Göttingen entwickelt. Der Complex Network Computer (http://www.ds.mpg.de/Aktuell/pr/20120807/index.html) beruht auf einem System schwingender Elemente, die miteinander wechselwirken können und ein spezielles dynamisches Verhalten aufweisen, mit dem sich Daten verarbeiten lassen.
Schlüssel zu diesem Verhalten sind sogenannte Sattelpunkte, also Zustände des Gesamtsystems, die in mancher Hinsicht stabil, in anderer instabil sind. Lenkt man etwa eine Kugel, die in der Mulde eines tatsächlichen Sattels ruht, exakt parallel zum Pferderücken aus, rollt sie zuverlässig in die Mulde zurück. Der Ausgangszustand ist gegenüber dieser Art von Störung stabil. Wird die Kugel jedoch senkrecht zum Pferderücken angestoßen, fällt die Kugel herunter, und der Zustand ist instabil.
Allgemein bilden in Systemen gekoppelter schwingender Elemente solche Sattelpunkt-Zustände eine Art Netzwerk. Eine äußere Störung, die einen bestimmten Sattelpunkt-Zustand destabilisiert, überführt das Gesamtsystem in einen anderen Sattelpunkt-Zustand. Jede Störung lässt sich als Eingangssignal betrachten, das aus mehreren Teilsignalen zusammengesetzt sein kann. Jedes Teilsignal spricht eines der schwingenden Elemente des Gesamtsystems an. Das Verhältnis der Stärken dieser Teilsignale gibt dann den Ausschlag, welchem neuen Sattelpunkt-Zustand das System zustrebt. Der eingeschlagene Pfad entspricht dem Ergebnis der Rechnung. Auf dieser Fähigkeit lässt sich eine komplette Logik aufbauen, Operationen wie Addition, Multiplikation und Verneinung lassen sich darstellen.
Anders als beim klassischen Computer, wo ein Bauteil eine bestimmte logische Operation ausführt, findet in einem "Complex Network Computer" die Operation gleichzeitig im gesamten Netzwerk statt. Bereits relativ kleine Systeme können eine große Vielzahl möglicher Operationen ausführen. Daher kann ein solcher Rechner Aufgaben wie das grobe Sortieren von Zahlen deutlich schneller als sein konventionelles Gegenstück erledigen. Größere Hoffnungen setzen die Forscher in Systeme gekoppelter Laser. Diese weisen nicht nur genau abgestimmte Frequenzen auf, die eine weitere Voraussetzung für Complex Network Computer sind, sondern zeichnen sich auch durch besonders hohe Frequenzen von bis zu einigen Milliarden Schwingungen pro Sekunde aus, mit denen ein Computer besonders schnell rechnen könnte.
(http://www.heise.de/imgs/18/9/0/1/6/4/7/680b08f4dbcf878b.jpeg)
In Systemen gekoppelter schwingender Elemente bilden die Sattelpunkte eine Art Netzwerk. Eine Störung, die einen Sattelpunkt-Zustand destabilisiert, entspricht dem Eingangssignal der Rechenoperation. Das System sucht verschiedene Wege durch das Netz. Zwei der möglichen Wege, von denen jeder dem Ergebnis einer Rechnung entspricht, sind in dem Bild orange und blau dargestellt.
Bild: MPIDS
In einer ersten Anwendung hat sich das neue Rechenprinzip bereits bewährt. So konnten die Wissenschaftler einen einfachen Roboter konstruieren, der sich selbst den Weg durch einen Hindernisparcour sucht. Die Eingangssignale seiner Sensoren entsprechen dabei den Störungen des Systems.
Quelle : www.heise.de
-
Sollte sich dieses Rechenprinzip tatsächlich als handhabbar erweisen, könnte das die Computertechnik revolutionieren.
Auf den ersten Blick assoziiere ich die Zeichnung mit kristallinen Strukturen, entweder in Dünnschicht oder auch dreidimensional.
Die möglichen Arten der Kopplung der einzelnen Schwinger (z.B. Atome) wären natürlich abzuklären, sowie die Art und Weise von Schreib- und Lesevorgängen, Timings usw.
Dabei könnte jedenfalls die räumliche Größe von logischen Gattern ganz erheblich reduziert werden, ggf. bis auf wenige Atome.
Die Leitungswege und Laufzeiten würden sich wohl drastisch verkürzen lassen.
Und erforderliche Strukturen könnten möglicherweise durch Nanoschichten oder Belichtung mit bzw. Bedampfung oder Dotierung unter stehenden Wellen initiiert werden.
Mit diesem Ansatz dürften im Erfolgsfall die Grundlagenforschungszweige in der Informatik und in der Mikroelektronik reformiert und letztlich verschmolzen werden.
Ob das allerdings noch zu unseren Lebzeiten zu erwarten ist, kann wohl noch niemand vorhersagen.
Jürgen
-
Ein Warp-Antrieb, der interstellare Raumflüge ermöglicht, ist nach Überzeugung eines Nasa-Wissenschaftlers durchaus möglich. Er hat ein bestehendes Konzept für eine solchen Antrieb überprüft und so modifiziert, dass es plausibel erscheint.
Ein Warp-Antrieb könnte von Fiction zu Science werden. Das hat ein Wissenschaftler der Nasa erklärt. Mit einem solchen Antrieb könnten interstellare Raumflüge möglich werden. Er habe sein Konzept auf einer Konferenz vorgestellt, berichtet das auf Weltraumthemen spezialisierte US-Angebot Space.com.
Ein Warp-Antrieb bringt in der Star-Trek-Filmreihe die Raumschiffe dort hin, wo zuvor noch kein Mensch war. Er krümmt die Raumzeit und ermöglicht so Reisen mit Überlichtgeschwindigkeit, was eigentlich physikalisch nicht möglich ist. Seit einiger Zeit entwickeln Forscher wie der Mexikaner Miguel Alcubierre Konzepte für einen solchen Antrieb.
Der ganze Artikel (http://www.golem.de/news/raumfahrt-nasa-wissenschaftler-haelt-warp-antrieb-fuer-machbar-1209-94630.html)
Quelle : www.golem.de
-
Für dieses theoretische Konzept wären (u.a.) sehr große Mengen sog. exotischer Materie (http://de.wikipedia.org/wiki/Exotische_Materie) erforderlich, die nicht nur gleichfalls gigantische Mengen an Energie bei der Gewinnung bräuchte, sondern zudem noch stabil und dauerhaft mit dem Raumschiff aus konventioneller Materie von außen verbunden werden müsste. Beides erscheint derzeit noch nicht einmal in mikroskopischem Umfang als machbar.
Tut mir leid, aber ob nun mit solcher exotischen Materie oder allein mit Energiefluss eine solche Raumkrümmung erzeugt werden sollte, bislang ist das alles blanke Hypothese ohne jeden faktischen Bezug.
Sicher kann man noch allerlei andere Ansätze denken, wie z.B. über Nanotechnik oder Quantenmechanik, Paralleluniversen oder was auch immer.
Aber noch recht lange darf man getrost davon ausgehen, dass das alles nur Spinnerei ist, mittels derer sich wohl ganz gut Forschungsgelder begründen lassen.
Und wenn vielleicht doch irgendwann nicht mehr, dann wird man sich über Auswirkungen solcher Experimente auf bewohnte Planeten und deren technische Grundlagen und natürliche Ressourcen machen müssen.
Selbst Science-Fiction-Autoren haben sich schon vor Jahrzehnten erste durchaus ernste Gedanken dazu gemacht.
Und so hat der selige Gene Roddenberry die von ihm erdachte Föderation den Warp-Flug innerhalb von Planetensystemen verbieten lassen 8)
Zudem fallen mir gleich noch Anwendungen als Waffe ein, die durchaus auf einen Schlag ganze Zivilisationen vernichten könnte, mindestens...
Es würde mich insofern kaum wundern, wenn sich eines Tages die Militärs an entsprechenden Grundlagenforschungen beteiligten.
Die NASA sucht ja auch unbedingt Aufgaben zur Sicherung ihrer eigenen Existenz, und sie hat bekanntlich von Anfang an keinen rein zivilen Hintergrund gehabt.
Jürgen
-
Lesen konnten sie einzelne Elektronenspins schon geraume Zeit, nun haben es australische Forscher an der University of New South Wales um Dr. Andrea Morello und Prof. Dr. Andrew Dzurak auch geschafft, einzelne Spins von in Silizium eingebetteten Phosporatomen zu "beschreiben". Die Meldung dazu ging schon vor ein paar Tagen durch die Presse, nun sind die Feinheiten dazu im Nature-Artikel (käuflich) online: "A single-atom electron spin qubit in silicon". Anfang des Jahres hatte bereits ein konkurrierendes Team an der gleichen Universität am ARC Center for Quantum Computation and Communication Technology unter Leitung von Prof. Michelle Simmons einzelne Phosphoratome mit Hilfe eines Raster-Tunnel-Mikroskops aneinandergereiht und damit interessante Ergebnisse bezüglich des Ohmschen Gesetzes erzielt.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Fortschritte-beim-Quantencomputing-1720513.html)
Quelle : www.heise.de
-
Dieses Metamaterial ist paradox: Auf dem Trockenen ist es flüssig, und in Wasser wird es fest. US-Forscher haben dieses Metamaterial, das aus DNA besteht, durch Zufall geschaffen.
US-Wissenschaftler haben ein neues Metamaterial entwickelt, das fließen und später wieder seine ursprüngliche Form annehmen kann. Es sei das erste Metamaterial, das aus organischen Substanzen hergestellt sei und das mechanische Metaeigenschaften habe, erklären die Forscher von der Cornell-Universität in Ithaca im US-Bundesstaat New York. Das Material zeige auf dem Trockenen Eigenschaften einer Flüssigkeit und im Wasser die einer festen Substanz, schreiben sie in der Fachzeitschrift Nature Nanotechnology (http://www.nature.com/nnano/journal/v7/n12/full/nnano.2012.211.html).
Die Forscher um Dan Luo haben aus dem Material die Buchstaben D, N und A - für Desoxyribonukleinsäure (Deoxyribonucleic Acid, DNA) geformt, da es aus DNA besteht. Dazu haben sie es als Hydrogel in entsprechende Formen gegossen. Als sie die Buchstaben aus den Formen herausnahmen, verloren sie ihre Form und wurden praktisch zu einer Flüssigkeit. Wurden sie jedoch in Wasser gelegt, nahmen sie wieder ihre alte Buchstabenform an.
Der ganze Artikel (http://www.golem.de/news/wissenschaft-organisches-metamaterial-mit-t-1000-eigenschaften-1212-96221.html)
Quelle : www.golem.de
-
So ganz hab' ich jetzt nicht verstanden, wie man als Forscher praktisch eine Flüssigkeit in Wasser legt.
Vielleicht muß man erst einen Knoten rein machen :hmm
Notfalls zwischen den Ohren ;wusch
Jürgen
- Ex-Praktikant mit ein paar Semestern Experimentalphysik
-
Das Universum ist instabil, hat ein US-Physiker anhand der Daten über das mutmaßliche Higgs-Boson errechnet. Eines fernen Tages könnte es von einem anderen Universum verschlungen werden.
Im Juli vergangenen Jahres verkündeten Forscher am europäischen Kernforschungszentrum Cern, ein neues Elementarteilchen gefunden zu haben, bei dem es sich mutmaßlich um das Higgs-Boson handele. Es soll anderen Elementarteilchen ihre Masse verleihen. Wenn das 2012 entdeckte Teilchen das Higgs-Boson ist, könnte das nichts Gutes verheißen.
Der ganze Artikel (http://www.golem.de/news/higgs-boson-schwupp-weg-mit-lichtgeschwindigkeit-1302-97710.html)
Quelle : www.golem.de
-
Die Äußerung "es kommt mit Lichtgeschwindigkeit auf Sie zu" halte ich für ausgesprochen mutig bzw. für komplette Spekulation.
Den ganzen Rest schätze ich allerdings kaum anders ein.
Der Herr fabuliert über ein neues anderes Universum, über das er definitiv nicht das Geringste wissen kann.
Da er aber meint, es wäre "langweiliger", schließt das ein, das dort andere Naturgesetze gelten müssten.
Ganz simpel, wären's genau die gleichen, wär's genau dasselbe Universum, und garnix passierte...
Damit ist NICHT davon auszugehen, dass dort Raum und Zeit irgendwie ähnlich zu unserer Welt wären, und ebensowenig, dass dort E=MC² gelten müsste, bzw. dass ausgerechnet unsere Lichtgeschwindigkeit auch dort als absolute Grenze der Ausbreitungsgeschwindigkeit feststünde.
Hinzu kommt, dass es inzwischen als unumstritten gilt, dass die Raumexpansion kurz nach dem Urknall NICHT von der Lichtgeschwindigkeit begrenzt gewesen sein soll. Der Raum als solcher, so heißt es heute, sei nicht materiell oder energetisch aufgebaut, und daher sei seine Dilatation nicht an C gebunden.
Allerdings ist so eine sekundäruniverselle Blase in den vergangenen Jahrmilliarden offenbar sowieso nicht vorgekommen, und ich vermisse jegliche Begründung, warum so etwas in Zukunft wahrscheinlicher werden sollte, bei stetiger Abkühlung und Ausdehnung / Verdünnung des Alls.
Better don't hold your breath...
Jürgen
-
Ein Detektor auf der Internationalen Raumstation ISS hat neue Hinweise bei der Suche nach Dunkler Materie geliefert. Die Forscher um den Physik-Nobelpreisträger Samuel Ting beobachteten einen Überschuss sogenannter Positronen im Weltall, die aus allen Richtungen auf die Erde einprasseln. Das berichtete das Genfer Kernforschungszentrum Cern am Mittwoch.
Positronen sind die positiv geladenen Anti-Teilchen der Elektronen. Sie könnten nach Ansicht vieler Physiker entstehen, wenn sich zwei Teilchen der Dunklen Materie im Weltall begegnen. Aufgefangen hat die Antimaterie-Teilchen das "Alpha Magnetic Spectrometer" ("AMS-02"), das am 19. Mai 2011 an der Außenseite der ISS installiert wurde.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/ISS-Detektor-bringt-Fortschritt-bei-der-Suche-nach-Dunkler-Materie-1834954.html)
Quelle : www.heise.de
-
Ohne Dunkle Materie bleibt auch rätselhaft, weshalb sich die spiralförmigen Arme unserer Galaxie viel schneller drehen, als sich mit der Schwereanziehung der sichtbaren Materie erklären lässt.
Nö.
Man stelle sich bitte einmal die Gravitation der leuchtenden Materie relativistisch vor, also in ihrer Ausbreitung an die Lichtgeschwindigkeit gebunden.
Dadurch ergibt sich mit der Rotation ein differentielles Schwerefeld, visualisierbar ähnlich dem Nachleuchten eines klassischen Radarschirms.
Dieses Gradientenfeld hängt u.a. von der Bahngeschwindigkeit ab.
Und es erbringt so sicher eine Abweichung von der klassischen Keppler-Rotation.
Auch in radialer Richtung gilt Vergleichbares.
Teilweise ergibt sich da schon bei grob überschlägiger Betrachtung eine gegenseitige Beschleunigung der Spiralarme.
Eine Verdrehung der Raumzeit, die zwar sehr schwach sein dürfte, aber schon sehr lange wirkt.
Komplexe Resonanzen, wie wir sie von unserem Planetensystem kennen, dürften in galaktischen Größenordnungen kaum noch berechenbar sein, müssten aber zweifellos erheblich mitspielen.
Ähnliche Überlegungen gelten auch im Umkreis Schwarzer Löcher, und dort wird im Extremfall sogar ein hoher Anteil sich annähernder Materie durch die arg verzerrte Raumzeit in Energie umgesetzt und abgestrahlt, statt einfach hinein zu fallen.
Diese Effekte sind inzwischen weitgehend durch Beobachtung gesichert.
Hinzu kommt, dass auch im galaktischen Halo eine große Menge Materie existiert, deren Verteilung und Bahnen noch lange nicht hinlänglich ermittelt sind.
Unter anderem handelt es sich dabei um uralte Sternleichen, wie z.B. Neutronensterne, und Gas- und Partikelströme aus der sog. galaktischen Fontäne.
Die Behauptung dunkler Materie allein aus angenommener mathematischer Erforderlichkleit halte ich für völlig verfehlt.
Ebenso wie die der Dunklen Energie, um die nicht wirklich verstandene Expansion des Universums erklären zu wollen...
Schlussfolgerungen aus unseren Modellen sind immer logisch unzulässig!
Nicht vergessen wollen wir, dass wir uns weder auch nur annähernd mittig innerhalb der Galaxie noch eines Spiralarms befinden.
So wäre es fast schon vermessen anzunehmen, eine vermutete Dunkle Materie wäre gleichmäßig um uns verteilt, oder auch nur eine ihrer möglichen Wechselwirkungen.
Auch leuchtet mir nicht ein, dass ausgerechnet aus solch einer Wechselwirkung weit überwiegend oder gar ausschließlich Antimaterie entstehen sollte, während unser Universum sonst kaum solche aufzuweisen scheint.
So weit draußen wird die Luft eben doch sehr dünn...
Jürgen
- Nebenfach Astronomie in den späten 70ern -
-
Deutsche Physiker sehen noch keine Gefahr, dass Quantenrechner in nächster Zeit gängige Verschlüsselungen knacken können. Der Quantenrechner D-Wave 2 etwa sei sehr langsam, aber Forscher haben auch schon ein viel mächtigeres Lasersystem auf Lager.
Quantenphysiker der Universität Saarbrücken wiegeln die kolportierten Meldungen ab, die NSA könne in Bälde mit einem Quantencomputer aufwarten, welcher die aktuell benutzten Verschlüsselungsverfahren in Sekundenschnelle knacken könne. Derzeit, erklären die Saarbrücker Wissenschaftler Christoph Becher und Frank Wilhelm-Mauch, könne man nur maximal 14 elementare Quantenzustände (Qubits) miteinander verschränken und damit sehr primitive Rechenoperationen ausführen. Das reicht gerade mal, um die Zahl 15 in die beiden Faktoren 3 und 5 zu zerlegen. "Anders gesagt: Mit Papier und Bleistift könnte man Codes derzeit noch deutlich besser brechen als mit der Quantentechnologie“, so Wilhelm-Mauch.
Heute gängige Verschlüsselungsverfahren verwenden Zahlen mit zum Teil weit mehr als mehr als 100 Stellen. „Um solche Zahlen effizient in ihre Primfaktoren zu zerlegen, bräuchte man Computer mit Tausenden Qubits, die alle perfekt funktionieren“, so der Experte. Und davon ist die technische Entwicklung noch weit entfernt: „Verglichen mit der Entwicklung der herkömmlichen Computertechnologie sind wir auf dem Gebiet der Quantencomputer irgendwo bei den Elektronenröhren der 50er Jahre“, erklärt Christoph Becher.
Außerdem wachsen die Möglichkeiten der Verschlüsselungstechnik weit schneller, als die der Entschlüsslung, so dass man da auch mit Quantentechnik nicht hinterherkommt. Zudem könne die Quantentechnik selbst auch sichere Schutzmaßnahmen gegen das Abhören bereitstellen.
Der ganze Artikel (http://www.heise.de/security/meldung/Forscher-Maechtige-Quantencomputer-noch-weit-entfernt-oder-nicht-2095661.html)
Quelle : www.heise.de
-
Unter Hochdruck erforschen Staaten und Unternehmen Computer, die dank Quanteneffekten viele Male schneller sein sollen als konventionelle. Google testet seit einiger Zeit das erste kommerzielle Gerät dieser Art – und meldet spektakuläre Ergebnisse.
Mit der Behauptung, den ersten kommerziellen Quantencomputer der Welt liefern zu können, sorgte vor einigen Jahren das kanadische Start-up D-Wave für Aufsehen und Skepsis. Google kaufte 2013 eines der ersten dieser Geräte und arbeitet seitdem zusammen mit der NASA damit. Dazu wurde jetzt ein spektakuläres Ergebnis veröffentlicht, wie Technology Review online in "Google: Quanten-Chip ist millionenfach schneller" berichtet: Die Maschine von D-Wave nutzt tatsächlich Quanteneffekte und kann bestimmte Probleme 100 Millionen Mal schneller lösen als klassische Rechner.
Googles D-Wave-Rechner steht im Ames Research Center der NASA in Kalifornien. Er nutzt einen supraleitenden Chip mit der Bezeichnung "Quantum Annealer" (Quantenausheizer). Fest darin einprogrammiert ist ein Algorithmus für die Lösung sogenannter Optimierungsprobleme, die bei Maschinenlernen und Künstlicher Intelligenz häufig auftreten.
Seine Forscher hätten jetzt belastbare Beweise für die Überlegenheit der Maschine zumindest bei einem speziellen Problem geliefert, sagt Hartmut Neven, Leiter des Quantum AI Lab von Google in Los Angeles. Das Team habe eine Reihe von Wettrennen zwischen dem Computer von D-Wave und einem konventionellem Computer mit einem Prozessor veranstaltet. Das Ergebnis: "Für ein bestimmtes, sorgfältig gewähltes Proof-of-Concept-Problem haben wir eine Beschleunigung um das 100-Millionenfache erreicht", sagte Neven.
Quelle : www.heise.de