Autor Thema: Die rätselhaften Zahlenspiele der Natur  (Gelesen 18869 mal)

0 Mitglieder und 5 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Forscher berechnet Zeit vor dem Urknall
« Antwort #45 am: 03 April, 2009, 08:10 »
Ein deutscher Physiker hat sich aufgemacht, Einsteins Werk zu vollenden. Dessen Relativitätstheorie beschreibt das Wechselspiel von Massen und leerem Raum. Doch am Urknall kollabiert sie. Eine neue Theorie soll Abhilfe schaffen - und öffnet zugleich den Blick in ein früheres Universum.

Selbst Martin Bojowald ist nur selten einmal ein Blick zurück vor den Urknall vergönnt, und wenn er sich auftut, dann geschieht es meist unverhofft.

Besonders oft klappt es beim Joggen, wenn die Beine wie von selbst zu laufen und die Gedanken zu fließen beginnen. Wenn das Blut so durchs Gehirn pulst, lässt Bojowald im Geiste die Raum-Zeit wallen, bis sich irgendwann wieder ein Fenster öffnet in ein neues, nie zuvor gesehenes Reich.

Bojowald, 36, lehrt theoretische Physik an der Pennsylvania State University. Nichts an seiner etwas bubenhaften Erscheinung und seiner stillen, unaufgeregten Art lässt den Revolutionär erahnen, der schon im Alter von 27 eine neue Art der Kosmologie begründet hat.

Und doch zählt er zu einer kleinen, sehr exklusiven Gemeinde von Forschern, die sich aufgemacht haben, das Erbe Albert Einsteins anzutreten. Im Alleingang hatte der große Physikpionier eine neue Lehre der Schwerkraft begründet und der Nachwelt seine Allgemeine Relativitätstheorie hinterlassen. Viele halten sie noch heute, gut 90 Jahre später, für das Brillanteste, was die theoretische Physik je hervorgebracht hat.

Doch inzwischen ist klar: Selbst Einsteins großer Wurf weist Mängel auf. Nur wenn die Forscher den Weg, den er einst eingeschlagen hat, in aller Radikalität zu Ende gehen, wartet auf sie womöglich eine Formel, die den Namen Weltformel wirklich verdient. Es wird dazu nötig sein, die letzten Rätsel von Raum und Zeit zu knacken. Wie das gehen könnte, das hat Martin Bojowald jetzt in einem neuen Buch beschrieben*.

Eher zufällig ist er vor rund zehn Jahren zu seinen heutigen Mitstreitern gestoßen. In einer Mathematikvorlesung an seiner Heimatuniversität in Aachen war am Rande von Einsteins großem Werk die Rede gewesen. Im Physikstudium dagegen war es nie aufgetaucht.

Denn eigenartig: Es scheint, als wollten die Physikprofessoren ihren Studenten das Juwel ihres Fachs vorenthalten. Die Allgemeine Relativitätstheorie kommt im normalen Physikstudium oft überhaupt nicht vor: Zu schwierig sei sie, so heißt es, und zu irrelevant für praktische Zwecke.

In der Tat hat sich Einstein mit seiner Gravitationslehre sehr weit in eine Welt vorgewagt, die der menschlichen Erfahrung kaum mehr zugänglich ist. Viele Studenten jedoch schreckt das wenig. "Mich", sagt Bojowald, "hat besonders fasziniert, dass der Raum in der Relativitätstheorie eine ganz neue Rolle spielt." Der nämlich ist bei Einstein nicht mehr bloße Bühne des Weltgeschehens; Raum und Zeit treten vielmehr selbst als Akteure auf.

Unter dem Einfluss jedes Körpers verbiegt sich in Einsteins Theorie der Raum in seiner Umgebung. Die Schwerkraft ist dann nichts anderes als die Wirkung, die diese Krümmung des Raums auf andere Körper ausübt. Masse, Raum und Zeit bilden so ein sich wechselseitig bedingendes Ganzes. Beschrieben wird es von den Einsteinschen Feldgleichungen.

Gefürchtet und verehrt sind diese Formeln, elegant und äußerst tückisch, wenn es ans praktische Rechnen geht. Und doch bedürfen selbst diese Gleichungen, aller mathematischen Brillanz zum Trotz, noch grundlegender Korrekturen. Denn so befriedigend sie auch den ewigen Umlauf der Planeten, das Kreiseln von Galaxien, ja sogar die Blähung des gesamten Kosmos beschreiben, so versagen sie doch am Beginn allen Seins.

Nach rund 14 Milliarden Jahren der Expansion sei das Universum zu dem geworden, was es heute ist, so die Aussage von Einsteins Theorie. Doch wie ist das Ganze entstanden? Angesichts dieser Frage kapituliert Einsteins Formelwerk.

Je näher darin der Anfang der Zeit rückt, desto mächtiger ballt sich die Materie, immer dichter presst sie den Raum zusammen, bis die Gleichungen schließlich im Strudel des Ursprungs nichts mehr als bedeutungslose Unendlichkeiten ausspucken.

"Urknall" nennen die Physiker dieses pathologische Verhalten - und wissen dabei doch ganz genau: Der inzwischen so vertraut klingende Name kann nicht darüber hinwegtäuschen, dass die Theorie hier an ihre Grenze gelangt. Was, so fragt sich die Forschergemeinde um Bojowald, ist eine noch so schöne Theorie wert, die zwar die Geschichte des Kosmos richtig beschreibt, an dessen Anfang aber nichts als Unsinn gebiert?

Immer wieder haben junge Physiker versucht, dem Mangel mit gewagten gedanklichen Kapriolen abzuhelfen. Keine Idee schien ihnen dabei zu absurd, um sie nicht wenigstens auszuprobieren - doch vergebens, es blieb dabei: Im Urknall verlor alles Sein seinen Sinn.

Besonders hoch im Kurs standen zuletzt komplizierte Konstrukte, die unter dem Namen Stringtheorie selbst unter Laien Berühmtheit erlangt haben. Teilchen jedweder Art, gleichgültig ob Elektron, Neutrino, Quark oder Photon, werden darin als Schwingungszustände aberwitzig winziger Saiten beschrieben. Alles Weltgeschehen stellt sich dar als eine phantastische kosmische Stringsymphonie.

In den drei sinnlich erfahrbaren Raumdimensionen jedoch lassen sich die Stringgleichungen nicht formulieren; die Forscher waren gezwungen, dem Raum noch sechs oder sieben weitere Dimensionen hinzuzufügen. Und weil diese sich in der wirklichen Welt nicht wahrnehmen lassen, wurden sie von den Stringforschern kurzerhand durch eine Art mathematischen Taschenspielertrick zu unsichtbar winzigen Knäueln verschnürt.

Doch ist all das nicht nur ein großes mathematisches Glasperlenspiel? Lässt sich so wirklich der Welt ihr letztes Geheimnis entreißen?

Bojowald und seine Mitstreiter haben ihre Zweifel daran. Sie wollen auf andere Weise die Mängel des derzeitigen Weltbildes beheben. Nicht die Materie ist Ausgangspunkt ihres Denkens. Sie beginnen, wie schon ihr großes Vorbild Einstein, mit dem Raum selbst.

Wenn schon die Materie aus kleinsten Teilchen besteht, so ihre Argumentation, könnte es dann nicht sein, dass der Raum, in dem sich diese Materie bewegt, ebenfalls aus einer Art kleinsten, nicht weiter teilbaren Raumatomen zusammengesetzt ist? Ermutigt fühlen sie sich dadurch, dass sich durch geschicktes Hantieren mit den wichtigsten Naturkonstanten eine Art Elementarlänge errechnen lässt.

Kein Anfang, kein Ende

Plancklänge wird sie genannt, und sie beträgt etwa 10-33 Zentimeter - eine unvorstellbar winzige Zahl. In einem einzigen Atomkern finden mehr dieser Raumatome Platz als Staubkörner im gesamten Sonnensystem.

Als Bojowald sich vor gut zehn Jahren den Fragen der Gravitation zuwandte, da war es seinen heutigen Mitstreitern bereits gelungen, den Raum zu zerstückeln. Ihre Gleichungen erzeugten eine Art Granulat aus Raum und aus Zeit. Eng verwoben wogt und wallt dieses Raum-Zeit-Geflecht, wenn es von der Wirkung einer Masse in Bewegung versetzt wird. "Schleifen-Quantengravitation": So hatten die Forscher ihre Kopfgeburt getauft.

Doch erst Bojowald gelang es, sich mit Hilfe dieser Gleichungen bis zum Beginn allen Seins vorzutasten. Wie, so seine Frage, spielt sich ein Urknall in diesem Raum-Zeit-Gewebe ab? Und vor allem: Würde er auch dieses Mal nur in sinnlose Unendlichkeiten münden?

Der Durchbruch, meint Bojowald, sei seiner Unkonzentriertheit zu verdanken gewesen. Noch sehr gut kann er sich an den Sommer des Jahres 2000 erinnern, als das nervende Zirpen der Grillen kein En- de nehmen wollte und drückende Hitze seinen Kopf bis spät in die Nacht umnebelte. Der junge Forscher hatte gerade den Umzug von Aachen in die USA hinter sich, alles war neu für ihn hier an der Penn State, und einige Wochen lang hatte für ihn einmal nicht die Physik allein im Mittelpunkt gestanden.

Wahrscheinlich sei nur so zu erklären, dass er, als er sich wieder an den Schreibtisch setzte, alle Sorgfalt fahrenließ und sich in Rechnungen stürzte, die eigentlich zu gar keinem vernünftigen Ergebnis hätten führen dürfen: "Bei etwas klarerem Kopf hätte ich das wohl gar nicht erst versucht", sagt er heute.

Bojowald hatte Glück. Plötzlich schien sich alles zu fügen, und der Forscher erkannte, wie sich in seinen Gleichungen in groben Konturen die Geburt eines Universums abzuzeichnen begann.

Je weiter Bojowald die Zeit zurücklaufen ließ, desto höher sah er die Dichte wachsen. Irgendwann war in jedem Kubikzentimeter die Masse von Abermilliarden Sonnen vereint.

Dann aber, fast scheint der Urknall schon erreicht, verändert sich das Verhalten des Modell-Universums: Plötzlich weigert sich der Raum, sich noch weiter zusammenzuziehen. Einem Schwamm gleich hat er sich bis zum Äußersten voll mit Energie gesogen.

Und dann geschieht es: Der Raum prallt an sich selbst ab.

Mehr noch: Als Bojowald die Uhr in seiner Modellwelt noch weiter bis vor den Ursprung zurückstellte, begann sich der Raum sogar wieder zu spreizen; das Universum, das sich gerade noch in einem unaufhaltbar scheinenden Schrumpfprozess befunden hatte, schwoll wieder an.

Zweierlei war dem jungen Physiker damit gelungen: Er hatte seine Modellwelt heil durch den Urknall manövriert, ohne dass die Gleichungen zusammengebrochen waren. Und: Durch das Nadelöhr des Raum-Abpralls hindurch war es ihm gelungen, einen Blick in ein Universum zu erhaschen, wie es vor dem Urknall existiert haben muss.

Viel kann Bojowald bisher freilich noch nicht über diese Welt vor unserer Welt sagen: "Das Einzige, was wir wissen, ist, dass das Universum vor dem Urknall offenbar invertiert war. Ähnlich wie bei einem Luftballon, der verkehrt herum aufgeblasen nwird, war sozusagen das Innere nach außen gekehrt." Welche Bedeutung dies für das Dasein in dem eigenartigen Spiegeluniversum hatte? Das vermag der Forscher nicht zu sagen.

Doch so spärlich auch Bojowalds Erkenntnisse noch sind, könnten sich seine Gleichungen doch als Beginn einer neuen Ära erweisen. Denn erstmals erlauben sie handfeste Aussagen über eine Welt jenseits des bekannten Universums. Das ewige Vergehen und Entstehen von Welten könnte so Gegenstand beobachtender Forschung werden.

Helfen soll dabei eine neue Generation von Satelliten, die empfindlich wie nie zuvor Signale vom anderen Ende des Kosmos auffangen. Bereits im vergangenen Jahr Stellung bezogen hat das Fermi Gamma-ray Space Telescope, das rätselhafte Blitze extrem hochenergetischer Strahlung am Himmel untersuchen soll.

Hinter sich haben diese Strahlen eine Durchquerung fast des gesamten sichtbaren Weltalls. Wenn aber der Raum tatsächlich, wie von den Schleifen-Quantentheoretikern angenommen, aus Raumatomen besteht, dann müsste sich diese Körnung nach der weiten Reise in Form kleiner Laufzeitänderungen bemerkbar machen. Die Mikrostruktur des Raums lässt sich so also direkt unter die Lupe nehmen.

Aber auch den Urknall selbst hoffen die Forscher schon bald beobachtend studieren zu können. Ein erster Schritt dorthin steht bereits im nächsten Monat auf dem Programm. Dann startet der europäische Forschungssatellit "Planck".

Mit nie zuvor erreichter Präzision soll er Fotos der Hintergrundstrahlung schießen, die den gesamten Kosmos erfüllt. Entstanden ist diese zwar erst rund 380.000 Jahre nach dem turbulenten Ursprung, der die Schleifen-Quantentheoretiker interessiert. Doch weist die Strahlung winzige Schwankungen auf, die Rückschlüsse auch auf die Zeit zuvor erlauben.

Noch gut zehn Jahre wird es dauern, dann, so die Hoffnung von Bojowald und seiner Forschergemeinde, könnten sogar die ersten direkten Signale vom Urknall eintreffen. Im Jahr 2019 nämlich soll das Weltraumobservatorium "Lisa" starten, bestehend aus einem Satellitentrio, das möglicherweise empfindlich genug sein wird, um Gravitationssignale aus den ersten Sekunden dieser Welt auffangen zu können.

Bojowald darf sich also freuen: Es besteht Aussicht, dass er seine Theorie noch zu Lebzeiten durch einen Schnappschuss aus dem Kreißsaal des Universums bestätigt sehen wird.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Theorie der Unmöglichkeiten
« Antwort #46 am: 16 April, 2009, 13:18 »
Der Stringtheoretiker und Bestseller-Autor Michio Kaku schreibt für Technology Review über die Physik von Zeitreisen und überlichtschnellen Antrieben. Als Ergänzung zu diesem Essay legt Technology Review dem Heft eine Hörbuch-CD mit vier aktuellen SF-Erzählungen bei. TR 05/2009 ist ab heute am Kiosk oder portokostenfrei online zu bestellen.

"Ist letztendlich alles möglich, wenn die Wissenschaftler nur genügend Fantasie beweisen?" fragt Kaku in seinem Essay. "Um etwas Ordnung in die Beantwortung dieser Frage zu bringen, habe ich 'Unmöglichkeit' in drei Kategorien eingeteilt: Unsichtbarkeit gehört für mich zu den 'Unmöglichkeiten ersten Grades'. Das sind Entwicklungen, die nur scheinbar die bekannten physikalischen Gesetze verletzen, in den kommenden Jahrzehnten oder Jahrhunderten aber dennoch möglich werden könnten. Die in der klassischen Science-Fiction gern verwendeten Dinge wie Strahlenwaffen, Lichtschwerter, intelligente Roboter, Raumschiffe und Antimaterie-Antriebe verletzen nicht die Gesetze der Physik und stellen daher hauptsächlich ein Ingenieursproblem dar.

Bei 'Unmöglichkeiten zweiten Grades' dagegen handelt es sich um Techniken, die zwar heute unmöglich sind, allerdings in einigen Jahrtausenden möglich werden könnten. Das berühmteste Beispiel dafür ist die Zeitreise, die schon seit Jahrhunderten die Fantasie von Science-Fiction-Autoren angeregt hat: Der Astrophysiker Stephen Hawking hat zwar versucht zu beweisen, dass Zeitreisen unmöglich sind: Sie verletzten ein grundlegendes Gesetz der Physik, das er die Chronologie-Schutzhypothese nannte und das 'die Geschichte sicher für Historiker machen' würde. Nach einigem Aufwand musste er jedoch schließlich zugeben, dass er seine Hypothese nicht beweisen kann."

Die Kategorie der 'Unmöglichkeiten dritten Grades' schließlich treibt Kaku an die Grenzen der Physik: "Könnten die Gesetze der Physik in einem Paralleluniversum nicht vielleicht ganz andere sein? Oder gelten die Beschränkungen, denen wir hier unterworfen sind, überall im Multiversum der Universen? In der Stringtheorie gibt es viele gültige Lösungen der grundlegenden Gleichungen. Jede dieser Lösungen beschreibt ein Universum, in dem eine ganz andere Art von Physik gilt. Die Stringtheorie selbst ist eine Metatheorie, deren Formulierung unabhängig von der konkreten Physik des gerade betrachteten Universums ist. Es wäre also durchaus denkbar, dass es unterschiedliche Universen mit unterschiedlichen Naturgesetzen gibt."

Die vier vertonten Science-Fiction-Erzählungen, die dem aktuellen Heft beigelegt sind, zeigen, dass die Science Fiction noch einiges mehr zu bieten hat, als Erzählungen von Raumschiffen und fernen Planeten: Der australische Schriftsteller Greg Egan etwa stellt die Frage, was passiert, wenn ein Wissenschaftler einen Schwarm von Nano-Robotern darauf programmiert, ihn nach seinem Tod wiederzubeleben? Mit Bruce Sterling lässt Technology Review einen Mitbegründer des so genannten Cyberpunk zu Wort kommen: In seiner Erzählung "Das Monument" schildert Sterling, was passiert, wenn Architektur und das "Internet der Dinge" aufeinander prallen.

In "Glas" von Daryl Gregory, der unter anderem im Jahresband "The Year's Best Science Fiction" veröffentlichte, geht es um ein neues Medikament, das Menschen, denen im wahrsten Sinne des Wortes das Mitgefühl fehlt, helfen soll. Algis Budrys dagegen gehörte zur alten Riege amerikanischer SF-Autoren. Seine Erzählung "Das ferne Dröhnen der Motoren" ist eine klassische Kurzgeschichte des Genres, die erstmals 1959 im heute legendären "Magazine of Fantasy and Science Fiction" gedruckt wurde.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Baustein des Quantencomputers gefunden
« Antwort #47 am: 01 Mai, 2009, 11:42 »
Teilchen, die gleichzeitig hier und auch anderswo sein können? Gibt´s nicht! Oder doch? In der Quantenphysik schon. Es ist ein Mysterium, das selbst für hartgesottene Physiker nicht einfach zu entschlüsseln ist. Quantenteilchen sind weder hier noch da so richtig – sie befinden sich an mehreren Orten gleichzeitig. Man sagt auch, sie nehmen mehrere Zustände gleichzeitig an.


Schon lange träumen Experten davon, diese Besonderheit dazu zu verwenden, die Kommunikation zu revolutionieren: mit dem Bau eines Quantencomputers. Ein solcher Computer basiert auf den Quanten-Bits (qubits) – diese sind für die Informationsübertragung zuständig. Da sie an vielen Orten gleichzeitig sein können, und deshalb viele verschiedene Informationen gleichzeitig transportieren können, verarbeiten sie auch eine enorm größere Datenmenge in viel kürzerer Zeit, als wir dies von jetzigen Computern gewohnt sind.

Qubits arbeiten nicht wie herkömmliche Bits sequentiell, sondern simultan. Ein Beispiel dafür: Wenn ein normaler Computer nach einer Person in einem elektronischen Telefonbuch sucht, geht er alle eingetragenen Profile durch, bis der Name übereinstimmt. Ein Quantencomputer hingegen kann alle Namen gleichzeitig durchstöbern. Das ermöglicht eine exponentielle Steigerung der Prozessorgeschwindigkeit.

An der US-amerikanischen Purdue University haben Physiker jetzt eine molekulare Struktur entdeckt, die den Traum vom Quantencomputer realistischer macht. Wird ein normales Arsen-Molekül unterschiedlichen elektrischen Feldern ausgesetzt, taucht plötzlich ein neues, künstliches Atom in ihm auf. Die Elektronen sind an mehreren Stellen gleichzeitig (gelber Fleck auf dem Bild). Dies könnte der Schlüssel zu den raffinierten Quanten-Bits sein.

Anders die heute verwendeten Computer, die noch immer nach demselben Prinzip wie vor 50 Jahren arbeiten: Informationen werden in Bits dargestellt – ihr Inhalt ist entweder 1 oder 0. Die qubits im Quantencomputer können dagegen 0 und 1 gleichzeitig sein, was den Rechner so extrem schnell macht.

Das Folgende klingt nach heutigen Maßstäben noch wie kühne Science-Fiction, ist aber durch die Quantenphysik durchaus abgesichert, was auch der Forschungsbericht der Purdue Universität (siehe Link unten) herausstellt: Die Multi-Lokalität der qubits setzt Quantencomputer imstande, über riesige Distanzen hinweg miteinander zu kommunizieren, theoretisch über ganze Sonnensysteme hinweg.

Bildbeschreibung: Die Illustration der Purdue Universität von David Ebert erklärt das neu gefundene atomare Phänomen – auch Hybrid-Atom genannt. Die trichterförmige Struktur am linken Bildrand ist das Arsen-Atom. Es ist Teil eines nano-kleinen Schalters aus Silicium. Dessen Spannung wird verändert. Plötzlich entsteht ein neues Atom, welches durch die scheibenförmige Wolke dargestellt wird. Dabei gehen die Arsen-Elektronen in den Quantenzustand über, sind also an mehreren Orten zugleich, wie der gelbe Fleck andeutet.

Quelle : http://www.pm-magazin.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
16-Jähriger entwickelt Formel für Bernoulli-Zahlen
« Antwort #48 am: 31 Mai, 2009, 13:16 »
Über einen spannenden Fall von mathematischer Frühbegabung berichten die Kollegen der schwedischen Tageszeitung Dagens Nyheter. Ein erst 16 Jahre alter Einwanderer aus dem Irak namens Mohamed Altoumaimi entwickelte als Gymnasiast eine Formel, mit der sich die sogenannten Bernoulli-Zahlen erklären und vereinfachen lassen.


Dieses Problem galt unter Mathematikern jahrhundertelang als ungelöst. Nachdem Mohamed seine Formel den Lehrern an seiner Schule gezeigt hatte und auf Skepsis gestoßen war, wandte er sich an Professoren der Universität Uppsala, die seinen Erfolg bestätigten.


Nach der Sichtung aller Unterlagen bot die Uni Mohamed einen Studienplatz an. Dieser will allerdings erst einmal sein Abi abschließen und das Angebot der Uni zunächst in Form von Ferienkursen annehmen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Universität Uppsala dementiert neue Formel für Bernoulli-Zahlen
« Antwort #49 am: 31 Mai, 2009, 13:46 »
Im Internet kursiert derzeit eine Meldung über einen spannenden Fall von mathematischer Frühbegabung. So berichten die Kollegen der schwedischen Tageszeitung Dagens Nyheter, dass ein erst 16 Jahre alter Einwanderer aus dem Irak namens Mohamed Altoumaimi eine Formel entwickelt habe, mit der sich die sogenannten Bernoulli-Zahlen erklären und vereinfachen lassen.

Die Universität Uppsala hat dieses Gerücht dementiert: Der junge Forscher habe zwar in der Tat die richtige Formel gefunden – doch ist sie bereits seit langem bekannt.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Atomare Ladungsmessung
« Antwort #50 am: 12 Juni, 2009, 14:30 »
Wissenschaftlern der Universitäten Regensburg und Utrecht haben gemeinsam mit Forschern des IBM-Labors in Rüschlikon bei Zürich erstmals den Ladungszustand von einzelnen Atomen direkt gemessen. Mit Hilfe eines Rasterkraftmikroskops konnten sie dabei zwischen ungeladenen, positiv oder negativ geladenen Atomen unterscheiden – bei einer nanometergenauen räumlichen Auflösung. Dies eröffnet nach Auffassung der Wissenschaftler völlig neue Möglichkeiten für die Erforschung von molekularer Elektronik, der Katalyse oder der Photovoltaik. 

Leo Gross und Kollegen berichten über die Arbeit in der aktuellen Ausgabe der Fachzeitschrift Science. Sie berichten darin, wie sie einzelne, unterschiedlich geladene Gold- und Silberatome abbilden und deren Ladungszustand aufgrund kleinster Unterschiede in der Kraft zwischen der Spitze eines Rasterkraftmikroskops und diesen Atomen exakt bestimmen konnten.

Ein Rasterkraftmikroskop misst mittels einer atomar feinen Spitze, die auf einem schwingenden Federbalken angebracht ist, die Kräfte, die zwischen dieser Spitze und der zu untersuchenden Probe auftreten. In der vorliegenden Arbeit verwendeten die Forscher einen so genannten qPlus Kraftsensor, bei dem die Spitze eines Zinkens auf einer Art Stimmgabel angebracht ist, während der andere Zinken fixiert ist. Die Stimmgabel wird mechanisch angeregt. Wird die Spitze nun sehr nah über der Probe, etwa über einem einzelnen Atom, platziert, verändert sich die Resonanzfrequenz der Stimmgabel aufgrund der Kräfte, die zwischen Probe und Spitze auftreten. Die Kraftdifferenz zwischen einem neutralen Goldatom und einem Goldatom mit einem zusätzlichen Elektron, beträgt nur etwa 11 Pikonewton – die Messgenauigkeit dieser Experimente liegt im Bereich von einem Pikonewton. „Ladungszustand und –verteilung sind kritische Grössen in der Katalyse und bei der Umwandlung von Licht in elektrische Energie", erklärt IBM-Forscher Leo Gross. "Das Abbilden der Ladungsverteilung auf atomarer Skala könnte zu einem besseren Verständnis der grundlegenden Abläufe auf diesen Gebieten führen.“ 

IBM gilt seit der Erfindung des Rastertunnelmikroskops im Jahr 1981 durch Gerd Binnig und Heinrich Rohrer am Zürcher Labor als Pionier auf dem Gebiet der Nanowissenschaft. Für diese Entwicklung erhielten Binnig und Rohrer 1986 den Nobelpreis für Physik. Im vergangenen Sommer hatten die Eidgenössische Technische Hochschule (ETH) Zürich und IBM den Bau eines gemeinsamen Nano-Labors angekündigt.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der Zeitpfeil vor dem Urknall
« Antwort #51 am: 27 Juni, 2009, 10:56 »
Der deutsche Astrophysiker Martin Bojowald wagt den Sprung zurück zum Ursprung des Universums – und in die Zeit davor

Gab es vor dem "Big Bang" Zeit und Raum, oder regierte das Nichts? Hat es unsere Welt schon einmal gegeben? Martin Bojowald versucht diese Frage mit der von ihm weiterentwickelten Schleifengravitation-Theorie zu beantworten, in der Raumzeit-Atome den Raum aufbauen. Bojowald (geb. 1973) hat nach dem Studium am Max-Planck-Institut für Gravitationsphysik in Potsdam gearbeitet und ist nun Assistant Professor an der Penn State University (USA). In seinem unlängst erschienenen Buch "Zurück vor dem Urknall" stellt er seine These detailliert vor, von der er selbst sagt: "Genau genommen verstehe ich die Theorie der Schleifengravitation selbst noch nicht so ganz."

Irgendwann zu keinem Zeitpunkt und irgendwo an keinem bestimmten Ort öffnete sich der Vorhang zum ersten Akt des größten kosmischen Dramas aller Zeiten. Es war eine Premiere ohne Generalprobe, die kein Zuschauer sehen, kein Auditorium hören und kein Chronist protokollieren konnte: eine gewaltige Ouvertüre eines grandiosen Schauspiels. Als sich der Urknall (engl.: Big Bang) vor ungefähr 13,7 Milliarden Jahren völlig lautlos und absolut lichtfrei in Szene setzte, befreiten sich Raum, Zeit und Materie aus einem unendlich heißen und dichten Punkt: der Urknall-Singularität. Binnen einer Quintillionstel (Zahl mit 30 Nullen nach dem Komma) Sekunde blähte sich der Raum weit über die Größe des heute beobachtbaren Universums auf. Seitdem expandiert das Universum – mit zunehmender Geschwindigkeit.


ART hat versagt

Heute, 13,7 Milliarden Jahre später, ist die Urknall-Theorie trotz einiger Anfechtungen "auf dem Markt der kosmologischen Theorien", wie es der franko-kanadische Astrophysiker Hubert Reeves charakterisiert, nach wie vor "die bei weitem beste Wahl". Die Expansion des Raumes, die sich in der Rotverschiebung widerspiegelt und das "Echo" des Urknalls, das sich in der Mikrowellen-Hintergrundstrahlung verewigt hat, avancierten zu den beiden heiligen Säulen der Urknall-Theorie.

Doch seit einigen Jahren rüttelt ein deutscher Astrophysiker mit einem neuen Modell an den Festen der Kosmologie, das zwar die historische Dimension des Urknalls nicht in Frage stellt, jedoch der Urknallsingularität den Garaus macht. "Die Allgemeine Relativitätstheorie (ART) hat in punkto Anfangssingularität völlig versagt", so der deutsche Astrophysiker Martin Bojowald. Einsteins Theorie ignoriere, dass die Konzentration der Materie und die Stärke der Gravitation durch die feine Quantenstruktur der Raumzeit begrenzt werde.


Bojowald, der an der Pennsylvania State University in den USA lehrt und forscht, wendet schon seit knapp zehn Jahren als erster seines Genres eine vergleichsweise neue Theorie auf den Urknall an. Der 36-jährige, von Boulevard-Gazetten längst als zweiter Einstein gefeiert, hat sein Theorie-Fundament auf die Schleifenquantengravitation (Loop-Theorie oder kurz Schleifengravitation) gebaut. Ein Modell, das bereits Ende der 1980er Jahre konzipiert und seither ständig verbessert wurde. Es teilt den Raum und die Zeit in kleinste Einheiten auf, in so genannte Raumzeit-Atome. Sie verhindern, dass das Universum im Urknall auf die Größe null schrumpft. Denn in Bojowalds modifiziertem Konzept hat es sich ausgeknallt mit dem Urknall. Einst als Anfang alles Seins gefeiert, degradiert der deutsche Theoretiker den Big Bang zum "Grenzfall". Er sei bestenfalls eine Grenze, ein Übergangsstadium, sagt Bojowald.

Um hinter die Fassade des Urknalls zu blicken, nimmt Bojowald die Raumzeit mit Argusaugen unter die Lupe und versucht, ihre Feinstruktur präzise zu erfassen. Die Relativitätstheorie sei blind dafür, sagt er.

Dass für die Raumzeit in unserer Gedankenwelt überhaupt Raum ist, verdanken wir Albert Einstein. Zu einer Zeit, als Physiker den Raum noch als nicht-physikalisches Gebilde ansahen, der einfach und immer schon existent war, erkannte Einstein als Erster, dass die Raumzeit nicht bloß die Bühne lieferte, auf der das Drama des Universums abläuft, sondern selbst das Geschehen aktiv mitgestaltet.

Martin Bojowald. Bild: Harald Zaun

Materielle Raumzeit-Quanten

In Bojowalds Konzept gewinnt die Einstein'sche Raumzeit sogar an deutlichen Konturen. Während bislang viele kosmologische Theorien die Raumzeit schlichtweg vernachlässigten, wertet Bojowald sie bewusst auf und beseelt sie sogar mit materiellen Bausteinen: den Raumzeit-Quanten. Laut Schleifengravitation existieren derlei Gebilde nicht wie normale Atome in einem bereits bestehenden Raum, sondern bilden ihn, bauen ihn auf, geben ihm Form, Struktur und Aussehen. "Stellen wir uns einfach zwei Punkte in einem Raum vor, die aufgrund des Fehlens von Raumzeit-Atomen zueinander eine Distanz von Null haben", so Bojowald. "Fügen wir nun einige Raumzeit-Atome hin zu, vergrößert sich die Entfernung zwischen den beiden Punkten. Je mehr Raumzeit-Atome hinzu stoßen, desto größer wird die Distanz der Punkte zueinander." Auf diese Weise entsteht Raum.

Dabei ist das komplexe Gewebe der Raumzeit-Atome so dicht strukturiert, dass es wie ein Kontinuum wirkt. Mit einer Größe von nur 0,00000000000000000000000000000001 Millimeter (Planck-Länge) sind Raumzeit-Atome weitaus kleiner als ihre herkömmlichen materiellen Kollegen. Selbst das beste Elektronenmikroskop könnte ein einzelnes hypothetisches Raumzeit-Atom mitnichten auflösen. Direkt wird sich die atomar strukturierte Raumzeit also nicht nachweisen lassen; indirekt vielleicht schon, hofft Bojowald. "Wenn Raumzeit-Atome existieren, wird es nicht wie bei den materiellen Atomen Jahrhunderte dauern, Indizien dafür zu finden." Mit etwas Glück könnte der im Mai dieses Jahres erfolgreich gestartete ESA-Forschungssatellit Planck winzige Schwankungen in der kosmischen Hintergrundstrahlung detektieren und daraus Informationen über die Quantengravitation extrahieren.

Martin Bojowald, Zurück vor dem Urknall, S. Fischer-Verlag, Frankfurt a. M. 2009

Da in der Schleifengravitation der Raum in Atome des Volumens unterteilt ist, kann der Raum nur endlich viel Materie und Energie speichern. Existieren wie bei einer Singularität sehr hohe Energiedichten, verändert die atomare Struktur der Raumzeit das Wesen der Schwerkraft. Und zwar dergestalt, dass sie abstoßend wird, ähnlich einem porenreichen, nassen Schwamm, der einmal voll gesogen, das überschüssige Wasser wieder abstößt. Übertragen auf den Beginn des Universums kann es in kosmischer Urzeit daher keine Anfangssingularität gegeben haben. Allenfalls besaß das frühe Universum eine sehr hohe, aber endliche und keineswegs unendliche Dichte. Auf einem Raumgebiet von der Größe eines Protons konzentrierten sich vor 13,7 Milliarden Jahren sage und schreibe eine Billion Sonnenmassen (Planck-Dichte). Als darauf hin die Gravitation ihre abstoßende Kraft entfachte, übernahm die Expansion des Raums die Regie.

Wunderschöne Sombrero-Galaxie. Bild: ESO

Kosmos mit negativer Zeit

Da Bojowalds Modell keine Urknallsingularität erlaubt, fällt auch der starre Anfangspunkt weg, an dem der Zeitpfeil abgeschossen wurde. Astrophysiker nennen ihn Planck-Zeit. Sie definiert gemäß der Einstein'schen Relativitätstheorie den frühest möglichen Zeitpunkt der Welt (zehn hoch minus 43 Sekunden nach dem Urknall). Alles, was sich vor der Planck-Zeit jemals abgespielt hat, ist nach Ansicht vieler Wissenschaftler ein Buch mit "acht" Siegeln.

Für Bojowald jedoch nicht. Er hält es für durchaus denkbar, dass unser Universum bereits vor dem Urknall existiert hat – und zwar als Spiegeluniversum in einer negativen, umgestülpten Zeitdimension. "Das Universum hatte keinen Anfang. Es existierte immer schon", so Bojowald.

Wie sich bei seinen mehrjährigen Berechnungsmarathon herauskristallisierte, präsentierte sich das vorangegangene Universum als bizarre Welt mit negativer Zeit, in der der Kosmos nicht mehr expandiert, sondern kollabiert. Raum und Zeit sind demnach schon vor dem Urknall in der Welt; allerdings in einer verkehrten. "Der Raum wird praktisch in sich selbst umgestülpt. Das kann mit einem ideal kugelförmigen Luftballon veranschaulicht werden, aus dem die Luft entweicht. Übrig bleibt ein leerer Ballon, wobei alle Teile der Hülle aufeinander stoßen – wie in einer Singularität", erläutert Bojowald. Dann werde sich der Ballon zwangsläufig wieder zu einer Kugel aufblähen, wobei die vorherigen Innenseiten nun außen seien.

Unendliche Weiten in einem unendlich endlichen Kosmos, der Bojowald Theorie zufolge immer schon existiert haben könnte. Bild: NASA, ESA, J. Blakeslee and H. Ford (Johns Hopkins University)

Dieser Prozess kann zyklisch verlaufen, sich also für alle Ewigkeit wiederholen, vermutet der Astrophysiker. Der Urknall war daher eher eine Art Urprall. Mit Sicherheit aber war das Schattenuniversum dem Unsrigen ziemlich ähnlich. In ihm regierten die uns bekannten Naturgesetze mit genauso großer Strenge. Und in ihm flog auch ein artverwandter Zeitpfeil ins Ungewisse der Zukunft. Und in ihm fanden auch, glaubt Bojowald, intelligente Lebensformen eine Nische. "Ob diese aber wirklich die gleichen Theorien wie wir entwickeln, wage ich jedoch zu bezweifeln."

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Physik des Unmöglichen
« Antwort #52 am: 12 Juli, 2009, 14:36 »
Seit Jahrhunderten erklären Wissenschaftler Technologien für unmöglich, die später selbstverständlich werden. Um zu verstehen, was die Zukunft bringen könnte, dürfen wir nicht eindimensional denken, meint Technology Review-Essayist Michio Kaku.

Michio Kaku hat an der Harvard-Universität Physik studiert und 1972 am Lawrence Berkeley National Laboratory der University of California, Berkeley, promoviert. Als Wissenschaftler beschäftigt er sich hauptsächlich mit der Stringtheorie. Darüber hinaus hat er mittlerweile zahlreiche populärwissenschaftliche Bücher zu theoretisch-physikalischen Themen verfasst.

Fragen Sie die klügsten Menschen der Welt, die besten Wissenschaftler und Techniker unserer Zeit: Was ist unmöglich? Die Frage ist ja auf den ersten Blick ganz einfach, und die Antwort wird immer ähnlich ausfallen: Alles, was gegen die Naturgesetze verstößt.

Aber was bedeutet das konkret? Leider sind die Seiten der Geschichtsbücher voll von vernichtenden Urteilen berühmter Wissenschaftler über Technologien, die heute völlig selbstverständlich sind: William Thomson etwa, der Nachwelt besser bekannt als Lord Kelvin, der vielleicht berühmteste Physiker der viktorianischen Epoche, hielt Flugmaschinen, die schwerer als Luft sind, schlicht für unmöglich – genauso wie Röntgenstrahlen. Und er war davon überzeugt, dass die Erde unter keinen Umständen älter sein könnte als ein paar Millionen Jahre. Oder nehmen wir Lord Rutherford, den Entdecker des Atomkerns. Der erklärte die Idee der Atombombe für völligen Unsinn. Die in einem Atomkern enthaltene Energie sei einfach zu klein für den Bau einer Waffe, meinte er.

Natürlich gibt es auch Gegenbeispiele. Oft vertraten die einfallsreichsten Wissenschaftler Ideen, die selbst Science-Fiction-Autoren für zu bizarr gehalten hätten, frei nach dem von Albert Einstein formulierten Motto: "Wenn eine Idee nicht auf den ersten Blick absurd erscheint, taugt sie nichts." 1914 hatte der britische Schriftsteller H. G. Wells, neben Jules Vernes einer der großen Pioniere der Science-Fiction, in seinem Roman "Befreite Welt" beschrieben, wie ein Wissenschaftler 1933 das Geheimnis der Atombombe entdeckt. Der Physiker Leó Szilárd stolperte 1932 über die Geschichte, die ihn zur Idee der Kettenreaktion inspirierte. Damit begann im Folgejahr – genau wie von Wells vorhergesagt – die Entwicklung der ersten Atombombe. Die Kettenreaktion konnte die Energie, die durch die Spaltung eines einzigen Atomkerns beginnt, so stark vervielfachen, dass Rutherfords Einwand hinfällig wurde.

Robert Goddard, der Vater der modernen Raketenforschung, hielt trotz heftiger Kritik an seiner Entwicklung einer Theorie der Raketenantriebe für die Raumfahrt fest, obwohl ihm seine Gegner vorhielten, mangels Luft, an der die Rakete sich abstoßen könne, sei es ganz unmöglich, im All vorwärts zu kommen. Die Redakteure der "New York Times" schäumten 1921 gar: "Professor Goddard kennt das Verhältnis zwischen Aktion und Reaktion nicht und weiß auch nicht, dass man etwas Besseres als Vakuum braucht, an dem eine Reaktion erfolgen kann. Ihm scheint das grundlegende Wissen zu fehlen, das täglich in unseren High Schools gelehrt wird." Knapp 50 Jahre später brachte eine Rakete die ersten Menschen zum Mond.

Warum sollten sich also nicht auch andere, scheinbar absurde Ideen aus der Science-Fiction verwirklichen lassen? Die Serie "Raumschiff Enterprise" beispielsweise inspirierte den mexikanischen Physiker Miguel Alcubierre dazu, sich Gedanken zu überlichtschnellen Antrieben zu machen. Die Idee, dass Raum und Zeit miteinander verknüpft sind, hatte Albert Einstein zwar bereits 1915 vorgestellt (siehe Kasten). Erst Alcubierre fand aber eine exakte Lösung für Einsteins Gleichungen, die genau die aus den Fernsehserien bekannten Eigenschaften ermöglichte. Anders als in "Star Trek" werden dafür allerdings keine "Dilizium-Kristalle" benötigt, sondern ein völlig neuer Brennstoff – die sogenannte nega-tive Materie, die in der Natur bisher noch nicht entdeckt wurde.

Antimaterie hingegen, ebenfalls bekannt aus derselben SF-Serie, wurde nicht etwa von Gene Roddenberry, dem Schöpfer von "Star Trek", erfunden. Diese Ehre gebührt dem britischen Physiker Paul Dirac, dessen relativistische Beschreibung der Quantenmechanik bereits 1928 eine neue, eigentümliche Art von Materie vorhersagte, die vollkommen identisch sei mit der uns bekannten Materie, bis auf den entscheidenden Unterschied, dass alle Teilchen genau die entgegengesetzte elektrische Ladung besitzen wie normalerweise: Ein Elektron ist also positiv geladen, ein Proton negativ. Heute können wir mit Teilchenbeschleunigern wie dem Large Hadron Collider tatsächlich Antimaterie-Strahlen erzeugen und sie zum Beispiel für medizinische Zwecke nutzen.

Bis heute stimuliert die Science-Fiction neue physikalische Entwicklungen: Über die Unsichtbarkeit, die schon die antiken Griechen diskutiert haben, habe ich früher selbst in meinen Optikkursen erzählt, sie sei unmöglich. Dafür müsste man Licht gewissermaßen um ein Objekt herumwickeln und es auf der Rückseite des Objektes neu formieren, ähnlich wie ein Bach um Steine fließt. Das ist nicht möglich, so dachte man jedenfalls.

2006 demonstrierten Forscher der Duke University in North Carolina und vom Imperial College in London, dass Mikrowellen sich mithilfe solcher Materialien wie Wasser um ein Objekt herumleiten und dahinter wieder vereinigen lassen, wodurch das Objekt unsichtbar wird. Im August 2007 zeigten Wissenschaftler von der University of California in Berkeley, von der Universität Karlsruhe und vom Ames Laboratory in Iowa, dass man Laserlicht im sichtbaren Bereich auf der mikroskopischen Ebene auf ähnliche Weise um Gegenstände falten kann. Auch wenn es noch viele Jahrzehnte dauern wird, bis die Technik perfektioniert ist – das Prinzip ist bewiesen, und Harry Potters Tarnumhang steht nicht mehr außer Frage. Es gibt nur noch kleinere Hindernisse zu umschiffen: Zum Beispiel könnte der Zauberschüler, würde er in einen Zylinder dieses Metamaterials gesteckt, nicht hindurchsehen. Also müsste man zwei Gucklöcher hineinstanzen – dann würden aber Außenstehende zwei in der Luft schwebende Augen sehen. Zudem müsste es für jede Frequenz ein anderes Metamaterial geben.

Ist also letztendlich alles möglich, wenn die Wissenschaftler nur genügend Fantasie beweisen? Um etwas Ordnung in die Beantwortung dieser Frage zu bringen, habe ich "Unmöglichkeit" in drei Kategorien eingeteilt: Unsichtbarkeit gehört für mich zu den "Unmöglichkeiten ersten Grades". Das sind Entwicklungen, die nur scheinbar die bekannten physikalischen Gesetze verletzen, in den kommenden Jahrzehnten oder Jahrhunderten aber dennoch möglich werden könnten. Die in der klassischen Science-Fiction gern verwendeten Dinge wie Strahlenwaffen, Lichtschwerter, intelligente Roboter, Raumschiffe und Antimaterie-Antriebe verletzen nicht die Gesetze der Physik und stellen daher hauptsächlich ein Ingenieursproblem dar.

Bei "Unmöglichkeiten zweiten Grades" dagegen handelt es sich um Techniken, die zwar heute unmöglich sind, allerdings in einigen Jahrtausenden möglich werden könnten. Das berühmteste Beispiel dafür ist die Zeitreise, die schon seit Jahrhunderten die Fantasie von Science-Fiction-Autoren angeregt hat: Der Astrophysiker Stephen Hawking hat zwar versucht zu beweisen, dass Zeitreisen unmöglich sind: Sie verletzten ein grundlegendes Gesetz der Physik, das er die Chronologie-Schutzhypothese nannte und das "die Geschichte sicher für Historiker machen" würde. Nach einigem Aufwand musste er jedoch schließlich zugeben, dass er seine Hypothese nicht beweisen kann.

Wenn Zeitreisen prinzipiell möglich sind, muss die Physik aber auch eine Lösung finden für die in Science-Fiction-Werken häufig vorkommende Frage des Zeitparadoxons. So wäre es zum Beispiel möglich – Zeitreisen vorausgesetzt –, dass man zu seinem eigenen Vater oder Sohn oder zur eigenen Mutter oder Tochter wird. Eine Frau könnte sich beispielsweise zu einer Geschlechtsumwandlung entschließen, dann als Mann in der Zeit zurückreisen und mit sich selbst als Teenager-Mädchen ein Techtelmechtel anfangen. Würde das Mädchen schwanger und bekäme sie eine Tochter, mit der der Mann anschließend weiter in die Vergangenheit reiste, könnte das Baby zum ursprünglichen Teenager und später zu der Frau vom Anfang der Geschichte heranwachsen.

Die Lösung dieses Paradoxons kann man in Science-Fiction-Geschichten mit Paralleluniversen entdecken – ein Konzept, dass sich auch in der Quantentheorie wiederfindet. Wenn die Zeit ein Fluss ist, dann wäre der neue Kniff dabei, dass der Zeitfluss Strudel hat und sich sogar in zwei Flüsse aufspalten kann. Genau das ist eine Lösung dieser klebrigen Zeitparadoxa, die es zum Beispiel auch erlauben, seine Eltern umzubringen, bevor man selbst geboren wird – die Aufspaltung des Zeitflusses in zwei Flüsse. Eine Zeitreise wäre in diesem Fall einfach das Wechseln von einem Quantenzeitstrom in den anderen. Folglich hat man einfach die Vergangenheit von jemand anderem in dessen Zeitstrom geändert, der eigene Zeitstrom dagegen bleibt gleich. Man kann also nur die Vergangenheit von anderen Menschen ändern.

Unglücklicherweise entsteht genau in dem Moment, in dem man die Zeitmaschine betritt, ein weiteres Problem: Quanteneffekte führen zur Entstehung von Strahlung, möglicherweise so viel, dass es den Zeitreisenden umbringt oder das Zeitportal verschließt. Daraus folgt, dass wir zur Lösung der Zeitreisen-Frage eine "Theorie von allem", eine alles umfassende, universelle Theorie brauchen, die jene Theorie der Raumzeit und der Gravitation mit der Quantentheorie verknüpft. Damit verdiene ich meine Brötchen: Ich arbeite an der sogenannten Stringtheorie, der führenden und bisher einzigen Kandidatin für eine solche "Weltformel".

Meine persönliche Science-Fiction-Inspiration waren Wieder- holungen der alten "Flash Gordon"-Filme, die ich in meiner Kindheit gesehen habe. Ich war völlig fasziniert davon, wie Buster Crabbe das Universum mit seinem klapprigen Raumschiff und seiner Strahlenwaffe eroberte. Nach einiger Zeit erkannte ich, dass der eigentliche Held der Serie nicht Flash Gordon war, sondern der Physiker Dr. Zarkov: Er war es, der Gordons Raumschiff baute, die Stadt in den Wolken und den Unsichtbarkeitsstrahl konstruierte. Damals wurde mir klar: Ohne Wissenschaft gibt es keine Science-Fiction. Flash war der Frauenheld, Zarkov war der eigentliche Motor der Show.

Später habe ich begeistert die Foundation-Trilogie von Isaac Asimov gelesen. Die eröffnete mir ein ganz neues Universum an Unmöglichkeiten der Kategorie II: Asimov verführte seine Leser dazu, sich eine Zivilisation vorzustellen, die 5000 Jahre in der Zukunft liegt. Auf dieser Zeitskala könnte es natürlich Technologien geben, deren Entwicklung noch sehr, sehr lange dauern würde – also musste ich lernen zu unterscheiden: zwischen Technologien, die zwar sehr kompliziert herzustellen wären, letztendlich aber "nur" die Lösung von Ingenieursproblemen beinhalten würden, und Technologien, die fundamentale Gesetze der Physik verletzen. Solche Technologien nenne ich Unmöglichkeiten der Kategorie III: Maschinen, mit deren Hilfe man in die Zukunft sehen kann etwa oder das berühmte Perpetuum mobile – ein Antrieb, der ohne äußere Energiezufuhr unendlich lange läuft.

Die Gesetze der Physik einfach zu ignorieren, ist für die Autoren von Science-Fiction oder Fantasy natürlich eine leichte Übung. Wir Physiker aber können so etwas nicht auf die leichte Schulter nehmen. Als junger Doktorand habe ich viel über Unmöglichkeiten der Kategorie III nachgedacht. Was ist der Ursprung dieser fundamentalen Gesetze der Physik, die unseres Wissens nach nicht verletzt werden können, wie beispielsweise das Gesetz von der Erhaltung der Energie? Ich fiel buchstäblich fast vom Stuhl, als ich vom sogenannten Noether-Theorem erfuhr: Emmy Noether, eine brillante deutsche Mathematikerin, die Anfang des 20. Jahrhunderts in Göttingen gelehrt hatte, bis sie vor den Nazis in die USA floh, hatte folgende sehr grundlegende Idee: Wenn ein physikalisches Gesetz eine Symmetrie besitzt, gibt es einen dazu entsprechenden Erhaltungssatz in der Physik. Die Energieerhaltung beispielsweise folgt aus der Tatsache, dass physikalische Gesetze unabhängig vom gewählten Startzeitpunkt immer gleich sind.

Die Erkenntnis traf mich wie ein Schlag: Wenn wir Licht aus entfernten Galaxien beobachten, die Milliarden von Lichtjahren entfernt sind, und die Spektrallinien dieser Galaxien sind genau die gleichen wie hier auf der Erde, dann bedeutet dies, dass die physikalischen Gesetze sich in diesem Zeitraum nicht verändert haben. Und mindestens genauso lange ist auch die Energie des Universums konstant.

Diese Erkenntnis eröffnete mir allerdings auch ein kleines intellektuelles Schlupfloch: Könnten die Gesetze der Physik in einem Paralleluniversum nicht vielleicht ganz andere sein? Oder gelten die Beschränkungen, denen wir hier unterworfen sind, überall im Multiversum der Universen? In der Stringtheorie gibt es viele gültige Lösungen der grundlegenden Gleichungen. Jede dieser Lösungen beschreibt ein Universum, in dem eine ganz andere Art von Physik gilt. Die Stringtheorie selbst ist eine Metatheorie, deren Formulierung unabhängig von der konkreten Physik des gerade betrachteten Universums ist. Es wäre also durchaus denkbar, dass es unterschiedliche Universen mit unterschiedlichen Naturgesetzen gibt.

Tatsächlich könnte die Vorstellung vom Multiversum eine sehr verwirrende Eigenschaft der Natur erklären: Die Naturkonstanten in diesem Universum, wie etwa die Elementarladung des Elektrons, die Lichtgeschwindigkeit oder das Plancksche Wirkungsquantum, sind rätselhafterweise genau so "eingestellt", dass Leben entstehen kann. Wenn die Kernkräfte nur ein winziges bisschen schwächer wären, hätte nie auch nur ein einziger Stern angefangen zu leuchten. Wenn die Kernkräfte stärker wären, wären die Sterne viel zu schnell verglüht, bevor Leben hätte entstehen können. Wenn die Gravitationskraft ein kleines bisschen stärker oder schwächer wäre, dann wäre das Universum vielleicht schon längst in einem einzigen Punkt kollabiert oder hätte sich unendlich ausgedünnt.

Hier und jetzt aber leben wir in einer Welt, in der diese Konstanten die glückliche Mitte treffen. Manche Menschen sehen in diesem bemerkenswerten Treffer einen Beweis dafür, dass es einen "großen Gestalter" gibt, der das Universum genau für diesen Zweck entworfen hat – der Entstehung von Leben. Die Wahrscheinlichkeit, dass dies rein zufällig passiert sei, sei so klein wie die, dass ein Hurrikan aus einem Haufen Metallteile eine Boeing 747 zusammensetzt, argumentieren sie.

Aber es gibt eine andere Erklärung für dieses Rätsel, und die kommt ohne Gott aus: Es ist sehr viel wahrscheinlicher, dass es unendlich viele parallele Universen gibt, in denen die Naturkonstanten einen anderen Wert haben. Die meisten dieser Universen sind kalte, tote Orte, in denen die Gesetze der Physik, die hier das Leuchten von Sternen ermöglichen, und die Entstehung der DNA nicht gelten. Wir haben einfach den Hauptgewinn gezogen in dieser "kosmischen Lotterie" – deswegen sind wir hier und können uns all diese merkwürdigen Fragen stellen. Möglicherweise leben wir in dem einzigen von all diesen unendlich vielen Universen, in dem so etwas wie Science-Fiction entsteht.

Quelle : http://www.heise.de/tr/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
26-Damen-Problem gelöst
« Antwort #53 am: 19 Juli, 2009, 14:56 »
Die Aufgabe, acht Damen so auf einem Schachbrett zu platzieren, dass sich keine davon gegenseitig schlagen können, läuft früher oder später jedem Informatik-Erstsemester über den Weg. 92 Möglichkeiten gibt es, und ein aktueller PC benötigt ungefähr null Sekunden, um sie alle auszurechnen. Doch wie bei vielen kombinatorischen Problemen werden die Zahlen und damit die Zeiten, sie zu ermitteln, schnell gigantisch, wenn man die Aufgabe größer macht: Wie viele Möglichkeiten gibt es, n Damen bedrohungsfrei auf einem n×n-Schachbrett zu platzieren?

Bis vor kurzem waren die Lösungen bis n=25 bekannt; für n=25 dauerten die Berechnungen durch die Forschergruppe OASIS von Oktober 2004 bis Juni 2005 und verschlangen insgesamt 53 Jahre an CPU-Zeit. Das Projekt Queens@TUD der Technischen Universität Dresden hat sich daraufhin der Frage n=26 angenommen und am 11. Juli fertiggezählt: 22.317.699.616.364.044 Möglichkeiten gibt es.

Um diese Zahl zu ermitteln, gossen die Dresdner das Problem in Hardware, genauer in FPGAs. Ein Field Programmable Gate Array ist ein programmierbarer Logikbaustein: Seine Software ist sozusagen ein Schaltplan, und einmal programmiert, lässt sich solche eine Schaltung mit einer Taktfrequenz in der Größenordnung von 100 MHz betreiben. Das klingt im Vergleich mit aktuellen Allzweckprozessoren nicht nach viel, doch kann ein Spezialprozessor, dessen alleiniger Daseinszweck das Überprüfen von Damen-Stellungen ist, diese Aufgabe in erheblich weniger Taktzyklen erledigen.

Zunächst wurde das Problem in Teilprobleme aufgeteilt, bei denen die Damen in den ersten sechs Spalten fest platziert waren. Nach Symmetrie-Überlegungen blieben etwa 25 Millionen solcher Teilprobleme übrig, die dann von den FPGAs durchgekaut wurden. Nach neun Monaten massiv parallelen Rechnens auf zwischenzeitlich noch erweiterter Hardware stand das Ergebnis schließlich fest. Das konkurrierende NQueens@Home-Projekt, das dieselbe Aufgabe mit verteiltem Rechnen übers Internet zu lösen versucht, rechnet übrigens immer noch ...

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Quantentheorie ist äußerst erfolgreich, nur über ihre Interpretation streiten Experten noch. Einige Wissenschaftler erklären die bizarren Phänomene der Mikrowelt mit verborgenen Variablen. Experimentalphysiker haben ein derartiges Modell nun widerlegt.

Man muss eine Formel nicht philosophisch durchdrungen haben, um damit richtige Ergebnisse ausrechnen zu können. Die Quantenphysiker machen es vor: Ihre Theorie beschreibt die Phänomene aus der Welt des Mikrokosmos sehr gut. Sie erlaubt allerdings statt präziser Prognosen in der Regel nur Wahrscheinlichkeitsaussagen für die Zukunft. Die große philosophische Frage lautet daher: Ist die Quantenmechanik schlicht nur eine Beschreibung physikalischer Erscheinungen? Oder weist sie womöglich auf eine hinter den Phänomenen verborgene, uns bislang unbekannte Realität hin? Falls ja, wie sieht diese dann aus?

Physiker haben für die Quantentheorie verschiedene Interpretationen entwickelt, die meisten sind Anhänger der sogenannten Kopenhagener Deutung. Diese besagt unter anderem, dass Messungen ein System beeinflussen und dass im Mikrokosmos tatsächlich der Zufall regiert. Wann beispielsweise ein Teilchen zerfällt, lässt sich deshalb nicht vorhersagen.

Verfechter der Theorie der sogenannten verborgenen Variablen sehen das etwas anders: Die Quantenmechanik beschreibt ihrer Meinung nach die Natur keinesfalls umfassend. Die Theorie soll vielmehr unvollständig sein, weil angeblich noch verborgene Variablen existieren. Würde man diese kennen, ließe sich ein zukünftiges Messergebnis exakt vorhersagen - wie in der klassischen Mechanik. Der Zufall in der Quantenmechanik wäre damit letztlich mit dem Unvermögen der Forscher erklärt, die verborgenen Variablen zu messen.

Alltagserfahrung widerspricht Quantenphänomenen

Wissenschaftler aus Österreich und Spanien haben dieser umstrittenen Interpretation nun experimentell zugesetzt. Vollständig widerlegt sind verborgene Variablen damit zwar noch nicht, Christian Roos vom Institut für Quantenoptik und Quanteninformation in Innsbruck und seine Kollegen konnten jedoch für bestimmte Variablen-Modelle zeigen, dass diese nicht stimmen können. Über ihre Studie berichten die Forscher im Fachblatt "Nature" (Bd. 460, S. 494 - 497).

"Modelle verborgener Variablen lehnen sich an unsere Alltagserfahrung an", erklärt Roos im Gespräch mit SPIEGEL ONLINE. Ein Gegenstand habe bestimmte Eigenschaften, unabhängig davon, ob man sie messe oder nicht. "Wenn es verborgene Variablen gäbe, dann würde dies bedeuten, dass Größen bereits festgelegt sind und eine Messung ihre Werte quasi ans Licht holt."

Das Modell verborgener Variablen müsse jedoch auch erklären, warum man bei mehrmaliger Durchführung eines Quantenexperiments nicht stets dieselben Resultate erhalte, sagt Roos. Forscher sprechen vom sogenannten Indeterminismus der Quantenmechanik.

Weshalb beispielsweise ist der Spin eines immer auf gleiche Weise präparierten Quantensystems bei einer Messung +1/2 und bei einer anderen -1/2? Üblicherweise erklären Verfechter verborgener Variablen dies damit, dass Experimentalphysiker schlicht nicht in der Lage sind, Systeme so zu präparieren, dass sie bei wiederholten Messungen identische Messergebnisse liefern.

Gesunder Menschenverstand reicht nicht

Diesen Angriffspunkt haben Roos und seine Kollegen geschickt umschifft. Sie experimentierten mit einem System, bei dem es gar nicht darauf ankommt, dass es in einem ganz bestimmten Zustand präpariert ist. Die Forscher speicherten zwei Ionen in einer Ionenfalle und führten danach nacheinander drei Messung von Spinkomponenten in dem System durch.

Es existieren verschiedene Modelle mit verborgenen Variablen, die Innsbrucker Physiker untersuchten sogenannte nichtkontextuelle Modelle. Bei diesen ist das Ergebnis einer Messung von anderen gleichzeitig durchgeführten Messungen unabhängig. Bereits 1967 hatten die Mathematiker Simon Kochen und Ernst Specker auf dem Papier gezeigt, dass solche Erklärungsversuche mit verborgenen Variablen nicht funktionieren können. Die Forscher vom Institut für Quantenoptik und Quanteninformation haben diese theoretische Arbeit nun experimentell bestätigt.

"Wir haben unser Experiment in verschiedenen Varianten einige Tausend Mal durchgeführt", erzählt Roos. Dies sei nötig, um genug Daten für die Statistik zu haben. Die Resultate waren eindeutig: Die drei nacheinander durchgeführten Messungen korrelierten. Das heißt: Das Ergebnis einer Messung im System war abhängig von anderen, zuvor durchgeführten Messungen.

"Wären die Variablen nichtkontextuell, hätten wir andere Ergebnisse gehabt", sagt der Forscher. In der Quantenmechanik gebe es aber durchaus Größen, die kann man gleichzeitig messen könne, ohne dass sich die Messungen gegenseitig störten, betont Roos. Für das untersuchte System treffe dies jedoch nicht zu. Die Studie zeige, dass nichtkontextuelle Modelle falsche Aussagen über die Messdaten lieferten.

Das Verständnis der Quantenmechanik wird durch die Experimente in Innsbruck allerdings nicht unbedingt erleichtert. Eher im Gegenteil: Mit gesundem Menschenverstand allein ist die Theorie des Mikrokosmos nicht zu begreifen, wie die Forscher selbst einräumen.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
transparentes Aluminium (Star Trek lässt grüßen)
« Antwort #55 am: 04 August, 2009, 22:14 »
Bisher war transparentes Aluminium vor allem aus dem 4. Star Trek-Film »Zurück in die Gegenwart« bekannt, in dem Chefingenieur Scotty die Information über das Material an einen Ingenieur des 20. Jahrhunderts gab. Doch wie die Universität von Oxford meldet, ist es nun tatsächlich gelungen, transparentes Aluminium herzustellen, indem das Metall mit dem stärksten Röntgen-Laser der Welt beschossen wurde.

Ein kurzer Puls, der mehr Energie enthielt als eine ganze Stadt benötigt, riss ein Elektron aus jedem Aluminium-Atom, ohne die Struktur des Metalls zu zerstören. Danach war das Metall zumindest für extreme ultraviolette Strahlung nahezu unsichtbar. Es handelt sich nach Ansicht der Wissenschaftler um einen neuen Zustand von Materie, den man noch nie zuvor gesehen habe und der auch nur 40 Femtosekunden lang anhielt. Man erhofft sich Kenntnisse, die für die Nutzung von Kernfusion hilfreich sein könnten.

Quelle : www.gamestar.de



Zitat
Femtosekunde

Hmm , ein billiardstel Teil einer Sekunde  :-\

1 fs = 1·10-15
« Letzte Änderung: 04 August, 2009, 22:55 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Quantencomputer mit vielen Zuständen
« Antwort #56 am: 07 August, 2009, 07:27 »
Qudits können nicht nur mehr Informationen speichern, sie eignen sich auch prinzipbedingt für mit Qubits nicht mögliche Experimente. So beschreiben Physiker der University of California in Santa Barbara im Wissenschaftsmagazin Science, wie sie mit ihrer auf einem tiefgekühlten supraleitenden Schwingkreis basierenden Technik das Verhalten von Spins simulieren konnten – ein, wie es der Physiker Friedemann Reinhard von der Universität Stuttgart einschätzt, "spektakulärer Beweis, dass der Schwingkreis tatsächlich ein anderes quantenmechanisches System simulieren kann".

Das in Science beschriebene Herangehen der Forscher hat einen weiteren Vorteil: Als d-dimensionales Quantensystem kamen supraleitende Stromkreise zum Einsatz, die makroskopische Dimensionen besitzen. So lassen sich die Phänomene der Quantenphysik aus der Mikro- in die Makrowelt holen. Ein auf dieser Grundlage aufgebauter Quantencomputer wäre technisch leichter realisierbar – auch, weil die Eigenschaften der supraleitenden Stromkreise mit den bekannten Mitteln der Lithografie einstellbar und die Quantenübergänge über Strom und Spannung steuerbar sind.

Schließlich eignen sich Qudits auch noch dazu, quantenkryptografische Prozesse zu vereinfachen. Als Sicherheitsgewinn versprechen sie, die maximal erlaubten Fehlergrenzen bei der technischen Realisierung eines Quantenkryptografen zu erhöhen.

Für Physiker, meint Quanten-Experte Reinhard, sei das Ergebnis aber noch aus einem anderen Grund interessant: "Je mehr Strompakete der Schwingkreis enthält, desto schneller scheint er sie auch wieder zu verlieren. Der quantenmechanische Zauber zeigt sich, so die allgemeine Beobachtung, nur für sehr gut kontrollierte Systeme mit wenig Teilchen. Es wäre interessant zu verstehen, wie groß das größte System sein kann, an dem man die Quantenmechanik noch beobachten kann. Das nämlich würde uns besser erklären, warum diese mysteriösen Phänomene in unserer Alltagswelt keine Rolle spielen".

Siehe dazu auch den Telepolis-Artikel:

    * Vom Qubit zum Qudit

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Bestimmt Information das Wesen der Natur?
« Antwort #57 am: 24 Oktober, 2009, 13:40 »
Eine scheinbar triviale Behauptung führt womöglich zur Herleitung der Quantenphysik aus rein informationstechnischen Prinzipien

Die Angehörigen der klassischen Welt haben es gut. Hier ist alles klar, Spuk und Fernwirkung gehören ins Reich der Magier und Esoteriker, von jedem Bewohner lassen sich, geeignete Hardware und passende Gesetze vorausgesetzt, mühelos Bewegungsprofile erstellen, die Impuls und Ort gleichzeitig erfassen – jedenfalls hat die hier gültige Physik nichts dagegen einzuwenden. Ähnlich simpel gestaltet sich die Weitergabe von Informationen: Wenn eine Person A eine Menge von n Fakten kennt, sie aber der Person B nur eine Untermenge von m Werten mitteilt (mit m<n), dann entspricht der Informationsgewinn von B genau der mitgeteilten Informationsmenge. Empfänger B erfährt nie mehr, als A ihm mitgeteilt hat. Allgemeiner formuliert, nennt man diese Beziehung Informations-Kausalität, und die besagt im Grunde: B erfährt höchstens so viel, wie A ihm verrät. Selbst die effizientesten Geheimdienste haben noch keinen Weg um diese Grundregel herum gefunden.

In der Quantenwelt jedoch, das wissen Telepolis-Leser längst, ist alles ein bisschen anders, nein, genau genommen ist alles ganz schön anders. Der gesunde Menschenverstand hat dabei vor allem mit zwei Phänomenen zu kämpfen, die miteinander zusammenhängen. Zum Trost: selbst Albert Einstein hatte gewisse Probleme, sich mit der "spukhaften Fernwirkung" anzufreunden. Es geht dabei um das Prinzip der Verschränkung mehrere Bestandteile eines Quantensystems und die sich daraus ergebende Fernwirkung, die Nicht-Lokalität.

Die Verschränkung ist ein Zustand, bei dem die physikalischen Eigenschaften der verschränkten Objekte miteinander korrelieren. Ändert man den einen Gegenstand, ändert sich auch der andere. Dazu müssen sich beide nicht an einem Ort befinden – die Wirkung ist nicht-lokal. Entfernt man zwei verschränkte Objekte voneinander, kann man sogar eine Fern-Manipulation vornehmen. Aber wie soll das, bitteschön, meldet sich der gesunde Menschenverstand, funktionieren, wenn die beiden Objekte nichts voneinander wissen? Denn dass sie voneinander nichts erfahren können, dafür sorgt die Relativitätstheorie mit ihrer endlichen Lichtgeschwindigkeit.

Der Physiker fragt lieber, wie er die aus dem Quantenreich bekannten Tatsachen mit seinen hübschen anderen Theorien unter einen Hut bekommt – namentlich mit der klassischen Physik und der Relativitätstheorie. Den Übergang zur klassischen Physik erreicht man, indem man einen Informationsaustausch annimmt. Das verschränkte Objekt muss irgendwie erfahren, dass sein Zwilling im Geiste gerade gemessen wurde. Ha, also ein Widerspruch zur Relativitätstheorie? Nein, der Austausch darf nur nicht auf Kommunikation beruhen, denn solche, die schneller als mit Lichtgeschwindigkeit abläuft, ist nun einmal ausgeschlossen. Informationsaustausch ohne Kommunikation – das klingt zwar widersinnig, ist aber gerade charakteristisch für die Quantenphysik.

Informations-Kausalität wird eingehalten

Und wie steht es hier um das Prinzip der Informations-Kausalität? So verwirrend die Quantenwelt sich sonst verhält, hier ist sie brav, wie ein internationales Forscherteam zunächst via Archive.org und nun im renommierten Fachmagazin Nature schreibt. Die Quantenphysik hält die Informations-Kausalität ein. Sie ist allerdings nicht die einzige mögliche Theorie, die die Wechselwirkungen im Kleinsten beschreibt.

Theoretisch denkbar wären noch weit gewagtere Theorien, die mit deutlich stärkeren Korrelationen arbeiten als die Quantenphysik. Woher weiß man nun, welche dieser Theorien die Wirklichkeit widerspiegeln? Indem man sie auf Informations-Kausalität testet, meinen die Forscher in ihrem Artikel. Tatsächlich zeigt sich, dass unsere geliebte Quantenphysik die Theorie mit den stärkstmöglichen Korrelationen ist, die trotzdem noch die Informations-Kausalität einhält.

Informationelle Ursuppe?

Für die Wissenschaft ergeben sich daraus gleich drei spannende Perspektiven. Zum einen eröffnet diese Betrachtungsweise womöglich den Weg dahin, die Quantentheorie aus grundlegenden Eigenschaften der Natur abzuleiten. Die Herleitung einer Theorie aus den Grundprinzipien, das ist quasi der Heilige Gral jeder Wissenschaft. Zum anderen könnte Informations-Kausalität auch das passende Werkzeug dafür sein, physikalische und nicht-physikalische Theorien auseinanderzuhalten. Oder, populär gesprochen: die sinnvollen von den sinnlosen Theorien zu trennen. Noch gewagter ist aber die letzte mögliche Schlussfolgerung: Bestimmen gar nicht die Gesetze der Physik den grundlegenden Lauf der Natur, sondern lassen sich diese aus einer Art informationellen Ursuppe ableiten, aus informationstheoretischen Grundlagen, die das Wesen des Universums ausmachen?

Die Antwort auf diese Fragen wird noch eine Weile auf sich warten lassen. Die Nature-Autoren konnten zum Beispiel das Prinzip der Informations-Kausalität bisher nur auf eine bestimmte Reihe von Theorien anwenden, nämlich all diejenigen, die die so genannte Tsirelson-Grenze verletzen. Diese setzt den möglichen quantenmechanischen Korrelationen ein oberes Limit. Ob jedoch auch hypothetische Korrelationen, die dieser Grenze genügen, zum Prinzip der Informations-Kausalität stehen, ist bisher noch offen – der Informations-Kausalität ist also ihr Status als ein Grundprinzip der Natur noch nicht sicher.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Entdeckung des halben Quanten-Lochs
« Antwort #58 am: 14 November, 2009, 10:28 »
Forscher haben ein weiteres, bisher nur theoretisch vorhergesagtes Phänomen der Quantenwelt entdeckt: halbe Quanten-Vortices

"Ein Quanten-Vortex erzeugt ein Nullpunkt-Feld, das die besten Voraussetzungen für Befreiung und Kreation schafft. Wer den Vortex-Strahl betritt, kann über eine direkte Verbindung zum höheren Selbst und zum Universum seine Wünsche und Vorstellungen wahr werden lassen." – Nein, der Autor ist nicht wahnsinnig geworden, das Zitat bietet nur einen Auszug daraus, was Esoteriker mit dem hübschen Begriff "Quantum-Vortex" schon angestellt haben. Und er klingt ja auch wirklich wie von einem Startrek-Drehbuchschreiber erfunden. Ist nicht Raumschiff Enterprise irgendwann einem Quanten-Vortex zu nahe gekommen?

Tatsächlich ist das dahinter stehende Phänomen zwar wirklich faszinierend, das Zustandekommen des Begriffs aber doch erstaunlich trivial. Ein Vortex ist in diesem Zusammenhang nicht mehr und nicht weniger als ein Loch – oder wissenschaftlich ausgedrückt: ein topologischer Defekt. Eine Störung also in der Struktur des Stoffes. Quantum Vortices kann man in Supraleitern und Supraflüssigkeiten beobachten. Beider Gemeinsamkeit ist, das sagt schon der Name, dass es sich um quantisierte Effekte handelt. Zudem entspricht die Natur des "Inhalts" des Lochs gerade nicht der Natur des Trägermediums: Bei einer Supraflüssigkeit ist der Vortex nicht suprafluid, beim Supraleiter nicht supraleitend.

Bei einer Supraflüssigkeit benötigt man Quantum-Vortices, wenn die Flüssigkeit rotiert. Der Vortex übernimmt dann das Drehmoment des Systems. Was wirklich im Loch steckt, ist eigentlich egal – Vakuum, Teilchen, was auch immer. Typischerweise ist so ein Quanten-Vortex sehr klein (also so viel zum Thema "den Quanten-Vortex betreten") – bei suprafluidem Helium etwa in der Größenordnung von deutlich unter einem Nanometer.

Bei einem Supraleiter hingegen entstehen Quanten-Vortices wegen des Meißner-Ochsenfeld-Effekts: Der Tatsache, dass Supraleiter magnetische Felder aus ihrem Inneren verdrängen. Ist nun das Magnetfeld stark genug, wird der Supraleiter gequetscht – es kann allerdings auch energetisch günstiger sein (nämlich bei Typ-II-Supraleitern, zu denen auch alle Hochtemperatur-Supraleiter gehören), dass sich Löcher bilden, die den magnetischen Fluss aufnehmen. Und da haben wir dann unsere Quanten-Vortices. Um den Vortex herum bleibt die supraleitende Phase erhalten.

Und wie darf man sich nun halbe Löcher vorstellen?

Das "halb" nimmt hier Bezug auf das Ausmaß der Rotation, das in diesem Fall nicht 2*Pi, sondern nur Pi beträgt. Halbe Quanten-Vortices sagt die Theorie für zweidimensionale Supraflüssigkeiten mit vorhandenem Spin voraus. Solche Flüssigkeiten müssen also schon einmal aus Quasiteilchen bestehen – in der Natur wurde Suprafluidität bisher nur bei Helium und Lithium beobachtet. In diesem Fall handelt es sich um eine Polariton-Flüssigkeit – die Gemeinschaft der den Energieaustausch zwischen Exzitonen (also Loch-Elektron-Paaren) in einem Halbleiter beschreibenden "Teilchen".

Diese Exziton-Polaritonen besitzen einen ganzzahligen Spin, es handelt sich also um "Quasi-Bosonen". Auch die Bose-Einstein-Kondensation ist für ein Polaritonengas schon nachgewiesen worden. Für Polaritonengase stellen Halb-Quantum-Vortices elementare Anregungen dar. Sie tragen weniger Energie als gewöhnliche Quanten-Löcher. Im Wissenschaftsmagazin Science beschreibt nun ein internationales Forscherteam, wie die tatsächliche Beobachtung dieses bisher nur theoretisch bekannten Phänomens gelungen ist. Eigentlich, meinen die Forscher, müssten sich Halb-Quanten-Vortices auch in Helium 3 oder einigen Supraleitern nachweisen lassen – das ist bisher jedoch nicht eindeutig erreicht worden.

Die Exziton-Polaritonen erleichterten den Wissenschaftlern nun die Arbeit, weil sie eine effektive Masse von einer Tausendstel Elektronenmasse besitzen – dadurch kann man sie schon bei relativ hohen Temperaturen (also warmen 10 Kelvin) zur Bose-Einstein-Kondensation bringen, bei der der suprafluide Effekt erst einsetzt. Trotzdem war noch eine Kombination aus Interferometrie, Spektroskopie und Rasterkraftmikroskopie nötig, um die Vortices tatsächlich ausfindig zu machen. Praktische Auswirkungen hat die Arbeit nicht – abgesehen von dem Nachweis, dass erneut ein von der Theorie vorhergesagtes Phänomen auch in der Praxis auftritt. Was das Vertrauen in die Theorie stärkt.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Universell programmierbarer Quantenprozessor
« Antwort #59 am: 19 November, 2009, 12:25 »
Physiker am National Institute of Standards and Technology (NIST) haben einen ersten universell programmierbaren Quantenprozessor demonstriert. Dieser soll in der Lage sein, jedes Programm auszuführen, das die Regeln der Quantenmechanik mit zwei Qubits zulassen.

Gelang es anderen Forschern bislang nur, Quantenprozessoren für bestimmte Aufgaben zu entwickeln, wollen die NIST-Forscher erstmals einen Prozessor entwickelt haben, der jedes mit zwei Qubits realisierbare Programm ausführen kann. Ihre Forschungsergebnisse beschreiben sie in der aktuellen Ausgabe von Nature Physics.

"Erstmals hat jemand einen programmierbaren Quantenprozessor mit mehr als einem Qubit gezeigt", kommentiert der an dem Projekt beteiligte David Hanneke. Es sei ein Schritt hin zum großen Ziel, Berechnungen mit sehr vielen Qubits durchführen zu können: "Die Idee besteht darin, viele dieser Prozessoren zusammenzuschalten", so Hanneke.

Der NIST-Prozessor speichert binäre Informationen in zwei Beryllium-Ionen, die in einer elektromagnetischen Falle gehalten und mit zwei ultravioletten Lasern manipuliert werden. Zwei Magnesium-Ionen helfen bei der Kühlung von Beryllium-Ionen.



Dabei können die Forscher den Zustand jedes einzelnen Beryllium-Qubits verändern und die Ionen auch in eine Superposition bringen, die den Werten 1 und 0 zugleich entspricht und den großen Vorteil eines Quantencomputers ausmacht. Zudem können die Forscher zwei Qubits miteinander verschränken, also dafür sorgen, dass die Eigenschaften der Qubits aneinandergekettet sind, auch wenn sie physisch getrennt sind.

So kann das NIST-Team 160 unterschiedliche Rechenroutinen mit den beiden Qubits durchführen. Auch wenn es eine unendliche Zahl möglicher Zwei-Qubit-Programme gebe, sei diese Auswahl von 160 Routinen groß und unterschiedlich genug, um von einem universellen Prozessor zu sprechen, meint Hanneke. Ausgewählt wurden die Routinen mit einem Zufallsgenerator.

Die im Rahmen der Experimente ausgeführten Programme bestanden aus 31 logischen Operationen, von denen 15 im Programmierprozess variiert wurden.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )