Autor Thema: Die rätselhaften Zahlenspiele der Natur  (Gelesen 18922 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wirbel um Fehler bei den überschnellen Neutrinos
« Antwort #90 am: 17 Oktober, 2011, 21:42 »
Einen Anfängerfehler unterstellt der niederländische Physiker Ronal A.J van Elburg den Wissenschaftlern der schweizerischen und deutschen Metrologie-Einrichtungen METAS und PTB in seinem Aufsatz "Time-of-flight between a Source and a Detector observed from a Satellite" (PDF-Datei) – und wirbelte damit viel Staub auf. Die Wissenschaftler hätten für die Synchronisation der beiden Uhren bei CERN und dem Gran-Sasso-Labor die relativistische Zeitverschiebung durch die Bewegung der GPS-Satelliten nicht berücksichtigt. Nach seinen Berechnungen kommt er auf einen Korrekturwert von 62 ns, also nahezu genau den Wert, den die Neutrinos nach den OPERA-Messungen zu schnell sein sollen.

Über das verwendete Zeitmessverfahren "Common View", das schon 1980 vom amerikanischen Standardisierungsinstitut NIST entwickelt und seitdem immer weiter verfeinert wurde, hat sich der Autor aber offenbar nicht wirklich informiert. Dr. Thorsten Feldmann von der PTB in Braunschweig, der das Verfahren für GPS Bases Time Link Calibration bei der PTB mit entwickelt hat, schüttelt über van Elburgs Unterstellung nur den Kopf: "Selbstverständlich sind relativistische Effekte bei GPS berücksichtigt. Das ist sogar für relativ ungenaue Messgeräte, wie zum Beispiel ein Autonavi, nötig".

Für die Synchronisation gemäß Common View ist sogar nicht einmal der genaue Zeitpunkt relevant, sondern nur die Laufzeit vom Satelliten zur den beiden Bodenstationen. Schön zusammengefasst kann man den Einfluss relativistischer Effekte in Neil Ashbys Arbeit "Relativity in the Global Positioning System" nachlesen. Der Autor listet hier die durchaus zahlreichen Effekte auf, die sich sowohl auf die Uhren in den Satelliten als auch auf die Laufzeiten der Signale auswirken.

Neben dem relativistischen Dopplereffekt (unter anderem in einem Papier von japanischen Wissenschaftlern genau beschrieben), der in etwa das berücksichtigt, was van Elburg offenbar im Sinn hatte, wirkt sich auch die allgemeine Relativitätstheorie aus, insbesondere auf eine Frequenzverschiebung der Satellitenuhren (lustigerweise genau in der anderen Richtung wie die speziellen Relativitätstheorie), aber auch auf die Laufzeit (Shapiro Propagation Delay). Zum Teil liegen diese Einflüsse nur im Picosekundenbereich, die man aber alle berücksichtigen muss, will man bis hinab zu etwa 1 mm genau messen.

Nicht berücksichtigt hat van Elburg zudem, dass das Messverfahren der Schweizer von den deutschen Kollegen der PTB gegengecheckt wurde. Mit zwei portablen Cäsium-Uhren der PTB wurde es im Rahmen von etwa 2 ns Messungenauigkeit bestätigt. Dabei kam zusätzlich ein Zweiwege-Zeitvergleich (TWSTFT) über einen geostationären Kommunikationsatelliten zum Einsatz, bei dem beide Stationen jeweils ein Signal senden und beide Signale denselben Weg in unterschiedlicher Richtung durchlaufen, wobei sich alle Laufzeitverzögerungen etwa auch durch Tropo-, Iono- und Atmosphäre aufheben (weitere Informationen zu TWSTFT auch bei der PTB).

Dr. Feldmann fand außerdem auch gleich einen Fehler in der Arbeit von van Elburg. In Gleichung (2) werden einfach Satelliten- und Signalgeschwindigkeit klassisch statt relativistisch aufaddiert.

Der Fehler in der OPERA-Messung, falls überhaupt vorhanden, muss also wohl woanders liegen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Quantencomputer: Programmierbare Photonen durch Wellenleiter
« Antwort #91 am: 12 Dezember, 2011, 13:34 »
Forscher der britischen Universität in Bristol haben ein neues System aus Wellenleitern für Quantencomputer gebaut, mit dem sich die Verschränkung von Photonen gezielt steuern lässt. Dazu entwickelten sie einen Chip, der sich wie ein herkömmlicher Halbleiter fertigen lässt.

Statt mehrere Quadratmeter großen Versuchsaufbauten, wie sie bisher meist für Quantencomputer nötig waren, haben britische Forscher einen Chip aus Silizium gebaut. Er ist nur 3 x 70 mm groß. Darauf hat das Team um Jeremy O'Brien mehrere Wellenleiter aus Siliziumdioxid erzeugt. Der Bau solcher Strukturen wird heute bereits millionenfach in Halbleiterfabriken vollzogen, so dass die Wissenschaftler ihren Baustein als einen wichtigen Schritt zur praktischen Anwendung von Quantencomputern sehen.

In den Wellenleitern des Chips können gezielt Photonen verschränkt werden, die dabei verschiedene Quantenzustände annehmen. Diese Zustände können vorher definiert werden, so dass sich ein programmierbarer Quantencomputer mit zwei Qubits ergibt. Dazu sitzt an den Enden der vier Wellenleiter je eine Elektrode, deren Spannungen und Stromstärke in Verbindung mit den Wellenleitern die erwünschte Verschränkung erzeugen kann.

Hohe Genauigkeit

Vollständig reproduzierbare Rechenergebnisse liefert der britische Quantencomputer jedoch noch nicht, weil Quantenzustände selten lange stabil bleiben. Viele dieser Effekte sind noch unerforscht. Dennoch sprechen die Forscher in ihrer Veröffentlichung bei Nature Photonics von einer "hohen Wiedergabetreue", die sie in tausenden von Konfigurationen beobachtet hätten.

Im nächsten Schritt soll der Chip komplexer werden. Eine höhere Zahl von Qubits haben die Briten aber noch nicht versprochen. Bisher steht der Rekord bei 14 Qubits, die österreichische Wissenschaftler verschränkt hatten.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
CERN-Webcast zur Suche nach dem Higgs-Boson
« Antwort #92 am: 13 Dezember, 2011, 13:03 »
Am Dienstag um 14 Uhr will CERN in einem per Webcast übertragenen Seminar und anschließender Pressekonferenz Neuigkeiten zur Suche nach dem Higgs-Boson verkünden. Dieses letzte noch nicht nachgewiesene Teilchen des Standard-Modells der Elementarteilchenphysik aufzuspüren oder seine Nichtexistenz zu beweisen, ist eines der Hauptziele des viele Milliarden Euro teuren Large Hadron Colliders LHC.

Die beiden Großexperimente ATLAS und CMS wollen nun über den Stand der Dinge berichten, wobei sie inzwischen über erheblich mehr Datenmaterial verfügen als in den Sommermonaten, wo die Wissenschaflter in gemeinsamen Konferenzen die mögliche Masse des Higgschen Bosons auf 114 bis 141 GeV eingrenzen konnten. Die von vielen schon geäußerte Hoffnung, dass man bereits eindeutige Belege für die Existenz oder Nicht-Existenz des gesuchten Teilchens vorlegen werde, entkräftete CERN jedoch bereits in der Ankündigung. Allerdings habe es signifikante Fortschritte bei der Suche gegeben; es dürfte also spannend werden.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Higgs-Boson versteckt sich weiter
« Antwort #93 am: 13 Dezember, 2011, 17:58 »
Das Higgs-Boson, noch fehlendes Teilchen im Standardmodell der Elementarteilchenphysik, hat wahrscheinlich eine Masse zwischen 115 und 130 Gigaelektronenvolt (GeV) – falls es überhaupt existiert. Zwar haben die beiden CERN-Großexperimente ATLAS und CMS dem Bekunden der Forscher nach "verlockende Hinweise" darauf geliefert, dass sich das lang gesuchte Teilchen irgendwo im Massebereich zwischen 116 und 130 GeV (laut Ergebnissen von ATLAS) beziehungsweise zwischen 115 und 127 GeV (laut Ergebnissen von CMS) versteckt. Allerdings, so betonten ATLAS-Sprecherin Fabiola Gianotti und ihr CMS-Kollege Guido Tonelli im Rahmen eines CERN-Seminars heute unisono, sei die Datenlage noch nicht ausreichend, um von einer wirklichen Entdeckung zu sprechen.

Das Higgs-Boson ist ein Teilchen des Standardmodells, das noch nicht direkt nachgewiesen werden konnte. Die Wissenschaftler nehmen daher seine Fährte auf: Beispielsweise stellen sie Hypothesen darüber auf, in welche Zerfallsprodukte sich Higgs-Bosonen bei Kollisionen aufspalten könnten, suchen dann nach auffälligen Häufungen dieser Zerfallsprodukte und grenzen darüber die Masse des Ausgangsgebildes ein. Dabei gilt es, die beobachteten Effekte mit statistischen Methoden vom Hintergrund des zu erwartenden Rauschens des Standardmodells zu isolieren und zu interpretieren.

Die aktuellen Ergebnisse von ATLAS und CMS engen nun das Massefenster für ein mögliches Higgs-Boson weiter ein – noch im Sommer fasste man die Grenzen mit 114 bis 141 GeV deutlich weiter. Nach wissenschaftlichen Maßstäben ist die Masse des Teilchens damit aber noch längst nicht bestimmt, geschweige denn das Higgs-Boson nachgewiesen. Genau dieser Nachweis ist eine der Haupaufgaben des etliche Milliarden Euro teuren Large Hadron Colliders (LHC) – oder die endgültige Widerlegung der Theorie vom Higgs-Teilchen und damit des Standardmodells der Elementarteilchen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Quantenrechner knackt Ramsey-Zahlen
« Antwort #94 am: 20 Januar, 2012, 13:36 »
Der schleppende Fortschritt im Quantencomputing könnte nun vielleicht Fahrt aufnehmen, berichtet Technology Review in seiner Online-Ausgabe. Zhengbing Bian und seinen Kollegen von der kanadischen Firma D-Wave Systems ist es gelungen, mit 84 Qubits so genannte Ramsey-Zahlen zu berechnen. Das anspruchsvolle Problem ist nach einem britischen Mathematiker benannt, der es 1930 erstmals in einem Aufsatz formuliert.

In dem Quantencomputer von D-Wave Systems, den die Forscher hierfür einsetzten, bestehen die Qubits aus supraleitenden Schleifen. In diesen fließt ein eingespeister Strom entweder im oder gegen den Uhrzeigersinn, und das, weil Supraleiter keinen elektrischen Widerstand zeigen, beliebig lange. Da die Schleifen Quantensysteme sind, existieren bis zu einer Messung beide Stromrichtungen überlagert, also gleichzeitig, und repräsentieren so "0" und "1". Die Berechnung besteht darin, dass manche der supraleitenden Schleifen magnetisch miteinander gekoppelt werden und man dann wartet, bis das System seine Gesamtenergie minimiert hat. Aus deren Wert lässt sich dann das Ergebnis ablesen.

Zuletzt war es um den Quantencomputer jedoch recht still geworden. Noch vor einigen Jahren wurde er als unerhörte Zukunftstechnologie gepriesen, die irgendwann wahnwitzige Berechnungen in Sekundenschnelle anstellen und heutige Rechner alt aussehen lassen würde. Was die ersten einfachen Quantencomputer in Forschungslaboren bisher demonstriert haben, ist jedoch nicht mehr als ein Proof of Principle.

Für D-Wave Systems könnte diese Arbeit nun ein wichtiger Meilenstein sein. Die kanadische Firma vermarktet seit mehr als vier Jahren einen 128-Qubit-Rechner für zehn Millionen Dollar. D-Wave Systems habe jedoch nicht zeigen können, dass die beschriebene, langsame Variante des Quantencomputings in dem System wirklich stattfinde, kritisiert Physiker.

Mehr zum Thema in Technology Review online:

    Frischer Wind fürs Quantencomputing

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline ritschibie

  • Aufpass-Cubie
  • *****
  • Beiträge: 10933
  • Ich liebe dieses Forum!
3D Qubit: IBM meldet Durchbruch bei Quantencomputern
« Antwort #95 am: 28 Februar, 2012, 11:54 »

3D Qubit von IBM (Bild: IBM)
IBM vermeldet einen Durchbruch auf dem Weg zum Bau eines Quantencomputers: IBM-Forscher konnten die Leistung wesentlicher Bauteile von Quantencomputern so weit verbessern, dass es fast möglich ist, einen praktisch nutzbaren Quantencomputer in nennenswerter Größe zu bauen.

Die Forscher in den IBM Labs haben einige dort entwickelte Technologien kombiniert und drei wesentliche Fortschritte auf dem Weg zum Bau eines Quantencomputers erzielt. Es gelang ihnen, die Zahl der Fehler bei elementaren Berechnungen so weit zu reduzieren, dass Fehlerkorrekturverfahren effektiv eingesetzt werden können. Zudem konnten sie die Integrität der quantenmechanischen Eigenschaften von Qubits deutlich steigern.

Während ein Bit in klassischen Computern nur zwei Zustände haben kann - 0 oder 1 -, können Qubits diese beiden Werte auch gleichzeitig enthalten, was in der Quantentheorie als Superposition beschrieben wird. Qubits, als kleinste Informationseinheit in einem Quantencomputer, ermöglichen es so, mehrere Millionen Berechnungen parallel auszuführen. Herkömmliche Computer können nur eine kleine Zahl von Berechnungen gleichzeitig abwickeln. So enthält laut IBM ein Quantencomputer mit 250 Qubits mehr Bits an Information, als es Atome im Universum gibt.


Video: IBM auf dem Weg zum Quantencomputer (Quelle: Youtube)

Diese Eigenschaften haben große Auswirkungen für Verschlüsselungstechniken, die in erster Linie darauf basieren, dass es mit herkömmlicher Technik sehr aufwendig ist, sehr große Zahlen in ihre Faktoren zu zerlegen. Quantencomputer können dies deutlich schneller erledigen. Aber auch bei Datenbanken unstrukturierter Informationen und Optimierungsaufgaben sehen die IBM-Forscher Einsatzgebiete für Quantencomputer. Diese könnten helfen, bislang unlösbare mathematische Probleme zu lösen.

CNOT mit Qubits (Quelle: IBM)

Quantencomputer rückt in greifbare Nähe

Nun gibt es verschiedene Ansätze, um einen funktionieren Quantencomputer zu entwickeln. IBM konzentriert sich auf supraleitende Qubits. Dabei experimentiert IBM mit einem dreidimensionalen supraleitenden Qubit (3D Qubit), einer Idee, die an der Universität Yale entstand. Damit konnte IBM die Zeitspanne, für die ein Qubit seinen Quantenstatus behält, im Vergleich zu den bisherigen Rekorden um das Zwei- bis Vierfache verlängern. Damit sei gerade so das Minimum erreicht, um Fehlerkorrektursysteme effektiv einzusetzen, erklärte IBM. So könnten sich Ingenieure um Fragen der Skalierbarkeit kümmern.

"Unsere Arbeiten im Bereich Quantencomputer zeigen, dass es hierbei nicht länger um ein rein physikalisches Experiment geht. Es ist Zeit, damit zu beginnen, Systeme auf Basis dieser wissenschaftlichen Erkenntnisse zu entwickeln, die die Computerei an neue Grenzen heranführen", sagt der Leiter von IBMs Quantencomputer-Forschungsteams, Matthias Steffen.

In einem weiteren Experiment konnten die IBM-Forscher ein eher traditionelles, zweidimensionales Qubit präsentieren und eine logische Operation - Controlled-NOT (CNOT) - mit zwei Qubit umsetzen, ein wichtiger Baustein beim Bau eines Quantencomputers. Die Operation war in 95 Prozent aller Fälle erfolgreich. Das wurde durch eine lange Kohärenzzeit von 10 Mikrosekunden ermöglicht. Damit werde fast die für den Einsatz von Fehlerkorrektursystem notwendige Grenze erreicht, so IBM.

Quelle: www.golem.de
Intel Core i7-4770K - ASRock Z87 Extreme6/ac - Crucial Ballistix Sport DIMM Kit 16GB, DDR3-1600 - Gigabyte Radeon R9 290 WindForce 3X OC
TBS DVB-S2 Dual Tuner TV Card Dual CI  - DVBViewer pro 5.3 und Smartdvb 4.x.x beta - 80 cm Schüssel, 2xQuad-LNB - Astra (19.2E)/Hotbird (13E)
I-net mit Motzfuchs ; WLAN: Fritz 7390; BS: Windows 10

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Warp-Antrieb: Warum Captain Kirk fremde Welten rösten würde
« Antwort #96 am: 04 März, 2012, 18:00 »
Ohne Überlichtgeschwindigkeit wäre kaum ein Science-Fiction-Film denkbar. Doch könnte der Warp-Antrieb aus "Star Trek" tatsächlich funktionieren? Forscher bezweifeln das: Nach ihren Berechnungen würde Captain Kirks "Enterprise" jeden besuchten Planeten mit Strahlung braten.


Was wäre "Star Trek" ohne den Warp-Antrieb? Langweilig. Ohne die Fähigkeit, schneller als das Licht zu fliegen, wären Captain Kirk und seine Nachfolger vermutlich gerade mal bis zum Mars gekommen. Dort gibt es bekanntlich bestenfalls ein paar alte Bakterien oder deren Überbleibsel, nicht aber Vulkanier oder gar noch merkwürdigere Lebensformen.

Angesichts des in der Star-Trek-Fangemeinde verbreiteten Physik-Nerdtums verwundert es fast, dass Miguel Alcubierre 1994 - 28 Jahre nach der ersten Folge von "Raumschiff Enterprise" - erstmals eine ernstzunehmende theoretische Grundlage des Warp-Antriebs präsentierte.

Grob vereinfacht geht die Theorie des mexikanischen Physikers so: Vor dem Raumschiff wird die Raumzeit zusammengezogen, hinter ihm dagegen ausgedehnt - und schon rast das Ziel mit Überlichtgeschwindigkeit näher. Praktischerweise wird Einsteins Relativitätstheorie, derzufolge sich nichts schneller bewegen kann als das Licht, dabei nicht verletzt: Statt des Raumschiffs bewegt sich der Raum selbst - als ob man eine Tischdecke zusammenfalten würde, um an den Salzstreuer zu kommen.

Allerdings muss am Ende gebremst werden - und dabei würde es zu einem Problem kommen, wie Forscher jetzt berechnet haben: Wer das Pech hätte, sich vor dem ankommenden Schiff zu befinden, würde von extrem starker Strahlung geröstet.

Gebraten von hochenergetischen Partikeln

Brendan McMonigal von der australischen University of Sydney und seine Kollegen haben sich angeschaut, welchen kosmischen Partikeln ein Raumschiff auf seiner überlichtschnellen Reise begegnen würde. Dabei kam heraus, dass die Teilchen in die Warp-Blase rund um das Raumschiff eindringen würden.

Am Ziel der Reise geschähe dann das Ungeheure, wie die Forscher im Fachblatt "Physical Review D" schreiben: Die Partikel würden vom Schiff weggeschleudert - und erreichten dadurch, dass sich ihre Wellenlängen extrem verkürzen würden, unvorstellbare Energien. Das Gebiet vor dem Schiff würde einen "konzentrierten Strahl" aus extrem hochenergetischen Partikeln und Gammastrahlung abbekommen, heißt es in dem Fachbeitrag. "Jeder Mensch am Ziel der Reise würde weggeblasen."

Damit sind die schlechten Nachrichten noch nicht zu Ende. Theoretisch hätte die freiwerdende Energie am Reiseziel keine Obergrenze, haben McMonigal und seine Kollegen berechnet. "Je länger man unterwegs ist, desto größer wird die Energie, die am Ende freigesetzt wird", sagte McMonigal der Website "Universe Today". "Das ist einer der seltsamen Effekte der Allgemeinen Relativitätstheorie."

Dadurch wären schon kleine Ausflüge mit Warp-Antrieb kaum möglich - zumindest nicht, wenn man ein wenig Rücksicht auf seine Weltraum-Mitbewohner nehmen wollte. "Unglücklicherweise wäre selbst bei sehr kurzen Reisen die freigesetzte Energie so groß, dass alles vor einem Liegende vernichtet würde", meint McMonigal.

Immer Ärger mit der Blauverschiebung

Ihre Energie bekommen die Partikel den Berechnungen zufolge durch die Verschiebung zu extrem kurzen Wellenlängen. Die Grundlage dafür ist der sogenannte Doppler-Effekt, der auch dafür sorgt, dass die Sirene eines vorbeifahrenden Polizeiautos ihre Tonhöhe zu verändern scheint. Ähnliches geschieht mit elektromagnetischer Strahlung wie etwa Licht: Bewegt sich das Raumschiff auf sie zu, wird sie praktisch gestaucht und dadurch kurzwelliger, der Abstand zwischen den Wellenbergen wird kleiner und die Energie dadurch immer größer.

Nun könnte man meinen, dass der Kapitän einfach darauf achten müsste, den Bug seines Schiffs bei der Ankunft nicht genau auf den Zielplaneten zu richten. Doch auch das wäre womöglich keine Lösung. Denn McMonigal und seine Kollegen haben nur die Raumebene vor und hinter dem Raumschiff betrachtet - die todbringenden Partikel könnten aber durchaus in alle Richtungen wegfliegen.

Es ist nicht das erste Mal, das Zweifel an Alcubierres Warp-Antrieb aufkommen. Schon 2002 veröffentlichte der portugiesische Wissenschaftler José Natario einen Fachartikel, in dem er die Blauverschiebung zum zentralen Problem von Alcubierres Warp-Antrieb erklärt. In seinen Berechnungen wurde sie innerhalb der Warp-Blase unendlich groß - und hätte damit das gesamte Weltall aus den Angeln gehoben.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Warp-Antrieb: Warum Captain Kirk fremde Welten rösten würde
« Antwort #97 am: 05 März, 2012, 00:21 »
Zitat
...die Blauverschiebung ... wurde ... innerhalb der Warp-Blase unendlich groß - und hätte damit das gesamte Weltall aus den Angeln gehoben.
Das wäre allerdings ein Effekt, der sich exakt mit Lichtgeschwindigkeit ausbreiten müsste.
Bedeutet erstens, dass das niemand bemerken könnte, bevor es für ihn zu spät ist, weshalb man die Existenz solch einer Katastrophe bis zuletzt ungestraft abstreiten könnte.
Und zweitens würden großen Teilen des bekannten Universums Abermilliarden von Jahren bleiben, bis es sie vielleicht auch erwischt.

Wäre das also schon irgendwo geschehen, würden wir es nie bemerken, nur irgendwann plötzlich weg sein.


Natürlich ist das sinnlose Spekulation, wie auch der vorausgegangene Artikel.

Es gibt keinerlei Ansatz, wie überhaupt die Energien für so eine Warp-Blase gewonnen werden könnten.
Und selbst wenn das irgendwann möglich werden sollte, stellten sich sofort neue Fragen, wie beispielsweise, ob so extreme energetische Gradienten eventuell eine neue Art von Schwarzschild-Grenze / Erkenntnishorizont erzeugen und somit ein Verlassen unserer Raumdimensionen bewirken würden, des Raumschiffs oder seiner Emissionen.  Oder ob so eine enorme Energiekonzentration nicht spontan in eine hochkonzentrierte Bildung schwerer Teilchen(paare) ausufern müsste, was die Blase entweder in einer massiven Hülle aus Neutronium erstarren oder zum Schwarzen Loch werden oder in einer gewaltigen Materie-Antimaterie-Explosion enden lassen würde, bis hin zum neuen Urknall.
Nichts davon ist nach heutigem Stand der Erkenntnis weniger wahrscheinlich als diese angedachte Reise mit Überlichtgeschwindigkeit...

Ich behaupte ohnehin, dass der einzige überhaupt denkbare Ansatz zu einer Überwindung der Barriere der Lichtgeschwindigkeit allenfalls in der Quantenmechanik zu suchen sein würde, niemals aber im üblichen Makrokosmos.
Völlig egal, wie groß die Bomben der irren Weltzerstörer jemals werden können...

Jürgen
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Neue Atomuhr: Eine Sekunde Abweichung in 140 Milliarden Jahren
« Antwort #98 am: 19 März, 2012, 19:15 »
US-Forscher haben eine Maschine gebaut, welche die Genauigkeit von Atomuhren drastisch erhöhen soll. Statt bisher üblichen Abweichungen von einer Sekunde in einer Million Jahren soll die gleiche Ungenauigkeit erst in 140 Milliarden Jahren erreicht werden.

Was in dem steckt, das gemeinhin "Funkuhr" genannt wird, ist - wenn die Uhr in Deutschland funktioniert - ein Empfänger für den Sender DCF77 der physikalisch-technischen Bundesanstalt PTB. Das Signal dieses Senders wird von der Cäsium-Atomuhr CS2 gespeist, die nach Angaben der PTB nur eine Abweichung von einer Sekunde in einer Million Jahren erreicht.

Obwohl die CS2 vor kurzem aufgerüstet wurde, soll ihre Genauigkeit von einer neuen US-Konstruktion deutlich übertroffen werden. Wissenschaftler der US-Universität Georgia Tech, der Universität von Nevada und der australischen Universität von New South Wales haben sie entwickelt.

Sie setzen dabei auf das Element Thorium, das sie in zwei Isotopen verwenden. Angeregt von einem Laser im Petahertz-Bereich soll dabei nicht mehr ein Elektron wie bei den meisten Atomuhren, sondern ein Neutron zum Schwingen gebracht werden. Die Forscher bezeichnen ihre Konstruktion folglich auch als "nuclear clock" im Gegensatz zur "atomic clock", weil sie den Kern - engl. nucleus - selbst verwenden.

Genauere Positionsbestimmung

Wie meist, wenn so hohe Frequenzen gemessen werden sollen, muss jede andere Bewegung auf ein Minimum beschränkt werden. Daher funktioniert auch die Thorium-Uhr nur im Vakuum und bei Temperaturen nahe Null Kelvin.

Genauere Uhren sollen unter anderem die Positionsbestimmung verbessern. Teil von Verfahren wie GPS ist dabei stets die Laufzeit von Funksignalen, die möglichst genau gemessen werden muss. Dazu braucht das gesamte System eine möglichst genaue Zeit als Bezugsgröße. Nach Angaben der Wissenschaftler wird die Arbeit zur Thorium-Uhr demnächst in den Physical Review Letters veröffentlicht.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Neue Atomuhr: Eine Sekunde Abweichung in 140 Milliarden Jahren
« Antwort #99 am: 20 März, 2012, 01:29 »
Die aktuelle (Un)Genauigkeit von GPS ist nicht von der bisheriger Referenzuhren abhängig.
Abgesehen von den Nutzertyp-abhängigen Auflösungsgrenzen gibt es andere Limitierungen, die sich u.a. aus der schwankenden Dichte und Feuchte der Atmosphäre ergeben, zudem von aus der zur verwendeten Downlink-Frequenz gehörenden Wellenlänge (zwischen 19 und 25 cm).

Zudem ist die immer wieder verwendete Angabe einer Sekunde in soundsoviel Millionen oder Milliarden Jahren logischer Unsinn.
Praktisch von Nutzen kann immer nur eine Angabe der Toleranz bezüglich einer kurzen Zeitspanne sein, die so wiederholbar gemessen werden könnte.
Das ist nämlich Statistik, und es verbietet sich, ihre Mittel auf ein einziges Ereignis anzuwenden.
Hinzu kommt, dass die Genauigkeit einer Frequenzbestimmung, auch nach Fourier, unmittelbar von der bisherigen ungestörten Dauer der Schwingung abhängt.
Periodendauern lassen sich zwar schneller bestimmen, aber erstens bedarf es dazu einer noch genaueren Referenz, die hier natürlich nicht existiert, zweitens sind aufgrund des begrenzten Zeitrasters ebendieser sehr viele Wiederholungsmessungen vonnöten, bis das Ergebnis als gültig betrachtet werden darf.
So ist es ja auch bei hochpräzisen Messungen über die verschlüsselten Signale des GPS, die Messdauer steigt stark mit der erwünschten Auflösung.

Logisch zulässig wäre hingegen nur eine Angabe einer Toleranz in Bezug auf eine praktikable und im Idealfall auf einer Basiseinheit beruhende Messdauer, z.B. in Form von Attosekunden pro Sekunde.
Nur sagt das weder Journalisten noch Chefredakteuren irgendwas, noch bewegt das Politiker dazu, einen Etat zu bewilligen...

Jürgen
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Bis zum "Beam me up, Scotty" ist es noch ein sehr langer Weg - aber einen kleinen Schritt haben Wissenschaftler der University of Science and Technology in Shanghai möglicherweise gemacht: Sie haben einen neuen Rekord beim Teleportieren von Photonen aufgestellt.

Mit der Hilfe von Quantenverschränkung haben Forscher der University of Science and Technology of China in Shanghai nach eigenen Angaben einen neuen Rekord bei der Teleportation von Photonen aufgestellt. Ihnen ist in einem Versuch gelungen, ein sogenanntes Quantenbit mit einem Laserstrahl über eine Distanz von 97 Kilometern zu verschicken, schreibt Technology Review.

Als Teleportation gilt das, weil die Teilchen dabei nicht physikalisch von A nach B transportiert wurden. Stattdessen wird über die nach wie vor mysteriöse Quantenverschränkung lediglich die Informationen über sie weitergereicht, die dann auf ein verwandtes Objekt am Zielort übertragen werden.

Mit der etwa aus Star Trek bekannten Teleportation von Gegenständen oder gar Menschen hat das aber wenig zu tun. Eher hat es etwas mit der sogenannten Quantenkryptografie und Quantenkommunikation zu tun, mit denen sich beispielsweise extrem abhörsichere Wege der Informationsübertragung realisieren lassen könnten - insbesondere über Satelliten, so die Forscher. Allerdings sind die theoretisch vorstellbaren Datenraten derzeit noch extrem niedrig.

Interessant ist, wie schnell die Wissenschaftler die Reichweite ihrer Quantenteleportation ausdehnen können. Die gleichen Physiker aus China hatten erst 2010 einen Rekord über eine Distanz von 16 Kilometern aufgestellt. Ein Jahr zuvor hatten Forscher aus den USA die Teleportation über einen Meter gefeiert.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Forscher wollen Detektor für Dunkle Materie bauen
« Antwort #101 am: 12 Juli, 2012, 14:00 »
Kaum etwas hält die moderne Physik so auf Trab wie die Suche nach der Dunklen Materie. Ihren Namen verdankt sie der Tatsache, dass sie bislang kein Physiker zu Gesicht bekommen hat. Dass sie existiert, schließen Wissenschaftler aus Anomalien in der Rotation von Galaxien, die mit "normaler" Materie allein nicht zu erklären sind. Eine Forschergruppe um Katherine Freese, Astrophysikern an der University of Michigan in Ann Arbor, und George Church, Genetiker an der Harvard University, hat nun einen kühnen Vorschlag unterbreitet, wie eine Apparatur zur Detektierung Dunkler Materie aussehen könnte, berichtet Technology Review in seiner Online-Ausgabe.

Als Nachweismedium schlagen sie tatsächlich DNA vor. Genauer: Sehr lange Einzelstränge des Moleküls, das die biologische Erbinformation aller Lebewesen speichert. Diese Einzelstränge sollen wie ein dichter Wald an einem Goldblech befestigt werden. Sie hätten dabei alle die identische Reihenfolge "genetischer Buchstaben", den Nukleotiden A, G, C und T – bis auf das freie Ende, dessen Buchstabenkombination die genaue Position eines Stranges auf dem Blech kodiert.

Angenommen, ein Dunkles Materieteilchen würde nun in das Goldblech krachen und einen Goldatomkern herausschlagen. Dann würde dieser Kern, wenn er von der richtigen Seite getroffen wird, eine Schneise durch den DNA-Wald schlagen. Die getroffenen DNA-Stränge fielen dann, so die Idee der Forscher, auf ein Auffangtablett, das stündlich geleert wird. Sie würden dann allesamt mittels der Polymerase-Kettenreaktion vervielfältigt, um ihr Positionsetikett verlässlich auslesen und damit ihre Position notieren zu können.

Aber natürlich steckt der Teufel im Detail. Bislang ist die Wechselwirkung zwischen schnellen Goldatomkernen und DNA nicht untersucht. Die wollen die US-Forscher nun anpacken. Des Weiteren sind sehr lange DNA-Einzelstränge mit 10.000 Nukleotiden vorgesehen, damit der DNA-Wald wirklich ein Hindernis für den Goldatomkern ist. Handelsübliche DNA-Stränge werden aber nur mit einer Länge von bis zu 250 Nukleotiden synthetisiert.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Forscher wollen Detektor für Dunkle Materie bauen
« Antwort #102 am: 13 Juli, 2012, 02:35 »
Sehr erstaunlich finde ich, dass diese Forscher bei ihrem Ansatz von Eigenschaften der Dunklen Materie ausgehen, die noch nicht einmal ansatzweise bekannt sind.

Ein Goldatom aus einem Kristallverband herauszuschlagen, das verlangt ziemlich viel Impuls, also Produkt aus Masse und Geschwindigkeit des Auslösers.
Da aber Dunkle Materie noch nie direkt beobachtet wurde, weiß man noch überhaupt nichts über Zusammensetzung und Verhalten jenseits bloßer Gravitation (Partikel oder räumlich unscharfe DeBroglie-Welle, mit Trägheit und Bewegungsvektoren behaftet / mechanisch reaktionsfähig oder nicht, ggf. Materie oder Antimaterie usw. ...).
So gibt es auch keinerlei Indizien für geeignete Detektortechnik.
Immerhin ist nicht einmal auszuschließen, dass Dunkle Materie nur aus uralten und nicht mehr strahlenden Sternleichen besteht, oder auch gar nicht physisch existiert, sonder nur eine uns noch nicht verständliche Eigenschaft des Raums und / oder der Zeit darstellt.

Aber irgendetwas dürfte man mit der Apparatur sicherlich ab und an beobachten. 
So erscheint mir denkbar, das fast relativistische Alpha-Teilchen (aus der kosmischen Strahlung), schnelle Neutronen und andere recht seltene Ursachen vereinzelte Auslösungen bewirken dürften, über die man anschließend jahrelang trefflich spekulieren kann.
Unter genüsslichem Verbrauch reichlicher Forschungsgelder natürlich...

Jürgen
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Dunkle Energie und das Schicksal des Universums
« Antwort #103 am: 18 Juli, 2012, 20:00 »
Mit dem für 2012 vorgesehenen Weltuntergang wird es ja nun doch etwas knapp - eine präzisere Schätzung für das Ende der Welt liefern nun chinesische Forscher

Kosmologen haben es nicht leicht. Wie das Universum begann (und was davor passierte, siehe Die Zeit vor der Zeit) lässt sich mit ein bisschen Geduld durch den Blick ins Weltall herausfinden: Denn Spuren der Vorgänge vor rund 13,7 Milliarden Jahren sind noch immer nachweisbar. Doch wie wird es mit dem Universum zu Ende gehen? Um diese Frage zu beantworten, gilt es, die bisherige Entwicklung in die weit entfernte Zukunft zu extrapolieren, aus Daten also, die maximal einer Momentaufnahme entsprechen.

Bild vom Hubble Space Telescope, das einen Ring dunkler Materie zeigt, der laut Nasa "wahrscheinlich exisitiert" und das Zentrum von CL0024+17. Quelle und Erklärung: NASA; ESA, M. J. Jee and H. Ford et al. (Johns Hopkins Univ.)    

Stellen Sie sich vor, Sie dürften zwei Sekunden eines Krimis ansehen - und müssten daraus eine Theorie entwickeln, wer der Mörder ist. Selbst, wenn Sie die Gesetze des Genres kennen, ist das keine leichte Aufgabe.

Es sollte deshalb nicht verwundern, dass durchaus verschiedene Todesarten für den Kosmos in der Diskussion sind. Mit den exotischeren beginnend (die Bezeichnungen sind zum Teil vom Autor, zum Teil aus der Literatur) wären das:

Big Trick: Vielleicht sitzen wir schon seit ewiger Zeit einem Trick der Natur auf - was wir für Raum im Grundzustand halten, das Vakuum, könnte sich auch in einem quantenphysikalisch höheren Zustand befinden. Messtechnisch lässt sich das nicht ausschließen. In diesem Fall könnte sich das Vakuum eines Tages, mir nichts, dir nichts, in diesen energetisch niedrigeren Zustand bewegen. Was für den gegenwärtigen Zustand der Materie vermutlich ungünstig wäre.

Big Collapse: Falls unser Universum Teil eines Multiversums ist, in dem auch Universen aus Antimaterie existieren, könnte es zu einem Zusammenstoß mit fatalen Folgen kommen.

Big Squeeze: Falls die Dunkle Energie (die das Universum auseinander treibt) noch schneller zunimmt, als das Universum expandiert, würde sich die Dichte des Weltalls stetig erhöhen. Irgendwann würde der Raum zähflüssig und schließlich fest, es gäbe für ewige Zeiten keine Bewegungsmöglichkeit mehr und damit kein Leben.

Big Crunch: Die Expansion des Universums stoppt irgendwann, danach zieht es sich wieder zusammen. Ein Urknall mit umgekehrter Zeitrichtung - der zum "Big Bounce" würde, falls es danach erneut zur Expansion kommt.

Big Freeze: Das Universum dehnt sich immer stärker aus - wodurch seine Temperatur stetig sinkt, bis irgendwann keine freie Energie mehr vorhanden ist. Die Teilchen und damit die Welt bleiben stehen, und in diesem Moment stoppt auch die Zeit. Eine beinahe gleichwertige Alternative ist der "Hitzetod", der eintritt, wenn sich die Temperatur einem im ganzen Weltall gleichen Mittelwert näher. Auch dann fehlen die Temperaturunterschiede, die Leben erst möglich machen.

Für am wahrscheinlichsten halten die Forscher allerdings den "Big Rip". Denn messbar beschleunigt sich die Expansion des Universums schon seit etwa sechs Milliarden Jahren. Schuld ist die Dunkle Energie, von der man davon abgesehen im Grunde nichts weiß. Möglich ist, dass sie eine Komponente enthält, die Forscher Phantom-Energie nennen. Sie hat die Eigenschaft, falls sie denn existiert, die Beschleunigung der Expansion noch zu beschleunigen. Als praktische Konsequenz ergäbe sich aus diesem Szenario, dass alles, inklusive der kleinsten Bausteine der Materie, im "Big Rip" irgendwann auseinander gerissen wird. Für diesen Fall haben jetzt chinesische Forscher eine Abschätzung getroffen, wann es mit uns zu Ende geht.

Die Computersimulation, gefüttert mit den bekannten Parametern der aktuellen Expansion des Kosmos und diversen Unbekannten, gibt dem Universum noch wenigstens 16,7 Milliarden Jahre - es wäre damit noch nicht einmal in der Lebensmitte angekommen. Ungemütlich wird es demnach schon etwas früher: etwa 32,9 Millionen Jahre vor dem Big Rip löst sich die Struktur der Milchstraße auf. Dass bis zum Untergang nur noch zwei Monate bleiben, werden wir daran erkennen, dass die Erde ihre Umlaufbahn um die Sonne verlässt. Fünf Tage vor Schluss müssen wir uns vom Erdmond verabschieden. Und 16 Minuten vor Ultimo wird die Erde explodieren.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Neuartige Datenverarbeitung mit dem Complex Network Computer
« Antwort #104 am: 08 August, 2012, 22:00 »
Ein neues Prinzip, Information zu verarbeiten, haben Wissenschaftler des Max-Planck-Instituts für Dynamik und Selbstorganisation (MPIDS) in Göttingen entwickelt. Der Complex Network Computer beruht auf einem System schwingender Elemente, die miteinander wechselwirken können und ein spezielles dynamisches Verhalten aufweisen, mit dem sich Daten verarbeiten lassen.

Schlüssel zu diesem Verhalten sind sogenannte Sattelpunkte, also Zustände des Gesamtsystems, die in mancher Hinsicht stabil, in anderer instabil sind. Lenkt man etwa eine Kugel, die in der Mulde eines tatsächlichen Sattels ruht, exakt parallel zum Pferderücken aus, rollt sie zuverlässig in die Mulde zurück. Der Ausgangszustand ist gegenüber dieser Art von Störung stabil. Wird die Kugel jedoch senkrecht zum Pferderücken angestoßen, fällt die Kugel herunter, und der Zustand ist instabil.

Allgemein bilden in Systemen gekoppelter schwingender Elemente solche Sattelpunkt-Zustände eine Art Netzwerk. Eine äußere Störung, die einen bestimmten Sattelpunkt-Zustand destabilisiert, überführt das Gesamtsystem in einen anderen Sattelpunkt-Zustand. Jede Störung lässt sich als Eingangssignal betrachten, das aus mehreren Teilsignalen zusammengesetzt sein kann. Jedes Teilsignal spricht eines der schwingenden Elemente des Gesamtsystems an. Das Verhältnis der Stärken dieser Teilsignale gibt dann den Ausschlag, welchem neuen Sattelpunkt-Zustand das System zustrebt. Der eingeschlagene Pfad entspricht dem Ergebnis der Rechnung. Auf dieser Fähigkeit lässt sich eine komplette Logik aufbauen, Operationen wie Addition, Multiplikation und Verneinung lassen sich darstellen.

Anders als beim klassischen Computer, wo ein Bauteil eine bestimmte logische Operation ausführt, findet in einem "Complex Network Computer" die Operation gleichzeitig im gesamten Netzwerk statt. Bereits relativ kleine Systeme können eine große Vielzahl möglicher Operationen ausführen. Daher kann ein solcher Rechner Aufgaben wie das grobe Sortieren von Zahlen deutlich schneller als sein konventionelles Gegenstück erledigen. Größere Hoffnungen setzen die Forscher in Systeme gekoppelter Laser. Diese weisen nicht nur genau abgestimmte Frequenzen auf, die eine weitere Voraussetzung für Complex Network Computer sind, sondern zeichnen sich auch durch besonders hohe Frequenzen von bis zu einigen Milliarden Schwingungen pro Sekunde aus, mit denen ein Computer besonders schnell rechnen könnte.

In Systemen gekoppelter schwingender Elemente bilden die Sattelpunkte eine Art Netzwerk. Eine Störung, die einen Sattelpunkt-Zustand destabilisiert, entspricht dem Eingangssignal der Rechenoperation. Das System sucht verschiedene Wege durch das Netz. Zwei der möglichen Wege, von denen jeder dem Ergebnis einer Rechnung entspricht, sind in dem Bild orange und blau dargestellt.
Bild: MPIDS

In einer ersten Anwendung hat sich das neue Rechenprinzip bereits bewährt. So konnten die Wissenschaftler einen einfachen Roboter konstruieren, der sich selbst den Weg durch einen Hindernisparcour sucht. Die Eingangssignale seiner Sensoren entsprechen dabei den Störungen des Systems.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )