Autor Thema: Simulation einer virtuellen Gesellschaft  (Gelesen 1566 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Simulation einer virtuellen Gesellschaft
« am: 21 Mai, 2006, 09:47 »
Wissenschaftler erforschen komplexe Zusammenhänge innerhalb zukünftiger Gesellschaftsstrukturen anhand einer Vernetzung von 60 Supercomputern.

Wenn Computer ihre eigene Gesellschaft erschaffen können, wie würde diese Welt aussehen? Ein von der European Commission Future and Emerging Technologies ( FET ) gefördertes Projekt verbindet fünf Forschungsinstitute, die mit „NEW TIES“ eine Gesellschaft erschaffen wollen, die von zufällig generierten Software-Individuen bevölkert wird. Die Insassen dieser Welt erschaffen ihre eigene Sprache und Kultur und stellen vor allem Experten der Künstlichen Intelligenz, Computerwissenschaftler, Soziologen und Linguisten vor eine ganz besondere Herausforderung.

Das interdisziplinäre Team verfolgt mit „NEW TIES“ zwei Ziele: Die Erforschung natürlicher Prozesse wie Sprachbildung und die Erschaffung einer kollektiven künstlichen Intelligenz. Linguisten und Soziologen interessieren dabei besonders die Prozesse der Gesellschafts- und Sprachbildung, den Computerwissenschaftlern gehe es eher um die Zusammenarbeit zwischen den einzelnen Programmen. Dies ist von besonderer Bedeutung, wenn man an künftige unbemannte Marsmissionen oder Roboter-Rettungsteams denkt, die gemeinsam ein Ziel verfolgen und kooperieren müssen.

Die Software-basierten Insassen der virtuellen Welt werden schon in wenigen Monaten die 60 untereinander verbundenen Supercomputer bevölkern. Ein derartig komplexes System wäre bisher einzigartig. Zu Beginn plane man knapp 1000 Programme einzusetzen. Doch schon bald sollen mehrere Millionen individuelle Programme mit eigenen Charaktereigenschaften, unterschiedlichen Geschlechtern und Zielstellungen in der virtuellen Welt unterwegs sein. Dabei soll jedes Programm seine Erfahrungen an seine Nachkommen vererben und auch von anderne Programmen lernen könnenuntereinander. Da den einzelnen Individuendabei nicht vorgeschrieben wird, wie sie sich zu verhalten haben, ähneln ihre Reaktionen denen menschlicher Gehirne recht gut. Sobald die Kalibrierung des Systems abgeschlossen ist, werden die Versuche beginnen. Ziel sei es, später knapp 5000 Computer miteinander zu vernetzen und so für noch mehr Spielraum für die Programme zu sorgen.

Quelle : www.pcwelt.de

--------------------------------------------------

Welt am Draht ?  ::)

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re:Simulation einer virtuellen Gesellschaft
« Antwort #1 am: 21 Mai, 2006, 23:15 »
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Re:Simulation einer virtuellen Gesellschaft
« Antwort #2 am: 21 Mai, 2006, 23:17 »
Jup  ;D

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline spoke1

  • Alle angenehmen Dinge des Lebens sind entweder illegal, unmoralisch, teuer oder machen dick!
  • Premium-Cubie
  • ****
  • Beiträge: 2718
  • kaffeine Fan
    • skynetR32 Mod HP
Kann es sein, dass wir in einem holografischen Universum leben?
« Antwort #3 am: 07 März, 2009, 15:00 »
Frage von Karlheinz Mayrhöfer

Vielleicht sind wir alle Hologramme, Projektionen aus einem höherdimensionalen Raum. Die These ist gewagt, doch inzwischen gibt es experimentelle Hinweise auf ein „holografisches Universum“.
Von FOCUS-Redakteur Michael Odenwald

Sind wir alle Hologramme?
Hologramme sind Aufnahmen eines Objekts, die meist mittels Laserlicht erzeugt werden. Der Laserstrahl tastet das Objekt ab, die gewonnene Information wird in Form eines Beugungsgitters auf einer zweidimensionalen Fläche gespeichert, etwa einer fotochemisch behandelten Glasplatte. Wird ein zweiter, gleichartiger Laserstrahl auf dieses Gitter gerichtet, entsteht ein dreidimensionales Abbild des Ursprungsgegenstandes.

Die Theorie vom holografischen Universum überträgt dieses Prinzip auf den ganzen Kosmos. Sie wurde unter anderem von dem gelähmten britischen Physiker Stephen Hawking entwickelt. Lassen sich Informationen aus höheren Dimensionen in Gebilden niedrigerer Dimension kodieren, argumentiert er, könnten auch wir Menschen vierdimensionale holografische Schatten sein, erzeugt durch das Geschehen in einer höherdimensionalen Welt.

Das Schwarze-Loch-Paradoxon

Abgeleitet wurde die Idee aus physikalischen Überlegungen, die Schwarze Löcher betreffen. Ihren Namen verdanken Sie dem Umstand, dass aufgrund ihrer starken Gravitation nichts aus ihnen entkommen kann – nicht einmal Licht. Einem Betrachter erschienen sie wie ein rabenschwarzer Kreis im All. Er stellt den sogenannten Ereignishorizont dar. Ab dieser Grenzfläche, hinter der sich das eigentliche Schwarze Loch verbirgt, kann ein außen stehender Beobachter keinerlei elektromagnetische Strahlung mehr wahrnehmen. Stellare Schwarze Löcher, die durch den Kollaps eines massereichen Sterns entstanden, sind nur wenige Kilometer groß. Hat dieser zehn Sonnenmassen, beträgt der Radius des Ereignishorizonts knapp 30 Kilometer; würde unsere Sonne zu einem Schwarzen Loch (tatsächlich ist sie dafür zu massearm), wären es 2,9 Kilometer.

In den 70er-Jahren fand Hawking jedoch heraus, dass die Schwerkraftmonster nicht total schwarz sind, sondern eine schwache Strahlung aussenden. Dadurch verlieren sie über die Äonen an Masse und verdampfen schließlich vollständig. Damit standen die Physiker jedoch vor einem Rätsel, denn der Theorie zufolge sollte diese sogenannte Hawking-Strahlung keinerlei Information über die Zustände im Innern des Schwarzen Lochs nach außen tragen. Wenn es verdampft ist und mit einem finalen Strahlenblitz aus dem Universum verschwindet, wäre somit jegliche Information über den kollabierten Stern, der das Loch hervorbrachte, verloren. Dies widerspricht aber dem physikalischen Prinzip, dass Information unzerstörbar ist (siehe auch die Kolumne „Ist Information eine fundamentale Größe?“). Die Forscher nannten dies das Schwarze-Loch-Paradoxon.

Hawking musste Wettschuld einlösen

Einen Schlüssel zu dessen Lösung lieferte der israelische Physiker Jacob Bekenstein von der Hebräischen Universität in Jerusalem. Er entdeckte, dass die Entropie eines Schwarzen Lochs, die in diesem Fall mit seinem Informationsgehalt gleichzusetzen ist, zur Oberfläche der Kugel des Ereignishorizonts proportional ist. Je mehr Masse ein Schwarzes Loch besitzt, desto größer ist der Radius dieser einhüllenden Blase – und damit auch ihre Oberfläche. Später zogen andere theoretische Physiker die String-Theorie zu einer neuen Berechnung der Eigenschaften Schwarzer Löcher heran (siehe die Kolumne „Kann man die String-Theorie beweisen?“). Dabei fanden sie heraus, dass sich an der Oberfläche des Ereignishorizonts Quantenfluktuationen abspielen.

Diese Kräuselungen der Raumzeit werden jedoch von Abläufen und Zuständen innerhalb des Horizonts beeinflusst. Damit sind in ihnen Informationen über das Innere des Schwarzen Lochs kodiert. Information erwies sich somit als tatsächlich unzerstörbar, das Paradox war aufgelöst. Bei einer Aufsehen erregenden Konferenz über relativistische Physik im Juli 2004 gestand dies auch Stephen Hawking ein. Damit hatte er eine Wette verloren, die er 1997 mit seinem Kollegen Kip Thorne gegen den US-Physiker John Preskill abgeschlossen hatte. Hawking und Thorne behaupteten, dass Schwarze Löcher nichts wieder herausgeben, was sie sich einmal einverleibt haben – auch keine Information. Preskill hielt dagegen, der Quantentheorie zufolge müsste die Information, die ein Schwarzes Loch verschlingt, in irgendeiner Form erhalten bleiben. Ihm überreichten die Verlierer als Gewinn eine Enzyklopädie, weil „Informationen aus dieser Quelle ganz nach Wunsch wiedererlangt werden können.“

Gegen den gesunden Menschenverstand

Daraus erwuchs eine tiefe physikalische Einsicht: Die in drei Dimensionen vorliegende (Quanten-)Information über den Vorläuferstern eines Schwarzen Lochs kann offenbar auf der zweidimensionalen Kugelfläche des Ereignishorizonts kodiert werden – was der Speicherung von Information über ein 3-D-Objekt in einem 2-D-Hologramm entspricht. Diese Erkenntnis brachte den Stanford-Physiker Leonard Susskind und seinen niederländischen Kollegen Gerard ´t Hooft von der Universität Utrecht – er erhielt 1999 den Physik-Nobelpreis – auf die Idee, das holografische Prinzip auf das ganze Universum anzuwenden. Schließlich besitzt auch der Kosmos einen Horizont, nämlich jene Kugelschale, die das für uns sichtbare Universum begrenzt. Darüber hinaus können wir auch mit den besten Teleskopen grundsätzlich nicht schauen, denn das Licht aus dem dahinter liegenden Raum konnte uns in der seit dem Urknall vergangenen Zeit von 13,7 Milliarden Jahren noch nicht erreichen.

Theoretiker wie der Argentinier Juan Maldacena vom Institute for Advanced Study der Universität Princeton bestätigen, dass an der Idee etwas dran sein könnte, denn er kam zu einem ähnlichen Ergebnis: Mit den Formeln der String-Theorie konnte er zeigen, dass die physikalischen Abläufe in einem fünfdimensionalen Universum, das eine sattelförmig geschwungene Form hat (ähnlich einem Kartoffelchip), denjenigen an seiner vierdimensionalen Grenzfläche entsprechen.

Träfe die Theorie zu, wären die Folgen recht befremdlich. Die Welt, die wir in unserem Alltag erleben, wäre dann nichts als die holografische Projektion physikalischer Prozesse, die sich weit entfernt an einer 2-D-Oberfläche abspielen. Wir stehen auf, duschen und lesen Zeitung – oder diesen Artikel –, weil am Rand des Universums irgendetwas geschieht. Dies ist nicht mit unserem Erleben im Einklang, und auch nicht mit dem gesunden Menschenverstand.
Theorie ist nicht nur eine wissenschaftliche Spielerei

Was es für uns und unsere Welterkenntnis bedeuten würde, in einem Hologramm zu leben, weiß niemand. So könnte man die Idee getrost als eine der vielen wenig realistischen mathematischen Spielereien abtun, denen sich die theoretischen Physiker so gerne hingeben – wäre da nicht Craig Hogan. Er ist Direktor des Zentrums für Astroteilchenphysik am Fermi National Accelerator Laboratory sowie Astrophysik-Professor für Astronomie an der Universität von Chicago und gehörte einer der beiden Forschergruppen an, die 1998 die Dunkle Energie entdeckten.

In seiner Arbeit befasst sich Hogan mit der Welt der kleinsten Teilchen. Das aber hat Grenzen. Denn die wirklich fundamentalen Bausteine der Materie sind so winzig, dass sie mit heutigen Methoden nicht beobachtet werden können – auch nicht mit noch so großen Teilchenbeschleunigern. Eine der Theorien, die diese Welt der allerkleinsten Teilchen beschreibt, ist die Schleifen-Quantengravitation. Der Raum, so besagt sie, setzt sich aus winzigen Quanten zusammen. Er ist nicht mehr glatt und kontinuierlich, sondern gekörnt wie ein fotografischer Film. Diese Struktur sitzt nicht im Raum, sie ist der Raum.

Die Raumquanten haben einen Durchmesser von einer Planck-Länge. Es ist die kleinste im Universum mögliche Ausdehnung, sie beträgt 10-33 (ein billionstel trilliardstel) Zentimeter. Sie bilden stets neue Konfigurationen, und zwar im Rhythmus der Planck-Zeit als dem kürzestmöglichen Zeitintervall im Kosmos von 10-43 oder zehn trilliardstel trilliardstel Sekunden Dauer. Da die Raumquanten Träger einer Informationseinheit sind, können wir sie auch als Bits bezeichnen.

Auf der Jagd nach den kosmischen Körnchen

Kein Forscher glaubte ernsthaft, jemals bis zu den Planck-Größen vordringen zu können. Craig Hogan aber hatte eine Idee, wie dies doch gelingen könnte. Im Licht des holografischen Prinzips müssen wir uns das Universum als eine mit Raumquanten gefüllte Blase denken, deren Oberfläche ebenfalls dicht mit Raumquanten bepackt ist – und zwar mit der gleichen Menge, die im 3-D-Volumen des Kosmos enthalten ist. Dies ist eigentlich nicht möglich, denn im Innern der kosmischen Blase finden viel mehr Quanten Platz als auf ihrer Oberfläche. Die Zahlen stimmen somit nicht überein – es sei denn, die Quanten im Innern wären größer als eine Planck-Länge. Nach Hogans Berechnungen müssten sie 10-16 Zentimeter groß sein. Damit aber wären sie physikalischen Experimenten zugänglich.

Nun sann der US-Forscher darüber nach, wie sich die kosmischen Körnchen am besten aufspüren lassen – und wurde fündig. Er hatte erkannt, dass sich die zufälligen Fluktuationen der Raumquanten am ehesten auf die Laserstrahlen in den Gravitationswellen-Detektoren auswirken sollten, mit denen Astrophysiker den Schwingungen der Raumzeit nachspüren. Diese werden von Ereignissen im Kosmos ausgelöst, bei denen starke Schwerefelder im Spiel sind, etwa die Kollision Schwarzer Löcher oder der Gravitationskollaps extrem massereicher Sterne, die in titanischen Hypernova-Explosionen verglühen (siehe die Kolumne „Was verraten Gravitationswellen?“).

Weltweit gibt es fünf Gravitationswellen-Detektoren. Zur Überprüfung seiner These erschien Hogan die deutsche Anlage GEO600 bei Hannover am besten geeignet. Darin werden mittels einer Präzisionsoptik Laserstrahlen vermessen, die über Strecken von einigen Hundert Metern rechtwinklig zueinander verlaufen. Die von den Gravitationswellen ausgelösten Verzerrungen der Raumzeit sollten den Laufweg des Laserlichts beeinflussen und so messbar werden. Der Aufruhr der Raumquanten müsste sich durch ein „Rauschen“ in den Detektordaten bemerkbar machen – ähnlich wie das pixelige Rauschen im Fernsehbild bei gestörtem Empfang.

Im Juni 2008 übermittelte Hogan seine Prognose an die GEO600-Wissenschaftler. Zu seiner Überraschung musste er feststellen, dass diese den Effekt vielleicht längst gefunden haben, es aber nicht bemerkten. Schon seit Längerem ärgern sie sich über ein Störsignal, dessen Ursache sie nicht herausfinden konnten. Zwar ist dies noch kein Beweis für die Theorie vom holografischen Universum, denn das Rauschen kann auch ganz triviale Ursachen haben. So vermuteten die Hannoveraner Physiker zunächst, dass Temperaturunterschiede in den langen Lasertunneln das Rauschen auslösen könnte. Dann zeigte sich, dass dies den Störeffekt allenfalls zu einem Drittel erklären kann.

Dennoch sind die Forscher elektrisiert. In den kommenden Monaten wollen sie mit neuen Experimenten untersuchen, ob sich Hogans Vermutungen bestätigen lassen. Normalerweise sind die Detektoren so eingestellt, dass beste Chancen bestehen, explodierende Sterne oder verschmelzende Schwarze Löcher zu finden. Diesen Frequenzbereich wollen die GEO600-Forscher nun schrittweise hin zu immer kürzeren Wellenlängen verschieben, um zu sehen, wie sich das Störsignal verändert. „Wir sind gespannt, welche Erkenntnisse wir über das mögliche holografische Rauschen erhalten werden“, sagt Projektleiter Karsten Danzmann vom Max-Planck-Institut für Gravitationsforschung in Golm bei Potsdam. „Wir befinden uns sozusagen im Mittelpunkt eines Wirbelsturms in der Grundlagenforschung.“

Beweis der Theorie wäre ein erster Schritt zur „Weltformel“

In gewisser Weise wäre es eine Ironie, würde ein Forschungsgerät, das den gewaltigsten Ereignissen im Kosmos nachspüren soll, die Körnigkeit der Raumzeit auf den kleinstmöglichen Skalen nachweisen. Immerhin wäre es eine Entdeckung von fundamentaler Bedeutung. Erstmals würden die Quanten von Raum und Zeit direkt beobachtet. Sie hängen über die Lichtgeschwindigkeit (c) zusammen, denn die Planck-Zeit ergibt sich aus Planck-Länge dividiert durch c. Schon gibt es unter den Physikern Ideen, den holografischen Effekt mit speziell entwickelten Experimenten näher zu untersuchen, etwa mit einem „Atom-Interferometer“, das anstelle von Laserstrahlen ultrakalte Atome nutzt. Sie haben viel kürzere Wellenlängen als Licht.

Was würde es bedeuten, wenn sich Hogans Theorie als wahr herausstellt und wir wirklich in einem holografischen Universum leben? Für unseren Alltag natürlich nichts. Dafür fänden physikalische Gedankengebäude wie bestimmte Versionen der String-Theorie eine erste Bestätigung. Daraus könnten die Physiker möglicherweise eine „Weltformel“ entwickeln, die Gravitations- und Quantentheorie vereint und das Universum so vollständig beschreiben kann. Ein eigenartiges Gefühl bliebe wohl dennoch, wenn unser Dasein nichts wäre als ein bewegtes Hologramm als Projektion physikalischer Prozesse, die sich am Rand des Universums abspielen. Dann stellt sich nämlich die Frage, wer der Puppenspieler ist, der dieses ganze kosmische Schattenspiel veranstaltet.


Quelle: http://www.focus.de
Produktiv:
ASRock K8S8X, Athlon64 3000+, 1GB Infineon Ram, WinFast A340 8X AGP, Samsung HD160 GB SATA2,
Technisat SkyStar 2, Stab HH100 Rotor und 5° & 19,2° Ost fest
BS: Mandriva-Linux (mdv) 2010.2 PP, kde 3.5.12, kaffeine 0.8.8, skynetR32

Bastelsrechner:
ASRock N570 SLI, Athlon64 X2 6000+ 4GB Geil Ram, EVGA GeForce G 210 Passiv (1GB DDR3, VGA, DVI, HDMI), Samsung HD 500GB SATA2, TT-budget S2-3200 PCI
BS: immer nur Pinguin freundliche

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Kann es sein, dass wir in einem holografischen Universum leben?
« Antwort #4 am: 08 März, 2009, 19:19 »
Ich frage mich, wie es möglich sein soll, dass sich ein Hologramm spürbar den Kopf stösst.
Photonen interagieren nicht, schon gar nicht in so einem Masse.

Irgendwo müsste es dann also eine Art Mechanismus oder eine höhere Instanz geben, wo derlei programmiert bzw. gesteuert wird.

Aber erstens erscheint mir der Gedanke an eine solche externe Maschine als wenig überzeugend. Gerne auch als irrelevant, weil was soll's dann überhaupt...

Und zweitens fände ich es vermessen anzunehmen, dass sich eine universelle Steuerungsinstanz ausgerechnet dafür die Zeit nehmen sollte, für meinen Döz die Entwicklung einer Beule vorzusehen. Ungeschicktes Aufstehen unter einem geöffneten Fensterrahmen genügt mir als Fundament einer Kausalität vollkommen, insbesondere im Zusammenhang mit leichtsinnigem Frühjahrsputz. Besser als Ausrutschen im Bad, mit Folge Erfindung eines Fluxkompensators...
 
Jedenfalls weigere ich mich weiterhin, irgendwelche Verantwortung für Systeme tragen zu sollen, die ich nicht selbst bestimmt habe.
Und damit ist's tatsächlich wurschd.
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Willkommen in der Matrix
« Antwort #5 am: 16 Juni, 2010, 13:33 »
Ein Schweizer will das menschliche Gehirn simulieren, der andere die ganze Welt

Da die Wirklichkeit in den letzten Jahren die großen Science Fiction Themen wie Überwachung, urbaner Zerfall, Verschwörungstheorien durchnimmt wie ein Schüler seine Lektionen, sind wir nun bei der Matrix als Unterrichtseinheit angekommen. In der Schweiz wusste man schon immer, wie die Uhren gehen, und es bestehen Chancen, dass hier die künstliche Intelligenz aus dem Hexenei der Neuroinformatik entspringen wird.

Der Weg zur Hölle ist immer gepflastert mit guten Vorsätzen, und er wird immer zuerst beschritten von Leuten, die den Hals nicht voll kriegen können. Zu diesen Leuten muss Henry Markram gehören, der Gründer und Leiter des Blue-Brain-Projekts  an der École Polytechnique Fédérale de Lausanne. Denn er hat einen Traum: die Tätigkeit des menschlichen Gehirns in Echtzeit zu simulieren, was nichts anderes bedeutet, als eine Kombination von Hard- und Software zu konstruieren, die ihren Fähigkeiten nach von einem menschlichen Gehirn nicht zu unterscheiden ist.

Neuronen in einer Spalte. Bild: EPFL/Blue Brain Project, © BBP/EPFL

Das von ihm ins Leben gerufene Projekt hat genau dieses Ziel vor Augen. Es heißt so, weil es die Rechenkraft eines Blue-Gene-Rechners von IBM mit 8192 Prozessoren benutzt. Noch muss man nicht fürchten, dass der betreffende Rechner bald als intelligentes Wesen mit Menschen- und Bürgerrechten angesehen wird. Denn das Blue-Gene-Projekt ist bisher nicht weiter gediehen als bis zur Simulation der Aktivitäten der kleinsten funktionalen Untereinheit des Säugetiergehirns: der Kortikalen Kolumne.

Aufbauen einer Spalte. Bild: EPFL/Blue Brain Project, © BBP/EPFL

Und dabei handelt es sich auch nur um die Kortikale Kolumne einer Ratte. Die Simulation ist im Moment noch um zwei Größenordnungen langsamer als die Vorgänge in einem echten Rattengehirn. Aber schon unter diesen Bedingungen generiert die Anordnung Hunderte von Gigabytes an Daten pro Sekunde, ein SGI-Prism-Rechner  hat eigens die Aufgabe, diesen Datentsunami zu visualisieren.

Die Interpretation des künstlichen Neuronengeflackers - ja, die Interpretation ist nun wirklich noch einmal eine ganz andere Geschichte. Immerhin behauptet man:

Zitat
Wir haben bereits eine derart hohe Detailtreue erreicht, dass das Modell selber als ein vollgültiges Werkzeug für die Stimmigkeit und Relevanz neurobiologischer Daten dient, und gleichzeitig als Wegweiser für neue experimentelle Unternehmungen dient.

Das ist eine kühne Aussage, wenn gilt, was an anderer Stelle gesagt wird:

Zitat
Eine visuelle Schnittstelle zeigt schnell Orte von Interesse, die dann bei weiteren Experimenten genauer untersucht werden können. Eine visuelle Repräsentation kann auch benutzt werden, um die Resultate der Simulation mit Experimenten zu vergleichen, die die elektrischen Vorgänge im tatsächlichen Gehirn aufzeichnen. Dieser Kalibrierungsprozess - der Vergleich des Blue-Brain-Netzwerks in Aktion mit realen Daten zum Zweck seiner Verbesserung und Feinabstimmung - ist das zweite Stadium des Blue-Brain-Projekts und wird wahrscheinlich Ende 2007 abgeschlossen sein.

Das mag eine etwas optimistische Sicht der Dinge gewesen sein, denn drei Jahre später harrt die Phase II offensichtlich immer noch ihres Abschlusses. Die Vollsimulation eines Säugetiergehirns wird noch eine Weile auf sich warten lassen, und ehrlicherweise geben die Forscher an EPFL das auch zu. Es gibt sogar Leute, die den ganzen Ansatz für komplett verfehlt halten.

Hemmungs-Neuronen. Bild: EPFL/Blue Brain Project, © BBP/EPFL

Mit Kleinkram will sich Dirk Helbing, ebenfalls Schweizer, gar nicht erst abgeben. Klotzen, nicht kleckern, lautet seine Devise, und er geht mit seinem Living Earth Simulator gleich die ganze Erde an. Seine Hochschule, die ETH in Zürich, soll bis 2022 der Standort für diesen Simulator werden, der in bisher nie da gewesener Feinkörnigkeit Daten aus allen möglichen Quellen zu einem stets in Bewegung befindlichen Mosaik der Erde destillieren soll, mit unmittelbarer Relevanz für Politik, Wirtschaft, Ökologie und all die anderen Ressorts, die immer gerne ein bisschen mehr über die nächsten 24 Stunden wüssten, als ihnen die jeweiligen "Dienste" erzählen können.

Der Hintergedanke ist natürlich der, dass die quasitotale Erfassung von der quasipräzisen Extrapolation nur durch einen kleinen Schritt getrennt ist - wie bei den Gehirnsimulanten der EPFL geht es dabei um die richtige Visualisierung und Interpretation des Datensummens in Bezug auf die Zukunft. Helbing ist mit seinem Wunsch nach wissenschaftlicher Wahrsagerei nicht allein. Ein Projekt der japanischen Agency for Marine-Earth Science and Technology arbeitet seit 2002 an einem Simulator für globale meteorologische und ozeanographische Entwicklungen, und auch dort versucht man die eigene Tätigkeit über die Methoden fortgeschrittener Visualisierungen besser zu verstehen.

Aber Helbing will mehr mit seinem "reality mining", viel mehr. Im Grunde geht es ihm um ein Brute-Force-Attacke auf die Wirklichkeit der ganzen Erde, die man wohlmeinend "visionär" und skeptisch "totalitär" nennen könnte. Eine Maschine (im sozialen und technologischen Sinn) to end all machines, ein digitaler Laplacescher Dämon.

Ganz sicher bedenkt man an der ETH bereits die Feedback-Effekte, die solch eine Maschine unweigerlich haben würde, nebst den Möglichkeiten, die anvisierten Kosten von einer Milliarde Euro durch geschickte Monetarisierungsstrategien wieder zu amortisieren. Die Presseagenturen werden jedenfalls schön blöd aussehen, wenn sie bloß noch als Zuliefere für Zürcher Ungeheuer existieren können. Aber möglicherweise kommt ja alles auch ganz anders, und der Living Earth Simulator hat als Antwort auf die Fragen nach dem Leben, dem Sinn und dem ganzen Rest nur die Antwort: "42", wie einst "Deep Thought" aus dem Anhalter in die Galaxis. Garantiert ist nur eines: das bloße Vorhandensein einer Maschine, die auch nur annähernd die in sie gesetzten Erwartungen erfüllt, wird seltsame und unvorhersehbare Konsequenzen haben.

Warum gerade in der Schweiz derzeit zwei so dermaßen auf Rechenkraft setzende Projekte angegangen werden, ist rätselhaft. Eine Gespräch, das ich neulich mit mehreren Deutschen hatte, die die Schweiz gut kennen, weil sie zum Teil jahrelang dort gelebt haben, weist vielleicht in die richtige Richtung: ein in Europa wohl einmaliges System des quasifeudalen Mäzenatentums erlaubt in der Schweiz schon lange kühne Experimente in Wissenschaft und Kunst, die völlig losgelöst von mühseliger Drittmitteleinwerbung und irgendwelchen Gremienquerelen vor sich hinerblühen können.

Wenn man sich Institute wie das Hyperwerk ansieht, dann könnte man auf den Gedanken kommen, dass da was dran ist. Natürlich kommen Blue Brain und Living Earth Simulator ohne Drittmittel- und Gremiengezerre nicht aus - letzterer soll sogar hauptsächlich von der EU finanziell angeschoben werden. Aber diese: "Yep, das machen wir, und zwar hier"-Haltung mag sich doch den besagten Schweizer Bedingungen mitverdanken.

Unter diesen Bedingungen wäre es dann kein Zufall, dass auch der Large Hadron Collider in Richtig blümerant wird einem aber erst zumute, wenn man das Projekt in Lausanne mit dem in Zürich zusammendenkt, wie es jüngst ein Blogger tat. Total vernetzte Serverfarmen mit der neuronalen Rechenkraft einer unübersehbaren Anzahl von menschlichen Gehirnen, die die Welt träumen - dagegen wären Wintermute und Neuromancer nichts weiter als bessere Taschenrechner. Was sollte eigentlich ein solches Konstrukt daran hindern, sich für Gott zu halten? Womit wir wieder bei der Science Fiction wären. Und der zunehmenden Tendenz der Wirklichkeit, sie nachzuahmen. Wir gehen glorreichen Zeiten entgegen. In gewisser Weise haben sie schon angefangen.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Leben wir in einer Computersimulation?
« Antwort #6 am: 12 Dezember, 2012, 22:00 »
Eine beliebte Frage und Vorstellung ist immer wieder, ob wir in einer Computersimulation leben - und ob wir wissen können, dass wir in einer solchen leben oder nicht. Das Szenario geht nicht nur auf Descartes und die Neuzeit zurück, sondern letztlich auf Platons Höhle. Platon hatte erstmals den Versuch gemacht, mit den damals zur Verfügung stehenden technischen Mitteln eine Totalsimulation auszuarbeiten, um den Höhlenausgang aus der Scheinwelt in die Wirklichkeit plausibel und anschaulich zu machen.

Physiker von der University of Michigan und der University of New Hampshire glauben, dass sich Tests entwickeln lassen, mit denen sich nachprüfen lässt, ob wir in einer Computersimulation leben. Sofern unser Universum endlich ist und auch die Ressourcen von Simulatoren endlich sind.

Rainer Werner Fassbinder hatte in dem Film "Welt am Draht" (1973) auf der Grundlage des Science-Fiction-Romans "Simulacron-3 " (1964) von Daniel F. Galouye ein solches Szenario vogestellt. Der US-amerikanische Philosoph Hilary Putnam hat mit "Gehirne im Tank" (1982) ein ähnliches Gedankenexperiment durchgespielt.

Und der schwedische Philosoph Nick Bostrom versucht zu demonstrieren, dass wir uns mit hoher Wahrscheinlichkeit längst in einerComputersimulation befinden und es praktisch unmöglich wäre, dies zu bemerken: "Der Bau einer Matrix, die simulierte Gehirne mit Bewusstsein enthält, wäre außerordentlich schwierig. Jedes Wesen, das ein solches Kunstwerk vollbringen könnte, könnte fast sicher auch verhindern, dass Störungen in der Matrix von ihren Bewohnern bemerkt werden. Selbst wenn einige Menschen Unregelmäßigkeiten feststellen würden, könnte der Architekt die Simulation ein paar Sekunden zurückdrehen und so wieder abspielen, dass die Unregelmäßigkeit völlig ausgeschlossen wird, oder die Unregelmäßigkeit einfach aus dem Gedächtnis dessen streichen, der etwas Verdächtigtes bemerkt hat."

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Leben wir in einer Computersimulation?
« Antwort #7 am: 13 Dezember, 2012, 02:07 »
Aus den von uns erlebten / beobachteten / vermuteten / postulierten Naturgesetzen auf unsere Welt als Realität oder Simulation schlussfolgern zu wollen, widerspricht jeder Logik und ist absolut sinnlos.

Insbesondere ist die Frage der Endlichkeit irrelevant, da eine Endlichkeit ggf. zwangsläufig ein gezielt eingebauter Bestandteil einer solchen Simulation sein muss, weil diese selbst sicherlich nur endlich sein kann, völlig unabhängig von der Welt, in der die stattfindet.
 
Übrigens ist genau dieser Aspekt auch schon in Simulacron-3 / Welt am Draht behandelt worden.

Schlüsse der Labormäuse aus ihrer Wahrnehmung im Labyrinth auf das Wesen einer Welt außerhalb des Labors sind deshalb nicht möglich, weil jede dieser Wahrnehmungen selbst Bestandteil des Experiments sein kann. So kann zwar beobachtete Schwerkraft durchaus real und natürlichen Ursprungs sein, aber ebenso könnte sich das Labor in der Schwerelosigkeit befinden und die wahrgenommene Schwerkraft in Wirklichkeit nur Folge einer durch Rotation entstandenen Fliehkraft sein. Der Veranstalter des Experiments hat durch die Konstruktion auch Einfluss auf die Möglichkeiten der Maus, aus ihren Beobachtungen Schlüsse zu ziehen. Virtuell könnte man anstelle einer Maus auch eine wildgewordene Horde irdischer Forscher und Denker täuschen, alles eine Frage der Algos...

Zudem ist zu bedenken, dass solch ein gewiss nicht ganz banales Projekt wohl in jeder Welt ganz erhebliche Ressourcen beansprucht.
Selbst bei einer weitgehend automatischen Implementation einer laufenden Plausibilitätsprüfung bräuchte dieses ein aktives Betreuerteam, das ein verlässliches Bugfixing gewährleistet.
So stellt sich automatisch die Frage nach dem Warum.

Wissenschaftliche Langeweile mag in den blind fortschrittsgläubigen 60er und frühen 70er Jahren noch genügt haben, aber diese sehr spezielle  Form der Dekadenz findet doch ihre Grenze früher oder später an der Realität.
Nicht anders als die gleichzeitigen und damals allseits verbreiteten Versprechungen einer Befreiung der Menschheit von Armut, Krankheit und Arbeit durch die fortschreitende Technisierung und Globalisierung  :Kopf

Eigentlich sollten auch auf dem Elfenbeinturm seit der Verfilmung fast vier Jahrzehnte vergangen sein.
Bei mir war es jedenfalls so, wenn mich meine Erinnerung nicht gänzlich täuscht.
Höchste Zeit, endlich mal eine neue Rolle aufzulegen...

Jürgen
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000