Autor Thema: Zum Tode von ...  (Gelesen 8011 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Zum Tode von ...
« am: 14 Dezember, 2006, 14:16 »
Wer keinen Spaß hat, hat keine Ideen - zum Tode von Al Shugart

Im Alter von 76 Jahren ist Al Shugart in San Francisco nach einer Herzoperation gestorben. Der Restaurantbesitzer und Hobby-Politiker arbeitete zuletzt als Risikokapitalist. Als Erfinder des Shugart-Busses und der SCSI-Schnittstelle sowie als Miterfinder der Floppy Disk gehört Shugart zu den Personen, die die Entwicklung des Personal Computers maßgeblich prägten.

Al Shugart wurde am 27. September 1930 in Los Angeles geboren. Seine elleinerziehende Mutter gewährte ihm im sonnigen Kalifornien die Freiheit, alle Dinge auszuprobieren, vom Wellenreiten bis zum Amateurfunk. Seine schulische Ausbildung beendete er 1951 mit einem Ingenieursabschluss in Physik an der kalifornischen Redlands University, um einen Tag später als Ingenieur bei IBM anzufangen. Hier arbeitete er 18 Jahre an der Verbesserung der Speichertechnologie mit. So leitete er das Team, das die IBM 1301 und die IBM 2321 entwickelte. Als er 1969 zu Memorex wechselte und dort Vizepräsident der Produktentwicklung wurde, nahm er 200 Ingenieure mit. Bei Memorex arbeitete Shugart zusammen mit Finis Connor (später Connor Peripherals) daran, die Festplattentechnik zu miniaturisieren. Shugart verließ Memorex im Jahre 1973 und gründete Shugart Associates, um seine Idee der Floppy-Disk zu realisieren. Ende 1974 verließ Shugart die Firma und war praktisch pleite, weil er seine Anteile an Shugart Associates nicht verkaufen konnte; die Firma war damals noch nicht an der Börse notiert. Shugart versuchte sich im kommerziellen Fischfang und investierte in eine Bar, die etliche Jahre später zu einem beliebten Feinschmecker-Restaurant wurde. Zeitweilig kassierte er Arbeitslosenunterstützung. Zum Arbeitsamt fuhr er in einem gemieteten Porsche: "Im Silicon Valley musst du erfolgreich aussehen, sonst bist du unten durch", gehört zu den Lebensweisheiten Al Shugarts, die er später in einem Buch niederschrieb.

1979 gründete Shugart die Firma Shugart Technologies, die er in Seagate Technology umbenennen musste, als Xerox seine alte Firma Shugart Associates aufkaufte. Seagate spezialisierte sich auf kleine Festplatten und wuchs alsbald zum wichtigsten Festplatten-Hersteller. Als Seagate 1981 an die Börse geht, bekam Shugart 1,2 Millionen Dollar. Das Geld gab er noch am selben Tag aus: Er bezahlte seine Schulden und kaufte seiner Frau einen roten Ferrari. "Wer keinen Spaß hat, hat keine Ideen", lautete seine lapidare Begründung. Neben seiner Arbeit bei Seagate engagierte sich Shugart in der Lokalpolitik und im Tierschutz. Verärgert über zahlreiche bürokratische Hürden nominierte er 1996 seinen Hund Ernest als Kandidat für die amerikanischen Präsidentschaftswahlen. Die skurrile Kampagne "Ernest goes to Washington" fand reichlich Beachtung, weil sie die Verknöcherung des Systems aufdeckte. Aus der Kampagne entstand "Friends of Earnest", eine anerkannte Bürgerrechtsinitiative, die als "watchdog" Wahlen und Wahlmaschinen überwacht. 2001 kandidierte Al Shugart erfolglos für einen Sitz im kalifornischen Kongress.

Im Jahre 1998 wurde Shugart bei Seagate Technology gefeuert. Er gründete Shugart International als Firma, die in junge Unternehmen investiert. "Kapital ist wichtiger als deine Mutter", lautet eine weitere shugartsche Lebensweisheit, die er als "Als Gesetz" verkündete. Mit Investitionen in Gründungen wie SanDisk und Cypress hatte Shugart Glück. Weniger Glück war ihm mit dem 1999 gegründeten "Entrepreneurs Forum" beschieden, einer kleinen Messe, die er parallel zur Comdex für Personen unter 18 Jahren startete, die nicht auf die damals bereits dahinsiechende Comdex durften.

Obwohl Al Shugart vom Mainframe kam, gehörten seine Gründungen Shugart Associates und Seagate Technology zu den Firmen, die den Personal Computer möglich machten. Im Jahre 1974 während seiner Zeit bei Shugart Associates schenkte Shugart dem jungen Lehrer und Programmierer Gary Kildall ein ausgeleiertes Floppy-Laufwerk, das einen 10.000 Stunden langen Dauertest hinter sich hatte. Kildall, der keine 500 Dollar für ein solches Laufwerk hatte, vom teuren Controller ganz zu schweigen, baute einen Controller. Danach schrieb er mit CP/M ein Betriebssystem für den Intel 8080, das die Floppy-Disk unterstützte. 1977 analysierte Steve Wozniak ein Shugart-Laufwerk samt Controller und entschlackte das Controller-Design um die vom Großrechner stammende Steuerungslogik: Apple ließ danach bei der japanischen Alps für 80 Dollar ein Floppy-Laufwerk samt Controller bauen, das für 495 Dollar verkauft werden konnte. Der Apple ][ wurde so von einem Hacker-Spielzeug zu einem Rechner verzaubert, den jedermann bedienen konnte. Ganz nebenbei sanierte das Laufwerk die Finanzen von Apple.

Quelle : www.heise.de
« Letzte Änderung: 07 Februar, 2010, 15:18 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Möge die Lasagne fliegen - zum Tode von Robert Anton Wilson
« Antwort #1 am: 12 Januar, 2007, 14:29 »
Im Alter von 75 Jahren ist am 11. Januar um 4:50 Uhr der Buchautor und Philosoph Robert Anton Wilson am Post-Polio-Syndrom gestorben. RAW, so sein bekanntes Kürzel, veröffentlichte zahlreiche Romane in der Tradition von James Joyce, darunter die Triologien Illuminatus!, Cosmic Trigger und Schrödingers Katze, aber auch Sachbücher wie das Lexikon der Verschwörungstheorien. In all seinen Werken geht es darum, bestehenden Denkweisen zu misstrauen und mit ihnen zu spielen. "Bloß weil du nicht paranoid bist, heißt das noch lange nicht, dass sie nicht hinter dir her sind," gehörte zu den Lieblingszitaten von Wilson. Seine Werke hatten und haben einen großen Einfluß in der IT-Branche, weil viele seiner Gedanken wie das Spiel um die Zahl 23 oder um den Diskordianismus logische Drudeleien sind, die Programmierer faszinieren.

Im dritten Teil von Cosmic Trigger beschreibt Wilson, wie er am 22. Februar 1994, dem 262. Geburtstag von George Washington, am Computer stirbt, mitten im Schreiben des Romans Die Bräute der Illuminaten. Der Tod wurde in der Los Angeles Times gemeldet: "Mr. Wilson war der Autor zahlreicher Bücher. Er war für seine libertären Ansichten bekannt, für seine Liebe zur Technik und seinen deftigen Humor." Als es wirklich ans Sterben ging, verabschiedete sich Wilson in seinem Blog mit den Worten: "Ich schau nach vorne, mit pragmatischem Optimismus, aber ohne Furcht. Ich liebe euch alle und ich flehe euch an, lasst die Lasagne fliegen. Entschuldigt meine Leichtfertigkeit, ich kann den Tod nicht ernst nehmen. Es scheint so absurd zu sein."

Wie groß seine Fan-Gemeinde wirklich ist, erfuhr RAW erst in den vergangenen Monaten. Weil der Kampf gegen die Krankheit sämtliche Finanzreserven aufgebraucht hatte, veröffentlichten Freunde von Wilson über BoingBoing einen Spendenaufruf. Die Gemeinde reagierte und schickte via Paypal in den ersten beiden Tagen über 68.000 US-Dollar, mit denen die Ärzte und Schmerzmittel bezahlt werden konnten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
"Wie die Zeit vergeht" - zum Tode von Karlheinz Stockhausen
« Antwort #2 am: 09 Dezember, 2007, 13:26 »
Der Komponist Karlheinz Stockhausen ist am 5. Dezember im Alter von 79 Jahren im rheinländischen Kürten gestorben. Stockhausen gilt als Pionier der Musik, die ohne Rückgriff auf klassische Instrumente erzeugt wird. Seine Kompositionsprinzipien beeinflussten die elektronische Musik und zahlreiche Pop-Bands von Pink Floyd bis zur deutschen Band Can, die von seinen Schülern gegründet wurde. Mit seinen Musikexperimenten im "Studio für Neue Musik" des Westdeutschen Rundfunks setzte sich Stockhausen mit Synthesizern und computergenerierter Musik auseinander. Er selbst leitete das Studio von 1962 bis 1990.

Als Pionier der modernen Musik hinterlässt Karlheinz Stockhausen der Nachwelt 280 Werke, von denen die Hälfte der "elektronischen Musik" zugerechnet werden. Sein Opern-Zyklus "Licht" gilt als das größte Projekt der Musikgeschichte seit dem "Ring der Nibelungen" von Richard Wagner. Musikalisch wurde Stockhhausen von seinem Lehrer Olivier Messiaen beeinflusst, technisch vom Physiker Werner Meyer-Eppler, der in Bonn zur Informationstheorie und Phonetik/Sprachsynthese forschte. Der wichtigste Schüler von Meyer-Eppler war Herbert Eimert, der das erwähnte "Studio für Neue Musik" gründete.

Eimert und Stockhausen untersuchten die Formalisierung musikalischer Abläufe, die sie Programmschleifen nannten, ohne dass dabei jedoch mit dem Computer programmiert wurde. Resultat der Forschungen war Stockhausens "Wie die Zeit vergeht", das als theoretisches Hauptwerk des Komponisten gilt. Einige der ausgetüftelten Musikmaschinen und Klanginstallationen von Eimert und Stockhausen sind im Rock-Museum Gronau zu sehen und zu hören, wo auch das Studio der Stockhausen-Schüler Irmin Schmidt und Holger Czukay zu sehen ist.

In der deutschen Kultur-Öffentlichkeit war Stockhausen mit einem Hang zu theatralischen Inszenierungen eine umstrittene Figur. Seine missverständlich wiedergegebenen Kommentare zu den Terroranschlägen vom 11. September 2001 führten dazu, dass eine ganze Reihe altersüblicher Ehrungen gestrichen wurden.

Zum Tode von Karlheinz Stockhausen bringt sein Haussender WDR eine Reihe von Sondersendungen. Die Werkschau beginnt am morgigen Sonntag im WDR-Fernsehen mit dem Film "Licht - Das Welttheater des Karlheinz Stockhausen" (12:30 Uhr), dazu werden in den WDR-Hörfunkprogrammen Ausschnitte aus seinen wichtigsten Werken zu hören sein.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der Computer schafft Umordnung: Zum 100. Geburtstag von Max Bense
« Antwort #3 am: 07 Februar, 2010, 14:57 »
Heute vor 100 Jahren wurde in Straßburg der Mathematiker und Philosoph Max Bense geboren. In den 50er und 60er Jahren lehrte er kybernetisches Denken in Deutschland. Viele seiner Schüler halfen dabei, die Informatik in Deutschland zu etablieren. Doch der Weltprogrammierer  beeinflusste auch Literatur und Malerei nachhaltig.

Max Bense wollte die Kybernetik in Deutschland etablieren. Am 7. Februar 1910 in Straßburg geboren, studierte Bense Naturwissenschaften und Philosophie, seine Promotion über "Quantenmechanik und Daseinsrelativität" verteidigte Albert Einstein gegen die nationalsozialistischen Eiferer der "Deutschen Physik". Eine Universitätskarriere war ihm damit verbaut und Bense musste als Laborant arbeiten.

Als das Dritte Reich zusammenbrach, arbeitete Bense am Labor für Hochfrequenztechnik und Ultraschall. Sein Chef, der Radarspezialist Hans Erich Hollmann gehörte zu der Gruppe von Wissenschaftlern, die in der "Operation Paperclip" in die USA transferiert wurde und dort in der geheimen Militärforschung arbeitete. Hollmann schickte im Jahre 1949 Bense die Arbeit eines Forschers, der ebenfalls Flugabwehrsysteme entwickelt hatte. Norbert Wieners "Cybernetics or control and communication in the animal and the machine" beeinflusste Max Bense nachhaltig. In der Kybernetik fand er eine Systemtheorie, eine neue Philosophie, die mit Begriffen wie Nachricht, Information, Entropie und Selbstregulation arbeitete.

Parallel zu seiner Beschäftigung mit Wittgenstein besorgte sich Bense die grundlegenden Werke der Computer Science von Shannon, Weaver und anderen. In der Zeitschrift Merkur veröffentlichte er 1951 eine Analyse des Computers ENIAC unter dem Titel "Kybernetik oder die Metatechnik einer Maschine". Nach einem Intermezzo an der Universität Jena kam Bense zur Technischen Hochschule Stuttgart, wo er Philosophie und Wissenschaftstheorie lehrte und über "Ästhetik und Computerprogrammierung" forschte. Seine Arbeiten über den Computer gelten heute als Grundlagen der Computerkunst.

Wie der Bense-Bewunderer Herbert W. Franke in Telepolis schrieb, ging es Bense um die möglichst präzise Bestimmung der ästhetischen Funktion. Deshalb spielten Computer eine wichtige Rolle in seinen Abhandlungen zur Ästhetik: Ein Programm wird aufgestellt, das die ästhetischen Kriterien als Daten liefert, die von einem Computer bearbeitet werden. Ein Zufallsgenerator erzeugt Varianzen, ein Realisator genannter Zeichenarm (heute Plotter genannt) gibt die Kunst aus.

Seine Ideen stellte Bense Anfang der 60er Jahre in einem rororo-Taschenbuch über informationstheoretische Ästhetik vor, das sein populärstes Werk wurde und vielen den Einstieg in die Computerwelt vermittelte. Seine Studenten, Mitglieder der Stuttgarter Schule, setzten seine Ideen um: Ebenso wie Bense sich Zeit seines Lebens weigerte, einen Führerschein zu machen, wollte er keine Computer bedienen. Maler wie Frieder Nake und Georg Nees programmierten Anfang 1960 einen Zuse Z22 und schickten seine Ergebnisse zu einem Zuse-Graphomat, "Dichter" wie Theo Lutz und Rul Gunzenhäuser fütterten einen IBM-Computer mit Kafka-Worten und nannten die Ausgabe über den Fernschreiber "stochastische Gedichte". Die vier forschten und lehrten später als Informatik-Professoren.

Während sich die Informatik entwickelte und als Disziplin die "technische Grundausstattung für die Informationsgesellschaft" (Wolfgang Coy) schuf, konnte die Kybernetik in Westdeutschland nicht Fuß fassen. Für Max Bense war dies kein Grund zur Verbitterung. Er befasste sich beständig mit Kunst und Literatur und stand im regen Austausch mit Schriftstellern und Malern: Eine Ausstellung im Karlsruher Zentrum für Kunst und Medientechnologie (ZKM) zeigt seinen weit reichenden Einfluss. Max Bense starb am 29. April 1990 in Stuttgart.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Als die Welt das Lutzen lernte: Zum Tod von Theo Lutz
« Antwort #4 am: 07 Februar, 2010, 18:33 »
Am Rande der Feierlichkeiten zum Geburtstag  des Kybernetikers Max Bense wurde bekannt, dass sein Schüler Theo Lutz Ende Januar gestorben ist. Lutz, der zuletzt als Professor an der Fakultät Informationstechnik der Hochschule Esslingen unterrichtete, wurde mit Computerexperimenten bekannt, die ihn zu einem der Pioniere auf dem Gebiet der digitalen Poesie machten.

NICHT JEDER BLICK IST NAH. KEIN DORF IST SPAET.
EIN SCHLOSS IM FREI UND JEDER BAUER IST FERN.
JEDER FREMDE IST FERN. EIN TAG IST SPAET.
JEDES HAUS IST DUNKEL. EIN AUGE IST TIEF.


Mit diesen Worten beginnt das bekannteste Gedicht von Theo Lutz, "Nach Franz Kafka" genannt. Das Gedicht wurde in etlichen Varianten 1959 von einem Fernschreiber ausgedruckt, der an einen Zuse Z22 angeschlossen war. Der Rechner verarbeitete eine Passage aus dem Roman "Das Schloss" von Franz Kafka. Das Zufallsprogramm schrieb Theo Lutz.

Der am 23. Juli 1932 geborene Lutz studierte nach dem Krieg in Stuttgart Mathematik. Seine Technik, dem Computer Gedichte zu entlocken, wurde "lutzen" genannt. Neben den an einem IBM-Rechner entstandenen Gedicht IBM von Emmett Williams gilt die Kafka-Verarbeitung durch Lutz als Pioniertat der digitalen Poesie.

Lutz arbeitete später bei IBM, wo er unter anderem dafür sorgte, dass einige der wichtigsten Aufsätze von Max Bense in den "IBM Nachrichten" erscheinen konnten. Als IBM-Referent beschäftigte sich Lutz mit dem, was heute "Technologiefolgenabschätzung" genannt wird, der Bestimmung der Rolle von Computern in der Gesellschaft. So stellte er für IBM im Jahre 1987 im Rahmen eines Seminars "Informationsverarbeitung in der Sozialversicherung" 10 Thesen zur Entwicklung des Computers bis zum Jahre 2010 vor, dem Jahr, in dem IBM Deutschland seinen 100. Geburtstag hat.

Mit einer bemerkenswerten Ausnahme sind alle Thesen von Lutz mehr oder weniger bestätigt worden. Falsch lag er nur bei These Nr. 9: "Auch im Jahre 2010 wird die aufgeklärte und demokratische Gesellschaft ihre spezifischen Ängste haben, aber sie werden wenig mit dem Computer zu tun haben. Themen wie 'Angst vor Überwachung', 'Jobkiller', 'Datenschutz' u.a. werden nicht mehr im Zusammenhang mit dem Computer gesehen. Datenschutz wird als Bürgerrecht akzeptiert und respektiert sein."

Nach langen Jahren der Demenz ist Theo Lutz in Esslingen am 31. Januar 2010 gestorben.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Heute vor 100 Jahren wurde William Shockley geboren. Zusammen mit Walter Brattain und John Bardeen erfand er den Transistor, wofür alle drei 1956 den Nobelpreis erhielten. Später entwickelte er in den Shockley Semiconductor Laboratories den Thrystor. Sein Labor gilt heute als Keimzelle des Silicon Valleys. Die Gründer von Advanced Micro Devices, Fairchild Semiconductor, Intel und National Semiconductor hatten zuvor bei Shockley gearbeitet.

Shockley studierte Physik am kalifornischen Institute of Technology und an der Harvard Universität. Danach arbeitete er bis zum Beginn des Zweiten Weltkrieges in den Bell Laboratories. Im Krieg spezialisierte er sich auf die Verbesserung von Radarsystemen und wurde schließlich Leiter der "Anti-Submarine Warfare Operations Group" mit besten Beziehungen zum Verteidigungsministerium. In dieser Position schrieb er ein Gutachten über die Erfolgschancen eines Krieges gegen Japan, das maßgeblich zum Einsatz der Atombomben in Hiroshima und Nagasaki beigetragen haben soll.

Wieder bei den Bell Labs eingestellt, gehörte Shockley mit Brattain und Bardeen zu dem Dreiergespann, das in einem Wundermonat im Jahre 1947 den Transistor erfand und so weit entwickelte, dass die Technik die unzuverlässigen Vakuumröhren ersetzen konnte. Für die Arbeit bekamen sie den Nobelpreis, danach zerstritten sie sich. Laborleiter war übrigens John Pierce, dessen 100. Geburtstag am 27. März ansteht. Er gilt als Pionier der Computermusik und Miterfinder der Puls-Code-Modulation. Pierce verwarf Namen wie Varistor und Thermistor und prägte den Begriff Transistor.

Shockley blieb als einziger weiter in der Halbleiterforschung tätig und erfand den Bipolartransistor. Schließlich wurde er Leiter der Semiconductor Laboratories von Beckmann Instruments, die bald nach ihm benannt wurden. Dort bildete er die Leute aus, die später das Silicon Valley prägten. Als unbequemer Arbeitgeber entfremdete Shockley die talentiertesten Mitarbeiter wie Robert Noyce und Gordon Moore. Sie verließen Shockleys Labor, gründeten mit Risikokapital von George Doriot die Firma Fairchild Semiconductors und gingen als die 8 Verräter in die Technikgeschichte ein, obwohl einige auch Fairchild "verrieten" und die Firmen Advanced Micro Devices und Intel gründeten.

In seinen späteren Lebensjahren wandte sich Shockley der Rassenforschung und der Entwicklung von Intelligenztests zu. Er sprach sich für die Sterilisierung von Menschen mit niederem IQ aus und warnte vor der schwarzen US-Bevölkerung und ihrer vermeintlich niederen Intelligenz. Shockley entfremdete sich damit von der Wissenschaft wie den politischen Strömungen der Zeit und starb vereinsamt am 12. August 1989 an Krebs.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Herman Hollerith: Vater der Datenverarbeitung, Großvater der IBM
« Antwort #6 am: 01 März, 2010, 10:37 »
Herman Hollerith kam an einem 29. Februar zur Welt. Er steht nur alle vier Jahre im Kalender, es erscheint dennoch angemessen, heute an ihn zu erinnern, denn seit jenem Datum sind 150 Jahre ins Land gegangen. Hollerith stammte aus Buffalo im US-Bundesstaat New York, einer Stadt am Ostufer des Eriesees, die damals rund 80.000 Einwohner zählte. Sein Vater Johann Georg war Immigrant aus der Pfalz. Hollerith besuchte das New Yorker City College und die Ingenieurschule der Columbia University, die er 1879 als Bergwerksingenieur verließ. Danach wirkte er als "special agent" bei der amerikanischen Volkszählung von 1880 mit, für die er einen Bericht (PDF-Datei) über die Energiequellen der Schwerindustrie erstellte. 1882 lehrte Hollerith ein Jahr lang am MIT, 1883 wechselte er ins US-Patentamt, ab 1884 war er freiberuflich tätig. Im gleichen Jahr reichte er seine erste Erfindung zur Datenspeicherung ein, die nach einigen Umarbeitungen zu den Lochkarten-Patenten Nr. 395,781 und 395,782 von 1889 führte.

Schon während der Volkszählung 1880 hatte Herman Hollerith die Probleme der Datenauswertung kennengelernt. Zur Bändigung der Papierflut gab es mechanische Hilfsgeräte, die sich Zensus-Leiter Charles W. Seaton ausgedacht hatte. Sie verhinderten aber nicht, dass die Resultate erst nach acht Jahren komplett vorlagen. Hollerith kannte außerdem die Lochkarten, mit denen Jacquard-Webstühle gesteuert wurden. Die entscheidende Idee soll ihm aber in der Eisenbahn gekommen sein, als der Schaffner den Teil der Fahrkarte lochte, der in Stichworten die Merkmale des Passagiers beschrieb.

Holleriths patentiertes System umfasste Stanzer, Leser mit Tabellierer und Sortierer. Der Stanzer prägt der Karte die Daten ein, die in Zahlenlisten oder Volkszählungsbögen vorliegen, der Leser gibt bei Abtastung der gelochten Karte über elektrische Kontakte Impulse an die Zählwerke des Tabellierers, und der Sortierer bildet nach bestimmten Kriterien Kartenstapel.

Nachdem Hollerith einen Prototyp seines Systems auf der Weltausstellung in Paris gezeigt hatte, brachte die US-amerikanische Volkszählung von 1890 den großen Durchbruch. Seine Maschinen und das fleißige Bedienpersonal legten schon nach drei Monaten die Einwohnerzahl vor und nach einem halben Jahr die restlichen Daten. Im Dezember halfen Hollerith-Maschinen bei der Volkszählung in Österreich-Ungarn.

In den 1890er-Jahren fanden weitere Volkszählungen statt, so in Kanada, Italien und Russland. Parallel dazu entwickelte Hollerith seine Maschinen weiter und schuf fast im Alleingang die neue Technik der maschinellen Datenverarbeitung, die sich langsam auch in der Industrie verbreitete. 1896 gründete er in Washington die Tabulating Machine Company, die seine Maschinen baute und vermietete. 1902 entstand eine englische Zweigfirma, 1910 eine deutsche.

1911 erwuchs ihm mit der Powers Accounting Machine Company ein ernstzunehmender Konkurrent, zugleich endete seine Unternehmenstätigkeit. Der Finanzmann Charles Flint fusionierte Holleriths Firma mit drei anderen zur Computing Tabulating Recording Corporation, kurz CRT, die 1924 in IBM umgetauft wurde. Herman Hollerith blieb Aktionär und technischer Berater der neuen Firma, zog sich aber mehr und mehr ins Privatleben zurück. Er starb nach kurzer Krankheit am 17. November 1929. Sein Grab befindet sich auf dem Oak-Hill-Friedhof in Georgetown, sein Nachlass liegt in der Kongressbibliothek.

In der Ahnenreihe des Computers bildet die von Hollerith seit den 1880er-Jahren geschaffene Datentechnik eine Linie parallel zur Hauptreihe von Charles Babbage, Alan Turing, Konrad Zuse und John von Neumann. Hollerith-Hardware ließ sich in beschränkter Weise mit austauschbaren Rahmen programmieren, in denen Kabel steckten. Diese legten etwa bei einem Tabellierer die Auswertung der Karteninhalte fest und konnten Summen- oder Produktbildungen veranlassen. Daneben ermöglichte die Lochkarte die Stapelverarbeitung und war bis tief in die 1970er Jahre hinein ein verbreitetes und nicht immer positives Symbol (PDF-Datei) der Computertechnik. In den 1930er-Jahren ging die Berliner IBM-Tochter Dehomag auf die Suche nach Hollerith-Verwandten und stellte zwei von ihnen ein, um den deutschen Charakter der Firma zu betonen. Heute zeichnen sich die Pfälzer Holleriths auf einem anderen Gebiet aus.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Heute vor 100 Jahren wurde John Robinson Pierce in Des Moines geboren. Pierce gilt als einer der produktivsten amerikanischen Ingenieure der Nachkriegszeit. Er prägte den Begriff Transistor  für eine Erfindung, die in seiner Abteilung der Bell Laboratories realisiert wurde.

35 Jahre lang arbeitete John R. Pierce in der Forschungsabteilung der Bell Labs von AT&T, nachdem er 1936 am kalifornischen Institute of Technologie (Caltech) mit einer Arbeit über Vakuumröhren und Mikrowellen promoviert hatte. Er wurde dort Laborleiter (1955), Leiter des Gesamtbereiches elektronische Systeme (1955) und schließlich (1962) Cheftechniker des Konzerns, der später Lucent Technologies hieß und heute in Alcatel-Lucent aufgegangen ist. Nach seinem Ausscheiden im Jahre 1971 wurde Pierce Professor an der Caltech und arbeitete dort von 1979 bis 1982 als Cheftechnloge des Jet Propulsion Laboratory. Neben seiner Lehrtätigkeit begründete er die Forschung in der Computermusik. 1983 ging als Musikprofessor an die Universität Stanford, wo er Psychoakustik lehrte. Pierce starb am 2. April 2002 an einer Lungenentzündung im kalifornischen Sunnyvale.


Die wissenschaftliche Karriere von John R. Pierce begann im zweiten Weltkrieg, in dem Pierce über Radartechnik forschte. Er beschäftigte sich mit der von Rudolf Kompfner erfundenen Wanderfeldröhre und lieferte die mathematische Theorie zu diesem Signalverstärker, der in Radargeräten zum Einsatz kam. Rudolf Kompfner gehörte später zu den ersten Forschern, die von Pierce zu den Bell Labs geholt wurden. Zusammen mit seinen Bell-Kollegen Barney Oliver und Claude Shannon entwickelte und patentierte Pierce noch in der Kriegsforschung ein Kommunikationssystem auf Basis der Pulse Code Modulation. Außerdem entwickelte er eine Elektronenkanone, die nach ihm benannt wurde.

Eine besondere Erfindung von Pierce war ein schlichter Name. Für ein Bauteil, das eine ihm unterstellte Forschungsgruppe entwickelt hatte, erfand Pierce den Namen Transistor, wie er in der Fernsehsendung Transistorized erklärte.

Für sich selbst erfand Pierce den Namen J.J.Coupling, einen Begriff aus der Kernspinresonanzspektroskopie. Unter diesem Namen veröffentlichte Pierce Science Fiction, die ähnlich wie das Werk des mit ihm befreundeten Arthur C. Clarke auf der Basis von wissenschaftlichen Fakten extemporierte. Viele Geschichten befassten sich mit der Frage, ob Maschinen intelligent werden können.  In How to build a thinking machine (PDF-Datei), einer seiner bekanntesten Stories aus dem Jahre 1951, schreibt Coupling über eine perfekte denkende Maschine, die auch vergessen kann, weil Vergessen eine zentrale menschliche Fähigkeit darstellt. Seine Überlegungen werden später vom KI-Pionier Marvin Minsky weiter entwickelt.

Noch einflussreicher war die Science-Fiction-Story "Don't write, Telegraph!" , die Coupling 1952 veröffentlichte. In ihr berechnete Pierce die Laufzeit und die Sendestärke von Kommunikations-Signalen, die zwischen Mond und Erde gesendet werden. Seine Berechnungen führten Pierce direkt zur Konstruktion des militärisch genutzten Nachrichtensatelliten Echo im Jahre 1960, wie sich Pierce später erinnerte. Kommerziell wichtiger wurde für seinen Arbeitgeber AT&T der erste zivile Satellit Telstar, dessen Entwicklung ebenfalls von Pierce beschrieben wurde. Als Höhepunkt der Entwicklung der Satellitentechnik empfand Pierce die weltumspannende Ausstrahlung von All you need is love im Jahre 1967.

In dieser Zeit hatte sich Pierce bereits einem neuen Forschungsgebiet zugewandt, der Computermusik, die er zusammen mit seinem Bell Labs-Kollegen Max V. Matthews erforschte: 1965 veröffentlichte er im Playboy den Aufsatz "Portrait of the Computer as a Young Artist", in dem er eine Zukunft skizzierte, in der Computer die Musikproduktion bestimmen. Pierce lud Komponisten wie James Tenney oder Jon Cage in die Bell Labs ein, an der neuen Musik zu forschen. Seine Untersuchung zur Wissenschaft des Klangs gilt heute als Standardwerk der Psychoakustik. Im Jahre 1983 wechselte John R. Pierce die "Seiten", als er Musikprofessor am Center for Computer Research in Music and Acoustics der Universität Stanford wurde: Jahrelang hatte er Gelder in Forschungsprojekten ausgegeben, nun sammelte er Geld ein, um die finanziell schwer angeschlagene Universität zu retten. Pierce selbst spendete rund 3 Millionen Dollar, noch wichtiger waren seine vielseitigen Industriekontakte. Bis zu seinem Tod im Jahre 2002 widmete sich John R. Pierce der Konstruktion von neuen Musikinstrumenten wie dem elektronischen Schlagzeug, das er 1992 erfand: "Was wir wirklich verstehen, ist nicht die natürliche Welt, sondern die Maschinen, die wir gebaut haben, diese Welt zu bevölkern."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
PC-Pionier und Altair-Erfinder Ed Roberts ist tot
« Antwort #8 am: 02 April, 2010, 10:55 »
Im Alter von 68 Jahren ist Dr. Henry Edward Roberts am 1. April an den Folgen einer Lungenentzündung gestorben. Der Arzt und Elektroingenieur gilt als Geburtshelfer der PC-Branche und wichtiger Förderer von Bill Gates in dessen Anfangsjahren.

Edward Roberts wurde am 13. September 1941 in Miami als Sohn eines Service-Technikers und einer Krankenschwester geboren. Frühzeitig hatte er den Wunsch, Arzt zu werden und baute verschiedene Herzschrittmacher und Herz-Lungenmaschinen in Zusammenarbeit mit Ärzten der Universität Miami. Die Erfahrungen führten ihn zum Studium der Elektrotechnik an der Oklahoma State University und 1968 zum Eintritt in die Air Force, in deren Forschungslabors er arbeitete. Im Jahre 1970 gründete Roberts mit Laborkollegen die Firma Micro Instrumentation and Telemetry Systems (MITS) in Albuquerque, die Bausätze für fortgeschrittene Elektronik-Bastler produzieren sollte. Eines der ersten MITS-Produkte war ein digitaler Taschenrechner für den Eigenbau.

Als Texas Instrument 1972 begann, billig komplette Taschenrechner anzubieten, musste MITS auf neue Geschäftsfelder ausweichen. Roberts hatte die Idee, die von MITS für Taschenrechner benutzten Prozessoren der jungen Firma Intel mit etwas Elektronik als Bausatz-Computer zu verkaufen. Von finanziellen Problemen geplagt, entwickelte er zusammen mit Les Salomon einen Bausatz für den Altair 8800 getauften Computer, dessen zweiter Prototyp 1974 in der Zeitschrift Popular Electronics vorgestellt wurde. Der Artikel löste eine Welle von Vorbestellungen aus, fand aber auch sehr interessierte Leser, die nicht die 397 Dollar zum Kauf dieses Gadgets hatten. Zu ihnen gehörten Bill Gates und Paul Allen, die noch am Erscheinungstag des Artikels mit Ed Roberts telefonierten, um ihm ein BASIC anzubieten, das zum Bausatz mitgeliefert werden sollte. Roberts lud die jungen Computerenthusiasten nach Albuquerque ein und verschaffte ihnen die Chance ihres Lebens, wie sich Allen und Gates in einem gemeinsam verfassten Kondolenzbrief dankbar erinnern.

Von Beginn an kämpfte Roberts in der defizitären MITS, ein Cash-Flow-Modell zu entwickeln, das aus der Welle der 4000 Vorbestellungen für Altair-Bausätze bei Einkaufspreisen von 75 Dollar ein profitables Geschäft machen sollte. 1976 hatte MITS zwar einen Umsatz von 13 Millionen Dollar, aber Zahlungsprobleme, da Bankenkredite fehlten. Roberts holte die Firma Pertec als Geschäftspartner ins Boot, einen Hersteller von Bandlaufwerken für Großrechner. Pertec übernahm MITS im Zuge eines Aktientausches für ca. 6 Millionen Dollar. Roberts erhielt ein eigenes Forschungslabor und erzielte bei dem Verkauf seiner Aktien einen Erlös von 2 Millionen. Im Zuge der Pertec-Übernahme überwarf sich Roberts mit seinen BASIC-Lieferanten Allen und Gates, die mehr Geld als die usprünglich vereinbarten 200.000 Dollar für ihr BASIC verlangten und überdies das "exklusive" BASIC für die anderen schnell auftauchenden Hobby-Computer entwickeln wollten. Heute sind die Kämpfe der Rechtsanwälte vergessen. Nach Informationen der New York Times flog Bill Gates Anfang der Woche sofort zum Medical Center of Middle Georgia, als er von Roberts' Zustand erfuhr.

Von seinen Millionen kaufte Roberts zunächst eine Farm in Georgia, verfolgte dann aber seinen Kindheitstraum und studierte bis 1986 Medizin an der neu eröffneten Mercer University, die auch ältere Studenten akzeptierte. Er ließ sich als Hausarzt in Cochran nieder, wo er bis zu seinem Tode praktizierte und auf dem Lande bis zu 30 Patienten am Tag besuchte.

Quelle : www.heise.de
« Letzte Änderung: 03 April, 2010, 11:18 von SiLæncer »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
(3n+1)? Zum 100. Geburtstag des Mathematikers Lothar Collatz
« Antwort #9 am: 06 Juli, 2010, 08:42 »
Gefeiert wird er erst im Oktober, geboren wurde er jedoch heute vor 100 Jahren: der Mathematiker Lothar Collatz (PDF-Datei). In seiner langen Laufbahn widmete er sich der numerischen Mathematik und dem Einsatz von Computern in dieser Wissenschaft. Außerdem geht auf ihn ein zahlentheoretisches Rätsel zurück, das so einfach und so mysteriös wie das berühmte Fermatsche Problem ist, doch im Unterschied zu diesem noch einer Lösung harrt.

Collatz kam am 6. Juli 1910 im sauerländischen Arnsberg zur Welt, und sein Vater, ein Geodät, versorgte ihn schon früh mit Denksportaufgaben und Schachproblemen. Nach der Schulzeit in Minden und Stettin studierte er Mathematik und Physik in Greifswald, Göttingen, München und Berlin. Hier legte er sein Staatsexamen bei Richard von Mises und Erwin Schrödinger ab. Eine Promotion bei von Mises zerschlug sich, da dieser von den Nazis vertrieben wurde; seinen mathematischen Doktor machte Collatz dann bei anderen Professoren.

1935 wechselte er an die TH Karlsruhe, wo er zunächst als Assistent und nach der Habilitation als Privatdozent tätig war. Im 2. Weltkrieg arbeitete er auch im Institut für Praktische Mathematik in Darmstadt. 1943 wurde Collatz Professor an der TH Hannover, 1952 folgte er einem Ruf an die Universität Hamburg, wo er das Institut für Angewandte Mathematik gründete und leitete. 1978 wurde er emeritiert, blieb der Hochschule aber eng verbunden. Er starb am 26. September 1990 in der bulgarischen Stadt Warna während einer Konferenz über Computeranwendungen in der Mathematik.

In seinem Berufsleben erforschte Collatz die Methoden und Algorithmen des wissenschaftlichen Rechnens und ihre theoretische Basis, er hatte aber auch mit realen Computern zu tun. Von 1963 bis 1972 war er Direktor des universitären Rechenzentrums in Hamburg, und schon 1958 besorgte er seinem Institut eine IBM 650, die ab 1960 von einer Telefunken TR4 unterstützt wurde. Darüber hinaus befasste er sich mit Graphentheorie und mit der Analyse geometrischer Ornamente.
Außerhalb der Büros war Collatz ein höchst begabter Maler und Zeichner. Eine umfangreiche Gedenkschrift (PDF-Datei) seines Instituts führt mehrere von ihm ausgedachte Spiele auf. Seine bekannteste Idee ist zweifellos das (3n+1)- oder Collatz-Problem, international als Collatz Conjecture bekannt.

Dieses noch ungelöste Rätsel basiert auf einem simplen Algorithmus: Man nehme eine beliebige natürliche Zahl. Ist sie gerade, wird sie halbiert, ist sie ungerade, mit 3 multipliziert und 1 addiert. Das Verfahren wird mit der entstandenen Zahl fortgesetzt und das Ganze so oft iteriert, bis die 1 kommt. Die Collatz-Vermutung lautet: Für jede Zahl endet die Prozedur, wie etwa bei der Folge 3, 10, 5, 16, 8, 4, 2, 1, stopp.

Anscheinend geht das Problem auf Überlegungen zur Graphentheorie zurück, die Collatz in den 1930er-Jahren anstellte, aber nicht publizierte. 1952 wurde es vom englischen Mathematiker Bryan Thwaites erneut entdeckt und verbreitete sich anschließend unter verschiedenen Namen in der Fachwelt. Collatz selbst schrieb erst 1986 in einer chinesischen Zeitschrift darüber.

Wem das kleine Rechenprogramm der HAW Hamburg nicht genügt, der kann die Vermutung auch in einem distributiven Projekt testen oder sich künstlerisch betätigen. Der Algorithmus des Collatz-Problems liefert die "Hailstone Numbers", die zu faszinierenden Grafiken und unterhaltsamen Filmen führen.

1983 brachte die Zeitschrift "Elektronische Rechenanlagen" einen Aufsatz von Lothar Collatz und drei Co-Autoren über den Einfluss der Computer auf die numerische Mathematik. Darin nannte er Eigenschaften, die wir Menschen den Maschinen voraus haben: Intuition, Überblick und Flexibilität, die Fähigkeit, einen Rechengang ändern zu können sowie das Erkennen von Ausnahme und Grenzfällen. Vielleicht gelingt es damit auch irgendwann, sein Problem zu lösen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Ordnung kommt nicht von selbst: zum Tode von Benoît Mandelbrot
« Antwort #10 am: 16 Oktober, 2010, 18:38 »
Im Alter von 85 Jahren ist der Mathematiker Benoît B. Mandelbrot  gestorben. Mandelbrot war 35 Jahre lang bei IBM angestellt und erforschte dort die fraktale Geometrie, die mathematische Untersuchung von Gebilden mit gebrochener Dimension. Er prägte diesen Zweig der Mathematik mit Begriffen wie fraktal und definierte die Mandelbrot-Menge, deren graphische Darstellung mit dem Programm Mandelzoom viele Mathematiker zum Programmieren brachte. Als Erfinder der Mandelbrot-Menge sah sich der Namensgeber indes nicht: "Jeder Anspruch, als Erster etwas erfunden oder gefunden zu haben, offenbart nur außerordentliche Arroganz", äußerte er zu dem Thema.

Der am 20. November 1924 in Warschau geborene Benoît Mandelbrot wuchs in einer jüdischen litauischen Familie auf, die nach Frankreich emigrierte und die französische Staatsbürgerschaft annahm. Nach der Schulzeit studierte er Mathematik bei Gaston Julia, der die nach ihm benannte Julia-Menge untersuchte, und bei Paul Levy. In den USA studierte Mandelbrot Aeronautik, ehe er 1952 in Paris den Doktorgrad der Mathematik erhielt. Bis 1958 arbeitete er beim französischen Großforschungsinstitut CNRS und wechselte dann zum WatsonResearch Center der IBM, wo er sich bis zur Pensionierung vor allem mit angewandter Mathematik beschäftigte.

Zum Schluss wurde Mandelbrot, der die französische und US-amerikanische Staatsbürgerschaft besaß, ein IBM-Fellow und war damit frei, sich beliebigen Themen zuzuwenden: "Ich arbeitete in einem Industrielabor, weil die akademische Welt keinen Platz für schräge Denker hatte," erklärte der Mathematiker in einem Gespräch, das deutsche Kollegen von der Universität Bremen mit ihm führten.

Nach seiner Pensionierung bei IBM im Jahre 1987 betätigte er sich bis 2005 als Mathematik-Professor an der Yale University. Er erhielt zahlreiche Preise, Ehrendoktorate und Auszeichnungen. Neben seinen Untersuchungen zur fraktalen Geometrie war Mandelbrot bestrebt, seine Erkenntnisse auch auf andere Bereiche zu übertragen. So veröffentlichte er Abhandlungen über die kosmologische Forschung oder über die fraktalen Strukturen von Finanzmärkten. Sein letzter wissenschaftlicher Beitrag beschäftigte sich mit dem Risiko-Management, Bei seinem letzten öffentlicher Auftritt bei der TED-Konferenz erhielt er großen Beifall.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Im Alter von 84 Jahren ist der Internet-Pionier Paul Baran am vergangenen Samstag im kalifornischen Palo Alto an den Folgen eines Lungenkrebses gestorben. Im Jahre 1962 verantwortete Baran als leitender Elektroingenieur des Militärforschungsinstitutes RAND die Herausgabe von 13 technischen Memoranden, die später zur theoretischen Grundlage des Arpanets wurden. Neun dieser Memoranden schrieb Baran selbst. Seine Arbeit trug wesentlich dazu bei, die Ausfallsicherheit des späteren Internet als Produkt des Kalten Krieges zu sehen: "Wenn zwei paranoid hochgerüstete Länder aufeinander starren, muss man sich Gedanken darüber machen, wie man in dieser instabilen Situation bei einem Erstschlag überleben kann", erklärte er 1989.*

Paul Baran wurde am 29. April 1926 als Sohn jüdischer Kaufleute im polnischen Grodno geboren. Die Familie wanderte 1928 in die USA aus und gelangte nach Philadelphia, wo sein Vater einen Gemüseladen betrieb. Paul lieferte das Gemüse mit einem roten Lastfahrrad aus und beschäftigte sich früh mit Mathematik zur optimalen Routenplanung. Er studierte Elektrotechnik an der heutigen Drexel University und ging 1949 fing mit einem B.A. bei der Eckert-Mauchly Computer Corporation in Philadelphia an, wo er Röhren für den ersten UNIVAC-Computer (YouTube-Video) testete. Es folgte eine Anstellung in der Radar-Abteilung von Hughes Aircraft, während der sich Baran an der Universität von Kalifornien auf den M.A. vorbereitete. Die Erkenntnisse aus seiner 1959 geschriebenen Abschlussarbeit über optische Zeichenerkennung versuchte Baran zu patentieren. Nach dem Abschluss ging Baran zu RAND und arbeitete dort in einer Abteilung für Elektrotechnik, die sich mit der Ausfallsicherheit von Telefon- und Funktelefonnetzen beschäftigte.

Im Jahre 1962 erhielt RAND den Forschungsauftrag AF 49(638)-700 der US-Luftwaffe. Sie bestellte ein umfassendes Gutachten über den Aufbau und Betrieb eines digitalen Kommunikationsnetzes. Für dieses Gutachten verfasste Baran die Memoranden. Neben den theoretischen Studien führte Baran mit seinen Kollegen Tests zur Ausfallsicherheit von Datennetzen durch. Die Auftragsstudie von RAND kam zu dem Schluss, dass ein paketvermitteltes, redundant geschaltetes Netz mit 400 Switches und 200 Multiplex-Stationen in der Lage wäre, 100.000 Nutzer zu verbinden und etwa 60 Millionen Dollar kosten würde. Auf Basis dieser Studie begannen die Arbeiten am Arpanet.

Der von Baran vorgeschlagene Einsatz redundanter Leitungen und die Idee, die Kommunikation in Pakete aufzuteilen, die bei Bedarf mehrfach übermittelt werden, hielt Baran selbst nicht für besonders herausragend: "Das war absolut keine große Leistung. Es war die einzige Lösung, die ich denken konnte." Heute wird Baran neben dem Briten Donald Davies als gleichberechtigter Erfinder der paketvermittelten Komunnikation geführt. "Das Internet ist das Werk von Tausenden von Menschen. Es wird in den nächsten Jahren von Hunderten neuer Ideen fortentwickelt. Es ist wie eine Kathedrale. Irgendwann kommt ein Historiker und fragt, wer denn die Kathedrale gebaut hat. Wenn man nicht aufpasst und die Arbeit der anderen nicht achtet, kann man sich selbst täuschen und glauben, der Erbauer zu sein," erklärte Baran im Jahre 2001.

Baran verließ RAND im Jahre 1968 und gründete das Institute for the Future. Als Zukunftsforscher schrieb er unter anderem in den 70er-Jahren einen Aufsatz, der den Aufstieg des "Online-Shoppings" und den Niedergang der Supermärkte vorhersagte. Außerdem gründete er sieben Firmen, unter anderem ein Unternehmen, das paketvermittelte Telefonie anbieten sollte. Zuletzt investierte der immer optmistische Baran in die IP-TV-Technik. Paul Baran erhielt zahlreiche Preise und Auszeichnungen und wurde in die "Hall of Fame" amerikanischer Technik-Heroen aufgenommen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der "Vater der CD" ist tot
« Antwort #12 am: 25 April, 2011, 16:35 »
Der langjährige Sony-Chef Norio Ohga ist am Sonnabend im Alter von 81 Jahren in Tokio gestorben, wie der Konzern am Osterwochenende mitteilte. Ohga war unter anderem maßgeblich an der Entwicklung der Compact Disc beteiligt. So soll der studierte Musiker mit dafür verantwortlich sein, dass die CD einen Durchmesser von 12 Zentimetern und damit eine Spieldauer von 74 Minuten hat: Ohga wollte Beethovens Neunte Symphonie ohne störenden Wechsel des Tonträgers hören – und die längste damals zur Verfügung stehende Version von Wilhelm Furtwängler dauert exakt 74 Minuten. Die an der Entwicklung beteiligten Ingenieure von Philips bevorzugten eine kleinere Variante mit einer kürzeren Spieldauer – Ohga setzte sich durch.

Noch als Student lernte Norio Ohga die Sony-Gründer Masaru Ibuka und Akio Morita kennen. Die beiden Geschäftsmänner waren begeistert von Ohgas Fachwissen. Ab 1953 beriet er – quasi als Studentenjob – das Unternehmen in Sachen Tontechnik, bevor er 1959 fest bei Sony einstieg. Nach der erfolgreichen Einführung der CD war Ohga auch an der Entwicklung von Sonys MiniDisc, der CD-ROM sowie der DVD beteiligt. Laut seiner Philosophie waren Hard- und Software "zwei Räder an einem Auto".

Ohga führte 1968 dann auch die Verhandlungen zur Übernahme der Plattenfirma CBS und übernahm die Geschäftsführung des neuen Unternehmensbereichs CBS/Sony Records (heute Sony Music Entertainment). Danach ging es für Norio Ohga bei Sony nur noch nach oben – 1982 übernahm er die Führung des Gesamtkonzerns, die er 1995 an seinen Nachfolger Nobuyuki Idei übergab. Ohga war nicht nur in seinem Heimatland Japan hoch angesehen: 1994 erhielt er das deutsche Bundesverdienstkreuz. Auch von anderen Ländern und Organisationen wurde der Musikliebhaber geehrt.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Der vor 100 Jahren geborene Mathematiker Alan Mathison Turing erfand mit seinem Konzept der Universalmaschine den Computer, noch bevor solche Geräte tatsächlich gebaut werden konnten. Neben seinen Arbeiten zur Turing-Maschine veröffentlichte er grundlegende Ideen zur künstlichen Intelligenz und zur Morphogenese. Der breiten Öffentlichkeit ist Turing auch lange nach seinem Tod noch als Codeknacker der deutschen Verschlüsselungsmaschine "Enigma" bekannt.

Kein Informatiker kommt am Werk von Alan Turing vorbei, ist doch sein Gedankenexperiment mit der Turing-Maschine das grundlegende Experiment zur Frage, was überhaupt berechnet werden kann. Der einfachste Computer, den man sogar mit Hilfe von Lego-Steinen anfertigen kann, ist gleichzeitig der Supercomputer, der die universale Beschränkung demonstriert: Es gibt Probleme, die niemals von einem Computer gelöst werden können.

Alan Turing wurde am 23. Juni 1912 in London geboren. Er wuchs bei einer Pflegefamilie auf, weil sein Vater als Beamter in Indien eingesetzt wurde. Seine schulischen Leistungen waren mäßig. Er wurde früh als Außenseiter behandelt, noch bevor er in der Pubertät in der Freundschaft mit Christopher Morcom seine Homosexualität entdeckte. Sein besonderes Talent zeigte sich bereits mit 15 Jahren, als er sich mit Einsteins Relativitätstheorie beschäftigte und eine Abhandlung schrieb, die Einstein richtig erklärte.

Alan Turing verstand Deutsch. Mit seinem Vater wanderte er durch den Schwarzwald, mit Freunden unternahm er Radtouren durch Deutschland. Im Jahre 1931 bewies der Mathematiker Kurt Gödel, dass es logische Aussagen gibt, die weder wahr noch falsch sind. In dem Jahr, in dem Gödel seinen bahnbrechenden Unvollständigkeitssatz veröffentlichte, schloss der junge Alan Turing seinen Schulbesuch mit Auszeichnung ab und begann sein Mathematik-Studium. Die Schule schenkte ihm das deutsche Original Mathematische Grundlagen der Quantenmechanik, mit dem John von Neumann die Quantenphysik mathematisch begründete. Von Neumann, Gödel, die Theorien von Einstein und die mathematische Philosophie von Bertrand Russell bilden die Grundpfeiler, auf denen Alan Turing ein komplett neues Gebilde entwarf, die Turing-Maschine. Sie ist eine Art Computerprogramm, erdacht zu einer Zeit, als es noch keine Computer gab, entwickelt, um Gödels Beweis maschinell durchzuführen.

Die Turing-Maschine ist ein Gerät, das in der Lage ist, "jedes vorstellbare mathematische Problem zu lösen, sofern dieses auch durch einen Algorithmus gelöst werden kann", heißt es in Turings 1936 veröffentlichter Arbeit On computable numbers, with an application to the Entscheidungsproblem. Seine Arbeit wurde in Fachkreisen durchaus diskutiert. Als erster wurde Alonzo Church auf Turing aufmerksam, Er holte ihn nach Princeton, wo sie gemeinsam die Church-Turing-These entwickelten. Wie Rainer Glaschik und Norbert Ryska in der aktuellen Ausgabe von Informatik Spektrum mitteilen, korrespondierte Heinrich Scholz mit Turing. Scholz leitete an der Universität Münster das Institut für mathematische Logik und Grundlagenforschung und schrieb an Turing: "Die Methode, die Sie verwendet haben, um die Unlösbarkeit des Entscheidungsproblems schon für den Hilbertschen Prädikatenkalkül der ersten Stufe zu zeigen, ist so fein und originell, dass ich mir vorgenommen habe, über Ihre Arbeit in unserer logistischen Arbeitsgemeinschaft vortragen zu lassen."

Im Zweiten Weltkrieg brach der Kontakt zu Turing ab, denn dieser ging 1939 zur "Government Code and Cipher School" des britischen Geheimdienstes nach Bletchley Park. Dort arbeiteten zeitweise bis zu 10.000 Menschen daran, deutsche Funksprüche zu entschlüsseln. Hier entwickelte er in der legendär gewordenen Hütte 8 eine Maschine, die die Funksprüche entschlüsseln half, die deutsche Marine-Funker mit einer besonders schwer zu knackenden fünfrotorigen Version der Enigma absetzten. Turings Antwort, die klickende elektromechanische Turing-Bombe, bestand aus einer Serie von hintereinandergeschalteten Enigma-Walzensätzen. Sie suchte in einer abgefangenen Nachricht nach wahrscheinlich vorkommenden Worten und errechnete daraus den Tagesschlüssel der Enigma. Für seine Leistung, die entscheidend den U-Boot-Krieg im Atlantik beeinflusste, erhielt Turing den Orden des Britischen Empire – und das Verbot, darüber zu sprechen, wofür dieser Orden ihm verliehen wurde.

Turings "Gegenspieler" auf deutscher Seite war Gisbert Hasenjäger. Er war als Soldat noch vor seinem beabsichtigten Mathematikstudium unter Heinrich Scholz in die Chiffrierabteilung des Oberkommandos der Wehrmacht abkommandiert und der einzige Verschlüsselungsexperte, der für die Sicherheitsüberprüfung der Enigma zuständig war. Hasenjäger gelang es ebenfalls, Enigma-verschlüsselte Texte zu dechiffrieren und die Technik zu verbessern. Bis in die 1970er-Jahre, als die ersten Arbeiten über Bletchley Park erscheinen durften, wusste Hasenjäger allerdings nicht, dass Alan Turing auf der britischen Seite arbeitete und auf seine Verbesserungen reagierte. In einem Interview würdigte Hasenjäger die britische Entschlüsselungsleistung: "Wäre es nicht so gewesen, dann hätte der Krieg vermutlich länger gedauert und die erste Atombombe wäre nicht auf Japan, sondern auf Deutschland gefallen."

Im Jahre 1942 begann Turing mit der Arbeit an Delilah, einer Maschine zur Sprachverschlüsselung. Sie kam über ein Vorführmodell nicht heraus, doch brachte ihn diese Arbeit in Kontakt mit den allerneuesten Entwicklungen der Elektronik in Großbritannien wie in den USA. Versehen mit diesen Erkenntnissen, mit seiner Theorie der Universalmaschine und den Erfahrungen von Bletchley Park begann er, auf dem Papier einen Computer zu entwickeln. Was er skizzierte, nannte er "ein Gehirn bauen". Der einzige Computer, der unter Mitarbeit von Turing tatsächlich entwickelt wurde, war der Pilot ACE, der ab 1945 am Londoner National Physical Laboratory entstand. Das Design des ACE wurde von den entstehenden britischen Computerherstellern wie Ferranti und ICL aufgegriffen. Für einen dieser Computer, den Manchester Mark 1, entwickelte Turing ein Schachprogramm, das jedoch die Rechenleistung des Mark 1 überforderte. Auf Papier simulierte Turing in der einzigen bekannten Schachpartie jeden Programmschritt – und verlor mit seiner Software. Das erste lauffähige Schachprogramm auf dem Mark 1 konnte bei Partien erfolgreich agieren, die nur noch zwei Züge von der Schachmatt-Situation des Gegners entfernt waren. Es wurde 1951 von Dietrich Prinz programmiert.

Nach dem Krieg aktivierte Turing seinen Kontakt zu Heinrich Scholz in Münster. Er schickte ihm seine bahnbrechende Arbeit Computing Machinery and Intelligence und wurde von Scholz 1952 im Gegenzug zu Vorträgen eingeladen. Turing musste aber "wegen einer Krankheit" absagen: Im Februar 1952 wurde er festgenommen, weil er Sex mit einem 19-Jährigen Mann hatte, den er in der Schwulenszene Manchesters kennengelernt hatte. Er wurde zu einer "Organotherapie" mit regelmäßigen Östrogen-Injektionen verurteilt und verlor seinen Sicherheits-Status als Geheimnisträger. Damit war er von der Arbeit am Manchester-Mark-1-Computer ausgeschlossen. Bis zu seinem Tod arbeitete er an mathematischen Theorien der Musterbildung in der Biologie. Vereinsamt starb er nach einer Cyanid-Vergiftung, über die seine Biographen bis heute rätseln. Die einen sehen in seinem Tod das Auftragswerk eines Geheimdienstes, die anderen nehmen einen Selbstmord an, bedingt durch Depressionen nach der Östrogen-Therapie. Das wichtigste Beweisstück, ein angebissener vergifteter Apfel, wurde von der Polizei nicht gesichert.

In seinem 1950 veröffentlichten Aufsatz über Computing Machinery und die Frage der künstlichen Intelligenz schlug Turing ein Verfahren vor, das heute als Turing-Test zum Allgemeinwissen gehört. Bei diesem Test, wie ihn Turing beschrieb, ist ein Mensch via Tastatur und Bildschirm mit zwei Gesprächspartnern verbunden, die ihn davon überzeugen sollen, dass sie Menschen sind. Einer der Partner ist jedoch ein Computer. Wenn der Mensch nach einem längeren Gespräch nicht sagen kann, wer der Computer ist, haben die Maschinen das menschliche Denkvermögen erreicht und man kann von künstlicher Intelligenz sprechen. Mit diesem Ansatz wird bis heute um den Loebner Prize gerungen.

In seinem Aufsatz legte der Außenseiter Alan Turing eine Art Bekenntnis zum Leben ab, das dem Programm der KI entgegengerichtet ist: Intelligenz ist ein soziales Produkt und ein isoliertes Leben ist nicht lebenswert. "Wie ich erwähnt habe, entwickelt der isolierte Mensch keinerlei intellektuelle Fähigkeiten. Es ist für ihn notwendig, in eine Umgebung mit anderen Menschen eingebettet zu sein, deren Techniken er während der ersten zwanzig Jahre erlernt. Er mag dann etwas eigene Forschung betreiben und ein paar Entdeckungen machen, die er mit anderen Menschen teilt. Aus dieser Sicht muß die Suche nach neuen Techniken als Unternehmen der ganzen menschlichen Gemeinschaft, nicht so sehr einzelner Individuen, betrachtet werden."

Mit dem Geburtstag, den neben vielen anderen internationalen Medien auch der "Tagesspiegel" mit einem liebevollen Beitrag würdigt, ist der Höhepunkt des Turing-Jahres 2012 erreicht. Wer sich über Alan Turing informieren will, dem sei die Ausstellung Genial und Geheim empfohlen, mit der das Heinz Nixdorf Museumsforum in Paderborn in zehn Etappen das Leben und Werk des vielseitigen Denkers ausbreitet. Für IT-Interessierte besonders empfehlenswert ist die im Juli anstehende sechste Etappe, die sich mit den Turing-Maschinen befasst. Hier sind dann die Münsteraner Logikmaschinen zu sehen, die von Gisbert Hasenjäger und Dieter Rödding in den 1960er-Jahren aus Ersatzteilen der Bundespost konstruiert wurden. Dass der deutsche Sicherheitsprüfer der Enigma etliche Turing-Maschinen baute, gehört zu den Paradoxien um Alan Turing.

Beachten Sie zu Turings 100. Geburtstag bitte auch den ix-Beitrag von Michael Riepe "Eine Frage der Programmierung"

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Neil Armstrong ist tot
« Antwort #14 am: 26 August, 2012, 00:00 »
Neil Armstrong, der am 21. Juli 1969 als erster Mensch im Rahmen der NASA-Mission Apollo 11 den Mond betrat, ist im Alter von 82 Jahren gestorben. Laut Informationen von US-Medien sollen Komplikationen nach einer Herzoperation die Todesursache gewesen sein. "Neil Armstrong war ein zurückhaltender amerikanischer Held, der immer der Ansicht war, dass er lediglich seinen Job tue", heißt es in einer Erklärung von Armstrongs Familie, die die NASA veröffentlichte.

Armstrong war Kommandant der Mondlandungsmission Apollo 11 (Buzz Aldrin war Pilot der Mondlandefähre Eagle, Michael Collins war der Pilot des Kommando-Moduls und blieb in der Umlaufbahn um den Mond). Am 21. Juli 1969 betrat Armstrong als erster Mensch die Mondoberfläche und sprach die legendären Worte: "Das ist ein kleiner Schritt für einen Menschen, aber ein riesiger Sprung für die Menschheit." Rund 500 Millionen Menschen weltweit verfolgten die Landung der Eagle und den Ausstieg Armstrongs live am TV.

Neil A. Armstrong wurde am 5. August 1930 in Wapakoneta im US- Bundesstaat Ohio geboren. Den Pilotenschein machte er bereits mit 16 Jahren. Armstrong diente ab 1950 im Korea-Krieg als Kampfflieger; ab 1952 setzte er sein Studium der Luftfahrttechnik fort, das er 1955 mit einem Bachelor abschloss. Ab Sommer 1995 arbeitete Armstrong als Testpilot.

Armstrong wurde zwar von der US Air Force für deren Weltraumprogramm als Astronaut ausgewählt, das Programm wurde jedoch nach der Gründung der NASA abgesagt. Im September 1962 wurde Armstrong dann schließlich als Astronaut der NASA vorgestellt.

Seinen ersten Raumflug absolvierte Armstrong am 12. März 1966 als Kommandant von Gemini 8. Nach der Mondlandung im Rahmen von Apollo 11 und dem Ausscheiden aus der NASA lehrte Armstrong von 1971 bis 1979 als Professor für Luft- und Raumfahrttechnik an der Universität von Cincinnati, hatte danach verschiedene Managerposten in der Wirtschaft inne und gründete eigene Firmen. Er war aber weiterhin mit Raumfahrfragen beschäftigt, so propagierte Armstrong unter anderem einen bemannten Flug zum Mars und war an den Untersuchungen der Beinahe-Katastrophe von Apollo 13 und der Challenger-Katastrophe beteiligt.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )