DVB-Cube <<< Das deutsche PC und DVB-Forum >>>

Info Corner / Internet-via-Sat, Datendienste / IPTV / Videoportale / Internet TV & Radio => # News diverses ... => Thema gestartet von: SiLæncer am 25 Dezember, 2005, 11:34

Titel: Künstliche Intelligenz ...
Beitrag von: SiLæncer am 25 Dezember, 2005, 11:34
Europäische Forscher bauen einen verspielten Maschinenzwerg, der die Welt wie ein Kind auf allen Vieren erkundet. Könnte sich in dem Wesen einst ein Funke von Verstand regen?

Rührend, das Kerlchen. Und wenn es dann erst zu krabbeln beginnt! Die Hersteller werden entzückt sein. Mögen auch die Gelenke ein wenig knirschen, die Motoren ein wenig surren - es ist doch fast ein richtiges Baby.

Etwa 90 Zentimeter misst der Wichtel aus Metall, gut 23 Kilogramm ist er schwer, und seine Gestalt ähnelt einem Kleinkind von zwei Jahren. Er kann zwar nicht laufen, aber er bewegt sich flink auf allen Vieren, und keine Gummiente ist vor seiner Neugier sicher. Bald geht der wundersam verspielte Humanoide in Bau; im Jahr 2007 soll er fertig sein. Für die Gemeinde der Roboterforscher wird es ein denkwürdiges Datum sein: die Geburt des ersten kompletten Kunstkindes.

Elf europäische Forschungszentren haben sich dafür zusammengetan, dazu zwei in den USA und drei in Japan. Das Geschöpf, das sie in die Welt setzen wollen, soll heranwachsen wie ein kleiner Mensch. Sein gesamtes Dasein wird von Anfang an protokolliert: wie der Roboter über den Boden rutscht, wie er emsig bunte Klötzchen bepatscht. Und wie er sich zum ersten Mal die Kniemechanik aufschlägt.

Stets messen die Forscher, was in den Speicherbausteinen des Roboters vor sich geht. Hin und wieder basteln sie an der Software. Und dann heißt es geduldig sein: Macht der Zögling Fortschritte? Wird sich am Ende gar eine Art Intelligenz in seinem Köpfchen regen?

Auf fünf Jahre ist das Projekt angelegt; die EU fördert es mit 8,5 Millionen Euro. Das erste Jahr ist bereits um, und die Pläne für den Körper der Kindchenmaschine - vorläufiger Name: "Robotcub", zu deutsch etwa Roboterjunges - sind so gut wie fertig. Es dauerte eine Weile, denn hierbei kommt es auf jedes Detail an. Der Kleine soll schließlich im Stande sein, aus dem Sitz behände loszukrabbeln, seine Spielsachen zu ergreifen, in den Händen zu drehen und gelegentlich auch durch die Gegend zu werfen.

Sensoren in den feingliedrigen Fingern verleihen dem rührigen Zwerg eine Art Tastsinn; er hat Temperaturfühler und kann sein Gleichgewicht halten. Derart gerüstet, erforscht der Roboter seine kleine Welt; er muss allein sehen, wie er darin zurechtkommt - alle Risiken inbegriffen: Die Mechanik ist so ausgelegt, dass sie auch Stöße und Stürze verkraftet.

Das Projekt entsprang der`Überzeugung, dass sich so etwas wie Verstand nicht von außen, als fertiges Programm, einhauchen lässt. "Intelligenz kann nur entstehen, wo handelnde Wesen auf ihre Umwelt einwirken", sagt der Roboterforscher Giulio Sandini von der Universität von Genua, der das Vorhaben koordiniert. Sein Leitspruch: "Intelligenz braucht einen Körper."

Der Kopf des Kindchenroboters, so der Plan, ist deshalb anfangs so gut wie leer. Eingebaut ist nur eine Grundausstattung: Neugier auf alles, was sich bewegt, und ein paar Reflexe. Drückt man dem Robotcub etwas in die Hand, greift er zu. "Das könnte zum Beispiel ein Hammer sein", sagt Rolf Pfeifer vom Labor für Künstliche Intelligenz an der Uni Zürich, das an dem Konsortium beteiligt ist. "Dann muss der Roboter herausfinden, wie er das Teil am besten anpackt. Und was er damit alles anfangen kann."

So lernt der Kleine allmählich durch seine Aktionen. Ob daraus je ein Funken Intelligenz entspringt, ist ungewiss. Auf die hergebrachte Weise aber geht es bestimmt nicht; da sind sich die meisten Forscher heute einig: Roboter mit vorgefertigter Software stellen sich im Durcheinander des Lebens viel zu hölzern an. Selbst das Erkennen schlichter Objekte überfordert häufig ihre Prozessoren. Kaum wechselt die Beleuchtung, sind sie schon verwirrt.

"Ein Roboter, der Erfahrungen mit dem Greifen hat, dürfte sich dagegen mit dem Sehen sehr viel leichter tun", meint Pfeifer. Mit dem Robotcub will er herausfinden, ob diese Vermutung stimmt.

Bislang versuchten die Robotiker vor allem, einzelne Körperteile intelligenter zu machen: Sie konstruierten mechanische Arme, die die Kunst des Greifens ergründen, und Zweibeiner ohne Rumpf für das naturnahe Laufen mit möglichst wenig Steuerungsaufwand.

Für die höheren Funktionen gibt es am amerikanischen MIT den Koboldkopf Kismet, den berühmtesten Vorläufer des Robotcub. Kismet lernt im Umgang mit Menschen die Anfänge eines Sozialverhaltens: Gesichter erkennen, Gesten deuten, Stimmungen aus dem Tonfall heraushören. Der Roboter antwortet mit passender Mimik und Säuglingsgebrabbel. Seine Tage verbringt Kismet allerdings festgeschraubt auf einem Podest; er kann den Kopf drehen und seine Glubschaugen rollen.

Der mobile Robotcub dagegen, so hoffen die Forscher um den Genuesen Sandini, spielt im Glücksfall bald die Vorzüge eines wendigen Ganzkörpers aus: Er ist im Stande, das ganze Labor unsicher zu machen; so sollte er sich ungleich vitalere Erfahrungen verschaffen.

Verglichen mit einem Kind ist solch eine krabbelnde Rechenmaschine jedoch immer noch überaus brav. Es ist nicht zu befürchten, dass sie auch nur anfängt, aus eigenem Antrieb Schubladen auszuräumen. Sie wird auch nicht vor Hunger rebellisch.

Allenfalls messen Roboter gleichmütig den Ladestand ihrer Akkus. Verzweiflung ist ihnen fremd. Vielleicht entdecken sie dafür andere, ebenso exklusive Zustände in sich. Manche Forscher überlegen, ob eine Maschine Sehnsucht nach einer Steckdose entwickeln könnte, wenn die Energie nachlässt. "Wir werden nie wissen", sagt Pfeifer, "was für ein Gefühl es ist, an einer Ladestation zu hängen."

Das Roboterkind bekommt wohl zunächst, als Ersatz für dringende Bedürfnisse, ein Bewertungssystem einprogrammiert. Das ist eine Art Katalog, in dem der Kleine nachschlägt, was gut für ihn ist und was schlecht.

Gut könnte es etwa sein, ein Objekt mit möglichst vielen Sinnen zugleich zu erkunden: den Hammer sehen und zugleich betasten. Dann noch ein tüchtiger Schlag auf den Tisch, und auch das Gehör bekommt wertvollen Input - förderlich fürs Köpfchen. "Das Zusammenspiel mehrerer Sinneskanäle", sagt Pfeifer, "ist die Grundlage des Lernens."

Ähnliche Erfahrungen blühen einem Roboter namens Kurt 3D in St. Augustin bei Bonn. Das Fraunhofer-Institut für Autonome Intelligente Systeme richtet ihm dort gerade ein Spielzimmer ein. Kurt, ein kompaktes Rollwägelchen mit einem Magnetarm, wird darin die Natur der Dinge studieren.

Es gibt große und kleine Dosen, dazu allerhand Rampen und Schwellen. Wenn der Roboter lang genug spielt, kann er einiges über sein kleines Reich erfahren - etwa dass es eine Klasse von Dingen gibt, die er anheben kann: Sie sind magnetisch, nicht zu schwer und haben eine ebene Oberfläche zum Andocken des Arms.

Projektleiter Erich Rome hofft, dass der kleine Kurt mit der Zeit aus seinen Erfahrungen auch mal was macht. Zu den Dingen, die er lernen soll, gehört es beispielsweise, eine Tür zu öffnen, indem er eine Dose auf einen Druckschalter stellt. Wenn Kurt das kann, sagt Rome, geben die Forscher ihm Dosen, die nur halb so schwer sind. Die Frage ist dann: Wird er begreifen, dass er zwei Dosen übereinander stellen muss? "Ich weiß nicht, ob wir so weit mit ihm kommen", sagt Rome.

Die Robotik ist, nach vielen unerfüllten Versprechen, bescheiden geworden. Auch das Großvorhaben Robotcub ist zunächst eine Ausgeburt der Defensive: "Für ein einzelnes Labor", sagt Koordinator Sandini, "sind die anstehenden Probleme längst zu groß." Das internationale Konsortium sei der erste Schritt zu einem neuen Anlauf.

Die Produktion des gesamteuropäischen Maschinenkindes ist, wie die des Airbus, auf etliche Länder verteilt. Das Design des Kopfes kommt aus Lissabon, die Hüfte mitsamt den Beinen aus dem britischen Salford, und ein Labor in Pisa kümmert sich derzeit um die Fingerchen.

Zehn Exemplare (Materialkosten: je 50.000 Euro) sind insgesamt geplant. Einige von ihnen werden in einer Art Roboterkrabbelstube hausen, wo sie übers Internet auch anderen Fachleuten kostenlos zugänglich sind (siehe Grafik). Baupläne und Software liegen offen; Gastforscher können sogar eigene Programme in die Elektronenhirne der Gnome laden. Das Konsortium räumt sie dafür leer bis auf Motorik und Sinneswahrnehmung; ihre Persönlichkeiten werden an einem sicheren Ort zwischengespeichert. Dann stehen die Roboter für Fremdversuche aller Art bereit.

Auch Entwicklungspsychologen und Kognitionsforscher sind eingeladen, neue Theorien zu erproben. Die Frage etwa, wie Kinder lernen, ihren Körper zu beherrschen, lässt sich womöglich erhellen, wenn man Teilfunktionen probeweise in einem Roboter nachbaut: von der Fähigkeit, beim Kopfdrehen das angeschaute Objekt nicht aus dem Auge zu verlieren, bis hin zur beidhändigen Koordination beim Eingießen eines Glases Apfelsaft.

So bekommt die possierliche Menschenähnlichkeit des Robotcub doch ihren tieferen Sinn. Es gehe weder um Marketing noch um wohlfeile Rührungseffekte, sagen die Forscher. Der Humanoide diene schließlich auch als Modellkind, das die Entwicklung des menschlichen Gehirns verstehen hilft.

Selbst dass der Kleine unbedingt krabbeln muss (anstatt einfach auf Rollen herumzufahren), entspringt offenbar nicht nur einem unerfüllten Gebärwunsch männlicher Konstrukteure. Selbst hier geht es, wie Projektleiter Sandini versichert, um reine Wissenschaft und Modellbildung: "Auch das Krabbeln der Kleinkinder", sagt er, "ist ja bislang kaum erforscht."

Quelle : www.spiegel.de
Titel: Digitales Bewusstsein : Computer lernen denken
Beitrag von: SiLæncer am 28 Dezember, 2005, 14:30
Geist in der Maschine

An der Technischen Hochschule in Lausanne wollen Biologen und Informatiker auf dem Supercomputer "Blue Gene" ein detailgetreues Abbild des der Großhirnrinde installieren. Und irgendwann soll auf einem noch besseren Rechner ein komplettes menschliches Hirn aus Einsen und Nullen entstehen. Auch wenn sich die Forscher erst einmal nur einen halben Millimeter Rattenhirn vorgenommen haben, geht das Projekt weit über das hinaus, was bei bisherigen Arbeiten zu sehen gewesen ist: Das ausgewählte Hirnstück, die "Kortikale Kolumne" gilt als universeller Schaltkreis von Intelligenz schlechthin, als entscheidender Baustein in der Evolution des Primatengehirns. "An der einen Stelle verarbeitet sie visuelle Eindrücke, aber wenn man sie herausnimmt und an eine andere Stelle platziert, kann sie genauso gut über Mathematik nachdenken", erklärt Projektleiter Henry Markram das Hirnmodul.

Die Kolumne, die das Team um Markram zunächst simulieren will enthält etwa 10.000 Neuronen mit 1000 bis 10.000 Kontaktstellen zu anderen Nervenzellen. Die Simulation soll das Zusammenwirken all dieser Zellen nun detailgetreu abbilden. Die spannende und auch umstrittenste Frage dabei lautet: Was bedeutet "so originalgetreu wie möglich"? Denn schon einmal, in den achtziger Jahren, glaubte man sich auf dem besten Weg, die Informationsverarbeitung des Gehirns im Computer nachbilden zu können.

Doch die Forschung auf dem Gebiet der neuronalen Netze konnte die anfänglichen hohen Erwartungen nicht erfüllen. Kein neuronales Netz, egal wie groß und kompliziert, fängt einfach an zu denken. In den technischen neuronalen Netzen werde die "komplexe Biologie des Neurons auf einen Punkt reduziert", kritisiert Markram, der mit seinem Team nun möglichst viel dieser Komplexität erfassen will. Sein Modell sei "mehrere Millionen Mal komplexer als alle Simulationen, die bislang gemacht worden sind."

Für den Visionär Markram ist selbst der mächtige Blue Gene nur ein Schritt auf dem Weg zu seiner großen Vision: Das gesamte menschliche Gehirn zu simulieren. "Mit der nächsten Generation des Blue Gene können wir vielleicht schon einige tausend Neuronen mit einem Prozessor betreiben. Dann können wir schon mit dem Mäusegehirn beginnen, das besteht nur aus etwa zehn Millionen Nervenzellen."

Pure Rechenkraft gepaart mit detaillierten Aufzeichnungen – fertig ist das künstliche Menschenhirn? Andere Forscher sind skeptisch. "Wir sammeln jetzt seit hundert Jahren Daten, ohne wirkliches Verständnis", beschreibt der theoretische Physiker Klaus Pawelzik die Fleißarbeit der Neurobiologen. "Als Galilei seine erste Formel hingeschrieben hatte, da verstand man plötzlich besser, was fallende Steine so machen. Wir aber befinden uns noch in einer prä-galileiischen Phase. Markram will alle Daten in eine massive Computersimulation stecken, und er hofft, dass dadurch auf mysteriöse Weise plötzlich Verständnis entsteht."

Immerhin freuen sich die Theoretiker doch auch über das ambitionierte Vorhaben in Lausanne: "Allein die Aufregung, die es um das Projekt gibt, das hat Markram schon gut hingekriegt", sagt Pawelzik. "Und die Provokation, die für uns Theoretiker da drin steckt, die hat ja auch etwas Inspirierendes. Er wird viele Leute anziehen, er wird Leute wie mich dazu bringen nachzudenken."

Quelle : www.heise.de
Titel: Die Revolution kommt in die Jahre
Beitrag von: SiLæncer am 18 Juni, 2006, 12:06
Zur Feier von 50 Jahren Forschung zur Künstlichen Intelligenz klagen Veteranen der Zunft über Stagnation, die jüngere Generation präsentiert ihre Erfolge.


1957 fand in Darthmouth (USA) die erste Konferenz statt, die sich ausschließlich mit dem Thema der Künstlichen Intelligenz (KI) befasste. Sie gilt heute als die Geburtsstunde des Forschungsansatzes, Computer mit jenen menschlichen Fähigkeiten auszustatten, die als Zeichen von Intelligenz gewertet werden: Mathematische Beweise zu führen, Wichtiges von Unwichtigem zu unterscheiden oder natürliche Sprache mit all ihren Mehrdeutigkeiten zu verstehen. Zur Feier des runden Geburtstages luden die Veranstalter der diesjährigen deutschen KI-Konferenz gestern prominente Vertreter ihrer Zunft zum Symposium "50 Jahre künstliche Intelligenz" nach Bremen ein.

Marvin Minsky vertrat dabei die Pioniere der ersten Stunde unter den Festrednern. Zusammen mit seinen Kollegen hatte er vor 50 Jahren die Forscher zur heute gefeierten Darthmouth-Konferenz zusammengetrommelt. Dass in der Messehalle nebenan heute Hunderte von Robotern eine Fußballweltmeisterschaft ausfechten, entlockt dem KI-Pionier der ersten Stunde nur ein müdes Lächeln: Er hofft, dass bald sämtlicher Sport nur noch von Robotern betrieben wird -- "damit Menschen wichtigere Dinge tun können". Seiner Ansicht nach blieb zu viel liegen: Ihn stört, dass kaum ein KI-Forscher mehr das ursprüngliche Ziel verfolgt, eine universell einsetzbare, intelligente Maschine zu bauen, die alle denkbaren Arten von Problemen lösen kann. Die meisten Wissenschaftler konzentrieren sich heute auf fest umrissene Teilgebiete wie statistische Lernverfahren oder Bildverarbeitung -- und vor allem würden sie ihre Zeit damit verschwenden, Dinge immer wieder zu wiederholen, poltert Minsky: "KI-Forscher sind Feiglinge -- wenn sie sehen, dass tausend Leute an neuronalen Netzen arbeiten, sagen sie, ok, das mache ich auch, es ist eine sichere Sache." Kaum einer traue sich an eine umfassende Modellierung von gesundem Menschenverstand heran, seit alle nur noch statistische Lernverfahren benutzen würden.

Einer der vielen so Geschmähten ist Sebastian Thrun, Leiter des KI-Labors in Stanford. Wachsende Rechnerleistung ermögliche es, mit statistischen Methoden gleichfalls wachsenden Datenmengen Herr werden, führt er aus -- Erfolgsmodell dieses Ansatzes ist Thruns autonomes Fahrzeug Stanley, das im vergangenen Jahr das Grand Challenge-Rennen gewann. Tatsächlich habe man gar nicht erst versucht, der Maschine ein wirkliches Verständnis ihrer Umwelt einzupflanzen: "Stanley sollte nicht lernen, was eine Straße ist und ihr dann folgen, sondern nur schauen, wo finde ich mehr von dem, was zuvor vor mir war?"

Dennoch herrscht auf dem Podium bald weitgehende Einigkeit darüber, dass menschliches Lernen nicht ausschließlich auf einer Statistik über Erfahrungswerte beruhen könne, sondern auch auf abstrake Vorstellungen aufbaue -- "wir lernen Physik in einer symbolischen Form und nicht darüber, dass wir alle physikalischen Experimente der letzten 300 Jahre selbst wiederholen", bemerkt Wolfgang Wahlster, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz DFKI. Bei den Versuchen, Computern das Verständnis natürlicher Sprache beizubringen, werden bereits symbolische und statistische Vefahren parallel eingesetzt, was die Genauigkeiten erhöht. Wann diese Technik allerdings Anwendungen wie Fremdsprachen übersetzende Telefone möglich machen (eine klassische Herausforderung für die KL), steht allerdings noch in den Sternen. Aaron Sloman, britischer Philosoph und seit den sechziger Jahren mit Grundlagenforschung in Sachen Künstlicher Intelligenz befasst, hält solche Ziele für die ohnehin falschen Fragen an KI als Wissenschaft: "Wir sollten aufhören, sowas anzukündigen und lieber zu untersuchen, wie die Dinge wirklich funktionieren." Sloman ist überzeugt: "Viele Fragen kennen wir noch nicht -- aber wir gehen in die richtige Richtung".

Quelle : www.heise.de
Titel: 50 Jahre Künstliche Intelligenz
Beitrag von: SiLæncer am 13 Juli, 2006, 09:37
Heute beginnen in den USA die Feierlichkeiten zum 50. Namenstag der "Artifical Intelligence" (AI). Dieser Begriff wurde vor 50 Jahren im Rahmen eines zweimonatigen Workshops am Darthmouth College als offizieller Name für eine neue Forschungsdisziplin akzeptiert. Der Name "Artificial Intelligence" stammte von John McCarthy, der ihn am 31. August 1955 in seinem Projektantrag benutzte, mit dem er bei der Rockefeller-Foundation um Gelder für die Tagung warb. Der Antrag wurde bewilligt. Nach dem 4. Juli trafen die zehn Workshop-Teilnehmer ein, die das Forschungsprogramm der AI in den nächsten 20 Jahren prägen sollten. Neben den einladenden McCarthy, Marvin Minsky und Claude Shannon waren dies, in alphabetischer Reihenfolge Trenchard More, John von Neumann, Allen Newell, Nathaniel Rochester, Arthur Samuel, Oliver Selfridge, Cliff Shaw, Herbert Simon und Ray Solomonoff. Vom 13. bis zum 15. Juli wird dementsprechend in Darthmouth der Namenstag der Forschungsdisziplin gefeiert.

Fand die künstliche Intelligenz vor 50 Jahren in Dartmouth zu ihrem Namen, so war sie doch etwas älter: 1943 veröffentlichten Warren McCulloch und Walter Pitts im Bulletin of Mathematical Biophysics ihren Aufsatz "A Logical Calculus of the Ideas Immanent in Nervous Activity". In ihm entwarfen sie die Idee eines Rechenwerkes auf der Basis von Neuronen und Feedback-Schleifen, das wie eine Turing-Maschine arbeitet, die von Alan Turing erstmals im Jahre 1936 beschrieben wurde. 1951 bauten Marvin Minsky und Dean Edmonds SNARC (Stochastic NeuralAnalog Reinforcement Calculator), einen neuronalen Netzcomputer, der das Verhalten einer Maus in einem Labyrinth simulierte. Etwas Ähnliches versuchte Claude "Entropy" Shannon 1952 mit seiner Maschinenmaus Theseus zu programmieren.

Abseits der Namensgebung der "Artificial Intelligence" war der Workshop im strengen Sinn nicht unbedingt erfolgreich. Zu unterschiedlich waren die Ansichten zwischen den "Logikern", die an Expertensystemen arbeiteten, und den "Konnektionisten", die auf neuronale Netze setzten. Die Logiker brillierten auf dem Workshop mit dem von Allen Newell, Herbert Simon und Cliff Shaw vorgestellten "Logic Theorist", einem in der eigens entwickelten Information Processing Language (IPL) geschriebenen Programm, das die meisten Theoreme aus Russels und Whiteheads Principia Mathematica bewies. Der Theoretiker lief auf dem von John von Neumann entworfenen Computer JOHNNIAC. Marvin Minsky berichtete von seinen Experimenten, neuronale Netze zu entwickeln. Ein echter Konsensus wurde nicht gefunden. Entsprechend dünn liest sich das Abschluss-Statement des Workshops: "Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it."

Die Früchte der doch sehr einflussreichen Konferenz sind weit verstreut. Marvin Minsky und John McCarthy gründeten das "AI Lab" am Massachussetts Insitute of Technology (MIT). Ray Solomoff entwickelte die algorithmische Informationstheorie. Oliver Selfridge legte mit seinem Pandemonium-Modell zur automatischen Mustererkennung die Grundlagen zu der aspektorientierten Programmierung. Trenchard More entwickelte eine Array-Theorie für die Programmiersprache APL, Arthur Samuel wurde mit seinem "selbstlernenden" Dame-Spielprogramm bekannt. Der einzige, der sich nach Dartmouth vollkommen von der künstlichen Intelligenz abwendete, war Nathaniel Rochester, der bei IBM maßgeblich den IBM 701 auf den Weg brachte.

Was die Dartmouth-Konferenz eigentlich entdeckte, war die schlichte Tatsache, dass Computer mehr können, als nur komplizierte Ballistik-Formeln zu berechnen, dass sie auch mit Symbolen und Begriffen umgehen können. Alle beteiligten Wissenschaftler hatten Erfahrungen mit den ersten "wissenschaftlichen" Rechnern wie dem Mark 1 oder dem ENIAC gesammelt. Nun zogen sie daraus drastische Konsequenzen: Die AI wurde bekannt durch ihre Sprüche. Claude Shannon, der damals am MIT arbeitete, wurde von einem über den Workshop berichtenden Reporter gefragt, ob Maschinen einmal denken können werden. "You bet. We're machines, and we think, don't we?", war seine Antwort. Der spätere Nobelpreisträger Herbert Simon stellte den "Logic Theorist" mit den Worten vor: "Over Christmas Allen Newell and I invented a thinking machine." Noch 1970 erklärte Marvin Minsky im Magazin "Life": "In from now three to eight years we'll have a machine with the general intelligence of an average human being, a machine that will be able to read Shakespeare and grease a car."

Einer der ersten Kritiker der Artificial Intelligence war Joseph Weizenbaum. Er schrieb ein einfaches Dialog-Programm namens ELIZA und konnte beobachten, wie schnell die Menschen bereit waren, der Maschine "Intelligenz" zu unterstellen. Bis heute hält er seine Kritik an der natürlichen Dummheit der künstlichen Intelligenz aufrecht. Gegenüber heise online erklärte der in Berlin lebende Weizenbaum: "Marvin Minsky, AI's senior spokesperson, surely exagerated when he, as he did a short time ago, called AI 'brain dead'. But then he knows a lot about brains, especially the artificial kinds."

Quelle : www.heise.de
Titel: Entdeckung von Aliens oder Erfindung von künstlichem Leben?
Beitrag von: SiLæncer am 19 November, 2006, 14:11
Das Wissenschaftsmagazin New Scientist hat zu seinem 50. Jubiläum einige prominente Wissenschaftler befragt, in welcher Entwicklung sie in den nächsten 50 Jahren den größten wissenschaftlichen Durchbruch erwarten würden. Die Antworten sind erwartungsgemäß vor allem darin ausgerichtet, aus welcher Disziplin die Wissenschaftler stammen.

Den vielleicht eigenwilligsten Vorschlag hat wohl der Ozeanologe Daniel Pauly gemacht. Für ihn wäre die wichtigste technische Entwicklung der nächsten Jahrzehnte ein System, mit dem man die Gefühle und „Gedanken“ aller Tiere entdecken, verstärken, übermitteln und in einer solchen Form darstellen kann, dass sie in uns ähnliche Gefühle oder Gedanken hervorrufen. Das werden man zuerst bei Primaten machen können, dann aber auch bei den Fischen. Für Pauly würde daraus eine "globale Abneigung" entstehen, weiterhin Fleisch zu essen: "Wir würden alle Vegetarier werden."

Eine Mars-Kolonie als Überlebensgarantie

Der Astrophysiker drängt hingegen darauf, möglichst bald eine bewohnte autonome Kolonie auf dem Mars zu gründen. Das wäre eine Versicherung gegen alle möglichen Katastrophen, die auf der Erde geschehen könnten. Gründungen von Kolonien seien auch in der Vergangenheit wichtig gewesen. Unser Planet sei übersät mit den Überresten von ausgestorbenen Arten, was davon zeugt, dass die immer wieder geschehen könne.

Professor Freeman Dyson vom Institute for Advanced Study in Princeton, der gerne gewagte Thesen aufstellt, denkt, dass wir bis 2056 außerirdisches Leben entdecken werden. Jetzt erst entwickle man die Mittel zur Entdeckung von möglichen Signalen aus dem Weltraum. Habe man erstmals einen Hinweis auf außerirdisches Leben gefunden, dann wisse man auch besser, wonach man suchen müsse. Der Astronom Steve Squyres von der Cornell University, der an der Erkundung des Mars durch die Nasa beteiligt ist, bleibt vorsichtiger, während sich Chris McKay, Astrobiologe bei der Nasa, sicher ist, dass man auf dem Mars eine "zweite Genesis" entdecken werde, auch wenn das Leben nur noch in gefrorenem Zustand im Eis erhalten geblieben ist. Man könnte vielleicht sogar fremdes Leben auf der Erde finden, in einer "verborgenen Biosphäre".

Dem stimmt auch der Physiker und Astrobiologe Paul Davies zu. Das Leben könne auf Erden mehrmals gestartet sein, und weil die Lebensformen zum größten Teil Bakterien sind, könne es durchaus sein, dass es unter den irdischen Bakterien auch „Aliens“ gebe, die man nur noch nicht erkannt habe. Würde man solche Bakterien entdecken, die nicht aus der irdischen Evolutionslinie stammen, dann habe man auch einen Beleg dafür, dass „wir nicht alleine sind“.Carolyn Porco, Direktorin des Cassini Imaging Central Laboratory for Operations (CICLOPS) am Space Science Institute in Boulder, denkt hingegen lieber über die Erde hinaus und meint, die Chancen stünden gut, im Sonnensystem Leben, wenn vielleicht auch nur fossiliertes, zu finden. Neben dem Mars wäre das für sie auch auf dem Saturn-Mond Enceladus möglich. Der Biochemiker Peter Atkins bleibt in gewissem Sinne irdischer. Die Erforschung des irdischen Lebens werde dazu führen, dass die Menschen die chemischen Reaktionen auf allen Ebenen immer besser kontrollieren und damit künstliches Leben schaffen können.

Übermenschliche Intelligenz durch neue Informationsträger

Der Robotikforscher Rodney Brooks vom MIT hofft auf die Weiterentwicklung der Künstlichen Intelligenz. Würde man genug Mittel aufwenden, dann könnten KI-Systeme bis 2056 Dinge zuverlässig erkennen und bezeichnen. Für Brooks ein entscheidender Schritt für einen Ausbau der Kooperation zwischen Menschen und Robotern. Der Physiker Frank Wilczek glaubt, dass man in Zukunft nicht mehr Elektronen, sondern Licht und den elektronischen Spin als Informationsträger in "dreidimensionalen, sich selbst zusammenbauenden Strukturen" verwenden wird. Damit wäre dann der Schritt zur Ankunft von Maschinen mit "übermenschlicher Intelligenz" getan. Der Mathematiker Stephen Wolfram setzt weiter auf die Entwicklung von zellulären Automaten, mit denen sich die Schüler in Zukunft vor der Algebra beschäftigen würden. Er geht davon aus, dass die größten Entwicklungsschritte aus der automatischen Erforschung des "computational universe" hervorgehen werden, wo man beispielsweise das Modell unseres Universums oder viele technische Anwendungen entdecken könnte.

Auf die Entwicklung eines funktionsfähigen Quantencomputers setzt der Physiker David Deutsch und hofft auch auf die Entwicklung einer Quantentheorie der Konstruktion, also auf eine allgemeine Theorie darüber, was man mit welchen Ressourcen bauen kann und was nicht. Auch der Physiker Anton Zeilinger geht von der Entwicklung eines Quantencomputers aus und glaubt, dass die Quanten-Teleportation als Kommunikationsform der Quantencomputer dienen wird.

Nachwachsende Organe und Ganzkörperaustausch

Der britische Genforscher Francis Collins sieht weitere Fortschritte in der Genanalyse und glaubt, dass wir uns in 50 Jahren nicht mehr fragen werden, wie lange Menschen leben können, sondern wie lange wir leben wollen. Der Pathologe Richard Miller geht davon aus, dass man das Leben der Menschen aufgrund der jetzt schon erfolgreichen Forschung an Tieren, mit Medikamenten, Diät oder anderen Möglichkeiten, Schutzsysteme zu aktivieren, um mindestens 40 Prozent verlängern kann. In 50 Jahren werde es die erste Generation von Hundertjährigen, die so produktiv und kraftvoll wie die jetzt Sechzigjährigen seien.

Die Versorgung mit Ersatzorganen, die mit menschlichen Zellen in Tieren gezüchtet werden, ist für Bruce Lahn von der University of Chicago möglich, während Ellen Heber-Katz vom Wistar Institute davon ausgeht, dass man nach und nach alle Organe und Gliedmaßen nachwachsen und Hirnareale reparieren können wird. In 50 Jahren könne man dann auch den ganzen Körper ersetzen. Ein bisschen "bescheidener" ist Anthony Atala, Wake Forest Institute for Regenerative Medicine. Für ihn wird es allgemeine Zellen geben, die man einem Patienten injiziert und die dann beschädigtes Gewebe ersetzen. Das könne man auch präventiv machen, um das Altern hinauszuzögern.

Der Autismusforscher Simon Baron-Cohen setzt auf die Fortentwicklung der "Kognitiven Genomik". Wenn wir verstanden haben, wie aus so wenigen Genen so viel Komplexität im Gehirn entstehen kann, dann ist für Neurowissenschaftler Antonio Damasio die Entdeckung der "Ursuppe" nicht mehr fern.

Quelle : www.heise..de
Titel: Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
Beitrag von: SiLæncer am 22 Dezember, 2006, 10:01
Roboter könnten nach einer Studie, die von der britischen Regierung in Auftrag gegeben wurde, künftig die gleichen Bürgerrechte und -pflichten erhalten wie ihre menschlichen Vorbilder.

Die öffentlich-rechtliche BBC zitierte am Donnnerstag aus einem 246 Seiten umfassenden Papier, das die Entwicklungen der kommenden 50 Jahre in technischen Bereichen prognostiziert. Ein Kapitel ist auch der künstlichen Intelligenz gewidmet und den Auswirkungen auf Gesetze und Politik.

Demnach könnten die elektronischen Helfer in Zukunft Sozialleistungen beziehen, ein Anrecht auf Wohnraum und medizinische Pflege haben oder auch wählen und Steuern zahlen müssen. "Wer wollen nicht die Zukunft voraussagen, aber wir müssen der Regierung ermöglichen, alle möglichen Entwicklungen vorauszusehen, um auch langfristig adäquat darauf reagieren zu können", sagte Sir David King, der oberster wissenschaftlicher Berater der britischen Regierung ist.

Das Papier geht unter anderem von einer "gewaltigen Verschiebung" in den Koordinaten bisheriger Menschenrechte aus, sobald Roboter oder andere künstliche Einheiten sich selbst autark repdroduzieren bzw- verbessern können oder eine eigene Intelligenz entwickeln. Die Analysten glauben, dass dies in den kommenden 50 Jahren der Fall sein könnte.

Quelle : www.satundkabel.de
Titel: Re: Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
Beitrag von: titus1000 am 22 Dezember, 2006, 10:14
Das Papier geht unter anderem von einer "gewaltigen Verschiebung" in den Koordinaten bisheriger Menschenrechte aus, sobald Roboter oder andere künstliche Einheiten sich selbst autark repdroduzieren bzw- verbessern können oder eine eigene Intelligenz entwickeln.

Ich freu mich schon auf den ersten Terminator!! ;)
Titel: Re: Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
Beitrag von: Jürgen am 22 Dezember, 2006, 13:26
Absurd, pervers...

Warum nicht auch gleich Bürgerrechte einräumen...

Welcher Industrieboss träumt nicht davon, seinen Maschinen denselben Rang einzuräumen, den die Mitarbeiter eigentlich geniessen müssten.
Dann wär's sogar möglich, zur Erhaltung einer Maschine Menschen guten Gewissens sterben zu lassen, maschines (and money) first...

Und natürlich könnten Maschinen, programmierbar und in beliebiger Anzahl herstellbar, allein durch ihre Zahl entsprechende Rechte der Menschen aushebeln, z.B. das Wahlrecht.
Abschalten wäre als Mord verfolgbar.
Energie und Kommunikation wäre für Maschinen unmittelbar lebenswichtig, würde den Menschen daher noch leichter als jetzt vorenthalten.
Und dann begraben statt recyclen, oder umgekehrt...

Ich leg' mir schon 'mal 'ne grosse Axt bereit  >:(
Titel: Schwarm-Intelligenz: Weisheit der Winzlinge
Beitrag von: SiLæncer am 12 August, 2007, 19:47
Ameisen, Bienen und Vögel weisen neue Lösungen für komplexe Probleme: Die Art, wie Einzelwesen im Kollektiv richtig reagieren, obwohl sie keinen Anführer haben, inspiriert Wissenschaftler zur Entwicklung neuer Lösungen wirtschaftlicher und technischer Probleme.

Wie ist dann der große Erfolg der Ameisen zu erklären? Seit 140 Millionen Jahren bevölkern sie die Erde. Weltweit kennt man rund 12.000 Arten. Jede hat besondere Fähigkeiten.

"Ameisen sind nicht clever, Ameisenkolonien schon", sagt Deborah M. Gordon, Biologin an der Universität Stanford. Eine Kolonie findet Problemlösungen, die für einzelne Ameisen undenkbar wären. Die Kolonie nutzt den kürzesten Weg zur besten Futterquelle, verteilt Aufgaben an die Arbeiterinnen, verteidigt das Revier. Als Individuen sind Ameisen hilflos, aber als Kolonie reagieren sie schnell und effizient auf ihre Umwelt. Die Fähigkeit dazu nennt man kollektive Intelligenz oder Schwarmintelligenz.

Die Entstehung so einer Intelligenz wirft eine Grundfrage auf: Wie addieren sich einfache Handlungen Einzelner zum komplexen Verhalten einer Gruppe? Wie treffen Hunderte von Bienen eine wichtige Entscheidung für ihr Volk, wenn es unter ihnen Dutzende von Meinungen gibt? Wie koordiniert ein Heringsschwarm seine Bewegungen, dass er die Richtung blitz-artig ändern kann wie ein einziger, silbrig glänzender Organismus? Keines der Tiere begreift das Ganze, und doch tragen alle zum Erfolg der Gruppe bei. Wie das funktioniert, darüber hat die Wissenschaft faszinierende Erkenntnisse gewonnen - und beginnt nun, mit ähnlichen Strategien Problemlösungen für die menschliche Gesellschaft zu entwickeln.

In Ameisenkolonien gibt es keinen Befehlshaber. Die Ameisenkrieger werden nicht von Generälen kommandiert. Kein Manager gibt den Arbeiterinnen Befehle. Die Königin hat keine andere Funktion als Eier zu legen. Eine Kolonie mit einer halben Million Ameisen funktioniert hervorragend, obwohl sie keine Verwaltung hat, nur auf der Grundlage unzähliger einfacher Interaktionen zwischen einzelnen Ameisen. In der Wissenschaft nennt man so etwas ein sich selbst organisierendes System.

Das ist Schwarmintelligenz: Einfache Lebewesen befolgen einfache Regeln. Keine Ameise hat den Überblick. Keine sagt einer anderen, was sie tun soll. "Führung wird nicht gebraucht", sagt der Biologe Iain Couzin, der an den Elite- Universitäten Oxford und Princeton arbeitet. "Selbst komplexe Verhaltensweisen lassen sich durch einfache Interaktionen koordinieren." Auf dieser Grundlage entwickelte der Informatiker Marco Dorigo von der Freien Universität Brüssel schon 1991 erste mathematische Verfahren zur Lösung komplizierter Probleme der Menschen: die Routenplanung für Lastwagen etwa, die Flugpläne der Fluggesellschaften oder die Steuerung militärischer Roboter.

Eine Ameisenstrategie übernahm zum Beispiel das Unternehmen American Air Liquide in Houston, Texas. Die Firma stellt Gase für Industrie und Medizin her, vor allem Stickstoff, Sauerstoff und Wasserstoff. Sie hat in den USA rund 100 Produktionsstätten und liefert die Produkte über Pipelines, per Eisenbahn und mit 400 Lkw an etwa 6000 Kunden.

Zusammen mit Nutech Solutions, einer Firma, die auf künstliche Intelligenz spezialisiert ist, entwickelte Air Liquide ein Modell, in dem das Nahrungssuchverhalten der Argentinischen Ameise Linepithema humile als Vorbild diente.

"Wenn die Ameisen ihr Futter zum Nest bringen, legen sie eine Spur aus Pheromonen. Die sagt den anderen Ameisen, dass sie mehr Futter holen sollen", erklärt Harper. "Jedes Mal, wenn eine Ameise losgeht und wieder zurückkommt, wird die Pheromonspur verstärkt. Dabei muss der kürzeste Weg nicht der schnellste sein. Es kann andere geben, mit weniger Hindernissen, auf denen man weniger Energie verbraucht. Also haben wir ein Programm entwickelt, in dem Milliarden von Softwareameisen ausschwärmen und feststellen, wo die Pheromonspuren für unsere Lastwagenrouten am stärksten sind."

Bei Air Liquide kombinierte man die Ameisenmethode mit anderen Verfahren der künstlichen Intelligenz, um alle Kombinationen aus Fabrikauslastung, Wetter und Fahrtrouten zu berücksichtigen - Millionen potenzielle Entscheidungen und ihre Folgen für jeden einzelnen Tag. Jede Nacht wird das Modell mit Voraussagen über Kundenbedarf und Produktionskosten gefüttert. "Ein Programmdurchlauf dauert auch mit unseren größten Computern etwa vier Stunden", sagt Harper. "Aber um sechs Uhr morgens haben wir eine Lösung, wie wir an diesem Tag vorgehen sollen."

"Weisheit der Massen" bei Insekten, Robotern, Menschen - und natürlich im Internet

Tatsächlich profitiert fast jede Gruppe davon, wenn sie solche Regeln befolgt. Das jedenfalls meint James Surowiecki, Autor des Buchs "Die Weisheit der Vielen - warum Gruppen klüger sind als Einzelne". Ein Thema, das große Firmen zunehmend für Managementseminare entdecken. Schon vor zwei Jahren waren etwa die "Hamburger Trendtage" dem Thema Schwarmintelligenz gewidmet. Dabei wurden die Teilnehmer mit Aufgaben konfrontiert, die der Einzelne nicht überblickte, die die Gruppe als Gesamtheit aber löste.

Investoren am Aktienmarkt, Wissenschaftler und ihre Projekte, selbst Kinder, die die Zahl der Bohnen in einem Glas schätzen sollen, können nach Ansicht Surowieckis "kluge Gruppen" sein: Dazu müssen alle unabhängig denken und mit einem neutralen Mechanismus - Abstimmung, Versteigerung oder Durchschnittsbildung - zu einer Entscheidung gelangen.

Roboterkollektive könnten vielerorts helfen - zu Hause als dienstbare Geister älterer Menschen oder in der industriellen Produktion. An der Universität Stuttgart denkt man an miteinander kommunizierende Autos, die für mehr Sicherheit im Straßenverkehr sorgen könnten: "Hier komme ich, bitte Abstand halten."

Marco Dorigo treibt diesen Gedanken noch einen Schritt weiter. Mit seiner Brüsseler Arbeitsgruppe leitet er ein europäisches Projekt zur Entwicklung eines "Schwarmoids", einer Gruppe von Robotern, die zusammenarbeiten und sich mit ihren Fähigkeiten ergänzen: "Fußboter" zum Transport von Gegenständen am Boden, "Handboter" zum Klettern und zur Handhabung von Gegenständen, "Augenboter", die herumfliegen und andere Einheiten mit Informationen versorgen.

Sogar eine Evolution von Roboterschwärmen wird angestrebt. In der Schweiz kooperiert der Biologe Laurent Keller mit Informatikern des Labors für intelligente Systeme der ETH Lausanne. Sie simulieren dort kommunikatives Verhalten mit Kolonien von Schwarmrobotern (S-Bots). Die sind so konstruiert, dass sie sich selbständig organisieren. Jeder S-Bot ist mit Sensoren ausgestattet und kann Lichtsignale an andere senden. Die Roboter können zum Beispiel auf ein Lichtsignal mit einer Richtungsänderung reagieren. Sensoren und Lampe sind in einem übergeordneten neuronalen Netz - einer Art künstlichem Gehirn - verschaltet.

Um zu verstehen, wie sich erfolgreiche Kommunikationsmuster über Generationen hinweg entwickeln, haben die Forscher das neuronale Netz ihrer Roboter variabel angelegt. Sie zerlegten bestimmte Programmteile in frei kombinierbare Stücke, vergleichbar mit dem Erbgut von Lebewesen. Die werden dann - wie Gene - in jeder neuen Robotergeneration zufällig neu zusammengestellt. Wählt man nun in jeder Generation solche Roboter aus, die ihre Aufgaben am erfolgreichsten lösen, so die Idee, entwickeln sich mit der Zeit neue Verhaltensmuster. Am Ende könnten Roboter stehen, die miteinander kommunizieren und als Schwarm programmierte Objekte finden, wo der Einsatz für Menschen zu riskant ist: Sprengstoff, Geiseln, Verschüttete nach einem Erdbeben.

Kollektive Intelligenz nützt uns heute auch im Internet. Google findet über Gruppenintelligenz, wonach der einzelne Nutzer sucht. Auch die Internet-Enzyklopädie Wikipedia hat sich als großer Erfolg erwiesen. "Heute denkt eine große Zahl von Menschen gemeinsam nach, und das auf eine Weise, die wir noch vor wenigen Jahrzehnten für unmöglich gehalten hätten", sagt Thomas Malone vom kürzlich gegründeten Zentrum für Kollektive Intelligenz in Massachussetts. "Kein Einzelner kann alles wissen, was wir brauchen, um die Probleme unserer Gesellschaft zu lösen - vom Gesundheitswesen bis zum Klimawandel. Gemeinsam wissen wir viel mehr."

Eine wichtige Erkenntnis über Schwarmintelligenz ist aber auch: Massen sind nur klug, wenn ihre einzelnen Mitglieder verantwortungsbewusst handeln und eigene Entscheidungen treffen. Eine Gruppe ist nicht schlau, wenn die Einzelnen einander nachahmen oder warten, bis ihnen jemand sagt, was sie zu tun haben. Eine intelligente Gruppe - ob aus Ameisen oder Anwälten - ist darauf angewiesen, dass jedes Mitglied seine eigene Rolle spielt.

Ameisenstaaten zählen zu den erfolgreichsten Organisationen in der Geschichte des Lebens. Es gibt schlechtere Vorbilder, um sich in einer komplizierten Welt zurechtzufinden.

Quelle : www.spiegel.de
Titel: Computer entdeckt selbständig Naturgesetze
Beitrag von: SiLæncer am 04 April, 2009, 09:45
Werden Computer bald zu intelligenten Kollegen von Wissenschaftlern? Forscher stellen zwei faszinierende Fortschritte vor: Ein Computer entwickelt selbständig biochemische Experimente, ein anderer entdeckt sogar Naturgesetze - durch bloße Beobachtung von Bewegungen.

"Können Computer denken wie Wissenschaftler?" Diese Frage ist durchaus provokant - besonders, wenn das renommierte Wissenschaftsmagazin "Science" sie stellt. War Kollege Computer nicht bis vor kurzem nur der dumpfe Rechenknecht, der zwar mit beeindruckender Geschwindigkeit Zahlenberge durchwühlt, aber nichts Eigenes schafft?

Diese Zeiten sind inzwischen vorbei, wie zwei Studien in "Science" beweisen. Eine stellt einen Laborcomputer namens "Adam" vor, der chemische Experimente nicht nur selbständig durchführt, sondern auf Basis der Ergebnisse auch neue plant. Vielleicht noch beeindruckender ist aber ein weiterer Rechner: Anders als "Adam" gibt er sich nicht mit Analysen über den Metabolismus der Hefe zufrieden, sondern kann selbständig physikalische Gesetze entdecken - nur indem er Bewegungen beobachtet.

Isaac Newton hat es der Legende nach nicht anders gemacht: Er erspähte einen fallenden Apfel - und schloss daraus auf das Gesetz der Gravitation. Wissenschaftler der Cornell University in Ithaca (US-Bundesstaat New York) stellen in "Science" nun einen Computer vor, der ebenfalls die Natur beobachtet und dann auf die ihr zugrunde liegenden Gesetze schließt.

Herantasten an die Gesetze hinter den Dingen

Michael Schmidt und Hod Lipson haben dazu einen Algorithmus entwickelt: Er sucht nach mathematischen Gleichungen, die das Verhalten physikalischer Systeme erklären - ohne dass der Computer irgendein Vorwissen über Physik, Kinematik oder Geometrie besitzt. Getestet haben die Wissenschaftler ihren neuen Kollegen an einfachen Vorrichtungen wie etwa einem schwingenden Pendel.

Der Algorithmus sucht in ihnen nach Regelmäßigkeiten. Zunächst nimmt er Ableitungen von jeder beobachteten Variable und untersucht, wie sich die Veränderung auf andere Variablen auswirkt. Dann erschafft der Computer nach dem Zufallsprinzip Gleichungen - und tastet sich so immer näher an die Gleichungen heran, die das Verhalten des realen physikalischen Systems exakt beschreiben. Am Ende stehen sogenannte Invarianten - unveränderliche Größen, die immer richtig sind.

Der Eindruck, dass der Computer erratisch vorgehe, täusche, betonen die Forscher. "Es gibt immer etwas tiefer gehendes, das konstant ist", sagt Lipson. "Das ist der Hinweis auf die Physik hinter den Dingen." Sind die Invarianten erst einmal gefunden, sind prinzipiell alle Gleichungen, die das System beschreiben, greifbar. "Sie alle müssen die Invarianten berücksichtigen", erklärt Schmidt. "Für diesen Schritt brauchen wir natürlich nach wie vor den Menschen."

Naturgesetze aus Beobachtungen abgeleitet

Im Experiment mit einfachen Systemen wie einem einzelnen und einem doppelten Pendel hat der Algorithmus bestens funktioniert, schreiben die Wissenschaftler in "Science". Nur auf Basis der Daten über Positionen, Geschwindigkeiten und Zeiten habe der Computer beispielsweise den Impulserhaltungssatz und das zweite Newtonsche Bewegungsgesetz abgeleitet.

Allerdings braucht der Algorithmus dafür auch einige Zeit. Auf einem Parallel-Computer mit 32 Prozessoren konnte er einfache lineare Bewegung in wenigen Minuten durchschauen. Nach 30 bis 40 Stunden hatte er verstanden, welche Gesetze hinter den Bewegungen des Doppelpendels stecken. Als die Wissenschaftler dem Computer die Daten aus dem Experiment mit dem einfachen Pendel zu Hilfe gaben, sank die Rechenzeit auf sieben bis acht Stunden. Auf genau die gleiche Art, bemerken Schmidt und Lipson, bauen auch Menschen auf früherer Forschung auf. Dank dieses Vorgehens könne der Computer prinzipiell auch komplexere Systeme aus Bereichen wie der Biologie und der Kosmologie durchschauen.

Ängste, Computer und Roboter könnten Wissenschaftler künftig ebenso um ihre Jobs bringen, wie es mit Fließbandarbeitern in der Autoindustrie geschehen ist, sind nach Meinung von Schmidt und Lipson aber unbegründet. Die Rechner könnten lediglich die Kärrnerarbeit übernehmen - und ihren menschlichen Kollegen ermöglichen, sich schnell auf die wirklich interessanten Phänomene und deren Bedeutung zu konzentrieren.

Quelle : www.spiegel.de
Titel: Künstliche Intelligenz - Forscher fürchten Revolte
Beitrag von: SiLæncer am 03 August, 2009, 23:23
Times Online (http://technology.timesonline.co.uk/tol/news/tech_and_web/article6736130.ece) meldet, dass Forscher in Sachen Künstlicher Intelligenz (KI) und Robotik in Monterey Bay, Kalifornien, ein nicht-öffentliches Treffen veranstaltet haben, da die Fortschritte in diesem Feld ihnen Sorgen bereiten. Laut Alan Winfield, einen Professor aus England, würde zu viel Zeit in die Entwicklung von KI und zu wenig in die Sicherheit von Robotern investiert. Man nähere sich einem Zeitpunkt, an dem neue Roboter so getestet werden müssten wie neue Medikamente, bevor sie eingeführt werden dürften.

Manche Forscher fürchten tatsächlich ein Szenario, wie man es aus den Terminator-Filmen kennt und schlagen daher vor, die drei Gesetze der Robotik von Autor Isaac Asimov zu verwenden. Nach diesen darf ein Roboter einen Menschen niemals verletzen oder töten oder durch Passivität erlauben, dass ein Mensch leidet. Ein Roboter muss Befehlen von Menschen folgen, es sei denn, diese verstoßen gegen das erste Gesetz und ein Roboter muss sich selbst schützen, es sei denn, dies verstoße gegen die ersten beiden Gesetze.

Quelle : www.gamestar.de (http://www.gamestar.de)
Titel: Die Zukunft: Singularität oder Fixpunkt?
Beitrag von: SiLæncer am 11 September, 2009, 18:26
Der Kognitionsforscher Edward Boyden arbeitet am MIT an Hirn-Schnittstellen, mit deren Hilfe sich eines Tages unsere kognitiven Fähigkeiten steigern und pathologische Verhaltensmuster beseitigen lassen sollen. In seinem TR-Essay warnt er davor, (Künstliche) Intelligenz als Selbstläufer zu sehen, die sich immer weiter steigert. Es könnte auch ganz anders kommen.

Glaubt man einigen Futuristen wie Ray Kurzweil, werden wir in naher Zukunft eine Singularität erreichen – eine Periode rasanten gesellschaftlichen Wandels. So rasant, dass wir nicht einmal in Umrissen absehen können, welche Gesellschaft danach auf uns wartet. In den meisten Visionen dieser Singularität steht die Entstehung von Maschinen im Vordergrund, die intelligent genug sind, um selbst intelligentere Maschinen zu schaffen, die wiederum noch intelligentere Maschinen hervorbringen... – eine positive Rückkopplung erweiterter Intelligenz.

Dieser Gedanke hat was. Ich selbst wollte, als ich am MIT studierte, einen Roboterforscher bauen, der schnellere und bessere Entdeckung machen könnte als jeder menschliche Wissenschaftler. Selbst der Cheftechnologe von Intel, Justin Rattner, hat kürzlich laut darüber nachgedacht, dass wir uns direkt auf diese Singularität zu bewegen. Konferenzen wie der Singularity Summit im Oktober beschäftigen sich bereits damit, wie diese Transformation ablaufen könnte.

Als Kognitionsforscher halte ich die Sichtweise, die Erweiterung von Intelligenz sei der entscheidende Entwicklungsfaktor der Zukunft, allerdings für verengt. Denn sie blendet einen kritischen Aspekt aus: Wie verändern sich Motivationen mit zunehmender Intelligenz? Wir könnten es auch die Notwendigkeit von „Führungsqualitäten von Maschinen“ oder einer „Philosophie von Maschinen“ nennen. Ohne die wird die Rückkopplungsschleife rasch ins Stottern kommen.

Wir wissen, dass Intelligenz allein nicht genügt, um in der Welt etwas zu bewegen. Man muss auch die Fähigkeit haben, ein Ziel hartnäckig gegen alle Widerstände zu verfolgen und die graue Realität dabei auszublenden – bis hin zur Selbsttäuschung, also gegen die eigene Intelligenz. In den meisten Sciencefiction-Geschichten handeln Künstliche Intelligenzen aus einem starken inneren Antrieb. In Matrix oder Terminator II sind sie entschlossen, die Menschheit zu versklaven oder gar auszurotten. Ebenso plausibel ist aber auch der Roboter Marvin in Per Anhalter durch die Galaxis, der wegen seiner enormen Intelligenz meistens herumhängt und sich beklagt. Ihm fehlt dabei ein großes Ziel.

Tatsächlich könnte eine wirklich hochentwickelte Intelligenz ohne eine echte Motivation für ihr Handeln feststellen, dass nichts Bestand hat, und, weil die Sonne sowieso in ein paar Milliarden Jahren verlöscht, beschließen, den Rest ihrer Existenz mit Videospielen zuzubringen. Denn noch klügere Maschinen zu bauen wäre ja sinnlos. Das könnte übrigens eine Erklärung dafür sein, dass wir bislang keine Außerirdischen entdeckt haben. Eine intelligente Spezies an der Schwelle zur interstellaren Raumfahrt könnte es sich angesichts der Tatsache, dass die Galaxien in 1019 Jahren verglühen, anders überlegen und einfach zuhause bleiben, um fernzusehen.

Wenn man also intelligente Maschinen bauen will, die noch intelligentere Maschinen konstruieren können, muss man ihr nicht nur eine Motivation für ihr Handeln einbauen, sondern eine Motivationsverstärkung: das permanente Bedürfnis, eine sich selbst erhaltende Motivation zu kreieren, während die Intelligenz zunimmt. Wenn aber künftige Generationen Künstlicher Intelligenzen solch eine „Meta-Motivation“ haben sollen, ist es wichtig, jetzt deren Grundlagen zu entwickeln.

Es gibt eine zweite Sache. Ein intelligentes Wesen kann sich viel mehr Möglichkeiten ausmalen als ein weniger intelligentes. Das muss aber nicht unbedingt ein effektiveres Handeln nach sich ziehen, umso mehr, als manche Möglichkeiten vom ursprünglichen Ziel ablenken könnten (wie zum Beispiel, noch intelligentere Maschinen zu bauen). Die dem Universum innewohnende Ungewissheit könnte den Entscheidungsprozess einer Intelligenz überfordern oder unerheblich machen. In einem Möglichkeitsraum mit sehr vielen Dimensionen – in dem die Koordinatenachsen bestimmte Handlungsparameter repräsentieren – könnte es sehr schwierig sein, den besten Weg zu ermitteln. Der Verstand kann zwar verschiedene Pläne parallel ausarbeiten, aber Handlungen sind immer unitär – sie erfolgen einzeln im Hier und Jetzt. Wenn die zugänglichen Ressourcen begrenzt sind, kommen Handlungen oft nur spärlich zustande.

Die letzten beiden Absätze gelten nicht nur für Künstliche oder Außerirdische Intelligenzen. Sie beschreiben auch Eigenschaften des menschlichen Geistes, die immer wieder unsere Entscheidungsfindung berühren: Antriebsschwäche sowie Lähmung angesichts zu vieler Optionen.

Aber es kommt noch schlimmer: Wir wissen, dass eine Motivation von Möglichkeiten absorbiert werden kann, die diese Motivation nur scheinbar befriedigen. Suchtverhalten ist allein in den USA ein Problem für zig Millionen Menschen, und es kann Drogen, aber auch unscheinbareren Dingen wie Emails gelten.

Eins der größten Probleme ist, eine Motivation an die nächste Generation weiterzugeben, um eine große Idee zu verwirklichen. Intelligenzen, die immer faszinierendere Technologien entwickeln, die ihre Aufmerksamkeit noch stärker fesseln, aber weniger Einfluss auf die Welt haben, könnten gar in das Gegenteil einer Singularität hineingeraten. Wie sieht das dann aus?

Die Singularität basiert auf dem mathematischen Prinzip der Rekursion: Man erfindet eine Superintelligenz, die eine Super-Superintelligenz erfindet und so weiter. Wie aber jeder Mathematikstudent weiß, sind bei Iterationen – also schrittweisen Prozessen – auch andere Ergebnisse möglich. Zum Beispiel ein so genannter Fixpunkt: Wendet man auf ihn eine Funktion an, ist er selbst das Ergebnis. Punkte in der Nähe eines Fixpunktes liefern Ergebnisse, die immer näher an diesen heranrücken.

Als „gesellschaftlichen Fixpunkt“ könnte man deshalb einen Zustand definieren, der sich selbst verstärkt und dabei immer nur den Status Quo reproduziert. Solch ein Zustand könnte friedlich und nachhaltig sein, aber auch total langweilig, etwa wenn sehr viele Menschen am Internet hängen und fortwährend Videos schauen.

Wir Menschen sollten deshalb bald anfangen, Konstruktionsprinzipien für Technologien zu entwickeln, die uns für irgendein erhabenes Ziel motivieren. Oder uns zumindest von der Sackgasse eines „gesellschaftlichen Fixpunkts“ wegbringen. In diesem Prozess müssen wir uns auch damit auseinandersetzen, wie Technik uns bei der Antwort einer alten Frage der Philosophie helfen könnte: „Was soll ich tun – angesichts all dieser möglichen Wege in die Zukunft?“ Vielleicht ist es Zeit, diese Frage, ausgehend von den Eigenschaften des Gehirns und des Universums, empirisch zu beantworten.

Quelle : http://www.heise.de/tr/
Titel: Re: Die Zukunft: Singularität oder Fixpunkt?
Beitrag von: Jürgen am 12 September, 2009, 04:45
Was ist überhaupt Intelligenz?
Besonders perfekt zu tun, was andere erwarten?

Och nö.

Das wäre ja nur eine technische Fortsetzung von Globalisierung und Finanzmarkt-Spekulationswirtschaft, wie gehabt und gescheitert.
Dumme willfährige Sklaven, die Maschinen füttern, wie Chaplin schon vor über 70 Jahren geschildert hat, aber nach heutigen Masstäben hoch leistungsfähig, belastbar und flexibel? Wie nennt man das eigentlich jetzt, Roboter, Zeitarbeiter, Deutsche Werktätige?

Widerstand ist viel eher intelligent. Und zwar nicht der elektrische...
 
Lasst uns nicht die Schmiere im Getriebe sein, sondern lieber der Sand.

Hiermit gelobe ich feierlich, dass ich nie im Leben jemals einen Cyborg herstellen, erwerben, bedienen noch auch nur in Funktion lassen würde.

Und ich behaupte, den gesunden Sinn für das alltägliche elende Chaos wird keine Maschine je erwerben.
Nicht einmal überzogen mit einer Gummimaske frei nach Guido W. ...
Titel: Sie werden uns nicht kalt lassen
Beitrag von: SiLæncer am 20 September, 2009, 20:03
Edward Boydens Essay vom vergangenen Freitag, "Die Zukunft: Singularität oder Fixpunkt?", zur Frage, ob Künstliche Inteligenz auch "künstlicher Motivation" bedarf, hat im Forum eine große Diskussion über KI ausgelöst. Dabei ging es auch um die Frage nach Bewusstsein und Gefühlen in Maschinen. Am meisten beschäftigte mich eine Frage von Joachim Durchholz, die mir ebenfalls seit längerem durch den Kopf geht: "Wenn Dir eine Maschine erklärt, dass sie ein Bewusstsein hat – wie willst Du ihr nachweisen, dass sie Unrecht hat?"

Eine polemische Antwort wäre, einfach die Stromzufuhr zu kappen – hat sich was mit Bewusstsein.

Aber lassen wir den Strom einfach mal an. Man kann die Frage noch anders fassen: Wenn eine autonome, lernfähige Maschine so programmiert ist, dass sie Bewusstsein oder Gefühle darstellen kann – ab wann sind die nicht mehr simuliert, sondern echt?

Diese Frage tauchte letztes Jahr auf, als der Kollege Stieler und ich unseren Artikel zu Maschinen und Emotionen recherchierten ("Maschinen zum Verlieben", TR 03/2008). Einige Wissenschaftler sagten, dass es für die "Echtheit" von Gefühlen egal sei, ob sie aus Wetware oder Hardware entstehen.

Mir fiel kein Argument dagegen ein. Erst recht nicht angesichts der Befunde aus der Verhaltensforschung zum Phänomen des Anthropomorphismus: Wir neigen schnell dazu, einer Maschine, wenn sie bestimmte "evolutionäre Knöpfe" (so Sherry Turkle) bei uns drückt, einen quasi-lebenden Zustand zuzuschreiben. Kinder haben damit kein Problem. Für sie hat ein Aibo Gefühle.

Der Streit zwischen Kognitivisten und Anti-Kognitivisten, ob Bewusstsein in einer Maschine als emergente Eigenschaft entstehen kann – siehe dazu David Gelernters Essay "KI auf dem Holzweg" –, ist da möglicherweise die falsche Frage. Denn auch er hat als Prämisse, menschliches Bewusstsein sei das Maß für Bewusstsein. Und weil das im Laufe der Evolution von selbst entstanden ist, müsse es auch bei Maschinen von selbst entstehen. Und dann auf einen Schlag. Ohne Übergang.

Dieses anthropozentrische Denken läuft aber längst ins Leere. Das Recht mit seinem abstrakten Personenbegriff ist da schon weiter. Der Jurist Andreas Matthias hat in seinem Buch "Automaten als Träger von Rechten" (Logos Verlag) sehr schön die Bandbreite von nichtmenschlichen Personen und menschlichen Nichtpersonen dargestellt. Ein bewusstloser Mensch ist nach wie vor eine Person. Eine Maschine, die Bewusstsein "simuliert", nicht.

Noch nicht: Warum soll eine autonome Maschine, die im Unterschied zum bewusstlosen Menschen Entscheidungen treffen kann, die Folgen haben und für die sonst niemand verantwortlich ist, nicht als Person mindestens im juristischen Sinne aufgefasst werden? Matthias' Antwort ist, dass solche autonomen Maschinen Personenrechte bekommen sollten, um eine "Verantwortungslücke" zu schließen.

All das sind zurzeit sicher noch spitzfindige Erörterungen. Abzusehen ist aber, dass wir in den nächsten Jahren immer mehr Gesellschaft von immer autonomeren Maschinen – auch mit Emotionsmodulen – bekommen werden. Sie weiterhin als stumpfe, bewusstlose Maschinen anzusehen, wird uns das Leben nicht leichter machen. Allein schon deshalb, weil wir sie mit Sicherheit nicht so behandeln werden. Sie werden uns nicht kalt lassen. Und dann werden wir uns endgültig mit diesen Fragen auseinandersetzen müssen.

Quelle : http://www.heise.de/tr/
Titel: Künstliche Intelligenz - neu überdacht
Beitrag von: SiLæncer am 08 Dezember, 2009, 16:40
Mit einem Forschungsprogramm will das MIT die Forschung zum Thema künstliche Intelligenz neu beleben. Ziel des Projektes ist es, "eine intelligente Maschine zu bauen - was immer das bedeuten mag", heißt es in der Pressemitteilung   zum Start des Projektes.

Im  Mind Machine Project (http://mmp.cba.mit.edu/) arbeiten rund zwei Dutzend Professoren zusammen, darunter so illustre Geister wie die KI-Legende Marvin Minsky oder der Leiter des Center for Bits and Atoms, Neil Gershenfeld. Das Projekt wird aus einer Spende über die nächsten fünf Jahre zunächst mit fünf Millionen Dollar finanziert.

„Es gibt noch immer kein Programm, das nach einem Blick in ein Zimmer sagen kann, da sitzt ein Mensch, da steht ein Glas Wasser auf dem Tisch. Kein Computer kann auch nur einfache Geschichten verstehen“, hatte Minsky bereits 2006 - anlässlich des 50jährigen Jubiläums der KI-Forung kritisiert - und seinen Forscherkollegen mangelnde geistige Beweglichkeit vorgeworfen.

Nun wollen Gershenfeld und seine Kollegen "noch einmal zurück gehen, und das reparieren, was kaputt gegangen ist". In drei Themenfeldern sei die KI-Forschung stecken geblieben - diese sollen mit Hilfe von Teilprojekten neu angegangen werden: Das erste Teilgebiet betreffe "die Modellierung des Denkens".  Hier müsse es darum gehen, die Vielzahl der bereits existierenden Modell zu einem funktionierenden Ganzen zu verbinden. Das zweite Projekt betreffe die Erforschung des Gedächtnisses - insbesondere die Einbeziehung von zweideutigen, unscharfen Erinnerungen und Assoziationen. Und schließlich wollen sich die Projektteilnehmer mit der Wechselwirkung zwischen physischem Körper und Intelligenz beschäftigen. De "klassische KI" hatte stets betont, es spiele keine Rolle, "auf welcher Hardware die Software läuft - die Anhänger der "Embodied Artificial Intelligence" wie etwa der Züricher Professor Rolf Pfeifer hatten diese Position stets scharf kritisiert .

Quelle : www.heise.de
Titel: "Singularität lässt auf sich warten"
Beitrag von: SiLæncer am 21 Oktober, 2011, 10:15
Für Paul Allen, Mitbegründer von Microsoft, ist die Singularität, jener Punkt in der Technikgeschichte, an dem Maschinen die Menschen überholen sollen, noch weit weg. Denn Neurowissenschaft und KI-Forschung komme mit der Komplexität der Aufgabe nicht zurande, schreibt Allen in einem Essay in der Online-Ausgabe von Technology Review.

Futuristen wie Vernor Vinge und Ray Kurzweil sagen seit Jahren voraus, dass die Welt sich rasant auf einen Wendepunkt zubewegt. Am Punkt der Singularität würden die sich immer schneller entwickelnden Fähigkeiten von immer intelligenteren Maschinen den Menschen überholen. Mit dem aus der Mathematik entlehnten Begriff der Singularität wollen Vinge und Kurzweil ausdrücken, dass jenseits dieses Punktes Prognosen über die menschliche Zukunft unmöglich werden. "Denn dann werden die Maschinen eine solch übermenschliche Intelligenz besitzen, dass wir uns nicht annähernd ausmalen können, wie sich unser Leben verändert", schreibt Allen.

Der Microsoft-Mitbegründer, der heute unter anderem die Vulcan Inc. führt und als Investor tätig ist, glaubt aber nicht daran, dass es bald soweit ist. "Um die Singularität zu erreichen, genügt es nicht, die heutige Software einfach nur schneller laufen zu lassen. Wir bräuchten auch intelligentere, fähigere Programme. Voraussetzung hierfür wäre aber ein wissenschaftliches Verständnis der Grundlagen menschlicher Erkenntnis. Hier kratzen wir gerade erst an der Oberfläche."

Es sei genau dieses fehlende Verständnis, das ihn daran zweifeln lasse, die Singularität sei nah. "Sicher, Hardware kann sich erstaunlich schnell entwickeln, wenn erst einmal ein solides wissenschaftliches Gerüst und neue ökonomische Anreize existieren. Um eine Maschinenintelligenz auf Singularitätsniveau zu bauen, bräuchten wir allerdings einen massiven wissenschaftlichen Fortschritt." Der habe mit dem Mooreschen Gesetz nicht viel zu tun. "Um eine entsprechende Software entwickeln zu können, müssten wir nicht nur wissen, wie das menschliche Gehirn physisch aufgebaut ist, sondern auch, wie die Milliarden Neuronen miteinander interagieren und dabei Denken und Bewusstsein hervorbringen."

Mehr zum Thema in Technology Review online:

    Maschinenintelligenz – eine unrealistische Vision (http://www.heise.de/tr/artikel/Maschinenintelligenz-eine-unrealistische-Vision-1363868.html)

Quelle : www.heise.de
Titel: Stephen Hawking warnt vor Gefahren künstlicher Intelligenz
Beitrag von: SiLæncer am 05 Mai, 2014, 18:05
(http://static.gulli.com/media/2014/05/thumbs/370/Stephen-hawking-2008-nasa.jpg)
In einem Independent-Artikel bezeichnet Physiker Stephen Hawking die potenzielle Erschaffung einer künstlichen Intelligenz (KI) als "größtes Ereignis in der Geschichte der Menschheit". Es könne jedoch auch das letzte sein, wenn die Risiken dieser Entwicklung nicht beachtet werden. Hawking prangert dabei im Besonderen den Mangel an ernstzunehmenden Forschungsarbeiten an.

Das Konzept einer hochintelligenten Maschine als "Science Fiction" abzutun, könnte sich als schlimmster Fehler der Geschichte herausstellen, warnt Hawking in einem Artikel im Independent (http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html). Entwicklungen wie selbstfahrende Autos oder Apples digitaler Assistent Siri seien lediglich Symptome eines IT-Rüstungswettbewerbs, der von beispiellosen Investments angetrieben werde.

Die potenziellen Vorteile einer KI seien gewaltig: Da sämtliche Errungenschaften unserer Zivilisation auf der menschlichen Intelligenz beruhen, sei schlicht nicht abzusehen, was die Menschheit erreichen könne, wenn sie durch die Arbeit einer künstlichen Intelligenz unterstützt werde. Die Ausrottung von Krieg, Krankheit und Armut könnte in greifbare Nähe rücken, so Hawking. Die Risiken seien jedoch nicht minder groß, gibt der theoretische Physiker zu bedenken. Es gebe keine fundamentalen Grenzen für die Entwicklung einer künstlichen Intelligenz. Kein physikalisches Gesetz würde Partikel daran hindern, sich so zu organisieren, so dass diese fortschrittlichere Berechnungen leisten könnten als menschliche Gehirne.

Anschließend sei ein "explosionsartiger" Wandel möglich, in dem Maschinen mit übermenschlicher Intelligenz ihre eigene Bauweise wiederholt verbessern und damit eine "Singularität" erreichen könnten. Dies sei vergleichbar mit dem, was der Hauptcharakter im gleichnamigen Johnny-Depp-Film als "Transzendenz" bezeichnet. Wir fühlen uns allerdings eher an Skynet und den "Terminator" erinnert.
Ausrottung des Kriegs oder Alien-Invasion?

Eine solche KI wäre dazu in der Lage, Finanzmärkte zu überlisten, menschliche Führungspersonen zu manipulieren und sogar Waffen zu entwickeln, die wir nicht einmal verstehen könnten. Auf kurze Sicht sei der Einfluss von künstlicher Intelligenz davon abhängig, wer sie kontrolliert, während die langfristigen Auswirkungen davon abhängig seien, ob sie überhaupt kontrolliert werden könnten. Das Konzept einer künstlichen Intelligenz habe daher das Potenzial, entweder das Beste oder das Schlechteste zu sein, was der Menschheit jemals passiert. Das hänge ganz davon ab, wie gut diese Technologie erforscht wird, um die unzähligen Vorteile und Risiken abzuwägen und sicherzustellen, dass das bestmögliche Ergebnis erreicht wird.

Abgesehen von einigen Instituten wie dem Cambridge Centre for the Study of Existential Risk oder dem Future of Life Institute stelle jedoch kaum jemand ernstzunehmende Nachforschungen zu diesem Thema an. Hawking vergleicht dies mit einer nahenden Invasion von Außerirdischen: "Wenn eine fortschrittlichere, außerirdische Zivilisation uns eine Nachricht mit den Worten 'Wir kommen in ein paar Jahrzehnten an' schicken würde, würden wir dann einfach mit 'OK, ruft kurz an, bevor ihr da seid, wir lassen die Lichter an' antworten? Wahrscheinlich nicht – doch genau so wird mehr oder weniger gerade mit der künstlichen Intelligenz verfahren."

Quelle : www.gulli.com
Titel: Stephen Hawking: "Das Risiko bei KIs ist nicht Bosheit, sondern Fähigkeit"
Beitrag von: SiLæncer am 11 Oktober, 2015, 09:51
Im Juli 2015 konnten Reddit-Nutzer dem Physiker Stephen Hawking Fragen stellen, jetzt hat die Internetseite die Antworten veröffentlicht. Viele Fragen drehen sich um Hawkings Meinung zu künstlicher Intelligenz, aber auch um seinen Musik- und Filmgeschmack.

Das Online-Portal Reddit hat Stephen Hawkings Antworten auf eine Ask-Me-Anything-Session (AMA) vom Juli 2015 veröffentlicht. In der Fragerunde konnten Reddit-Nutzer dem Physiker beliebige Fragen stellen; zu einem großen Teil behandeln diese die Thematik der künstlichen Intelligenz. Weil Hawking aufgrund seiner Lähmung länger für die Antworten brauchte, wurden die Beiträge von Reddit gesammelt und jetzt en bloc veröffentlicht.

Viele Fragen zu künstlicher Intelligenz

Auf dem Gebiet der künstlichen Intelligenz hat Hawking immer wieder seine Meinung geäußert, zuletzt in Form einer Forderung des Verbots von autonomen Waffensystemen. Eine der von den Reddit-Nutzern am häufigsten bewertete Frage dreht sich um die Thematik, ob eine künstliche Intelligenz per se böse sei, wie es häufig in den Medien und der Populärkultur dargestellt wird.

Hawking stimmt dem Fragenden zu, dass Medien häufig seine Aussagen falsch wiedergäben: Die wirkliche Gefahr bei künstlichen Intelligenzen sei nicht Bosheit, sondern Fähigkeit. "Eine superintelligente künstliche Intelligenz wird extrem gut in der Erfüllung ihrer Ziele sein und wenn diese Ziele nicht mit unseren übereinstimmen, haben wir ein Problem", sagt Hawking. Er vergleicht die Situation mit der des Betreibers eines hydroelektrischen Projektes: Dieser habe nicht die böse Absicht, einen Ameisenhaufen im zu flutenden Gebiet zu zerstören - in der gutgläubigen Ausführung des Projektes geschehe dies aber trotzdem.

KIs können klüger werden als ihre Schöpfer

In einem anderen Beitrag wird Hawking gefragt, ob er glaube, dass künstliche Intelligenzen klüger als ihre Schöpfer werden können. Hawking verweist darauf, dass es klar möglich ist, dass etwas intelligenter werden kann als seine Vorfahren. Sollte dies bei künstlichen Intelligenzen passieren, erwarte er eine Intelligenzexplosion bei den Maschinen.

Interessant sind auch Hawkings Ansichten zu technologischer Arbeitslosigkeit, also derjenigen Arbeitslosigkeit, die entsteht, wenn intelligente Maschinen immer mehr menschliche Arbeit ersetzen. Entweder können die meisten Menschen ein luxuriöseres Leben führen, weil der durch die Maschinen erzeugte Gewinn geteilt werde, oder die meisten Menschen werden ärmer, weil der Gewinn den Besitzern der Maschinen vorbehalten sein wird. Aktuell sieht Hawking eher die zweite Möglichkeit als die realistische an.

Hawking mag Rod Stewart

In der Reddit-Session hat Hawking auch einige private Fragen beantwortet. Sein Lieblingslied ist "Have I told you lately" von Rod Stewart, sein Lieblingsfilm "Jules et Jim", "Big Bang Theory" findet er amüsant. Das faszinierendste Mysterium der Welt sind Hawking zufolge Frauen.

Quelle : www.golem.de
Titel: Googles KI erlernt selbstständig eine Universalsprache
Beitrag von: SiLæncer am 25 November, 2016, 12:39
Googles Übersetzungstool lernt sehr schnell, schneller als je zuvor. Inzwischen wird die KI Deep Learning genutzt, die sogar Sprachen übersetzen kann, für die Google bisher noch keine Beispiele gesammelt hat. Damit entwickelt die KI offenbar eine Universalsprache.

Seit kurzem nutzt Google die eigene KI Deep Learning für das "Google Translate"-Übersetzungstool - mit großem Erfolg. Die KI lernt sehr schnell und ermöglicht daher deutlich besser übersetzte Texte.

Googles Übersetzungen werden besser

In der Datenbank von Google befinden sich sehr viele Sprachen mit unzähligen Beispielen, anhand derer die Übersetzungen bisher durchgeführt wurden. Deep Learning jedoch geht etwas anders vor. Die KI benötigt im Prinzip keine Beispiele mehr. Deep Learning übersetzt nun auch in unbekannte Sprachen, sofern es bereits eine Übersetzung in eine gemeinsame Sprache gibt. Liegt beispielsweise eine Übersetzung vom Koreanischen ins Englische vor sowie vom Japanischen ins Englische, so kann Deep Learning direkt vom Japanischen ins Koreanische Übersetzen, ohne dass entsprechende Beispiele und Datensätze in den Datenbanken vorhanden sein müssen.

Dies wurde allerdings so nicht programmiert. Deep Learning übersetzt auf diese Weise selbstständig und die Entwickler müssen erst noch dahinter kommen, wie das System das schafft. Offenbar hat die KI Deep Learning eine Art Universalsprache entwickelt, über die die Übersetzungen laufen. Diese Universalsprache müsste aber eine ähnliche Struktur wie alle anderen Sprachen aufweisen. Da sich selbst die Entwickler nicht sicher sind, wie Deep Learning dies anstellt, ist es momentan schwer zu sagen, auf welche Art die Universalsprache funktioniert.

Google geht davon aus, dass die Fähigkeiten von Deep Learning weiter wachsen werden und die Übersetzungen von Google Translate qualitativ immer besser werden. Davon profitieren letzten Endes natürlich die Nutzer, die über kurz oder lang möglichst natürlich übersetzte und verständliche Texte erhalten werden.

www.gulli.com
Titel: Zum Geburtstag von Isaac Asimov
Beitrag von: SiLæncer am 03 Januar, 2018, 10:55
Lange bevor Wissenschaftler sich ernsthaft darüber Gedanken machten, wie man künstliche Intelligenzen daran hindern könnte, aus dem Ruder zu laufen, formulierte Isaac Asimov drei simple Grundregeln dafür: die Robotergesetze.

1942, als die fortschrittlichsten weltweit verfügbaren Computer noch mit Röhren betriebene Spezialmaschinen zur Lösung linearer Gleichungssysteme waren, dachte ein junger Schriftsteller über das Zusammenleben von Menschen und autonomen Robotern nach. Besonders faszinierte den jungen Isaac Asimov, der heute, am 2. Januar 2018, 98 Jahre alt geworden wäre, wie man verhindern könnte, dass an sich gutwillige, intelligente Maschinen Schaden anrichten.

Denn die autonomen Roboter, die Asimov sich vorstellte, sollten durchaus eine gewisse Eigenständigkeit besitzen - schließlich sollten sie ja selbstständig Lösungen für unerwartet auftretende Probleme finden. Die "positronischen Gehirne" solcher autonomer Maschinen stellte Asimov sich daher als eine Art Black Box vor, deren eventuell auftretende Fehlfunktion nur durch "Roboter-Psychologen" wieder beseitigt werden können. Einfach beliebig umprogrammieren konnte man diese Roboter jedenfalls nicht.

Robotergesetze

Die Lösung, auf die Asimov schließlich kam, waren drei Grundregeln, die jeder Roboter tief in sein Bewusstsein eingebrannt hatte:

Erstens, dass kein Roboter einem Menschen Schaden zufügen darf, noch dass er zulassen darf, dass ein Mensch Schaden erleidet.

Zweitens, dass ein Roboter sich immer an menschliche Anweisungen halten muss.

Drittens, dass ein Roboter nichts unternehmen darf, was seine eigene Existenz gefährdet.

Später ergänzte Asimov ein "nulltes Gesetz", nach dem ein Roboter nicht nur Schaden von individuellen Menschen, sondern auch von "der Menschheit" abzuwenden habe.

Der ganze Artikel (https://www.heise.de/newsticker/meldung/Zahlen-bitte-3-Regeln-fuer-Roboter-Zum-Geburtstag-von-Isaac-Asimov-3924538.html)

Quelle : www.heise.de