Autor Thema: Künstliche Intelligenz ...  (Gelesen 5014 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
"Singularität lässt auf sich warten"
« Antwort #15 am: 21 Oktober, 2011, 10:15 »
Für Paul Allen, Mitbegründer von Microsoft, ist die Singularität, jener Punkt in der Technikgeschichte, an dem Maschinen die Menschen überholen sollen, noch weit weg. Denn Neurowissenschaft und KI-Forschung komme mit der Komplexität der Aufgabe nicht zurande, schreibt Allen in einem Essay in der Online-Ausgabe von Technology Review.

Futuristen wie Vernor Vinge und Ray Kurzweil sagen seit Jahren voraus, dass die Welt sich rasant auf einen Wendepunkt zubewegt. Am Punkt der Singularität würden die sich immer schneller entwickelnden Fähigkeiten von immer intelligenteren Maschinen den Menschen überholen. Mit dem aus der Mathematik entlehnten Begriff der Singularität wollen Vinge und Kurzweil ausdrücken, dass jenseits dieses Punktes Prognosen über die menschliche Zukunft unmöglich werden. "Denn dann werden die Maschinen eine solch übermenschliche Intelligenz besitzen, dass wir uns nicht annähernd ausmalen können, wie sich unser Leben verändert", schreibt Allen.

Der Microsoft-Mitbegründer, der heute unter anderem die Vulcan Inc. führt und als Investor tätig ist, glaubt aber nicht daran, dass es bald soweit ist. "Um die Singularität zu erreichen, genügt es nicht, die heutige Software einfach nur schneller laufen zu lassen. Wir bräuchten auch intelligentere, fähigere Programme. Voraussetzung hierfür wäre aber ein wissenschaftliches Verständnis der Grundlagen menschlicher Erkenntnis. Hier kratzen wir gerade erst an der Oberfläche."

Es sei genau dieses fehlende Verständnis, das ihn daran zweifeln lasse, die Singularität sei nah. "Sicher, Hardware kann sich erstaunlich schnell entwickeln, wenn erst einmal ein solides wissenschaftliches Gerüst und neue ökonomische Anreize existieren. Um eine Maschinenintelligenz auf Singularitätsniveau zu bauen, bräuchten wir allerdings einen massiven wissenschaftlichen Fortschritt." Der habe mit dem Mooreschen Gesetz nicht viel zu tun. "Um eine entsprechende Software entwickeln zu können, müssten wir nicht nur wissen, wie das menschliche Gehirn physisch aufgebaut ist, sondern auch, wie die Milliarden Neuronen miteinander interagieren und dabei Denken und Bewusstsein hervorbringen."

Mehr zum Thema in Technology Review online:

    Maschinenintelligenz – eine unrealistische Vision

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Stephen Hawking warnt vor Gefahren künstlicher Intelligenz
« Antwort #16 am: 05 Mai, 2014, 18:05 »
In einem Independent-Artikel bezeichnet Physiker Stephen Hawking die potenzielle Erschaffung einer künstlichen Intelligenz (KI) als "größtes Ereignis in der Geschichte der Menschheit". Es könne jedoch auch das letzte sein, wenn die Risiken dieser Entwicklung nicht beachtet werden. Hawking prangert dabei im Besonderen den Mangel an ernstzunehmenden Forschungsarbeiten an.

Das Konzept einer hochintelligenten Maschine als "Science Fiction" abzutun, könnte sich als schlimmster Fehler der Geschichte herausstellen, warnt Hawking in einem Artikel im Independent. Entwicklungen wie selbstfahrende Autos oder Apples digitaler Assistent Siri seien lediglich Symptome eines IT-Rüstungswettbewerbs, der von beispiellosen Investments angetrieben werde.

Die potenziellen Vorteile einer KI seien gewaltig: Da sämtliche Errungenschaften unserer Zivilisation auf der menschlichen Intelligenz beruhen, sei schlicht nicht abzusehen, was die Menschheit erreichen könne, wenn sie durch die Arbeit einer künstlichen Intelligenz unterstützt werde. Die Ausrottung von Krieg, Krankheit und Armut könnte in greifbare Nähe rücken, so Hawking. Die Risiken seien jedoch nicht minder groß, gibt der theoretische Physiker zu bedenken. Es gebe keine fundamentalen Grenzen für die Entwicklung einer künstlichen Intelligenz. Kein physikalisches Gesetz würde Partikel daran hindern, sich so zu organisieren, so dass diese fortschrittlichere Berechnungen leisten könnten als menschliche Gehirne.

Anschließend sei ein "explosionsartiger" Wandel möglich, in dem Maschinen mit übermenschlicher Intelligenz ihre eigene Bauweise wiederholt verbessern und damit eine "Singularität" erreichen könnten. Dies sei vergleichbar mit dem, was der Hauptcharakter im gleichnamigen Johnny-Depp-Film als "Transzendenz" bezeichnet. Wir fühlen uns allerdings eher an Skynet und den "Terminator" erinnert.
Ausrottung des Kriegs oder Alien-Invasion?

Eine solche KI wäre dazu in der Lage, Finanzmärkte zu überlisten, menschliche Führungspersonen zu manipulieren und sogar Waffen zu entwickeln, die wir nicht einmal verstehen könnten. Auf kurze Sicht sei der Einfluss von künstlicher Intelligenz davon abhängig, wer sie kontrolliert, während die langfristigen Auswirkungen davon abhängig seien, ob sie überhaupt kontrolliert werden könnten. Das Konzept einer künstlichen Intelligenz habe daher das Potenzial, entweder das Beste oder das Schlechteste zu sein, was der Menschheit jemals passiert. Das hänge ganz davon ab, wie gut diese Technologie erforscht wird, um die unzähligen Vorteile und Risiken abzuwägen und sicherzustellen, dass das bestmögliche Ergebnis erreicht wird.

Abgesehen von einigen Instituten wie dem Cambridge Centre for the Study of Existential Risk oder dem Future of Life Institute stelle jedoch kaum jemand ernstzunehmende Nachforschungen zu diesem Thema an. Hawking vergleicht dies mit einer nahenden Invasion von Außerirdischen: "Wenn eine fortschrittlichere, außerirdische Zivilisation uns eine Nachricht mit den Worten 'Wir kommen in ein paar Jahrzehnten an' schicken würde, würden wir dann einfach mit 'OK, ruft kurz an, bevor ihr da seid, wir lassen die Lichter an' antworten? Wahrscheinlich nicht – doch genau so wird mehr oder weniger gerade mit der künstlichen Intelligenz verfahren."

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Im Juli 2015 konnten Reddit-Nutzer dem Physiker Stephen Hawking Fragen stellen, jetzt hat die Internetseite die Antworten veröffentlicht. Viele Fragen drehen sich um Hawkings Meinung zu künstlicher Intelligenz, aber auch um seinen Musik- und Filmgeschmack.

Das Online-Portal Reddit hat Stephen Hawkings Antworten auf eine Ask-Me-Anything-Session (AMA) vom Juli 2015 veröffentlicht. In der Fragerunde konnten Reddit-Nutzer dem Physiker beliebige Fragen stellen; zu einem großen Teil behandeln diese die Thematik der künstlichen Intelligenz. Weil Hawking aufgrund seiner Lähmung länger für die Antworten brauchte, wurden die Beiträge von Reddit gesammelt und jetzt en bloc veröffentlicht.

Viele Fragen zu künstlicher Intelligenz

Auf dem Gebiet der künstlichen Intelligenz hat Hawking immer wieder seine Meinung geäußert, zuletzt in Form einer Forderung des Verbots von autonomen Waffensystemen. Eine der von den Reddit-Nutzern am häufigsten bewertete Frage dreht sich um die Thematik, ob eine künstliche Intelligenz per se böse sei, wie es häufig in den Medien und der Populärkultur dargestellt wird.

Hawking stimmt dem Fragenden zu, dass Medien häufig seine Aussagen falsch wiedergäben: Die wirkliche Gefahr bei künstlichen Intelligenzen sei nicht Bosheit, sondern Fähigkeit. "Eine superintelligente künstliche Intelligenz wird extrem gut in der Erfüllung ihrer Ziele sein und wenn diese Ziele nicht mit unseren übereinstimmen, haben wir ein Problem", sagt Hawking. Er vergleicht die Situation mit der des Betreibers eines hydroelektrischen Projektes: Dieser habe nicht die böse Absicht, einen Ameisenhaufen im zu flutenden Gebiet zu zerstören - in der gutgläubigen Ausführung des Projektes geschehe dies aber trotzdem.

KIs können klüger werden als ihre Schöpfer

In einem anderen Beitrag wird Hawking gefragt, ob er glaube, dass künstliche Intelligenzen klüger als ihre Schöpfer werden können. Hawking verweist darauf, dass es klar möglich ist, dass etwas intelligenter werden kann als seine Vorfahren. Sollte dies bei künstlichen Intelligenzen passieren, erwarte er eine Intelligenzexplosion bei den Maschinen.

Interessant sind auch Hawkings Ansichten zu technologischer Arbeitslosigkeit, also derjenigen Arbeitslosigkeit, die entsteht, wenn intelligente Maschinen immer mehr menschliche Arbeit ersetzen. Entweder können die meisten Menschen ein luxuriöseres Leben führen, weil der durch die Maschinen erzeugte Gewinn geteilt werde, oder die meisten Menschen werden ärmer, weil der Gewinn den Besitzern der Maschinen vorbehalten sein wird. Aktuell sieht Hawking eher die zweite Möglichkeit als die realistische an.

Hawking mag Rod Stewart

In der Reddit-Session hat Hawking auch einige private Fragen beantwortet. Sein Lieblingslied ist "Have I told you lately" von Rod Stewart, sein Lieblingsfilm "Jules et Jim", "Big Bang Theory" findet er amüsant. Das faszinierendste Mysterium der Welt sind Hawking zufolge Frauen.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Googles KI erlernt selbstständig eine Universalsprache
« Antwort #18 am: 25 November, 2016, 12:39 »
Googles Übersetzungstool lernt sehr schnell, schneller als je zuvor. Inzwischen wird die KI Deep Learning genutzt, die sogar Sprachen übersetzen kann, für die Google bisher noch keine Beispiele gesammelt hat. Damit entwickelt die KI offenbar eine Universalsprache.

Seit kurzem nutzt Google die eigene KI Deep Learning für das "Google Translate"-Übersetzungstool - mit großem Erfolg. Die KI lernt sehr schnell und ermöglicht daher deutlich besser übersetzte Texte.

Googles Übersetzungen werden besser

In der Datenbank von Google befinden sich sehr viele Sprachen mit unzähligen Beispielen, anhand derer die Übersetzungen bisher durchgeführt wurden. Deep Learning jedoch geht etwas anders vor. Die KI benötigt im Prinzip keine Beispiele mehr. Deep Learning übersetzt nun auch in unbekannte Sprachen, sofern es bereits eine Übersetzung in eine gemeinsame Sprache gibt. Liegt beispielsweise eine Übersetzung vom Koreanischen ins Englische vor sowie vom Japanischen ins Englische, so kann Deep Learning direkt vom Japanischen ins Koreanische Übersetzen, ohne dass entsprechende Beispiele und Datensätze in den Datenbanken vorhanden sein müssen.

Dies wurde allerdings so nicht programmiert. Deep Learning übersetzt auf diese Weise selbstständig und die Entwickler müssen erst noch dahinter kommen, wie das System das schafft. Offenbar hat die KI Deep Learning eine Art Universalsprache entwickelt, über die die Übersetzungen laufen. Diese Universalsprache müsste aber eine ähnliche Struktur wie alle anderen Sprachen aufweisen. Da sich selbst die Entwickler nicht sicher sind, wie Deep Learning dies anstellt, ist es momentan schwer zu sagen, auf welche Art die Universalsprache funktioniert.

Google geht davon aus, dass die Fähigkeiten von Deep Learning weiter wachsen werden und die Übersetzungen von Google Translate qualitativ immer besser werden. Davon profitieren letzten Endes natürlich die Nutzer, die über kurz oder lang möglichst natürlich übersetzte und verständliche Texte erhalten werden.

www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Zum Geburtstag von Isaac Asimov
« Antwort #19 am: 03 Januar, 2018, 10:55 »
Lange bevor Wissenschaftler sich ernsthaft darüber Gedanken machten, wie man künstliche Intelligenzen daran hindern könnte, aus dem Ruder zu laufen, formulierte Isaac Asimov drei simple Grundregeln dafür: die Robotergesetze.

1942, als die fortschrittlichsten weltweit verfügbaren Computer noch mit Röhren betriebene Spezialmaschinen zur Lösung linearer Gleichungssysteme waren, dachte ein junger Schriftsteller über das Zusammenleben von Menschen und autonomen Robotern nach. Besonders faszinierte den jungen Isaac Asimov, der heute, am 2. Januar 2018, 98 Jahre alt geworden wäre, wie man verhindern könnte, dass an sich gutwillige, intelligente Maschinen Schaden anrichten.

Denn die autonomen Roboter, die Asimov sich vorstellte, sollten durchaus eine gewisse Eigenständigkeit besitzen - schließlich sollten sie ja selbstständig Lösungen für unerwartet auftretende Probleme finden. Die "positronischen Gehirne" solcher autonomer Maschinen stellte Asimov sich daher als eine Art Black Box vor, deren eventuell auftretende Fehlfunktion nur durch "Roboter-Psychologen" wieder beseitigt werden können. Einfach beliebig umprogrammieren konnte man diese Roboter jedenfalls nicht.

Robotergesetze

Die Lösung, auf die Asimov schließlich kam, waren drei Grundregeln, die jeder Roboter tief in sein Bewusstsein eingebrannt hatte:

Erstens, dass kein Roboter einem Menschen Schaden zufügen darf, noch dass er zulassen darf, dass ein Mensch Schaden erleidet.

Zweitens, dass ein Roboter sich immer an menschliche Anweisungen halten muss.

Drittens, dass ein Roboter nichts unternehmen darf, was seine eigene Existenz gefährdet.

Später ergänzte Asimov ein "nulltes Gesetz", nach dem ein Roboter nicht nur Schaden von individuellen Menschen, sondern auch von "der Menschheit" abzuwenden habe.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )