Autor Thema: Roboter diverses ...  (Gelesen 6141 mal)

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Künstliche Nase - Roboter riecht mit Froschzellen
« Antwort #15 am: 24 August, 2010, 17:40 »
Die Fähigkeit zu riechen könnte die Beziehung zwischen Menschen und Robotern  vertiefen, glauben Wissenschaftler aus Japan. Sie haben einen Sensor entwickelt, der einem Roboter einen sehr feinen Geruchssinn verleiht.

Japanische Forscher haben aus den Zellen eines Froscheis eine künstliche Nase entwickelt. Sie kann nach Angaben der Forscher besser als existierende Systeme Geruchsstoffe wahrnehmen. Vorbild für den Biosensor ist die Art und Weise, wie Insekten riechen.

Froscheier und Insektenerbgut

Ausgangsmaterial für die Wissenschaftler um Shoji Takeuchi von der Universität der japanischen Hauptstadt Tokio waren Eizellen eines Krallenfroschs. In diese Zellen setzten sie Erbgut eines Seidenspinners, einer Kohlschabe und einer Fruchtfliege ein, genauer mit dem Teil der DNA, die für den Geruchssinn der Insekten zuständig ist. So brachten Forscher die Eizellen dazu, die Rezeptoren auszubilden, mit denen die Insekten Geruchsstoffe wahrnehmen.


Die so veränderten lebenden Eizellen kommen in Kapseln, die mit Flüssigkeit gefüllt sind. Diese Kapseln wiederum werden an Elektroden angeschlossen. Treffen Moleküle auf die Rezeptoren, reagieren diese mit einem elektrischen Impuls, den die Elektroden erfassen.

Schadstoffe in der Luft

Die Wissenschaftler um Takeuchi schreiben in einem Aufsatz in der US-Fachzeitschrift Proceedings of the National Academy of Sciences, der von ihnen entwickelte Sensor könne sogar sehr ähnliche biochemischen Moleküle auseinander halten. Damit sei er empfindlicher als Systeme, die mit Nanosaiten arbeiten. Der Sensor könne in mobile Messgeräte eingebaut werden, um beispielsweise Schadstoffe in der Luft zu messen.

Takeuchi und seine Kollegen haben die Funktionsfähigkeit ihres Sensors anhand eines Roboters nachgeprüft, den sie mit Hilfe des Sensors steuern: Nimmt dieser Botenstoffe einer Motte wahr, schüttelt er den Kopf. Er glaube, sagte Takeuchi dem britische Wissenschaftsmagazin New Scientist, dass "die gemeinsame Fähigkeit zu riechen eine neue Art der Beziehung zwischen Mensch und Roboter eröffnen kann."

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
ICRAC: Rüstungskontrolle für Kampfroboter
« Antwort #16 am: 23 September, 2010, 20:57 »
Einige hassen ihn, andere bewundern ihn, an ihm vorbei kommt aber keiner: Der Terminator war stets präsent, als sich 40 Wissenschaftler für drei Tage in einem Seminarraum der Berliner Humboldt-Universität versammelten, um über Militärroboter zu diskutieren. Eingeladen hatte das International Committee for Robot Arms Control (ICRAC). Es war der erste Workshop des vor einem Jahr von vier Wissenschaftlern aus Großbritannien, Australien, Deutschland und den USA gegründeten Komitees, das eine breite internationale Diskussion über Militärroboter und Vereinbarungen zu ihrer Kontrolle einfordert. Gekommen waren Politikwissenschaftler, Informatiker, Friedensforscher und Philosophen – und das Verhältnis zu der von Arnold Schwarzenegger verkörperten Filmfigur eines Kampfroboters war nicht die einzige Frage, bei der ihre Positionen auseinander lagen.

Sie stand allerdings nicht im Mittelpunkt der Diskussionen. Denn motiviert ist das Anliegen des ICRAC nicht durch fiktive Hollywoodszenarien, sondern durch die nackte Realität. Auf 1114 bis 1712 werde die Zahl der Opfer geschätzt, die zwischen 2004 und dem 15. September 2010 durch Drohnen getötet wurden, sagte Noel Sharkey, einer der Gründer des Komitees, in seinem Einführungsvortrag. Diese fliegenden Roboter werden von Menschen ferngesteuert. Der Professor für künstliche Intelligenz und Robotik von der University of Sheffield betonte aber, dass es allein schon wegen der Verletzlichkeit der Funkverbindung über Satelliten einen Entwicklungsdruck hin zu mehr Autonomie gebe.

Sharkey steht mit dieser Einschätzung nicht allein. So rechnen Planer des US-Verteidigungsministeriums für die Dekade zwischen 2030 und 2040 mit unbemannten Flugzeugen, die in der Lage sind, andere Flugzeuge zu bekämpfen. Weil sie keine Rücksicht auf den menschlichen Körper nehmen müssen, sind sie zu Flugmanövern in der Lage, bei denen Kräfte bis zum 40 G auftreten. Allein das macht sie jedem bemannten Gegner überlegen. Der Luftkampf bringt jedoch auch die Fernsteuerung an ihre Grenzen. "Wegen der großen Zahl von Entscheidungen in kurzer Zeit" hingen Fortschritte beim Waffeneinsatz "von der Entwicklung immer größerer Autonomie" ab, heißt es in der "Unmanned Aircraft Systems Roadmap 2005-2030" nüchtern.

Noch gibt es die autonom feuernden Militärroboter nicht. Aber die Vision hat die Science-Fiction-Romane und Drehbücher verlassen und Eingang in militärische Konzepte gefunden. Ob die Entwicklung am Ende langsamer oder schneller verläuft als erwartet – der Weg hin zu bewaffneten autonomen Robotern ist beschritten. Für die Teilnehmer des Berliner Workshops war das Grund genug, aktiv zu werden.

Allerdings: Was genau bedeutet Autonomie? Diese Frage stand noch häufiger im Raum als der Terminator. Beim Einschalten ihres Computers würden Prozesse in Gang gesetzt, die sie nicht bemerke und auf die sie keinen Einfluss habe, bemerkte eine Teilnehmerin. Aber handelt der Rechner deswegen autonom? Führt er nicht eher vom Menschen vorgeschriebene Programme aus? Auch ein autonomer Roboter folgt letztlich seiner vom Menschen entwickelten Programmierung, führt dessen Befehle aus. Das gilt jedoch auch für menschliche Soldaten, die in eine militärische Kommandostruktur eingebunden sind – sie sind einem Computerprogramm dann gar nicht so unähnlich.

Menschen können sich im Unterschied zu Robotern bei ihrem Handeln an ethischen Kriterien orientieren, stoßen damit unter Gefechtsbedingungen jedoch oft an Grenzen. Einige Wissenschaftler beschäftigen sich daher mit der Frage, ob Roboter zukünftig auch mit Ethik ausgestattet werden könnten, der sie dann womöglich konsequenter folgten als Menschen. Ron Arkin erforscht diesen Aspekt der Militärrobotik am Georgia Institute of Technology. Selbst wenn es gelingen sollte, eine solche maschinelle Ethik zu implementieren, erwartet aber auch Arkin nicht, das menschliche Soldaten komplett durch Roboter ersetzt werden könnten, sondern sieht deren Einsatz eher in speziellen Situationen, etwa im Kampf gegen Scharfschützen oder bei der Durchsuchung von Räumen.

Wendell Wallach von der Yale University, der gemeinsam mit Colin Allen (Indiana University, Bloomington) ein Buch zum Thema verfasst hat, gab zu bedenken, dass eine Zunahme der Autonomie auf Seiten des Roboters oft auch eine höhere Verantwortung des Operators mit sich bringe. Er bezog sich auf die Forderung, dass immer ein Mensch in der Entscheidungsschleife sein solle, und nannte das Beispiel eines Roboters, der einen Scharfschützen identifiziert, woraufhin der Mensch den Feuerbefehl gibt. "Wer befindet sich hier in wessen Schleife?", fragte er provozierend.

Tatsächlich wird Autonomie bei Militärrobotern nicht plötzlich ein- oder ausgeschaltet, sondern dringt nach und nach in das gesamte militärische Netzwerk ein. Auch bei den Einsätzen der Predator- und Reaper-Drohnen verlassen sich die oft mehrere tausend Kilometer entfernten Bediener auf die von den Flugrobotern übermittelten Daten.

Götz Neuneck vom Institut für Friedensforschung und Sicherheitspolitik (IFSH) der Universität Hamburg befürchtet, dass durch die zunehmende Automatisierung und Netzwerkzentrierung moderner Kriegsführung die Schwelle zum Krieg gesenkt wird. Politische Lösungen könnten übersehen und vermehrt asymmetrische Reaktionen provoziert werden. Niklas Schörnig von der Hessischen Stiftung Friedens- und Konfliktforschung (HSFK) sieht ebenfalls das Risiko einer Verschärfung asymmetrischer Konflikte durch den Einsatz von Roboterwaffen. Langfristig könne die Automatisierung zu einer Destabilisierung der Sicherheitslage führen. Er empfahl eine Demystifizierung dieser Waffensysteme und eine Verbesserung der öffentlichen Wahrnehmung.

Einen wichtigen Schritt in diese Richtung unternahm der Berliner Workshop mit der Verabschiedung einer Erklärung zu bewaffneten Robotersystemen, in der ein Verbot autonomer Kampfroboter und Beschränkungen bei ferngesteuerten gefordert werden. Welchen kurzfristigen Nutzen diese Waffensysteme auch immer haben mögen, er werde aufgewogen von den langfristigen Risiken, heißt es darin. Die Erklärung soll auf der ICRAC-Homepage veröffentlicht werden. Sie kann per Unterschrift unterstützt werden und soll eine Grundlage für die weitere Debatte bieten.

Quelle und Links : http://www.heise.de/newsticker/meldung/ICRAC-Ruestungskontrolle-fuer-Kampfroboter-1095585.html



Und Skynet lässt mal wieder grüßen ;)

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter entwickeln Neurosen
« Antwort #17 am: 05 Oktober, 2010, 09:11 »
Auch eine künstliche Persönlichkeit braucht ein Unbewusstes

Ein Roboter, der einen Verfolger auf eine falsche Fährte lockt, wirkt auf den ersten Blick wie das erste Aufblitzen eines Maschinenbewusstseins, jedenfalls ganz schön verschlagen. Bei dem Experiment am Georgia Institute of Technology  war dem Roboter die Absicht der Täuschung allerdings schon einprogrammiert. Um selbst auf so eine Idee zu kommen, reicht ein Bewusstsein aber wohl ohnehin nicht aus. Für solche Kreativität braucht es komplexere kognitive Strukturen mit Unterbewusstsein und Unbewusstem. Auch daran wird bereits geforscht.

Alan Wagner und Ron Arkin berichten im International Journal of Social Robotics von einem Versteckspiel für zwei Rovio-Roboter. Es gab drei Orte, an denen sich der erste Roboter verstecken konnte. Auf den Wegen zu diesen Verstecken standen drei Buntstifte aufrecht auf ihren schmalen Enden. In einer Vorbereitungsphase lernten die Roboter, dass die Stifte umfielen, wenn ein Roboter dagegen fuhr.

Genau das nutzte der Rovio, der sich verstecken sollte aus: Er fuhr gezielt einen Stift um und machte sich dann auf den Weg zu einem anderen Versteck. Der Verfolger dagegen suchte genau dort, wo der Stift umgefallen war. Für die Forscher ist das ein Zeichen, dass der verfolgte Roboter sich in die Gedankenwelt des Verfolgers hineinversetzen konnte. In der Kognitionswissenschaft wird diese Fähigkeit auch auf deutsch als "Theory of Mind" bezeichnet. Menschen entwickeln sie gewöhnlich im Alter von vier bis fünf Jahren.

Ob die Roboter bei diesem Experiment tatsächlich auch eine Theory of Mind entwickelt haben, ist indessen umstritten. "Mir scheint, dass die Theory of Mind mehr im Experimentator angesiedelt ist als im Roboter", sagte Sara Mitri, Evolutionsbiologin und Robotikforscherin an der Harvard University, dem New Scientist. Ohne entsprechende Programmierung durch den Menschen wäre der Roboter wohl kaum auf das Täuschungsmanöver gekommen.

Kevin Gold (Rochester Institute of Technology) warnt ebenfalls davor, das Experiment zu hoch zu hängen. Gold, der vor drei Jahren zusammen mit Brian Scasselatti einem humanoiden Roboter beibrachte, sich selbst im Spiegel zu erkennen, sieht die Studie aber als einen Schritt in die richtige Richtung. Das meint auch Liane Young, Kognitionsforscherin am Massachusetts Institute of Technology, die der New Scientist mit den Worten zitiert: "Jeder Computercode, der die Verhaltensmerkmale von Theory of Mind und Täuschung hervorbringt, kann uns helfen zu verstehen, was im menschlichen Geist abläuft."

Den menschlichen Geist besser verstehen möchte auch Andrei Khrennikov, der sich an der schwedischen Linnaeus University mit mathematischer Modellierung in Physik und Kognitionswissenschaften beschäftigt. In einem Beitrag  für die neue Zeitschrift Paladyn erläutert Khrennikov, wie er die Dynamik unbewusster Denkprozesse im Computer nachbilden will. Die Regeln der Vernunft spielten dabei keine Rolle, schreibt er: "Das Unbewusste ist eine Ansammlung dynamischer Systeme (Denkprozessoren), die praktisch automatisch neue geistige Zustände erzeugen. Das Bewusstsein arbeitet lediglich mit den Resultaten (Attraktoren im Raum der Ideen) dieser unbewussten Prozessoren."

Khrennikov stützt sich auf psychoanalytische Konzepte wie Lust- und Realitätsprinzip und lässt in seinem Modell Wünsche, Verbote und verbotene Wünsche miteinander wechselwirken. Die Einführung einer "Domäne der Zweifel" führt dabei zu psychischen Problemen und Geisteskrankheiten. Ideen werden unterdrückt, können aber je nach Höhe der blockierenden Schwellenwerte wieder wirksam werden.

Es gehe ihm nicht darum, freundliche Roboter zu schaffen, um deren Effizienz zu erhöhen, schreibt Khrennikov. Er möchte eine künstliche Intelligenz mit den wesentlichen Elementen der menschlichen Psyche ausstatten. Die dabei auftretenden Macken und Neurosen sind kein Fehler, sondern erwünscht, können sie doch das Verständnis psychischer Probleme vertiefen und Behandlungsmethoden verbessern.

Khrennikov erwartet zukünftig aber auch einen wachsenden Bedarf für Haushaltsroboter, die nicht nur simple Aufgaben erledigen können, sondern über eine sich mit der Zeit entwickelnde komplexe Persönlichkeit verfügen. Wahrscheinlich ist ein Roboter, der beim Putzen und Aufräumen zu gelegentlichen hysterischen Anfällen neigt, auf Dauer auch einfach interessanter und angenehmer im Umgang als ein leise summender Langweiler, der nur redet, wenn er gefragt wird.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter - Volkszählung für Maschinen
« Antwort #18 am: 12 Oktober, 2010, 12:12 »
Eine US-Wissenschaftlerin hat ein ehrgeiziges Projekt begonnen: Sie will herausfinden, wie viele Roboter  es auf der Welt gibt und was sie alles können. Dazu hat sie eine Website eingerichtet, über die Besitzer ihren Roboter registrieren können.

Roboter sind unter uns: Sie kehren den Fußboden, geleiten Bankkunden zu ihrem Termin oder fahren  unerkannt durch Braunschweig. Aber wie viele sind es wirklich? Vor knapp zwei Jahren etwa schätzte der internationale Ingenieursverband Institute of Electrical and Electronics Engineers (IEEE) die Zahl der Industrieroboter auf eine Million. Heather Knight will es genau wissen: Sie hat die erste Roboterzählung der Welt initiiert.

Meldebogen für Roboter

Alle Roboterbesitzer sind aufgerufen, ihre Maschinenwesen zu registrieren. Dazu hat Knight die Website Robotcensus.org eingerichtet und dort ein Formular bereitgestellt, um einen Roboter zu melden. Gefragt wird nach dessen Einsatzzweck, also ob er in der Forschung eingesetzt wird, im Service oder als robotischer Freund, sowie nach seinem Einsatzort, also etwa Labor, Haushalt oder Fabrik. Außerdem soll der Besitzer technische Details angeben: Wie viele Freiheitsgrade hat der Roboter, welches Geschlecht, welche Sensoren? Und schließlich die wichtigste Frage: Wie viele Roboter gibt es? - wobei der Besitzer aufgefordert wird, für jeden Roboter den Meldebogen einzeln auszufüllen. Ein Glück, dass ein robotisches Fußballteam nur aus drei Spielern besteht.

Angefangen hat die Roboterzählung als Projekt an der Carnegie Mellon Universität (CMU) in Pittsburgh im US-Bundesstaat Pennsylvania. Knight wollte wissen, wie viele Roboter es im Robotics Institute der CMU gibt, an dem sie promoviert. Also entwarf sie einen Fragebogen, den sie per E-Mail an alle Institutsmitarbeiter verschickte.

Roboter - Mensch: fast 1:1

Die haben fleißig ausgefüllt. Das Ergebnis: Nach dem derzeitigen Stand gibt es an Knights Institut 547 Roboter. Damit kommt auf fast jeden der rund 600 Institutsangehörigen ein Roboter. Nicht berücksichtigt sind dabei ist das geheime Regierungslabor, das zu CMU gehört.

Bleibt die entscheidende Frage: Was ist eigentlich ein Roboter? Dabei beruft sich Knight auf die übliche Definition, nach der Roboter künstliche Systeme sind, die wahrnehmen, denken und handeln können.

Ziel der Aktion ist, mehr Verständnis für Roboter zu wecken. Wenn Nutzer Fotos von den unterschiedlichsten Robotern - von der attraktiven Roboterdame Aila über den vielseitig einsetzbaren Personal Robot 2 bis hin zum Automaten für Panoramafotos - sehen, dann legen sie ihre Vorurteile gegen Roboter ab, hofft Knight. Es sei "schwer, gegen die Terminator-Filme anzutreten", sagte sie dem US-Wissenschaftsmagazin Technology Review.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter Asimo wird zehn
« Antwort #19 am: 29 Oktober, 2010, 19:19 »
Am 31. Oktober 2000 haben die Entwickler den humanoiden Roboter Asimo fertiggestellt, ein 1,3 Meter großer humanoider Roboter, der als Freund und Helfer des Menschen eingesetzt werden soll. Zu seinem runden Geburtstag hat Honda dem Roboter eine Torte gebacken.

Roboter Asimo feiert Geburtstag: Am 31. Oktober wird er zehn Jahre alt. Der japanische Mischkonzern Honda hatte den humanoiden Roboter 2000 nach 14 jähriger Entwicklungszeit fertiggestellt. Gedacht ist Asimo als freundlicher Roboter, der mit Menschen interagiert, etwa als Portier in einem Hotel, oder ihnen als Assistenzroboter hilft.

Gehen und laufen

Asimo - der Name ist eine Abkürzung für Advanced Step in Innovative Mobility - ist 1,3 m groß und 54 kg schwer. Er geht aufrecht auf zwei Beinen, die jeweils über sechs Freiheitsgrade verfügen. Er kann damit gerade Strecken und Kurven gehen oder Treppen steigen. Auch auf weichem Untergrund verliert er nicht das Gleichgewicht. Sein normales Gehtempo beträgt 2,7 km/h, was etwa der halben Gehgeschwindigkeit eines Menschen beträgt. Asimo schlägt aber auch mal eine schnellere Gangart an: Seit 2005 kann der Roboter auch rennen und erreicht dabei eine Geschwindigkeit von 6 km/h.


Seine zwei Arme haben, wie die eines Menschen, drei Gelenke - Schulter, Ellenbogen und Handgelenk. Das ergibt zusammen sieben Freiheitsgrade pro Arm. Die Arme enden in Händen, die je vier Finger und einen Daumen haben. Dabei ist er so geschickt, dass er auch zerbrechliche Gegenstände fassen kann. Er nimmt sie mit einer Kamera wahr, die sich in seinem Gesicht befindet. Darüber erkennt er Gegenstände, aber auch Bewegungen.

Gesichts- und Spracherkennung

Sieht er beispielsweise einen Menschen, kann er abschätzen, wie schnell und in welche Richtung dieser geht. Asimo kann ihm dann entgegengehen und ihn begrüßen. Hat er den Menschen schon einmal gesehen, ist das Gesicht in Asimos Datenbank gespeichert und er spricht ihn mit Namen an. Interagiert er mit mehreren Personen, erkennt er, welche gerade spricht und wendet sich ihr zu. Dazu verfügt er über ein Sprachsynthesesystem.


Asimo kommuniziert aber nicht nur mit Menschen - er kann ihnen auch zur Hand gehen, etwa indem er einen Servierwagen schiebt oder ein Tablett trägt. Dabei bewegt er sich allerdings langsamer als normal. Dafür schafft er es, das Tablett zu tragen, ohne dass die darauf befindlichen Gefäße überschwappen. Sollten die Gefäße ins Rutschen kommen, registrieren das die Sensoren in seinen Handgelenken. Asimo stoppt dann und versucht, das Tablett auszubalancieren.

Die Größe hat Honda so gewählt, dass Menschen halbwegs bequem mit dem Roboter interagieren können. Steht er einem sitzenden Menschen gegenüber, sind beide auf Augenhöhe. Außerdem erreicht er so die meisten Gegenstände aus der Welt der Menschen: So kann er etwa Bürogeräte wie Kopierer oder Computer bedienen, er kann Schubladen öffnen, Türgriffe oder Schalter betätigen.

Plumpe Ahnen

1986 hatte Honda begonnen, humanoide Roboter zu entwickeln. Nicht alle Vorgänger sind so elegant geraten wie Asimo. Die Technik, die die Robotiker im Laufe der Jahre entwickelt haben, fand jedoch nicht nur Eingang in Asimo. Unter anderem profitierte auch Hondas Autosparte, etwa im Bereich der Sicherheitssysteme davon.

Erstmals der Öffentlichkeit wurde er drei Wochen später präsentiert. Seither war er der Star auf vielen Veranstaltungen. Seinen ersten Auftritt in Europa hatte er 2003 in der Technischen Universität in Darmstadt.

Kuchen zum Geburtstag

Zum Geburtstag des Roboters veröffentlicht Honda eine Smartphone-Applikation, die Asimo und andere Roboter des Unternehmens vorstellt. "Run with Asimo" soll in zwei Versionen bereitstehen, eine für Android-Geräte und eine für das iPhone. Asimo selbst spendiert Honda zu seinem Ehrentag stilecht eine Torte.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wachsende Roboter lernen besser
« Antwort #20 am: 10 Januar, 2011, 22:04 »
Dass Intelligenz einen Körper braucht, beherzigen Forschungen zur künstlichen Intelligenz seit gut 20 Jahren: Roboter sollen intelligentes Verhalten entwickeln, indem sie sich mit Hilfe ihrer Sensoren in einer realen Umgebung zurechtfinden. Bislang blieb ihr Körper dabei aber stets der gleiche, während er sich bei Lebewesen ständig verändert. Welchen Einfluss solche Körperveränderungen auf Lernprozesse haben, hat Josh Bongard an der University of Vermont jetzt untersucht.

In der Zeitschrift PNAS berichtet Bongard von Simulationen mit vierbeinigen und sechsbeinigen Robotern. Über ein neuronales Netz lernten sie, sich in Richtung einer Lichtquelle zu bewegen, während ihnen nach und nach Beine wuchsen. Das heißt, sie bewegten sich zunächst, indem sie schlangenartig die Winkel ihrer zwei (bei den Vierbeinern) beziehungsweise drei (bei den Sechsbeinern) Körpersegmente zueinander veränderten. In weiteren Entwicklungsstufen konnten sie Beine einsetzen, die in Winkeln von 30, 60 und schließlich 90 Grad auf den Boden aufsetzten. Das Körperwachstum konnte während einer Evaluationsperiode mit unterschiedlicher Geschwindigkeit erfolgen oder auf verschiedene Robotergenerationen verteilt werden. Außerdem variierte Bongard den Schwierigkeitsgrad der Testumgebung, indem er die Lichtquelle immer weiter von der ursprünglichen Bewegungsrichtung des Roboters weg bewegte. Mit jeder Variante führte er 100 Versuche durch, die entweder mit der Entwicklung eines erfolgreichen Verhaltens endeten oder nach 30 Stunden Rechenzeit abgebrochen wurden.

Es zeigte sich, dass das Verhalten deutlich schneller gelernt wurde, wenn der Lernprozess von Veränderungen des Körperbaus begleitet war. Zudem erwies sich das so gelernte Verhalten auch als robuster gegenüber zufälligen Störungen. Das neuronale Netz, das schon während seiner Entwicklung auf sich verändernde Sensor-Motor-Verhältnisse hatte reagieren müssen, konnte offenbar auch besser mit verrauschten Sensordaten umgehen.

Bongard beobachtete auch die Entwicklung einer Art funktioneller Modularität: Bei den Robotern, deren Körperbau sich parallel zum neuronalen Netz entwickelte, blieb die wellenförmige Bewegung der Körpersegmente stärker erhalten. Im Unterschied zu den Robotern, die von vornherein Beine hatten, scheint hier das "Rückgrat" vornehmlich für den Antrieb verantwortlich zu sein, während die Beine vor allem die Balance halten. Das müsse noch genauer untersucht werden, so Bongard. Aber auch die bisherigen Ergebnisse seiner Studie unterstrichen den Vorteil stark modular aufgebauter Roboter, die sich nicht nur auf der Programmebene, sondern mit der Hardware an ihre Aufgaben und Umgebungen anpassen könnten.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Innorobo: Großes Robotertreffen in Lyon
« Antwort #21 am: 23 März, 2011, 19:47 »
Im Kongresszentrum von Lyon wurde am Mittwoch die Innorobo eröffnet. Organisiert wird die Kombination aus Messe und Konferenzen von Syrobo, dem französischen Interessenverband für Servicerobotik. Den Veranstaltern zufolge soll die Innorobo die internationalen Schlüsselfiguren aus diesem Bereich zusammenführen und einen einzigartigen Einblick in den Stand der technologischen Entwicklung ermöglichen.

Der Auftakt war durchaus vielversprechend. Etwa 80 Aussteller zeigen so ziemlich alle Aspekte mobiler Roboter, seien es komplette Humanoide wie den Nao von Aldebaran Robotics, Roboter für die Ausbildung, etwa von Lego Education, oder der künstliche Fisch Jessiko des jungen Unternehmens Robotswim. Der Roboterstaubsauger Roomba von iRobot fehlt ebenso wenig wie die übers iPhone gesteuerte Minidrohne der Firma Parrot. Wer an den Messeständen vorbeiläuft, kann leicht den Eindruck gewinnen, dass der kommerzielle Durchbruch der Roboter unmittelbar bevorsteht. Die Stimmung ist gut.

Dabei gibt es noch so viele offene Fragen – auch denen stellt sich die Innorobo. Das Vortragsprogramm präsentierte Referenten, die nicht um den heißen Brei herum redeten. Noel Sharkey (University of Sheffield) sprach über den Einsatz von Robotern im Krieg, der derzeit insbesondere vom US-Geheimdienst CIA in Pakistan vorangetrieben wird. Derzeit erfolgen die Drohnenangriffe noch ferngesteuert, doch der Trend zu immer größerer Autonomie, auch des Waffeneinsatzes, ist ungebrochen, wie Sharkey mit mehreren Videoaufnahmen belegen konnte. Die Entwicklung gehe vom "man in the loop" zum "man on the loop". Der Mensch soll nicht mehr jede einzelne Aktion steuern, sondern mehr und mehr ganze Schwärme von Flugrobotern überwachen. Sharkeys Fazit ist klar: Die Automatisierung des Krieges bringt mehr Krieg, tötet mehr Zivilisten und führt zu mehr Terror. Auch die Praxis der gezielten Tötungen, bei denen die Opfer keine Chance zur juristischen Verteidigung haben, werde zunehmen, meint Sharkey.


Aber auch im Zivilleben wirbeln die Roboter einiges durcheinander. "Das Internet wird einen Körper bekommen", sagte Cynthia Breazeal, Leiterin der Personal Robots Group am Massachusetts Institute of Technology (MIT). Sie betrachtet die Robotik als eine soziale Technologie, die gewissermaßen die Schnittmenge von Technik, Menschen und Haustieren bildet und die zwischenmenschliche Interaktion in vielfältiger Weise beeinflusst. Mit Haustieren verglich auch der britische Designer James Auger die Roboter. Auf dem Weg vom technologischen Traum zum Produkt müssten sie – ähnlich wie Hunde – einen Prozess der Domestizierung durchlaufen. Sinnigerweise beendete er seinen Vortrag mit Videoaufnahmen eines Ballwurfautomaten, der von einem Hund selbstständig bedient wurde. Das sei keine Entfremdung des Hundes, betonte Auger, sondern eine Erweiterung seiner Möglichkeiten.

Ebenfalls vom Standpunkt eines Designers betrachtete Dominique Sciamma die Robotik. Er sieht hier eine grundlegend neue soziale Situation entstehen. Die Form folge nicht mehr der Funktion, vielmehr stehe das Verhalten im Fokus. Ob der Mensch den Roboter forme oder umgekehrt, sei nicht immer klar auszumachen. Angesichts von Alltagsgegenständen, die mehr und mehr lebendig würden, forderte Sciamma: Zurück zur Magie! Ohne Scheu formulierte er auch transhumanistische Gedanken etwa über die Möglichkeiten, die Identität eines Menschen nach dessen Tod in seiner Armprothese zu bewahren.

Ganz so weit wollte Patrizia Marti (Universität Siena) nicht gehen. Doch auch ihre Beispiele von Roboterexperimenten mit Demenzpatienten sowie geistig und körperlich behinderten Kindern machten deutlich, dass die Roboter das Potenzial haben, das soziale und kulturelle Gefüge nachhaltig zu erschüttern. "Möglicherweise entsteht hier etwas Neues", fasste Marti ihren Vortrag zusammen, "jenseits unserer Vorstellungen von lebendig oder nicht lebendig."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Semantische Suche: PR2 kann Schlüsse ziehen
« Antwort #22 am: 06 Oktober, 2011, 19:00 »
PR2 ist wieder etwas alltagstauglicher geworden: Deutsche und japanische Wissenschaftler haben eine semantische Suche für den Roboter des US-Unternehmens Willow Garage entwickelt. Diese ermöglicht es dem Roboter, Aufgaben auch ohne ein streng vorgegebenes Programm zu erledigen.

Wissenschaftler aus Deutschland und Japan haben eine semantische Suche für den Personal Robot 2 (PR2) des US-Herstellers Willow Garage entwickelt. Mit deren Hilfe soll der Roboter auch ohne genaue Vorgaben Aufgaben erledigen können, berichtet das US-Wissenschaftsmagazin IEEE Spectrum.


Der PR2 kann allerlei Praktisches im Haushalt anstellen - Bier holen etwa, Schokokekse backen oder Socken falten. Wenn er eine solche Aufgabe erfüllt, führt der Roboter die Angaben aus, die ein Programm ihm vorgibt. Die semantische Suche soll ihm noch mehr Selbstständigkeit verleihen.

Schlüsse ziehen

Die Wissenschaftler von der Technischen Universität in München und der Universität in Tokio haben dem PR2 jetzt beigebracht, Schlüsse zu ziehen und so über reine Anweisungen hinausgehen zu können. Semantische Suche bedeutet, dass auf der Basis von vorhandenen Kenntnissen und Informationen aus der Umwelt auf ein unbekanntes Objekt geschlossen wird.

Konkret lautete der Auftrag an den Roboter, dem Auftraggeber ein Sandwich zu bringen. Der PR2 weiß, dass ein Sandwich etwas zu essen ist. Folgerichtig sucht er zunächst dort, wo Lebensmittel normalerweise aufbewahrt werden: im Kühlschrank. Dort gibt es aber kein Sandwich. Also muss er zu einem anderen Ort fahren, an dem er ein Sandwich finden kann.

Auf zum Imbiss

Die Entwickler haben den Roboter mit einer Karte der Umgebung ausgestattet. Auf der sind auch Lebensmittelgeschäfte verzeichnet. Dort, so schließt der Roboter, wird er möglicherweise das Gesuchte finden. Also fährt er zum Fahrstuhl und dann auf die Straße zum gegenüberliegenden Imbiss. Dort erhält er das gesuchte Sandwich, welches er schließlich beim Auftraggeber abliefert. Aufgrund der in der Datenbank abgelegten Informationen und der Fähigkeiten, Beziehungen zwischen Daten herzustellen und Schlüsse zu ziehen, konnte der Roboter die Aufgabe erledigen, ohne einem vorbestimmten Ablauf zu folgen.

Die beiden Universitäten gehören zu denen, die im vergangenen Jahr im Rahmen des PR2-Beta-Projekts von Willow Garage einen PR2 zur Verfügung gestellt bekommen haben. Ziel ist es, Roboter alltagstauglich zu machen.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Menschenähnliches Gesicht für Roboter
« Antwort #23 am: 08 November, 2011, 17:20 »
Wissenschaftler der TU München haben eine neue Technik entwickelt, um Robotern individuelle Gesichter mit einem realistischen Minenspiel geben zu können

Um Roboter für Menschen umgänglicher zu machen, entwickeln vor allem japanische Techniker Humanoide, die möglich dem Menschen ähneln sollen, zumindest dem Aussehen nach. Die Humanoiden, gerne mit einem Kindchengesicht und auch sehr gerne mit weiblichem Aussehen, sollen für die alternde japanische Gesellschaft als Pfleger oder für Dienstleistungen eingesetzt werden, sie könnten auch Lehrer oder auch Freunde ersetzen. Wahrscheinlich steckt hinter den Interessen der auch in der Literatur schon lange bearbeitete Traum, einen Roboter so lebensecht schaffen zu können, dass er zumindest für kurze Zeit mit einem Menschen verwechselt werden könnte.


Bei einem Humanoiden müssen Gesten, Bewegungen, Mimik, Aussehen von Körper und Gesicht, aber auch Stimme, Augen und nicht zuletzt die "Haut" stimmen, auf der anderen Seite müssen auch kleine Unterschiede gewahrt werden, damit die Roboter nicht wegen allzu großer Ähnlichkeit unheimlich werden. Jetzt haben Wissenschaftler am Institut für Kognitive Systeme der TU München mit japanischen Wissenschaftler eine neue Möglichkeit entwickelt, wie Roboter ein menschenähnliches Gesicht erhalten können.

Normalerweise wird versucht, die komplizierte Gesichtsmimik mit zahlreichen Minimotoren mechanisch zu reproduzieren. Das ist allerdings sehr aufwendig und störanfällig. Die Wissenschaftler verzichten ganz auf die Mechanik und verwenden für ihren Mask-Bot nur eine durchsichtige, innen mit einer Leuchtschicht-Imprägnierung ausgestattete Kunststoffmaske, in die von hinten mit einem Beamer und durch eine Fischaugenlinse das 3D-Bild eines Gesichts projiziert wird, das auch seitlich gesehen noch realistisch wirken soll.

Allerdings erzeugt die hell erleuchtete Maske zwar einen relativ realistischen Eindruck eines individuellen Gesichts, bei dem die Mimik ziemlich überzeugend ist, aber das Gesicht wirkt durch das durchscheinende Licht gespenstisch, bei hellem Sonnenschein dürfte die Kenntlichkeit des Gesichts schwinden, selbst wenn der kleine Beamer so stark sein soll, dass zumindest die Räume nicht verdunkelt werden müssen.

Eingesetzt werden soll die Technik für Videokonferenzen. Es reiche bereits ein zweidimensionales Foto als Grundlage für das 3D-Bild, dessen Mimik dann von einem Programm gesteuert wird. Dafür wurde das Minenspiel von Menschen aufgezeichnet und versucht, Gesichtsausdrücken Lauten zuzuordnen, um so das Gesicht beim Sprechen entsprechend zu bewegen. Ein weiteres Programm sorgt dafür, dass das Gesicht auch die richtigen Emotionen zeigt. Bislang kann Mask-Bot nur nachsprechen, was über eine Tastatur eingegeben wird. Die Stimme ist nicht individuell, man kann lediglich bestimmen, ob es sich um eine Männer- oder Frauenstimme handelt und wie laut sie spricht. Gesprochene Sprache verstehe das System allerdings kaum, ebenso wenig kann es frei sprechen und auf das Gegenüber reagieren.

Beim nächsten Prototypen soll der Talking Head Mask-Bot in einen mobilen Roboter integriert werden, der sich im Raum bewegt und damit auch das Gesicht aus allen Perspektiven, auch von unten und oben, zeigt, was schon schwieriger werden dürfte. Zumal auch die Kamera schrumpfen und im Kopf verschwinden mussUnd es verwundert auch nicht, wenn japanische Wissenschaftler, die am Projekt beteiligt sind, auch eine andere Anwendung sehen: "Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen", sagt Takaaki Kuratate.

Bis sie zu einem wirklichen Gesprächspartner werden, dürfte noch lange Zeit vergehen, wobei natürlich auch hier die Frage entsteht, wie individuell und damit auch autonom man humanoide Roboter haben will, selbst wenn dies nur das Sprachprogramm betrifft. Es nutzt ja auch nicht viel, wenn ein Gesicht dem eines Menschen ähnelt und nur Gefühle zeigt, die künstliche Intelligenz müsste auch Gefühle haben, also in dem Sinn, dass sie selbst auch eigenwillig agieren und reagieren, lachen und weinen kann. Das ist bei Videokonferenzen nicht notwendig, wenn es aber um einen Gesprächspartner ginge, der Menschen zumindest zeitweise ersetzen soll, wäre dies wohl unabdingbar.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter bescheißt bei "Schere, Stein, Papier"
« Antwort #24 am: 28 Juni, 2012, 16:40 »
Japanische Forscher nennen es zwar Mensch-Maschine-Kooperation, doch was die von ihnen entwickelte Roboterhand macht, ist dann doch plumpes Schummeln. Beim Spiel Schere, Stein, Papier gewinnt die robotische Hand mit drei Fingern immer, weil sie mit einer Hochgeschwindigkeitskamera die Geste seines Mitspielers in einer Millisekunde erkennt und schnell die schlagende Geste formt: Stein bricht Schere, Schere schneidet Papier, Papier umwickelt Stein.


Das System wurde von Forschern des Ishikawa Oku Lab an der Tokioter Universität erschaffen. Die Geste des Mitspielers wird anhand der Umrisse erkannt. Das Projekt soll zeigen, dass Roboter so gut wie ohne Verzögerung adäquat auf menschliche Bewegungen reagieren können. In der Praxis wäre dies etwa für die Bewegungsunterstützung sinnvoll.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Kampfdrohnen laut Bundesregierung unbedingt erforderlich
« Antwort #25 am: 25 Januar, 2013, 21:15 »
Bereits als Überwachungsdrohnen von Deutschland gekauft wurden gab es große Diskussionen über ihren Einsatz. Nun geht die Bundesregierung einen Schritt weiter. Wie aus einer Anfrage der Linkspartei hervorgeht, sollen auch Kampfdrohnen angeschafft werden.

Über 400 Drohnen sind der Bundeswehr nicht genug. Aus der Sicht der Bundesregierung ist ihr Manko vor allem, dass sie nicht bewaffnet sind. Deswegen sollen nun auch Kampfdrohnen angeschafft werden.

Andrej Hunko von der Linkspartei hat zusammen mit seiner Fraktion eine Anfrage an die Bundesregierung gestellt, nun ist die Antwort eingetroffen. Thema ist die "Integration von schweren Drohnen in den allgemeinen zivilen Luftraum".

Auf die Frage "Welche Überlegungen existieren bei der Bundesregierung, zukünftig bewaffnete Drohnen zu nutzen?" antwortet die Regierung: "Aus den Einsatzerfahrungen der Bundeswehr wird deutlich, dass eine durchhaltefähige bewaffnete Aufklärung (armed overwatch) in heutigen und wahrscheinlichen Einsatzszenarien, als Schutz bei plötzlich auftretenden gravierenden Lageänderungen unbedingt erforderlich ist."

Als Beispiele für solche Drohnen werden "HERON 1, HERON TP und PREDATOR B / REAPER" sowie ein gemeinschaftliches europäisches Projekt der MALE-Klasse. MALE steht hierbei für Medium Altitude Long Endurance. Der Einsatz von Drohnen wird dabei tendenziell eher unkritisch gesehen: Drohnen "haben nicht den Zweck, eskalierend zu wirken."

Der Abgeordnete Andrej Hunko kommentiert: "Dieser Drohnen-Strategie trete ich vehement entgegen. Das Gleiche gilt für die Aufrüstung mit Aufklärungsdrohnen. Im Rahmen der Amtshilfe können diese, wie etwa beim G8-Gipfel in Heiligendamm, für polizeiliche Zwecke im Innern eingesetzt werden. Zivilen Anwendungen von Drohnen stehe ich grundsätzlich offen gegenüber. Flugroboter mit Sensoren zum Aufspüren gefährlicher Stoffe können bei Katastrophen helfen, fliegende Kameras machen Einsätze der Feuerwehr sicherer."

Die Antwort der Bundesregierung im Wortlaut ist hier einzusehen.

Quelle : www.gulli.com

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Atlas, der Rettungs-Terminator
« Antwort #26 am: 12 Juli, 2013, 16:16 »
DARPA, die Forschungsbehörde des US-Verteidigungsministeriums, hat einen neuen, humanoiden Roboter namens Atlas vorgestellt. Rund 1,90 Meter groß und knapp 150 Kilogramm schwer soll der Roboter bei zivilen Aufgaben wie etwa Rettungsaktionen bei Katastrophen zum Einsatz kommen. Entwickelt wurde der Roboter vom US-Unternehmen Boston Dynamics, von dem auch die superschnelle Roboterkatze "Cheetah" stammt, die im September vergangenen Jahres für Furore sorgte.

Rettungsroboter Atlas soll sich in unwegsamem Gelände bewegen und auch Lasten tragen können. Ebenfalls soll er mit seinen Händen und Füßen zu Kletterbewegungen in der Lage sein. Seine hydraulisch betriebenen Gelenken sollen ihm insgesamt 28 Freiheitsgrade ermöglichen. Im Kopf des Roboters sind Stereokameras sowie ein laserbasierter Entfernungsmesser installiert. Der Elektroantrieb des Roboters ist auf externe Stromversorgung angewiesen, was seine Einsatzfähigkeit im freien Gelände allerdings einschränken dürfte.

Beim Wettbewerb DARPA International Robotics Challenge (DRC) soll der Roboter dann zeigen, was er kann. Sieben Teams erhalten Gelegenheit, ein Modell des Roboters zu programmieren, um es dann bei verschiedenen Herausforderungen antreten zu lassen. Unter anderem muss Atlas dabei ein Fahrzeug fahren, Schutt wegräumen, Mauern durchbrechen, Ventile schließen und Löschschläuche anschließen. Stattfinden soll der Wettbewerb im Dezember dieses Jahres.


Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter und Du: Öffentliche Debatte über kognitive Systeme
« Antwort #27 am: 17 Oktober, 2013, 20:40 »
Kognitive Systeme werden über kurz oder lang die Gesellschaft verändern, die Arbeitswelt ebenso wie das Gesundheitswesen, das Verkehrssystem oder die Kriegsführung. Auch das Selbstverständnis des Menschen wird durch Roboter und andere intelligente Systeme herausgefordert. Auf einer zweitägigen Konferenz wollen Mitglieder des europäischen Forschungsnetzwerks EUCog kommende Woche in Brighton darüber diskutieren, wie diese Veränderungen zu bewerten sind.

Im Mittelpunkt stehen dabei die Themen Militärroboter, Gesundheit und Alltagshilfen, kognitive Systeme in der Industrie sowie Sicherheit und Privatsphäre. Bemerkenswert ist dabei zum einen, dass ungewöhnlich viel Zeit für Diskussionen vorgesehen ist und zum anderen, dass diese Debatten nicht nur von Experten aus der Forschung geführt wird. So wurden für die Podiumsdiskussion am zweiten Tag der Konferenz ausdrücklich Teilnehmer gesucht, die verschiedene gesellschaftliche Bereiche repräsentieren. Vor allem aber ist die allgemeine Öffentlichkeit aufgerufen, sich zu beteiligen: Auf der eigens eingerichteten Internetseite robotsandyou sowie über Twitter (#robotsandyou) können im Vorfeld der Konferenz Fragen und Kommentare formuliert werden.

Die Diskussion dieser Beiträge soll im Anschluss ebenfalls dort dokumentiert werden. Es sei das erste Mal seit Bestehen des Forschungsnetzwerks, sagt der Mitorganisator der Konferenz Ron Chrisley von der University of Sussex, "dass wir der Öffentlichkeit die Möglichkeit bieten, einige ihrer ethischen und sozialen Überlegungen von denen diskutieren zu lassen, die sich an der vordersten Front dieser Technologie bewegen". Das Angebot kommt nicht zu früh, wie Chrisley betont: "Intelligente Technologie entwickelt sich so schnell, dass wir bald erleben werden, wie Systeme die Kontrolle übernehmen und Entscheidungen treffen, mit denen wir nicht unbedingt einverstanden sind. Das wirft alle möglichen Fragen darüber auf, ob Maschinen jemals beigebracht werden kann, richtig und falsch zu unterscheiden – oder wer verantwortlich ist, wenn etwas schiefgeht."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
OpenWorm: Ein Wurm steuert Roboter
« Antwort #28 am: 22 Januar, 2015, 19:47 »
Mit dem Nervensystem eines Wurms lässt sich auch ein Roboter steuern. Das Open-Science-Projekt OpenWorm nutzt die bekannten Neuronen des Fadenwurms C. Elegans in einem Lego-Roboter.



Hindernissen auszuweichen ist für Mensch und Roboter eine Herausforderung. Den vielfältigen Strategien für Roboter hat OpenWorm, ein Open-Science-Projekt, vor kurzem eine weitere hinzugefügt: Das Projekt simuliert das neuronale System des etwa einen Millimeter langen Fadenwurms C. Elegans. Dieser ist seit vielen Jahren ein biologischer Modellorganismus und alle seine 302 Neuronen sind daher gut erforscht. Im Wurm verarbeiten sie die eingehenden Signale und steuern die Muskeln – genau wie nun das künstliche Nervensystem „Connectom“ im Lego-Roboter EV3.

Der Input von drei Sensoren (für Ton, Berührung und Sonar) wird in Signale für die Sensorneuronen umgewandelt. Diese wiederum geben die Signale über Verbindungen wie im biologischen Vorbild weiter, bis schließlich über die 95 Motorneuronen die vier Motoren des Roboters erreicht werden. Doch nicht jedes Signal bedingt eine Reaktion: Die Motoren werden nur aktiviert, wenn ein Schwellenwert überschritten ist. Versendet werden die Informationen als UDP-Pakete, jedes Neuron hat dafür eine Port-Nummer und eine IP-Adresse. Die Programmierung des EV3 erfolgte über die Open Source-Software Monobrick.


OpenWorm existiert seit 2011, das Ziel des internationalen Open-Source-Projekts ist die virtuelle Simulation von C. Elegans. Eine erste Version soll im Sommer vorgestellt werden. Ferner geplant ist ein eigenständiger Roboter, gesteuert von einem Raspberry Pi, der sich ebenfalls auf Basis des Connectoms bewegt.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter lernt Kochen aus Youtube-Videos
« Antwort #29 am: 31 Januar, 2015, 21:13 »
Roboter sollen sebstständig Arbeitsschritte aus YouTube-Kochvideos wiederholen und die korrekten Geräte handhaben -- das verspricht eine von Forschern der University of Maryland entwickelte Technik.

Ein von der Forschungsbehörde des US-Verteidigungsministeriums Defense Advanced Research Projects Agency (DARPA) finanziertes und von Forschern der University of Maryland entwickeltes Projekt soll Robotern ermöglichen, visuelle Daten aus "how to"-Kochvideos auf YouTube zu analysieren, die richtigen Küchenutensilien zu erkennen und damit die beobachteten Arbeitsschritte mit hoher Genauigkeit zu wiederholen. Hilfestellung durch den Menschen oder zusätzliche Programmierung soll dabei nicht nötig sein.

Objekte und Muster erkennen Roboter mittlerweile recht gut, aber Arbeitsabläufe aus Videos zu interpretieren und danach zu handeln ist wesentlich schwieriger. Genau dies soll das aus Mitteln des DARPA-Programms Mathematics of Sensing, Exploitation and Execution (MSEE) finanzierte System leisten. Programm-Manager Reza Ghanadan zufolge geht es dabei um das Erkennen und Verstehen, was in einer visuellen Szene passiert. Die nächste Aufgabe sei nun die Umsetzung in eine Handlung.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )