Autor Thema: Roboter diverses ...  (Gelesen 6143 mal)

0 Mitglieder und 4 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter diverses ...
« am: 17 November, 2006, 12:00 »
US-Wissenschaftler haben einen Roboter entwickelt, der eigene Defekte erkennen und sich daran anpassen kann. Josh Bongard und Kollegen stellen das System in der aktuellen Ausgabe des Wissenschaftsmagazins Science vor (J. Bongard, V. Zykov, H. Lipson, Resilient Machines Through Continuous Self-Modeling,Science Vol. 314 S.1118).


Die Maschine ist in der Lage, aus Sensordaten ein internes Modell ihres eigenen Aufbaus zu erzeugen und sich mit Hilfe dieses Modells dann so zu steuern, dass vorgegebene einfache Aufgaben erfüllt werden. Der Prozess verläuft iterativ: In der ersten Stufe bewegt der Roboter seine Gliedmaßen und liest die entsprechenden Sensordaten ein. Dann generiert er einen Satz vereinfachte Modelle seiner selbst und plant, mit Hilfe welcher Bewegungen er am besten unterscheiden kann, welches Modell der Realität entspricht. Nach 16 Durchläufen wird die Iteration abgebrochen und das beste Modell wird zur Ansteuerung der Gliedmaßen herangezogen. Verändert man nun den Aufbau des Roboters – in dem man beispielsweise einem vierbeinigen Roboter ein Bein kürzt –, kann die Software das interne Modell und die Steuerung entsprechend ändern.

Die Maschine kann sich auf diese Weise verblüffend gut an Veränderungen anpassen. Bongards und Kollegen wollten jedoch nicht nur ein robustes Robotersystem konstruieren. Sie sehen die Arbeit vielmehr als Beitrag zur Erkundung der Modelle, die biologische Lebewesen zur Ansteuerung ihrer Gliedmaßen verwenden.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboterkrankenschwestern schwirren ab 2010 durch die Gänge
« Antwort #1 am: 25 Januar, 2007, 10:13 »
EU fördert Forschungsarbeit

Die Überalterung der Gesellschaft und die massiven Einsparungen, die dem Gesundheitswesen auferlegt werden, werden nach Ansicht der EU dafür sorgen, dass sich künftig weniger Krankenhausmitarbeiter um noch mehr Patienten kümmern müssen. Den entstehenden Problemen will man nun mit Roboterpflegern begegnen, deren Entwicklung im Rahmen des EU-finanzierten Projektes IWARD fördert.

Die Roboter sollen in Schwärmen agieren und beispielsweise für Reinigungsaufgaben eingesetzt werden. Sie sollen aber auch Patienten und Objekte erkennen können und mit Ersteren kommunizieren sowie Transportaufgaben übernehmen. Hilfsbedürftige Patienten und Besucher des Krankenhauses sollen vielleicht sogar führen können.

Auch könnten die Krankenhaus-Roboter später Blut abnehmen und Fieber messen. Durch ihren Putzeinsatz ließen sich die hygienischen Verhältnisse in den Krankenhäusern verbessern und die Ausbreitung von multiresistenten Bakterienstämmen von Staphylococcus Aureus (MRSA) eindämmen. Zudem soll natürlich das Personal entlastet werden, das im besten Fall dann mehr Zeit für die Patienten hat.

Die Bauteile der "nursebots" sollen aus handelsüblichen Teilen bestehen, an die Module für besondere Aufgaben baukastenartig angebaut werden. So könnten sie für die unterschiedlichsten Aufgaben ausgerüstet werden bzw. sich selbst aus dem Regal bedienen. Das gewünschte Schwarmverhalten, das die Roboter ausführen sollen, erfordert nach Angaben der beteiligten Forscher noch grundlegende Arbeiten, damit das System zumindest teilweise autonom funktioniert.

Projektleiter Thomas Schlegl vom Fraunhofer Institut teilte mit, dass es nicht nur um mobile Roboter geht, sondern um ein System mit eingebauten Infoterminals und Führungssensoren. Damit ein vollständig dezentralisiertes Netzwerk entstehen kann, müssen die Roboter untereinander koordinieren, wie die anstehenden Aufgaben gelöst werden können, beispielsweise die Beseitigung von Schmutz oder der Transport von Medikamenten, so Schlegl weiter.

Um diese Kommunikation zu erledigen, über die beispielsweise auch Positionsangaben zur Kollisionsvermeidung und Aufklärungsergebnisse ausgetauscht werden sollen, könnten sich die Roboter Daten über WLAN, Bluetooth oder sogar Infrarot-Laser untereinander austauschen.

Das Projekt IWARD läuft bis Ende 2010. Die Teams stammen aus Forschungseinrichtungen aus Großbritannien, Frankreich, der Türkei, Italien, Irland, Spanien und Deutschland. Bis zum Ende der Laufzeit sollen funktionsfähige Prototypen entwickelt werden.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Roboterkrankenschwestern schwirren ab 2010 durch die Gänge
« Antwort #2 am: 25 Januar, 2007, 23:00 »
Zitat
Auch könnten die Krankenhaus-Roboter später Blut abnehmen
...das fehlt gerade noch.
Ein Robo, der anfängt, dumm über Rollvenen zu schnarren...
Sowas kann im wahrsten Sinne in's Auge gehen   :o

Der Mensch ist kein Betriebsstoff oder sonstiges Objekt zur maschinellen Verarbeitung!

Anscheinend haben nicht nur allzu viele Bosse "Moderne Zeiten" nicht gesehen bzw. verstanden, sondern ebenso die Vertreter der Krankheits-Industrie  ::)

Oder sie träumen doch tatsächlich vom "Central Srutinizer"  :P
Gimme that chromium leg...


Im Ernst, auch ein Kranker ist ein Mensch und hat verdient, wie ein solcher respektvoll und nicht als Gegenstand behandelt zu werden.
Schande über die unmenschlichen Profit-Maximierer !!!
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Vollelastische Roboter für Kraftwerksreparaturen
« Antwort #3 am: 11 Februar, 2007, 17:14 »
US-Forscher von der Tufts University in Boston entwickeln eine neue Generation von Robotern, die sich am biologischen Vorbild der Tabakschwärmer-Raupe orientieren. Sowohl Hülle als auch Aktuatoren des Roboters bestehen aus Kunststoffverbindungen. Die künstlichen Muskeln werden dabei von gekoppelten nichtlinearen Oszillatoren angeregt.


"Konventionelle Roboter können zwar äußerst schnell, stark und leistungsfähig sein, sind aber vor allem durch ihre steife Bauweise und ihre Unflexibilität in ihren Einsatzmöglichkeiten eingeschränkt", sagt der Biologe Barry Trimmer, der seit zehn Jahren die Anatomie des Tabakschwärmers untersucht und nun auf Roboter anzuwenden versucht. "Weichere, flexiblere Materialien sind der Schlüssel zu neuen leistungsfähigeren Robotern."

Die bisherigen Prototypen können bereits über ebene Flächen kriechen. Bis 2008 wollen Trimmer und seine Forschungspartner vom Eidgenössischen Polytechnikum im Lausanne eine weiterentwickelte Version fertigstellen, die auch einen Ast erklimmen kann. Als erste Einsatzgebiete sehen die Forscher Reparaturen an Raumfahrzeugen oder auch in Kernkraftwerken.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Berliner Museum zeigt Roboter-Ausstellung
« Antwort #4 am: 04 April, 2007, 15:57 »
"Schön, dass Sie gekommen sind!" Mit diesen Worten begrüßte Joachim Kallinich, Direktor des Berliner Museums für Kommunikation, die Teilnehmer einer Pressekonferenz zur Ausstellung "Die Roboter kommen!", die heute abend offiziell eröffnet wird. Es sind die Worte, mit denen seit der Wiedereröffnung des Hauses im Jahr 2000 drei mobile Roboter die Museumsbesucher begrüßen und Informationen anbieten. Über 10.000 Kilometer haben die digitalen Museumsführer seitdem zurückgelegt. Höchste Zeit, einen umfassenderen Blick aufs Thema zu werfen.

Konstruiert wurden die Museumsroboter im Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) in Stuttgart, das auch Kooperationspartner der aktuellen Sonderausstellung ist. Bis 2. September 2007 bietet sie Exponate aus (Vor-) Geschichte und Gegenwart der Robotik und zeigt Visionen, die die Entwicklung der Technologie voran getrieben haben und treiben.

Eine besondere Attraktion ist die französische Roboterband Les Robots Music, die von dem Ingenieur Edouard R. Diomgar in deutscher Kriegsgefangenschaft konzipiert und 1958 in die Welt gesetzt wurde. Die drei Blechmusikanten, die Akkordeon, Saxophon und Schlagzeug spielen, sind allerdings nur bis 15. April zu sehen. Für die Ausstellung wurden ihnen ein Dutzend Musikstücke einprogrammiert. Insgesamt umfasse ihr Repertoire etwa 500 Stücke, sagt der Sohn des Konstrukteurs Richard Diomgar, der zur Ausstellungseröffnung angereist ist. "Die Töne kommen wirklich aus den Instrumenten", betont er. Die Luft für Akkordeon und Saxophon wird allerdings durch ein Gebläse erzeugt.

Ein weiteres Highlight der Ausstellung illustriert die lange Tradition der mechanischen Musik: Der "Trompeterautomat" ist einer der letzten heute noch funktionstüchtigen Musikautomaten mit menschlichen Zügen, die insbesondere im 17. und 18. Jahrhundert beliebte Spielzeuge zur höfischen Unterhaltung waren. Entwickelt wurde er Anfang des 19. Jahrhunderts von zwei Uhrmachern aus Wien und Prag. Hier kommte der Luftdruck zur Erzeugung des Tons von einem durch Federspannung angetriebenen Blasebalg. Sechs verschiedene Melodien sind auf einer Stiftwalze gespeichert.

Bodo-Michael Baumunk, der gemeinsam mit Johanna Sänger die Ausstellung konzipiert hat, sieht einen "ursprünglichen Zusammenhang zwischen Robotik und Entertainment". Der "kommunikative Zusammenhang von Robotern und Publikum" sei schon im 18. Jahrhundert zentral gewesen. Die Menschen seien fasziniert davon gewesen, menschenähnliche Maschinen zu schaffen. Dabei ist Baumunk ein interessantes Detail aufgefallen: "Frühe Roboter konnten immer rauchen oder galant Feuer geben."

In drei Blöcke haben die Kuratoren die Ausstellung untergliedert: Rückschau, Vorschau und Umschau. Auf einen chronologischen Aufbau nach dem Schema Vergangenheit-Gegenwart-Zukunft haben sie aber bewusst verzichtet. "Das passt nicht", so Baumunk. "Vieles überlappt sich und läuft parallel." Stattdessen wurde als gestalterisches Prinzip das der Überblendung gewählt. Beim RoboCup, der mit Fußball spielenden Robotern nicht nur das Publikum unterhält, sondern auch handfeste Forschung betreibt, vermischen sich Ernst und Spiel. Auch Exponate der Science Fiction stehen gleich neben Industrierobotern der Gegenwart und verdeutlichen auf diese Weise, wie stark sich Vision und Realität wechselseitig beeinflussen.

Johanna Sänger hob als besonderen Schwerpunkt die Kunst der zwanziger Jahre hervor, die sich für die Logik mechanischer Körperbewegungen interessierte und in der Ausstellung durch das Bauhaus repräsentiert wird. Natürlich gibt es auch eine Nachbildung der Roboterfrau Maria aus Fritz Langs legendärem Film "Metropolis".

Die aktuelle Robotik bewegt sich in dem Spannungsfeld zwischen anwendungsorientierten Entwicklungen und dem Wunsch, durch die Konstruktion menschenähnlicher Maschinen mehr über den Menschen zu lernen. Der scheidende IPA-Direktor Rolf Dieter Schraft, ließ bei seiner Präsentation keinen Zweifel daran, dass er zur Anwenderfraktion neigt. Demnach wird die Roboterforschung vom Traum nach einem jederzeit verfügbaren, mechanischen Sklaven vorangetrieben, wie es in einer Publikation des IPA einmal hieß.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter- Ausstellung: Das Konzert der Blechmänner
« Antwort #5 am: 12 April, 2007, 12:52 »
Putzen, Musizieren, Reiten, Kicken: Es gibt kaum etwas, das Roboter nicht können. Die Entwicklung der Maschinenmenschen zeigt jetzt eine Berliner Ausstellung. Publikumslieblinge sind die Blechfiguren aus den fünfziger Jahren - die sind so schön harmlos.

Berlin - Dieser Band fehlt der Soul. Routiniert und etwas blechern spielt das Trio aus Frankreich Hits wie "An der schönen blauen Donau" und "I want to be in America". Das Publikum klatscht begeistert, denn die drei Musiker an Akkordeon, Saxophon und Schlagzeug sind mannsgroße, golden glänzende Roboter. 500 Titel können sie spielen - nicht schlecht für fast 50 Jahre alte Blechmänner.


"Les Robots Music" hat 1958 der französische Tüftler Edouard R. Diomgar entworfen. Noch bis Sonntag tritt die blecherne Band im Berliner Museum für Kommunikation auf. Dort zeigt die Ausstellung "Die Roboter kommen!" bis zum 2. September alte und neue Service-, Industrie- und Spielzeugroboter. Was ein Roboter ist, definiert Ausstellungsmacherin Johanna Sänger so: "Alles, was Arbeiten erledigt und über eine künstliche Intelligenz verfügt".

Die Intelligenz der Staubsauger

Anschaulich macht diese funktionale Definition ein riesiger Roboter am Museumseingang, der normalerweise in einer deutschen Chrysler-Fabrik Armaturenbretter in Neuwagen montiert. Er begrüßt die Ausstellungsbesucher, indem er seinen Greifarm geräuschvoll hin- und herschwingt. Manche seiner Kollegen bemerkt man kaum, zum Beispiel den fußballgroßen "Robo Cleaner RC3000". Dieser kleine runde Staubsaugerroboter flitzt kreuz und quer durch die drei Ausstellungsräume und saugt den Boden - 20 Zentimeter in der Sekunde schnell und so leise wie ein Computerlüfter.


Andere Robos bleiben trotz Mobilitätsfunktion statisch. So kann man den krabbelnden Gang des spinnenartigen Geländeroboters "Sechsbeiner MAX" nur erahnen und auch der Prototyp "Rohrkrabbler MORITZ" verharrt still in der Vitrine. Diese Roboter sind aufgrund ihrer schwierigen Beinkoordinationen besonders komplex, sie sollen in für Menschen schwierig oder gefährlich zugänglichen Gebieten eingesetzt werden.

Klobig, glänzend, liebenswert

Ganz technisch unprätentiös sind dafür die überdimensionalen Blechmänner aus den fünfziger Jahren, dem goldenen Zeitalter der Werberoboter. "Roberto", der Klotzartige - man könnte glatt glauben, er wäre aus mit Silberfolie überzogenen Pappkartons gebastelt - erreichte seinerzeit trotz geringen technischen Vermögens Kultstatus. Er wurde allerdings in jeder Hinsicht von seinem 2,37 Meter großen Schweizer Kollegen und Zeitgenossen "Sabor" übertrumpft. Der konnte nämlich nicht nur laufen, rauchen und sprechen, sondern flirtete auch gern mit schönen Frauen und reiste als Werbeträger um die Welt.

Maschinenmenschen als Filmstars

In der Kunst haben Roboter schon früh eine wichtige Rolle gespielt: Ein Schriftsteller gab ihnen ihren Namen. 1921 veröffentlichte der tschechische Autor Karel Capek sein Theaterstück "R.U.R. - Rossum's Universal Robots". So setzte sich die heute gängige Bezeichnung für jene Automatenpuppen durch, die schon im 19. Jahrhundert Menschen faszinierten. In der Berliner Ausstellung sind einige der Stars unter den Robotern zu sehen. "Maschinen-Maria" zum Beispiel aus Fritz Langs Metropolis (1926) und die skelettartige Androidin aus dem Musikvideo zu "All is full of love" (1999) der Sängerin Björk.

Heute können Roboter reiten und kicken

Neben "Maschinen-Maria" sitzt der nur aus einem Oberkörper bestehende Jockeyroboter "K-MEL", der die Kinderjockeys in den Kamelrennen der Golf-Staaten ersetzen soll. Zu sehen sind auch die variationsreichen Fußballroboter, die alljährlich bei den "RoboCups" gegeneinander antreten - bis 2050 sollen sie sich sogar mit menschlichen Spielern messen.


Und natürlich gibt es da noch die Spielzeugroboter. In einer großen Vitrine ist eine regelrechte Armee der bunten Spielgefährten aufgestellt. Ihr Besitzer, der Literatur- und Medienprofessor Jörg Jochen Berns, hat sie in einer eigenwilligen Typologie geordnet: kastenförmige, rundliche, ritterartige, skelett- und tierähnliche Roboter stehen da zusammen.

Kaum jemand will Roboter als Haushaltshilfe

Die Besucher begutachten die Roboter interessiert - aus der Distanz. Als Helfer im Haushalt will sie kaum jemand um sich haben. Brigitte Ilmen, die ihren neunjährigen Enkel Joshua begleitet, findet die Vorstellung abschreckend. Aber "das könnte an meiner Generation liegen". Auch Camillo, 9, und Elias Weber, 11, stehen der Idee kritisch gegenüber, wenn auch aus anderen Gründen. Natürlich wäre es sehr praktisch, zu Hause einen Roboter zu haben, der sie rundum versorgen kann. Aber "das Problem ist, dass die Menschen dann ja fett und unsportlich werden".


Dass die Abhängigkeit der Menschen so groß wird, dass sie eines Tages von Robotern dominiert oder ersetzt werden könnten, glaubt allerdings niemand. "Sie werden niemals so intelligent sein, dass sie unsere Komplexität erreichen", glaubt Ausstellungsmacherin Sänger. Joshua bringt die Beziehung zwischen Mensch und Maschine auf den Punkt: "Roboter sind doch nur die Diener der Menschen."

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter mit Körpersprache und Tastsinn
« Antwort #6 am: 01 April, 2010, 11:26 »
Roboter sollen für den Menschen ein guter Gefährte sein. Das ist ein Ziel vieler Roboterentwickler und wohl auch der potenziellen Anwender. Aber was macht so eine Maschine zu einem guten Gefährten? Diese Frage zog sich wie ein roter Faden durch die Diskussionen am ersten Tag des zweitägigen Symposiums New Frontiers in Human-Robot Interaction, das im Rahmen der Jahrestagung der Society for the Study of Artificial Intelligence and Simulation of Behaviour in Leicester stattfindet.


Auffallend ist, dass sich die Forscher von der Idee zu verabschieden scheinen, dass Roboter, die mit Menschen interagieren, selber menschenähnlich sein müssten. Selbst in Japan, wo Roboter traditionell sehr liebevoll anhand natürlicher Vorbilder gestaltet werden, weicht dieses Dogma offenbar langsam auf. Menschenähnlichkeit könne beim Design kein dominierender Faktor sein, erklärte etwa Kutaro Funakoshi vom Honda Research Institute. Dabei ging es ihm in seinem Vortrag vorrangig um die Gestaltung des Sprachdialogs zwischen Mensch und Roboter und dabei vor allem um die Frage, wie lange der Roboter mit seiner Antwort warten soll, nachdem der Mensch seine Rede beendet hat. Eine zu schnelle Reaktion könne dazu führen, dass beide gleichzeitig reden, eine zu lange Pause dagegen könne als Unaufmerksamkeit gedeutet werden.

Funakoshi und sein Forschungsteam führten ein Experiment durch, bei dem der Roboter im Dialog mit Menschen die Reservierung eines Hotelzimmers vornehmen sollte. Dabei signalisierte ein blinkendes Lämpchen dem Kunden, dass der Roboter ihm zuhörte. Für das Experiment wurde zwar ein humanoider Roboter verwendet, das Blinklicht hingegen war alles andere als menschenähnlich. Es erwies sich indessen als wirkungsvoller Ersatz für die ansonsten aufwendig zu realisierende Gestik und Mimik, die in der menschlichen Kommunikation üblicherweise Aufmerksamkeit signalisiert.


Ohne Körpersprache werden Roboter auf lange Sicht nicht auskommen, brauchen dafür aber nicht zwingend einen am Menschen oder anderen Lebewesen orientierten Körperbau. Cristian Bogdan vom Royal Institute of Technology in Stockholm berichtete etwa, wie im Rahmen des EU-Projektes CommRob einem Einkaufswagen die subtile Kommunikation über Körpergesten beigebracht wird. Obwohl diese Gesten bei Tests mit Menschen zumeist gar nicht bewusst wahrgenommen wurden, hatten sie doch deutliche Auswirkungen: Wenn der Roboter-Einkaufswagen die Kunden auf Produkte aufmerksam machte und dabei langsamer fuhr, wurde mehr eingekauft, als wenn die Geschwindigkeit konstant blieb.

Als Inspirationsquelle bleibt der menschliche Körper gleichwohl vorerst unübertroffen. Nach wie vor widmen sich viele Projekte der Nachbildung der menschlichen Körpersprache. So präsentierte Stefan Sosnowski den Roboterkopf "Eddie", der an der Technischen Universität München entwickelt wird. Anhand eines Gesichtsmodells mit 113 Markierungspunkten kann Eddie die Emotionen menschlicher Nutzer erkennen und in seinem eigenen Gesicht spiegeln. Trotz seiner 23 Freiheitsgrade im Gesicht sowie fünf weiterer Freiheitsgrade im Nacken ist Eddie von der Subtilität menschlicher Mimik noch weit entfernt. Dafür verfügt er über Ausdrucksmöglichkeiten, die den meisten Menschen abgehen: So klappt der Roboter gelegentlich wie eine Echse die Ohren vor und zurück.

Leila Takayama von der US-Firma Willow Garage wies in ihrem Vortrag darauf hin, dass Besitzer von Haustieren Roboter zumeist besser zu verstehen scheinen. Offenbar hilft die Erfahrung mit Kommunikation über Speziesgrenzen hinweg auch beim Umgang mit Robotern.

Wie wichtig die Gestaltung der Interaktion Mensch-Roboter ist, zeigte auch Patrizia Marti von der Universität von Siena mit eindrucksvollen Videoaufnahmen. Kinder mit geistigen und körperlichen Behinderungen hatten keine Scheu sich auf einen Roboter einzulassen, obwohl der wie ein fahrender Drucker aussah. Entscheidend war, dass der Roboter auf die Kinder reagierte und auf unterschiedliche Weise Emotionen zeigen konnte. Die Maschine konnte etwa mit einer Art Fell ausgestattet werden, das auf Berührung reagierte oder bei Annäherung eines Menschen die Haare aufrichtete. Marti registrierte ein wachsendes Interesse an ästhetischen Aspekten von interaktiven Systemen, plädierte aber dafür, die Ästhetik als Bestandteil der Interaktion und nicht nur der äußeren Erscheinung zu begreifen.

Die Interaktion zwischen Mensch und Roboter wird gewiss von Projekten wie Roboskin profitieren, bei denen es darum geht, Robotern einen Tastsinn zu verleihen. Für die Prototypen werden derzeit die Tastsensoren des iPhones verwendet, es wird aber auch an neuen Sensortechnologien geforscht, wie Perla Maiolino von der University of Genova berichtete. Solche taktilen Sensoren sollen zum einen die Sicherheit erhöhen, indem sie Robotern das reflexartige Zurückweichen bei unerwünschten Berührungen ermöglichen. Sie können aber auch das Greifverhalten verbessern, da sich die Hände besser den zu greifenden Gegenständen anpassen können. Die Forschungen in diesem Gebiet sind aber noch in einem frühen Stadium. Ein Problem ist es etwa, Berührungen zu klassifizieren und schmerzhafte von nicht-schmerzhaften zu unterscheiden. Menschen fällt diese Unterscheidung leicht, Roboter dürften da noch einen dornenreichen Lernprozess vor sich haben.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Robotergefährten der Zukunft
« Antwort #7 am: 02 April, 2010, 11:51 »
Zunächst eine Entwarnung: Niemand muss befürchten, demnächst im Supermarkt von einem autonomen Einkaufswagen zu den Produkten geführt zu werden, die er eigentlich gar nicht kaufen will. Nachdem Cristian Bogdan vom Royal Institute of Technology in Stockholm gestern am ersten Tag des zweitägigen Symposiums New Frontiers in Human-Robot Interaction in Leicester berichtete, wie ein Roboter-Einkaufswagen durch gezielte Verlangsamung die Aufmerksamkeit der Kunden auf bestimmte Artikel lenken konnte, musste er in einem weiteren Vortrag am zweiten Tag einräumen: "Das Design von Bewegungsabläufen ist sehr viel komplexer als das Design der ersten Bewegung."

Manche Nutzer, so Bogdan, hätten sich gegen die Bewegungen des Roboters gewehrt und ihn auf den alten Weg zurück gedrängt. Überhaupt sei die Interaktion zwischen Mensch und Roboter während des Laufens schwierig: Das Laufen selbst lenkt ab, der Touchscreen ist schwierig zu bedienen, Sprachkommunikation wird durch Motorgeräusche und Vibrationen gestört.

Die Übernahme der Herrschaft durch Roboter steht also nicht unmittelbar bevor. Das ist ein Resümee, das sich auch aus anderen Vorträgen ziehen lässt. Mohammadreza Asghari Oskoei (University of Hertfordshire) etwa schilderte, wie einem Roboter beigebracht werden kann, einen angemessenen Abstand zu Menschen einzuhalten. Auf die Frage, wie sich verhindern ließe, dass der Roboter ständig zurückweicht, wenn man ihm etwas übergeben möchte, hatte er jedoch noch keine Antwort. Das erfordere weitere Studien zum Verständnis der menschlichen Körpersprache. Nach so einem Vortrag fürchtet niemand die Attacke eines Terminators hinter der nächsten Straßenecke.

Andere Ängste sind realistischer – etwa die, als alter Mensch einem Pflegeroboter ausgeliefert zu sein. Amanda Sharkey von der University of Sheffield behandelte in ihrem Vortrag ethische Fragen des Einsatzes von Robotern in der Altenpflege. Sie unterschied drei Technologien: Assistenzroboter helfen bei der Verrichtung alltäglicher Prozeduren, können einen Menschen etwa füttern oder aus dem Bett in den Rollstuhl heben. Andere Systeme haben vorrangig Überwachungsfunktionen und können gegebenenfalls Hilfe rufen. Eine dritte Kategorie schließlich sind die Robotergefährten, zumeist gestaltet wie kleine Tiere, die alten Menschen Gesellschaft leisten. Es sind wohl vor allem diese mechanischen Kuscheltiere, die bei vielen Beobachtern das Gefühl hervorrufen, die Alten würden damit hinters Licht geführt und in ihrer Würde verletzt.

Sharkey wies allerdings darauf hin, dass solche Roboter in Altenheimen auch zur Intensivierung von Kontakten der Bewohner untereinander geführt haben. Studien deuteten zudem auf eine Verbesserung der Lebensqualität hin. Es mag auch schlicht eine Frage der Zeit sein: Die heutigen Prototypen werden schließlich an Menschen erprobt, denen die Technologie weitgehend fremd sein dürfte. Wer dagegen heute mit Spielzeugrobotern im Kinderzimmer aufwächst, dürfte im Alter weniger Probleme haben, sich von einem Roboter helfen zu lassen.

Mit der Gestaltung künstlicher Gefährten beschäftigt sich das EU-Projekt Companions, das Yorick Wilks von der University of Sheffield zu Beginn seines Vortrags erwähnte. Er hob hervor, dass es dabei nicht um Chatbots oder Internetagenten für spezifische Aufgaben ginge. Ohne eine zentrale Aufgabe sollten solche Gefährten die Konservation mit dem Menschen vielmehr möglichst ein Leben lang durchhalten und eine angemessene, vielleicht emotionale Beziehung aufbauen.

Eine Fülle von Fragen stelle sich in diesem Zusammenhang, etwa zum Ausmaß der Zuwendung, die der Robotergefährte aufbringen sollte. Studien hätten gezeigt, dass Menschen höfliche Maschinen mögen, sagte Wilks. Sie dürften aber nicht zu höflich sein. Die äußere Erscheinung ist ebenfalls nicht einfach zu wählen. Braucht der Gefährte ein Gesicht? Es könne besser sein, so Wilks, ihm keinen Mund zu geben statt eines schlecht mit der Rede synchronisierten. Er brauche zudem Ziele, die darüber hinaus gingen, nur nett zu seinem Nutzer zu sein.

Vielleicht sollte er noch nicht einmal ständig nett sein. Unter Umständen ist es zweckmäßig, den Gefährten mit mehreren Persönlichkeiten auszustatten, sodass er zum Beispiel als Sporttrainer strenger und fordernder auftritt, als wenn sein Nutzer von einem anstrengenden Arbeitstag nach Hause kommt.

Ein ganz wichtiger Aspekt ist die Sicherheit. Ein Robotergefährte speichert mit der Zeit mehr und mehr Wissen über seinen Nutzer. Mit wem darf er darüber sprechen? Wilks verwies auf das historische Beispiel der „Victorian Ladies Companions“: Die Eigenschaften, die von solchen Begleiterinnen vornehmer Damen erwartet wurden, böten eine gute Richtschnur für Robotergefährten.

Die Erwartungen an Roboter hängen indessen stark vom kulturellen Hintergrund ab. Laurel Riek von der University of Cambridge stellte eine Studie vor, die in den Vereinigten Arabischen Emiraten durchgeführt wurde. In einem Einkaufszentrum in El Ain stellten die Forscher einen Roboter auf, dessen äußere Erscheinung an den bekannten islamischen Philosophen Ibn Sina (geboren 980) angelehnt war und der in der Lage war, in begrenztem Rahmen Dialoge zu führen. Besucher des Einkaufszentrums wurden aufgefordert, mit dem Roboter zu sprechen und wurden hinterher dazu befragt.

Insgesamt seien die Reaktion positiver gewesen als erwartet, sagte Riek. Menschen aus der Golfregion hätten den Roboter jedoch mehr gemocht als solche aus afrikanischen Ländern. Leute mit höherem Bildungsgrad seien ablehnender gewesen als weniger Gebildete. Den Forschern zufolge war dies die erste Studie, die sich mit der kulturellen Einbettung von Robotern im mittleren Osten beschäftigte. Für zukünftige Experimente soll der Fragebogen weiter verfeinert werden.

Die Präsentation von vorläufigen Ergebnissen noch laufender Studien war einer der Vorzüge des Symposiums, das von Kerstin Dautenhahn und Joe Saunders (beide University of Hertfordshire) mit viel Raum für Diskussion organisiert wurde. Es bot anregende Einblicke in ein sehr dynamisches Forschungsfeld, in dem Wissenschaftler aus sehr verschiedenen Disziplinen zusammenkommen. Dabei kommt es gelegentlich auch zu Reibereien: So berichtete Astrid Weiss (Universität Salzburg), dass sie bei der Verteidigung ihrer Dissertation vor zwei Wochen von einem Professor gefragt worden sei, wie sie es wagen könne, den Begriff „sozial“ auf das Verhältnis zwischen Mensch und Roboter anzuwenden. Was sie geantwortet hat, hat Weiss leider nicht verraten. Vielleicht sollte sie den Professor einfach zum nächsten Symposium einladen.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Lola geht
« Antwort #8 am: 21 April, 2010, 12:27 »
Humanoider Roboter aus München zur Erforschung des Gehens

Zwei Beine, Arme ohne Hände und zwei Kameras anstelle eines Gesichts: Auf Ästhetik haben die Entwickler des humanoiden Roboters Lola keinen Wert gelegt. Doch die Leistungen der Roboterdame lassen sich sehen: Sie beherrscht den aufrechten Gang und erkennt Hindernisse.

Noch hängt Lola an zwei Seilen einige Zentimeter über dem Boden und wiegt leicht hin und her. Lola ist ein Roboter, genauer gesagt ein humanoider Roboter. Sie ist 1,80 m groß und wiegt rund 60 kg. Eine Schönheit ist sie nicht: Ihre Beine bestehen aus Aluminiumschienen, ihre Arme aus Röhren. An Stelle eines Kopfes hat sie zwei Kameras. Ihr Körper ist übersät mit Schaltelementen, die mit Kabeln verbunden sind.

Lola rollt den Fuß ab

Dann wird Lola sanft aus der Schwebe herabgelassen und fängt an zu laufen. Im Unterschied zu vielen anderen Laufrobotern verfügt Lola über ein Zehgelenk. Das ermöglicht es ihr, wie ein Mensch mit dem Fuß abzurollen. Tatsächlich ist ihr Gang durchaus mit dem eines Menschen vergleichbar; manch einen Besucher der Hannover Messe am Stand der Technischen Universität (TU) in München (Halle 2, Stand A54) überkommt das Gruseln.


Lola ist ein Forschungsroboter, der dazu dienen soll, den Gang auf zwei Beinen zu studieren, erklärt Valerio Favot von der TU München im Gespräch mit Golem.de. Entwickelt wurde sie in einer Kooperation des Lehrstuhls für Angewandte Mechanik der TU und des Instituts für Technik Autonomer System (TAS) an der ebenfalls in München beheimateten Universität der Bundeswehr. Letztere hat das visuelle System für den Roboter geliefert, der an der TU entwickelt und gebaut wurde. Das Institut für Angewandte Mechanik ist auch an dem 2008 vorgestellten Projekt Cyberwalk beteiligt.

Motoren und Sensoren

Um gehen zu können, hat Lola 25 Gelenke, die jeweils mit einem Motor angetrieben werden. Jedes Bein verfügt über sieben, jeder Arm über drei Gelenke. Das Becken hat zwei Gelenke, und die letzten drei sind für die Bewegungen des Kamerakopfes zuständig. Dazu verfügt Lola über ein reiches Arsenal an Sensoren: Jedes der Gelenke hat Sensoren, die die aktuelle Stellung und die Geschwindigkeit erfassen, mit denen es bewegt wird. Hinzu kommen Kraftmesser in den Füßen, die den Kontakt zum Boden erfassen und analysieren. Im Körperzentrum schließlich sitzt ein Interialmesssystem, das die Position des Körpers im Raum sowie die Beschleunigung misst.

Arme nur zum Ausbalancieren

Da Lolas einzige Bestimmung das Gehen ist, enden ihre Arme nicht in Händen. An deren Stellen sitzen je zwei schwarze Scheiben, so dass es ein wenig aussieht, als stemme sie Hanteln. Die Arme seien jedoch wichtig, um damit den Gang auszubalancieren, sagt Favot.

Lola hat ihren eigenen Kopf

Auf den Boden herabgelassen, macht Lola erst ein paar Schritte zur Seite. Dann geht sie geradeaus. Die Berechnung des Gehens übernimmt Lola selbst - dafür ist ein Computer mit einem Zweikernprozessor auf dem Rücken des Roboters verantwortlich. Das bedeutet: Die Wissenschaftler geben ein Ziel vor, Lola wählt den Weg dahin dann selbstständig aus.

Im zweiten Teil der Vorführung kommt das vom TAS entwickelte Sehsystem zum Einsatz: Die Wissenschaftler stellen Lola Hindernisse in den Weg, denen der Roboter ausweichen muss. Mit den beiden Kameras, die eine Auflösung von jeweils 5 Megapixeln haben, erfasst Lola ihre Umwelt. Steht ihr etwa ein Stuhl oder ein Mensch im Weg, erkennt sie diesen und geht darum herum. Verstellen ihr zwei Menschen den Weg und der Durchgang zwischen beiden ist ihr zu schmal, tritt Lola den Rückzug an und versucht, das Hindernis zu umgehen.

Anders als die Berechnung des Gehens werden die Daten des Sehsystems nicht vom Roboter selbst berechnet. Das sei zu aufwendig, erklärt Favot. Es braucht gleich drei Computer, um genug Rechenkapazität dafür aufzubringen. Mit den Rechnern, die abseits in einem Serverschrank untergebracht sind, ist Lola per Kabel verbunden.

Älterer Bruder

Sechs Jahre hat die Entwicklung des Laufroboters gedauert. Die Wissenschaftler konnten sich dabei auf die Erfahrungen stützen, die sie mit Lolas älterem Bruder gemacht haben, dem 2001 fertiggestellten Laufroboter Johnnie.

Seit drei Wochen laufe Lola jetzt, sagt Favot, und klingt dabei fast wie ein stolzer Vater. Derzeit geht sie noch recht zaghaft: 2 km/h schafft sie. Ziel sei, so Favot, dass der Roboter Lola irgendwann 5 km/h erreiche, was etwa der normalen Gehgeschwindigkeit des Menschen entspricht. Rennen wird Lola wohl nie.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Lola geht
« Antwort #9 am: 21 April, 2010, 22:40 »
Rennen bedeutet Laufen, physi(kali)sch eine völlig andere Art der Fortbewegung.
Kennzeichnend ist dabei, dass es Phasen gibt, in denen kein Bein den Boden berührt.
Der dafür erforderliche Rechenaufwand ist bei sonst gleicher Mechanik ungleich höher.
Und die Beanspruchung des Materials ebenso.
Solch ein Schritt liegt daher sicherlich noch in weiterer Ferne.
Dennoch kann ich mir vorstellen, dass Polizei, Militär und Kriminelle schon träumen, von Robocop, Robokiller, Robothief...
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter aus DNA-Strängen
« Antwort #10 am: 25 Mai, 2010, 08:39 »
Molekulare Roboter gehören zur Gründungsfolklore der Nanotechnik. 1986 skizzierte sie erstmals der Ingenieur Eric Drexler als winzige Maschinen aus diamanantartigen Verbindungen, die eines Tages in gewaltigen Schwärmen sämtliche Gegenstände Atom für Atom zusammenbauen könnten. Gewissermaßen als Zwischenstufe zu diesen molekularen „Assemblern“ sah Drexler Nanomaschinen, die aus biologischen Molekülen konstruiert werden. Diesem Ziel sind nun zwei US-Forschungsteams einen Schritt näher gekommen, berichtet  Technology Review in seiner Online-Ausgabe: Sie haben chemisch programmierbare Strukturen aus DNA-Strängen hergestellt -  spinnenartige Gebilde, die sich gezielt fortbewegen und Goldteilchen transportieren können.

Bereits in den 90er Jahren schuf der New Yorker Chemiker Ned Seeman Würfel und Kreuze aus DNA-Abschnitten, später folgten „Nano-Kräne“. Besonders bekannt wurde 2006 das „DNA-Origami“ des Caltech-Forschers Paul Rothemund: Er erzeugte aus langen DNA-Strängen Smileys und andere flächige Figuren – die Basenfolgen waren am Rechner so entworfen, dass sich die Stränge falteten und einzelne Abschnitte miteinander verbanden. Zusammen mit Milan Stojanovic, einem der führenden Forscher an DNA-Schaltkreisen, und weiteren Kollegen legen beide jetzt nach.

In der einen Arbeit haben Gruppen der Columbia University, der Arizona State University und des California Institute of Technology (Caltech) ein einfaches molekulares Straßennetz konstruiert, über das eine vierbeinige „Nano-Spinne“ läuft. Es besteht aus einer nach Rothemunds Origami-Prinzip gebildeten Fläche aus DNA. In regelmäßigen Abständen ragen aus ihr lose Enden von einzelnen DNA-Strängen wie Pfosten empor. An einige von denen können sich die „Beine“ der Nano-Spinne – ebenfalls DNA-Stränge – anlagern, wenn ihre Basenfolgen sich entsprechen. Drei Beine dienen dabei zur Fortbewegung, das vierte fungiert als Standbein. Den „Körper“ wiederum bildet das Protein Streptavidin.

Mehr zum Thema in Technology Review online:

    * Assembler 0.1

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Assistent Roboter
« Antwort #11 am: 30 Juli, 2010, 17:49 »
Orang-Utans haben keine Höhenangst. Das ist zunächst nicht weiter überraschend bei Baumbewohnern wie ihnen, doch damit gibt sich Susannah Thorpe  nicht zufrieden. Die Biologin von der University of Birmingham möchte ganz genau wissen, wie es die bis zu 100 Kilo schweren Menschenaffen schaffen, sicher ihren Weg durch die komplexe, sich ständig verändernde Welt der Baumkronen im tropischen Regenwald zu finden. Künstliche Intelligenz soll ihr helfen, die natürliche Intelligenz der Primaten besser zu verstehen.

Auf Sumatra beobachtete Thorpe, dass Orang-Utans auf ihren Wegen durch die Baumwipfel nur sehr selten in Sackgassen geraten und umkehren müssen. Lücken im Baumbestand überwinden sie zum Beispiel, indem sie einen kleineren, dünneren Baum erklimmen und ihn wie ein Kind auf einer Schaukel in immer größere Schwingungen versetzen, bis sie der anderen Seite nahe genug kommen. Wie aber, fragt sich die Wissenschaftlerin, können sie aus der Ferne die Tragkraft der Äste und Lianen so zuverlässig einschätzen? Wie haben sie das gelernt?

Bei der Suche nach Antworten will sich Thorpe jetzt vermehrt auf Methoden und Begrifflichkeiten der Künstlichen Intelligenz stützen. Sie ist überzeugt, dass die für Roboter entwickelten Lernverfahren helfen können, das Verhalten der Menschenaffen zu erklären. Computersimulationen der Lebenswelt von Orang-Utans seien zwar noch "ein Stück weit weg", räumt die Biologin ein. "Doch der Denkansatz der KI hilft uns sehr, die Probleme aus der Perspektive der Tiere zu verstehen." Allzu leicht gerieten Forscher ansonsten in die Falle, alles nur aus menschlicher Sicht wahrzunehmen und zu deuten.

Was Thorpe an der im Computer erschaffenen Intelligenz fasziniert, ist der Blickwinkel des Designers. Zwar ist die natürliche Intelligenz der Tiere bislang noch jedem Computer überlegen, aber dafür ist die künstliche Intelligenz bis ins kleinste Detail bekannt. Mit ihr lassen sich Experimente durchführen, die mit Lebewesen nicht möglich oder nicht vertretbar wären. Gezielt können etwa bei Robotern Teile des Systems deaktiviert, der Informationsfluss gefiltert werden. Das daraus resultierende Verhalten lässt sich wiederum mit Tierbeobachtungen vergleichen und erlaubt Rückschlüsse auf deren Wahrnehmung und Denken.

Dass Biologen sich auf diese Weise von Informatikern anregen lassen, ist relativ neu. Bislang verlief der Wissenstransfer überwiegend in der anderen Richtung, etwa wenn Ingenieure sich an biologischen Vorbildern orientierten. So entdeckte der Neuroinformatiker Mandyam Srinivasan vor gut zehn Jahren an der Australian National University, dass sich Bienen am optischen Fluss orientieren. Sie schätzen ihre Geschwindigkeit anhand des Rhythmus der seitlich vorbei ziehenden Umgebung und weichen so auch Hindernissen aus. Die Forschungen hatten von vornherein das Ziel, Navigationsverfahren für autonome Flugroboter zu entwickeln. Die haben die Bienenmethode mittlerweile auch tatsächlich erfolgreich kopiert. Jetzt helfen umgekehrt Roboter den Entomologen, noch tiefer ins Insektenhirn zu schauen.

Experimente mit Ameisen haben etwa gezeigt, dass die Tiere ein Bild ihres Ausgangspunktes abspeichern, um den Weg zurück zu finden. Paul Graham, der an der University of Sussex die Insect Navigation Group leitet, versucht nun im Roboterexperiment herauszufinden, wie detailliert diese Umgebungsbilder sein müssen. Er und seine Mitarbeiter komprimierten die Bilder der Panoramakamera auf einfache geometrische Muster, dennoch erkannte der Roboter darin noch genügend Ähnlichkeiten, um einen einmal gelernten Weg wiederzufinden. Wichtig war es, die einzelnen Bilder nicht nur mit der jeweiligen Position zu verknüpfen, sondern auch mit der dort erforderlichen Bewegungsrichtung. Damit ist natürlich nicht gesagt, dass Ameisen auf die gleiche Weise Bilder verarbeiten. Aber das Roboterexperiment gibt Hinweise, wie weitere Versuche mit Ameisen gestaltet werden müssen, um der Frage weiter auf den Grund zu gehen.

Nicht nur Insektenforscher profitieren von der Unterstützung durch Roboter. Die Vogelkundlerin Gail Patricelli (University of California) etwa untersucht mithilfe eines Roboters das Paarungsverhalten von Beifußhühnern. Ihren Roboterassistenten, herausgeputzt wie ein Beifußhuhnweibchen, schickt sie auf Schienen durch das Brutgebiet und registriert die Lockrufe der Männchen. Patricelli vermutet, dass die Männchen den Weibchen sehr zielgerichtet nachrufen. Diese Vermutung kann sie dank des Mikrofons an Bord des Roboters genauer als zuvor überprüfen.

Patricellis Roboter braucht für die Erfüllung seiner Aufgabe nicht viel Intelligenz. Der PoulBot dagegen, der in einem drei mal drei Meter großen Gehege an der Freien Universität Brüssel Hühnerküken betreut, soll mit der Zeit immer klüger werden. In dem gemeinsam mit der Polytechnischen Hochschule in Lausanne betriebenen Projekt soll mithilfe des Roboters die Entwicklung des Sozialverhaltens bei Hühnern studiert werden. Derzeit fährt der PoulBot auf einem Zufallskurs durchs Gehege, während die auf ihn als Muttertier geprägten Küken ihm folgen. Die Forscher beobachten dabei unter anderem die Abstände, die die Tiere sowohl zum Roboter wie auch zu ihren Geschwistern einhalten. Mit zunehmenden Fähigkeiten des Roboters sollen aber nach und nach auch komplexere Fragestellungen untersucht werden.

Sehr komplizierte Fragen könnte eines Tages Corvid aufwerfen, der gerade an der Technischen Universität Wien entsteht. Die Gestalt dieses Roboters ist dem Körperbau einer Krähe nachempfunden. Das bedeutet zunächst einmal, das dessen Kamera fest mit dem Greifer verbunden ist. Den Forschern soll das einen besseren Zugang zur Vogelperspektive ermöglichen, bei der die Augen stets dem Schnabel folgen. Krähenvögel sind dafür berühmt, dass sie mit ihrem Schnabel sehr geschickt die Umwelt manipulieren können. Die auf Neukaledonien lebende Geradschnabelkrähe kann sich sogar gezielt Werkzeuge anfertigen. Davon ist Corvid noch weit entfernt. Derzeit bewegt sich der Roboter noch auf Raupen durch die Gegend. Eine Krähe jedoch hat Füße, mit denen sie Gegenstände festhält, um sie mit dem Schnabel zu bearbeiten.

Früher oder später aber wird es möglich sein, einem Roboter die Geschicklichkeit und Intelligenz einer Krähe zu verleihen. Ein Nachkomme von Corvid könnte dann eines Tages ganz von selbst darauf kommen, sich aus Rohmaterial einfache Hilfsmittel zu formen. Erschafft damit ein Werkzeug die Urform seiner selbst? Spätestens dann ist es Zeit, dass die Biologen und Informatiker ihre Forschungsteams durch Philosophen und Theologen verstärken.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Das Jahrzehnt der Humanoiden
« Antwort #12 am: 31 Juli, 2010, 11:07 »
In diesem Jahrzehnt werden Ober- und Unterkörper menschenähnlicher Roboter zusammenwachsen

Wenn klobige Metallarme unermüdlich Autokarosserien verschweißen oder etwas filigranere Greifer in Sekundenschnelle Pralinenschachteln füllen, lässt das die Herzen von Geschäftsführern höher schlagen. Denn in der Regel arbeiten diese Automaten nicht nur schneller und präziser als Menschen, sondern vor allem auf Dauer auch billiger. Dagegen ist im Prinzip nichts einzuwenden. Aber dass sich für diese Maschinen mittlerweile die Bezeichnung "Roboter" durchgesetzt hat, das ist schon ärgerlich. Schließlich ging es bei der jahrhundertelangen Beschäftigung mit den Kunstwesen in erster Linie nicht darum, den Menschen zu ersetzen, sondern ihn besser zu verstehen - indem man ihn nachbaut.

Ein Rumpf, zwei Beine, zwei Arme und ein Kopf - so hat ein ordentlicher Roboter auszusehen. Antike Mythen wie die vom göttlichen Schmied Hephaistos oder dem aus Lehm gefertigten Golem bestätigen es ebenso wie zahllose Science-Fiction-Erzählungen. Bei der Entwicklung von Robotern war das Ziel letztlich immer, ein Ebenbild des Menschen zu schaffen. Eine Maschine, die so aussieht wie wir, sich so bewegt, spricht, denkt, vielleicht auch fühlt wie wir. Aber ist das überhaupt möglich? Stoßen wir beim Versuch, uns selbst nachzubauen, irgendwann auf fundamentale, nicht zu überwindende Barrieren? Erfahren wir vielleicht Dinge über uns, die wir lieber nicht gewusst hätten? Erschaffen wir den Übermenschen?

In Fabrikhallen mit ihren knapp bemessenen Taktzeiten mögen solche Fragen eher stören. Sie haben aber nie aufgehört, Künstler, Schriftsteller und Wissenschaftler zu inspirieren. Selbst Politiker schätzen die Aura des Visionären und lassen sich bei Technologiemessen und ähnlichen Anlässen lieber zusammen mit humanoiden Robotern als vor der neuen Vier-Achs-Verpackungsanlage für Bioriegel fotografieren.

Dabei können die Dinger noch gar nichts. Schön, sie gehen auf zwei Beinen, das aber auch nur auf glattem Untergrund. Sand, Steine oder Rasen sind unüberwindliche Hindernisse. Von Laufen und Rennen kann noch keine Rede sein. Und ihre Arme setzen die Zweibeiner ein, um das Gleichgewicht zu halten oder sich beim Aufstehen nach einem Sturz abzustützen. Gezielte Griffe sind dagegen noch nicht drin.

Wenn der Einsatz der Arme im Mittelpunkt steht, müssen humanoide Roboter immer noch auf Beine verzichten und sich auf Rädern bewegen. Auch dann ist es immer noch schwer genug, etwa eine Tür zu öffnen. Denn der Roboter muss damit umgehen können, dass er die Bahn seines Greifarms nun nicht mehr vollständig kontrolliert, sondern von der Tür auf eine Kreisbahn gezwungen wird. Bevor es überhaupt zum Griff nach der Türklinke kommt, muss er zudem eine geeignete Position finden, von der aus das Öffnen der Tür möglich ist. Das alles ist auf Rädern schon kompliziert genug, wie dieses Video des Teams NimbRo von der letzten RoboCup-Weltmeisterschaft zeigt. Auf zwei Beinen ist so eine Aktion derzeit noch unmöglich.


An der Carnegie Mellon University gelang das Öffnen eines Kühlschranks mit dem Roboter HRP-2 immerhin schon mal in der Simulation. Einen realen HRP-2 filmten  die Forscher beim Stapeln von unterschiedlich großen Kartons. Allerdings sieht das auch bei dreifachem Zeitraffer noch recht behäbig aus und lässt den damit verbundenen Rechenaufwand erahnen. Ohnehin ist bei solchen Videos nie klar, wie viele Versuche schiefgegangen sind, bevor dieser eine gelang. Die Art, wie der am rechten Bildrand stehende Mensch den Roboter an der kurzen Leine hält, deutet auf massive Gleichgewichtsprobleme hin.

Zugleich zeigt das Video aber auch: Komplexe Bewegungen des gesamten Körpers sind auch bei humanoiden Robotern in Reichweite. Im Lauf der kommenden zehn Jahre dürften Ober- und Unterkörper der Kunstmenschen so weit zusammenwachsen, dass sich ihnen ganz neue Handlungsmöglichkeiten erschließen und sie ihre Rolle als Spiegelbild des Menschen endlich überzeugender ausfüllen können.

Wenn sie dabei gelegentlich ins Stolpern kommen, muss das kein Drama sein. Immerhin können sich beim Roboterfußball mittlerweile schon die bis zu 120 Zentimeter großen Torhüter der Teen Size gezielt fallen lassen, ohne Schaden zu nehmen. Und im Wettbewerb für Haushaltsroboter, bei dem die humanoiden Oberkörper ihr Können zeigen, entschuldigte sich NimbRos Roboterdame Dynamaid, als sie ein Kommando mehrfach falsch verstand, und bat höflich um eine weitere Wiederholung.


Da sollte es doch bis zum Jahr 2020 möglich sein, dass ein Roboter nach einem Sturz wie diesem nicht mehr schamhaft versteckt werden muss, sondern kurz seine Gelenke prüft, die Situation mit einem Scherz auffängt und seinen Auftritt fortsetzt. Wenn er richtig gut ist, lässt er die Zuschauer vielleicht sogar im Unklaren darüber, ob das vermeintliche Missgeschick nicht vielleicht doch Bestandteil einer ausgefeilten Choreographie war. Spätestens dann sollten wir uns für die Schweißautomaten und Wurstsortierer endlich neue Bezeichnungen ausdenken.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Roboter - Nao wird emotional
« Antwort #13 am: 09 August, 2010, 19:02 »
Damit ein Roboter sich in den Alltag des Menschen integrieren kann, muss er dort hineinwachsen wie ein Kind. So lautet das Credo des europäischen Projektes Feelix. In dessen Rahmen haben Wissenschaftler einen Roboter dazu gebracht, wie ein Kind von einem Erwachsenen zu lernen und eine Bindung zu ihm aufzubauen.

Nao, der Roboter des französischen Unternehmens Aldebaran, ist vielseitig begabt. Er kann tanzen und Fußball spielen. Europäische Forscher haben ihm eine weitere Fähigkeit beigebracht - der Roboter kann eine emotionale Bindung zu einem Menschen eingehen.

Kinder als Vorbild

Das Verhalten der Roboter sei dem von Kleinkindern nachempfunden, erklärt Lola Cañamero von der Universität der Grafschaft Hertfordshire in Hatfield, nördlich von London. Ihre Art, mit einem Menschen zu interagieren und auf ihn zu reagieren, ähnele der, wie ein Kind mit einem Erwachsenen interagiere. Das bedeutet, dass die Roboter beispielsweise auf ähnliche Reize reagieren wie Kleinkinder. Dabei konzentrieren sich die Wissenschaftler "auf nonverbale Reize und Gefühle, die durch Körperhaltung, Gesten und Bewegungen gezeigt werden, nicht durch Mimik oder Worte", so Cañamero.


Der Roboter gewöhne sich mit der Zeit an die Handlungen und Stimmungen des Menschen und entwickle eine Bindung zu diesem. Die Bindung sei umso stärker, je mehr beide miteinander interagierten und je mehr der Mensch auf den Roboter eingehe. Der Zuspruch durch den Menschen führe auch dazu, dass der Roboter besser lerne, so die Forscher.

Gefühle zeigen

Gleichzeitig zeigt der Nao auch eigene Gefühle wie Trauer, Ärger, Angst oder Freude. Ist er beispielsweise traurig, lässt er Kopf und Schultern hängen. Hat er Angst, kauert er sich nieder und muss mit einem Kopfstreicheln beruhigt werden, Freut er sich, reckt er die Arme hoch und will den Menschen umarmen.


Vorbild für das Verhalten des Roboters war das Bindungsverhalten, das Kleinkinder und kleine Primaten wie Schimpansen aufweisen, sagt Cañamero. Es sei das erste Mal, dass das Verhalten von Robotern danach modelliert wurde.

Roboter soll sich in Alltag einfügen

Die Arbeit ist Teil des 2007 gestarteten interdisziplinären europäischen Forschungsprojektes Feelix Growing, das Cañamero leitet. Dessen Ziel ist es, Roboter zu entwickeln, die sich in den Alltag des Menschen nahtlos einfügen. Dazu reiche es nicht aus, dass ein Roboter aus dem Regal genommen und in ein menschliches Umfeld gesetzt werde, sagte Cañamero zum Projektstart vor drei Jahren. Damit er sich in das tägliche Leben einfüge, müsse er sich an dieses anpassen. An Feelix sind neben der Universität von Hertfordshire und Aldebaran weitere Forschungseinrichtungen und Unternehmen aus der Dänemark, Frankreich, Griechenland, Großbritannien und der Schweiz beteiligt.

Feelix ist nicht das einzige europäische Projekt, das Roboter haus- und hoffähig machen möchte. Im Rahmen des Projekt Humavips etwa sollen Roboter selektive Wahrnehmung lernen, damit sie auch in lauten Umgebungen mit Menschen kommunizieren können. Auch dieses Projekt nutzt als Plattform den Nao. Im Rahmen des Projektes Lirec untersuchen Forscher, wie Roboter beschaffen sein müssen, damit Menschen sie als Hilfe im Haushalt akzeptieren. Ziel ist es, den künstlichen Wesen Emotionen und Persönlichkeit verleihen.

Quelle : www.golem.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Eine Laufmaschine lernt gehen
« Antwort #14 am: 20 August, 2010, 15:38 »
Wer rennen will, muss erst mal richtig gehen können. Selbst die schnellsten Sprinter sind zuerst auf allen Vieren über den Boden gekrochen, bevor sie sich auf zwei Beine erhoben und aus ersten, tapsigen Schritten Rekordläufe wurden. Doch was auf Menschen zutrifft, muss für Maschinen noch lange nicht gelten. Ein Forschungsprojekt des Lauflabors Jena und der Technischen Universität Darmstadt  will jetzt den umgekehrten Weg einschlagen. BioBiPed heißt der von ihnen gemeinsam entwickelte zweibeinige Roboter, der zuerst rennen und dann erst gehen lernen soll.

"Die Forschungen zum zweibeinigen Laufen scheinen gerade etwas zu stagnieren", sagte Katayon Radkhah, die im Rahmen ihrer Dissertation an der TU Darmstadt mit dem BioBiPed arbeitet. Tatsächlich beschäftigte sich bei der vorigen Humanoids, der wichtigsten Konferenz zu humanoiden Robotern, nur ein auffallend kleiner Teil der Vorträge mit Fragen der Fortbewegung. Bislang kontrollieren Zweibeiner ihren Gang zumeist mit Hilfe des Zero Moment Point (ZMP). Dabei wird der Punkt ermittelt, in dem sich alle im Roboter wirkenden Beschleunigungkräfte gegenseitig aufheben. Solange sich die Projektion des Punktes am Boden innerhalb der von den Rändern der Füße markierten Unterstützungsfläche befindet, ist der Roboter stabil. Ansonsten muss gegengesteuert werden. Die dafür erforderlichen Daten liefern Drucksensoren in den Fußsohlen.

Mit ZMP lässt sich mittlerweile sehr stabiles, auch schnelles Gehen realisieren. Dabei können sogar kurze Flugphasen vorkommen, in denen kein Fuß den Boden berührt. Doch damit hat das Verfahren seine Grenzen erreicht. Weil diese Lageregelung auf die Sensordaten angewiesen ist, kann der Roboter nicht schneller gehen, als die Sensoren zulassen. Zudem erfordert ZMP die genaue Kenntnis der Massenverteilung im Roboter und aller Gelenkstellungen. Es ist eine extrem kontrollierte Art der Fortbewegung.

Neben einem anderen Kontrollverfahren erfordert geschmeidiges, energieeffizientes Laufen und Rennen auch einen dafür geeigneten Körperbau. Bislang fehlt es humanoiden Robotern mit ihren starren, über Servomotoren in den Gelenken angetriebenen Gliedmaßen an der nötigen Elastizität. Bei BioBiPed dagegen sind die Motoren über Seilzüge mit den Gelenken verbunden, die dadurch nachgiebiger auf äußere Kräfte reagieren können. Daneben soll ein System aus passiven und aktiv steuerbaren Federn für das richtige Zusammenspiel der Glieder sorgen. Daran arbeiten die Forscher.

"Wir haben uns bei der Gestaltung der Hardware auf biomechanische Studien und die Erfahrungen mit der Laufmaschine Jena Walker gestützt", sagte Dorian Scholz, ebenfalls Doktorand an der TU Darmstadt. Das Ergebnis ist ein Roboter mit vielen Stellschrauben, die er und Radkhah in die richtigen Positionen bringen wollen, um BioBiPed sicher und stabil rennen zu lassen.

Bei der Kontrolle des Roboters knüpfen die Wissenschaftler an das von Marc Raibert entwickelte Modell des gefederten umgekehrten Pendels an. Mit diesem Verfahren lassen sich einbeinige, hüpfende Roboter steuern, aber auch Mehrbeiner. Die drei wichtigen Parameter sind dabei die Sprungkraft, die Kontrolle der Bewegungsrichtung und die Stabilisierung des Oberkörpers.

Mit einem rennenden Roboter allein ist das BioBiPed-Team aber noch nicht zufrieden. Spannend wird es, wenn der Roboter sein Tempo verlangsamt und ins Gehen wechselt. Fraglich ist, ob er dann auf ein anderes Kontrollverfahren umschalten muss oder ob es mit der Veränderung einiger Parameter getan wäre. Vom ZMP-geregelten Gehen führt kein Weg zum Laufen und Rennen. In umgekehrter Richtung dagegen mag sich ein einheitliches Kontrollverfahren für alle Gangarten finden lassen.

Die Erforschung der zweibeinigen Fortbewegung vom Laufen statt vom Gehen her vorzunehmen, wirkt vor diesem Hintergrund gar nicht mehr so ungewöhnlich. Die Vorgehensweise wird auch gestützt durch evolutionsbiologische Studien, die die Fähigkeiten des Menschen als Ausdauerläufer hervorheben. Denn während die meisten Tiere uns auf kurzen Distanzen locker abhängen, sind wir auf Langstrecken nahezu ohne Konkurrenz. Es könnte daher sein, dass weniger der aufrechte Gang die Gattung Homo vorangebracht hat, sondern das aufrechte, ausdauernde Laufen.

Menschen können heute mehr als zwei Monate laufen und dabei täglich eineinhalb Marathondistanzen zurücklegen. Für Laufroboter liegt die Messlatte etwas niedriger: Mit nicht mehr als 10 Kilojoule Energie pro Kilogramm Masse muss eine Maschine 10 Kilometer in weniger als 10.000 Sekunden bewältigen, um den W Prize in Höhe von 200.000 US-Dollar zu gewinnen. Bisher ist das noch niemandem gelungen. Auch BioBiPed wird noch eine Weile trainieren müssen. Aber den Wettbewerb haben die Forscher schon im Blick.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )