Autor Thema: Das menschliche Gehirn ....  (Gelesen 14785 mal)

0 Mitglieder und 2 Gäste betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wenn das Gehirn in der Wolke steckt
« Antwort #30 am: 04 April, 2010, 12:54 »
Der selbst ernannte Internet-Süchtige und Web-Entwickler Dave Pell schrieb in seinem lesenswerten Blog "Tweetage Wasteland" kürzlich eine interessante Geschichte auf: Der Babysitter der Familie hatte kurz vor der Haustür einen bedauernswerten Zusammenstoß mit einem Auto. Dabei kam es zum Glück nicht zu schweren Verletzungen, doch das Handy der jungen Dame wurde völlig zerstört.

Vor dem Aufbruch ins Krankenhaus wollte Pell noch wissen, ob er denn den Freund der Frau anrufen solle. Das sei nett, sagte sie, doch sie kenne seine Telefonnummer nicht. Der Grund: Sie habe sie sich nie gemerkt, sondern sie nur im nun zerlegten Handy gespeichert. Pell wunderte sich zunächst darüber und dachte, dass ein derartiger Gedächtnisverlust wohl allein mit dem Unfall zu tun haben könne. Schließlich fiel ihm auf, dass auch er selbst die Nummer des Babysitters ohne sein iPhone nicht kannte.

Pells Beispiel zeigt anschaulich, wie sich die Nutzung unseres Denkapparats in den letzten Jahren verändert hat. Dank Netzdiensten wie dem Cloud Computing, dank Laptops und Smartphones ist es immer öfter unnötig, sich triviale Informationen wie Nummern, Adressen oder sogar Namen zu merken – jedenfalls scheint uns das so. All das, so glauben wir, haben wir feinsäuberlich in der Elektronik abgelegt, jederzeit abrufbar. "Das Gehirn ist dann wieder für andere Dinge frei!"

Unsere Kinder lernen unterdessen im Rahmen der Medienerziehung nicht, wie sie sich Dinge merken und sie später einsetzen können, sondern hauptsächlich den Weg, an sie heranzukommen. Googeln oder die Nutzung von Online-Lexika ersetzt jederzeit im eigenen Kopf abrufbares Basiswissen. Dass wir das eigentlich brauchen, um unsere Netzentdeckungen einzuordnen, steht auf einem anderen Blatt.

Blöd wird's immer nur dann, wenn Server oder Internet ausfallen, das Backup versagt oder gar keines (wie in Pells Beispiel) existiert. Ich will hier nicht dem wilden Faktenpauken das Wort reden, mit dem man z.B. in Japan oder China die Kinder immer noch quält. Doch die Forderung, dass man bestimmte Dinge, die unter Umständen lebensnotwendig sind, behalten sollte, ist doch eigentlich nicht zu viel verlangt, oder? Und nein, das bloße Aufschreiben auf ein analoges Blatt Papier meine ich damit nicht...

Quelle : http://www.heise.de/tr/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Kein Dreier im Gehirn
« Antwort #31 am: 16 April, 2010, 13:10 »
Warum der Mensch höchstens zwei Aufgaben gleichzeitig lösen kann

Der Urmensch hatte anscheinend ein relativ entspanntes Leben - jedenfalls wenn man davon ausgeht, dass die Evolution im Interesse des Überlebens einer Spezies in der Regel dafür sorgt, dass die Form der Funktion folgt. Einer Antilope hinterherzujagen und gleichzeitig ein Auge auf potenzielle Räuber zu haben, das dürfte das typische Multitasking gewesen sein, das unseren Vorfahren abverlangt wurde. Den potenziellen Sexualpartner auf dem Beifahrersitz mit witzigen Geschichten zu überzeugen, auf den Verkehr zu achten und gleichzeitig einen neuen Radiosender zu suchen, das hätte nicht nur Adam und Eva überfordert - es ist definitiv auch heutigen Menschen zu viel. Zumindesten den meisten.

Dass dem so ist, wissen Psychologen schon lange. Arbeitnehmer, die dauernd zwischen verschiedenen Aufgaben wechseln müssen, geraten nicht nur unter Stress, sondern erfüllen auch jede dieser Aufgaben in suboptimaler Qualität. Bei Autofahrern, die gerade das Handy oder Navi bedienen, verlängert sich die Reaktionszeit messbar. Das liegt daran, dass das Gehirn keine echte Gleichzeitigkeit kennt. Es arbeitet wie ein Prozessor, der seine Rechenzeit in Scheiben einteilt, die er für die geforderte Leistung bereitstellt. Doch auch der Wechsel selbst braucht Zeit - und das verlängert die Gesamt-Bearbeitungszeit im Vergleich dazu, würde man jede Aufgabe wirklich nacheinander ausführen.

Grenzen der Gleichzeitigkeit

Doch auch diese gefühlte Gleichzeitigkeit hat noch Grenzen. Das haben französische Forscher jetzt in einer Studie herausgefunden, die das Wissenschaftsmagazin Science veröffentlicht. Die Neurologen ließen 32 Probanden Buchstaben sortieren - eine simple Aufgabe, die aber zufallsgesteuert von einer zweiten Aufgabe unterbrochen wurde.

Dabei wurden die Versuchsteilnehmer dann entweder aufgefordert, Problem 1 abzubrechen und sich nur noch um die zweite Frage zu kümmern - oder sie sollten zusätzlich auch noch Problem 1 im Auge behalten, um nach der Bearbeitung der zweiten Aufgabe wieder darauf zurückzukommen. Zusätzlich setzten die Forscher auch noch unterschiedlich hohe Belohnungen für das korrekte Lösen der Probleme aus.

Wenn Menschen zwei Ziele A und B gleichzeitig verfolgen, teilen sich die zwei Frontallappen die Arbeit, indem sie simultan die zwei Ziele und damit verbundene Handlungen repräsentieren. Der hinterste Teil der Frontallappen ermöglicht es, zwischen den zwei Zielen hin- und herzuschalten, also eines zu verfolgen, während das andere Pause hat. Diese Teilung zwischen den Hemisphären erklärt, warum Menschen nicht mehr als zwei Aufgaben korrekt ausführen können. (Bild: Etienne Koechlin, Inserm-Ens Lyon)

Das erste Ergebnis, das die Wissenschaftler schildern, ist gut nachvollziehbar: Egal, ob die Probanden nun eine der Aufgaben abbrechen durften oder nicht, die Erfolgswahrscheinlichkeit war stets mit der Höhe der Belohnung für die Lösung korreliert. Das Belohnungszentrum spielt beim Multitasking offenbar eine wichtige Rolle. War die für Aufgabe 1 anstehende Belohnung allerdings an sich schon sehr hoch, dann spielte der Lohn für Lösung 2 eine geringere Rolle. Die physiologischen Grundlagen dieses Resultats testeten die Forscher mit Hilfe der funktionellen Magnetresonanztechnik (fMRT). Hier zeigte sich ein spannendes Bild: Das Belohnungszentrum teilt seine Arbeit offenbar auf beide Gehirnhälften auf.

In der rechten Hälfte repräsentierte Belohnungen wurden von einer Änderung bei der primären Aufgabe nicht beeinflusst - und umgekehrt. Doch auch die Problembearbeitung selbst vollzog sich in den beiden Gehirnhälften strikt getrennt. Dabei schnappte sich die linke Gehirnhälfte in der Regel die erste Aufgabe, die rechte Hälfte kam dann beim zweiten Problem zum Einsatz.

Die Informationsverarbeitung selbst beschränkte sich dann stets auf eine von beiden Hälften. Das erklärt, meinen die Forscher, warum selbst das eingeschränkte Multitasking, dessen der Mensch fähig ist, schnell an seine Grenzen stößt - es stehen eben nicht mehr als zwei Gehirnhälften zur Verfügung. Das testeten die Verfasser des Papers, indem sie prompt eine dritte Aufgabe einführten. Wie zu vermuten ist, scheiterten die Probanden nun genau dann, wenn sie nach dem Bearbeiten des dritten Problems wieder zur ersten Aufgabe zurückkehren sollten. Deren Platz hatte nun offenbar Aufgabe 3 eingenommen.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wie weit trägt Gehirnjogging?
« Antwort #32 am: 22 April, 2010, 15:53 »
Eine im Fachblatt Nature erschienene Studie bezweifelt den Wert von Gedächtnistraining. Dabei ist es durchaus möglich, sein Gehirn zu trimmen.

Millionen von Menschen versuchen, ihr Denkvermögen mit Gedächtnistraining und Computerspielen auf Trab zu halten und auszubauen. Britische Wissenschaftler haben nun im Auftrag der BBC die Leistungssteigerung von über 11.000 Teilnehmern einer Internetstudie kontrolliert und sind zu dem Ergebnis gekommen, dass Gehirntraining nicht generell die geistige Kapazität steigert.

Obwohl diese Erkenntnis nicht neu ist, rauscht es im Medienwald. Wieder einmal lohnt ein genauerer Blick auf die Studie, um deren Relevanz und Aussagekraft einordnen zu können.

Das Design

Die Probanden absolvierten über sechs Wochen hinweg online mindestens drei Mal pro Woche für mindestens zehn Minuten kognitive Übungen. Dabei wurden sie in drei Gruppen eingeteilt. Die erste trainierte logisches Denken, Planen und Problemlösungsverhalten mit Hilfe populärer Gehirnjogging-Programme. Die zweite schulte in Videospielen Kurzzeitgedächtnis, Aufmerksamkeit, das Verarbeiten räumlicher Eindrücke und mathematische Fertigkeiten. Die Aufgaben lassen sich auf der Website der BBC spielen. Die dritte Gruppe diente zum Vergleich, ihre Mitglieder bekamen einfache Suchaufgaben für das Surfen im Internet.

Das Ergebnis

Nach sechs Wochen stellte sich heraus, dass die Teilnehmer zwar besser in dem geworden waren, was sie trainiert hatten. Die allgemeine geistige Leistungsfähigkeit hatte sich allerdings nicht gesteigert, wie die Wissenschaftler in Nature nun berichten. Man hatte dies mit Hilfe von vier Benchmarking-Tests gemessen, die in der Kognitionswissenschaft üblich sind.

Die offenen Fragen

Reichte die Zeit aus, um das Gehirn überhaupt vernünftig zu trainieren? Der in diesem Fall nicht ganz unabhängige Neurowissenschaftler und Firmengründer Torkel Klingberg spricht in der TIME davon, dass insgesamt nur drei Stunden geübt wurde. Das sei zu wenig, nötig seien zwischen acht und 12 Stunden. Zudem sei die Studie nicht unter kontrollierten Bedingungen abgelaufen. Da die Teilnehmer zu Hause gesessen hätten, seien Ablenkungen durch beispielsweise Hintergrundgeräusche möglich. Klingberg ist Mitautor einer der wenigen Studien, die Transfereffekte von Trainingsprogrammen bei Kindern herausgefunden haben will. Er hält den Autoren der Nature-Studie vor, unzulässigerweise von ihrem Einzelfall auf alle Gehirntraining-Programme zu schließen.

Die Kernfrage bleibt: Schiebt Gehirnjogging Transferleistungen zwischen kognitiven Bereichen an? Anders formuliert: Hilft Gehirntraining generell oder ausschließlich in dem geübten Aufgabenbereich? Findet jemand, der Telefonnummern auswendig lernt, später auch seine Autoschlüssel schneller wieder? So wie es aussieht, eher nicht.

Das heißt aber keinesfalls, dass Hirntraining gänzlich nutzlos ist. Gerade für ältere Menschen (60+) existieren Studien (1, 2), die zeigen, dass Knobeleien auch positive Wirkungen auf den Gesamtzustand des Geistes haben können. Zudem hat Susanne M. Jaeggi von der Universität Michigan vor zwei Jahren ein Trainingsprogramm veröffentlicht, das durchaus in der Lage scheint, die Fähigkeiten in anderen Bereichen als den geübten zu schärfen und das Arbeitsgedächtnis allgemeine zu verbessern.

Das Problem ist: Die auf dem Markt befindlichen Programme versprechen Elefantengedächtnis für alle, dabei sind gerade sie nur sehr eingeschränkt in der Lage, Transferleistungen anzuschieben.

Die Frage ist weniger, ob Gehirntraining funktioniert. Das tut es. Die Frage ist: Für wen und in welchem Bereich? Ein nächster Schritt wäre, man ahnt es, eine neue Studie, die alle Altersgruppen einschließt und die verschiedenen Aufgabenstellungen aus den bisherigen Studien vergleicht.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Gehirn-ähnliche Prozessoren - Selbstheilend und extrem klein
« Antwort #33 am: 29 April, 2010, 16:59 »
Die Prozessorforschung bewegt sich in Bereichen, die vor einigen Jahren noch Science Fiction waren.

Forscher aus Japan und der Technologischen Universität in Michigan haben laut XbitLabs einen molekularen Mikroprozessor hergestellt, der das menschliche Gehirn als Vorbild hat. Obwohl die Neuronen im Gehirn nur 1.000x pro Sekunde aktiv sind und moderne Prozessoren Milliarden Befehle pro Sekunde verarbeiten können, ist das Gehirn dennoch überlegen. Neuronen besitzen mehrere Verbindungen, die gleichzeitig benutzt werden, während Prozessoren die Befehle nacheinander und immer auf die gleiche Weise abarbeiten.

Ein sechseckiges Molekül mit der Bezeichnung DDQ, das aus den Elementen Stickstoff, Sauerstoff, Chlor und Kohlenstoff besteht, kann wie Neuronen funktionieren. Es setzt sich zwischen zwei Gold-Substrat-Schichten selbst zusammen und kennt nicht nur die üblichen Zustände 0 und 1 sondern auch 2 und 3. Damit ist es den Forschern gelungen, eine Reihe von molekularen Schaltern aufzubauen, die gleichzeitig in Verbindung stehen und mehrere Aufgaben und Simulationen auf einmal erledigen können. Ungefähr 300 Moleküle arbeiten dabei in Verbindung und bilden die Funktion von Neuronen nach.

Laut dem Physiker Ranjit Pati sorgt dieses Netzwerk für Intelligenz und ermöglicht Lösungen für Probleme, die herkömmliche Prozessoren nicht bewältigen. Bei einem Defekt können sich die Moleküle sogar selbst reparieren. Auch diese Funktion entspricht dem menschlichen Gehirn, bei dem andere Neuronen im Notfall einspringen können.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Umdenken bei Alzheimer
« Antwort #34 am: 31 Mai, 2010, 18:51 »
Ein Hirnforscher sammelt seit Jahren Indizien dafür, dass die bisherige Erklärung der Alzheimer-Krankheit falsch sein könnte. Seine neue Hypothese ist schlecht für die bisherige Forschung und alle, die gut von ihr leben.

Bartzokis? Nie gehört. Wer soll das sein? Und was wollen Sie wissen? Myelin-Hypothese?" Der Heidelberger Professor, eine bekannte Größe der deutschen Alzheimer-Forschung, schwankt am Telefon zwischen Erstaunen und Spott über die Frage. "Nein, im Ernst, ich wüsste nicht, was an der gängigen Hypothese auszusetzen wäre." Dieses Recherchegespräch ist symptomatisch. Sobald der Name George Bartzokis fällt, finden Telefonate in ungewöhnlich süffisantem Tonfall statt oder kommen gar nicht erst zustande.

Der geschmähte Wissenschaftler ist Psychiater am Hirnforschungsinstitut der University of California in Los Angeles (UCLA) und hat 2009 eine neue Theorie zur Entstehung der Alzheimerschen Krankheit vorgestellt. Bartzokis ist überzeugt, dass Generationen von Wissenschaftlern an der falschen Stelle nach Therapiemöglichkeiten gesucht haben: "Wer Alzheimer hat, der hat keine Schwierigkeiten mit Proteinablagerungen im Gehirn. Was ihn krank macht, sind Defekte an der Isolierung der Nervenfortsätze, an den sogenannten Myelinscheiden." Diese Defekte entstünden, weil das Gehirn mit fortschreitendem Alter die Myelinschicht immer schlechter instand halten könne. Abhilfe könnte ausgerechnet eine bessere Versorgung mit Cholesterin schaffen – ein Stoff, der bisher in der Öffentlichkeit eher mit zu hohen Werten im Blut von sich reden machte.

Um seine These zu stützen, hat der Hirnforscher seit 2003 regelmäßig in namhaften Fachmagazinen eigene Gehirnbild-Studien sowie sogenannte Reviews – vergleichende Interpretationen anderer Studien – veröffentlicht. Doch auch nach sieben Jahren will niemand so recht Notiz von ihm nehmen. Erstaunlich, findet der Gehirnforscher, denn die konventionelle Alzheimer-Forschung stecke inzwischen gehörig in der Krise: Die bisherigen Hauptansätze zur medikamentösen Behandlung von Alzheimer haben alle versagt: der Versuch, durch Impfstoffe die Proteinablagerungen aufzulösen ebenso wie der, das Enzym Beta-Sekretase zu hemmen, damit die sogenannten Amyloid-Plaques gar nicht erst entstehen.

"Das Verrückte daran ist, dass eine der Impfungen sogar funktioniert hat, die Ablagerungen sind tatsächlich verschwunden", berichtet Bartzokis. "Nur hat das in vielen Fällen nichts an den Demenzsymptomen der Patienten geändert." Doch weder dieses gewichtige Indiz noch das zweite, das auch nicht so recht ins Bild von den bösen Ablagerungen passt, ließ die anderen Forscher ihre Theorie hinterfragen: Menschen, in deren Gehirn sich nach ihrem Tod Unmengen von Plaques fanden, ohne dass zuvor Alzheimer-Symptome aufgefallen waren. Beide Befunde kamen zwar auf Kongressen zur Sprache, wurden aber als Einzelfälle abgetan.

Kein Wunder: Bartzokis rüttelt an einem weltweit anerkannten und bisher als gesichert geltenden Erklärungsmodell und stellt damit auch die gesamte bisherige Therapie-Entwicklung infrage. Hätte er recht, würde dies bedeuten, dass Milliarden an Forschungsgeldern in den Sand gesetzt wurden. Fest steht: Bartzokis' These würde nicht nur einige rätselhafte Puzzleteile des Krankheitsbildes erklären helfen, sondern auch die Entwicklung von neuen, vielleicht sogar vorbeugend wirkenden Medikamenten ermöglichen. Etwa 50 Milliarden Euro, so viel wie der gesamte Staatshaushalt von Bayern, fließen jährlich in die Alzheimer-Forschung. Neun von zehn unterstützten Laboratorien suchen nach Wegen, den Plaques den Garaus zu machen. Vor allem bei der Entwicklung eines Impfstoffes gegen die Ablagerungen haben sich die Forscher ein Kopf-an-Kopf-Rennen geliefert. Doch als Bartzokis 2003 hochauflösende Bilder der Magnetresonanz-Tomografie (MRT) von 300 Patienten auswertete, kamen ihm erste Zweifel an der Plaque-Theorie.

mehr ...

Quelle : http://www.heise.de/tr/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Computer denken mit
« Antwort #35 am: 26 Juli, 2010, 16:12 »
Eine Demonstration während der TED Converence zeigt den Entwicklungsstand bei der Steuerung von Computern per Gedanken.

Das Hardware Keyboard als Eingabehilfe für Computer scheint langsam aber sicher seinem Ende zu zu gehen. Neben der längst bekannten Maus und der Entdeckung von blossen Händen für Telefon und Tabletcomputer durch Apple haben sich auch Spracheingaben eine Nische geschaffen. Diktiersoftware gehört in Rechtskanzleien zur Standardausrüstung am Arbeitsplatz.

Aber im Bereich der Spielekonsolen hebt die Steuerung durch die eigene Person nun nach den Fuchteleien von Nintendo ganz ab und macht den Spieler durch Kinect für die Xbox 360 zum Eingabeinstrument. Gestik und Mimik werden Teil der Steuerung.

Tan Le und ihre Präsentation auf der Ted Conference 2010 zeigt nun eine weitere Möglichkeit auf. Die Steuerung eines Computers via Gedanken.


Was sich wie ein schlechter Auftritt in einer Jahrmarktsbude anhört, braucht ganze acht Sekunden Tarierungszeit des Systems, und ein Nutzer mit einem gar nicht einmal mehr so schlecht aussehenden Headset kann einen Würfel bewegen oder sogar verschwinden lassen.

Weitere Demofilme zeigen Rollstuhlfahrer, die ihre Gefährte bewegen. Oder Bastler mit dem Hang, ihr Deckenlicht mittels Gedankenkraft auszuknipsen.

Die Schnittstelle zwischen Mensch und Maschine durchschneidet dabei eine bisherige Grenze und der Zugriff auf die innere Welt eines Menschen wird invasiv. So verwischen die Grenzen zwischen beiden zunehmend.

Und als nächster Schritt wäre ein Computer zu sehen, der durch eigene (oder fremde) Gedanken gesteuert in das eigene (oder fremde) Hirn Bilder projeziert. Vermutlich wäre es dann ein naheliegender Schritt zu Szenarien, mit denen ein aktueller Blockbuster spielt. Aber vorerst bewegt sich ein Würfel in einer Windows-Oberfläche und ein Rollstuhl. Wenn man sich ausreichend konzentrieren kann.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Gedankenverschmelzung ist real
« Antwort #36 am: 28 Juli, 2010, 22:53 »
Bei gelungener Kommunikation ist die Gehirnaktivität des Sprechers mit der des Zuhörers in Zeit und Raum gekoppelt

"Mein Geist zu deinem Geist. Meine Gedanken zu deinen Gedanken.": Mit diesen Worten leiten im Star-Trek-Universum Mr. Spock oder andere Vulkanier eine so genannte Gedankenverschmelzung ein. Dazu legen sie noch je einen Finger auf Schläfe, Wange und Kinn des betreffenden Wesens - falls diese anatomischen Merkmale zu identifizieren sind, denn auch mit Walen oder ehemaligen Raumsonden, so die Geschichte, sind solche Geistes-Kopplungen angeblich möglich.

Wie sich nun zeigt, lagen die Erfinder der Science-Fiction-Serie gar nicht so weit ab von der Realität. Mit den beiden Sätzen des Gedankenverschmelzungs-Rituals können auch Menschen einen Ritus einleiten, der sich schlicht Kommunikation nennt. Überraschend ist allerdings, wie weit die Gehirne der Beteiligten dabei synchron arbeiten. Auf die Spur dieses Phänomens führen drei Forscher der amerikanischen Princeton University in einem Paper in den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS); der Artikel ist im Volltext online verfügbar.

Grundsätzlich beruht der Vorgang der Kommunikation bekanntermaßen darauf, dass sich mindestens zwei Teilnehmer zur selben Zeit mit derselben Tätigkeit befassen, dem Informationsaustausch. Je nach aktuellem Modus sind dabei zwei Rollen zu besetzen - die des Sprechers und die des Zuhörers. Die US-Forscher haben nun mit der Methode der funktionalen Magnetresonanz untersucht, was sich währenddessen in den Gehirnen der Gesprächspartner tut. Das erwies sich zunächst als technisch gar nicht trivial: Die lauten Geräusche des Magnetresonanztomografen erschweren Sprach-Kommunikation ungemein. Da man nun schlecht zwei Personen gleichzeitig im selben Messgerät unterbringen kann, hat man zuerst die Hirnaktivität eines Sprechers gemessen, der seine Lebensgeschichte dem Tonband erzählte - mit der ausdrücklichen Anweisung, so zu berichten, als gelte die Geschichte einem Freund.

Anschließend ließ man einen Zuhörer die komplette Geschichte verfolgen, zeichnete dabei die Gehirnaktivität auf und ließ den Zuhörer zudem per Fragebogen vom Grad seines Verstehens berichten. Die Idee der Forscher: Die Gehirne der Kommunikationspartner müssten genau dann zeitlich synchronisiert erscheinen, wenn der Sprecher für die Sprachproduktion sein Verständniszentrum nutzt - und der Zuhörer für das Verstehen sein Sprachzentrum. Allerdings sollte die Aktivierung dabei mit gewisser Verzögerung erfolgen: Wenn die Sprache beim Zuhörer ankommt, geht dem ja schon ein gewisser Prozess beim Sprecher voraus. Wenn allerdings der Zuhörer versucht, einen Teil der Kommunikation vorherzuahnen, sollte seine Aktivität der des Sprechers vorangehen. Schließlich sollte auch noch der Grad der Kopplung über den Erfolg der Kommunikation Auskunft geben.

Tatsächlich zeigte sich im Experiment, dass die Vermutungen der Forscher zutreffen. Die Gehirnaktivität von Sprecher und Zuhörer ist im vermuteten Ausmaß gekoppelt - und auf die Kommunikation selbst zurückzuführen. Wenn etwa eine russischsprachige Testperson einem Amerikaner aus ihrem Leben erzählte, stellte sich die "Gedankenverschmelzung" nicht ein, obwohl der Sprecher noch immer versuchte, Informationen zu übermitteln. Andererseits war die Verschränkung der Geister umso deutlicher feststellbar, je höher die Zuhörer den Grad ihres Verstehens einschätzten. Im Prinzip könnte man so auf recht objektive Weise etwa den Erfolg eines Lehrers bei seinen Schülern messen. Dass die sich im Unterricht nicht auf die faule Haut legen sollten, darauf macht ein weiteres Ergebnis aufmerksam: Das Verstehen war nämlich umso besser, je stärker die Gehirnaktivität des Zuhörers war.

Auch die vermutete "Verspätung" bei den Zuhörern war im Experiment festzustellen. Sie dient den Forschern auch noch dazu, eine methodologische Schwäche der Arbeit auszuschließen: Es könnte ja sein, dass ein Anschein von Kopplung entsteht, weil der Sprecher automatisch zum Zuhörer seiner eigenen Stimme wird. Interessant ist aber, dass in einzelnen Hirnarealen durchaus der Zuhörer dem Sprecher auch voraus sein kann: Während der Kommunikation stellt der Hörer etwa dauernd darüber Vermutungen an, wie sich der Prozess wohl fortsetzt.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Das Gehirn als Netzwerk
« Antwort #37 am: 11 August, 2010, 09:56 »
Selbst mit zehn Prozent der üblichen Gehirnmasse ist noch alltägliches Leben möglich - wie ist unser Denkorgan strukturiert?

Über das menschliche Gehirn weiß man, technisch gesehen, eine ganze Menge. Es ist im Mittel 1375 Gramm schwer, wenn es im Kopf eines Mannes sitzt, und es wiegt durchschnittlich 1245 Gramm, wenn sein Besitzer eine Frau ist. Es beansprucht ungefähr 15 Prozent des gesamten Energiebedarfs des Körpers, damit seine etwa 100 Milliarden Nervenzellen reibungslos funktionieren können.

Mit 15 bis 20 Watt chemischer Leistung erreicht es eine "Rechengeschwindigkeit" von 10 hoch 13 bis 10 hoch 16  Operationen pro Sekunde - dies allerdings im Gegensatz zu Computern nicht durch eine hohe Geschwindigkeit der Neuronen/Transistoren, sondern durch eine enorme Parallelität. Vor allem aber ist das Gehirn enorm flexibel, weder sein Gewicht noch sein Volumen stehen in Beziehung zur Intelligenz seines Trägers. Selbst mit zehn Prozent der üblichen Gehirnmasse ist noch alltägliches Leben möglich - wie das Beispiel eines Franzosen zeigt, bei dem Mediziner eher zufällig ein dermaßen kleines Gehirn fanden (2007 berichteten die Ärzte im Fachmagazin Lancet davon).


Die Forschung ist auch schon relativ weit darin fortgeschritten, die genaue Struktur und Funktionsweise einer Nervenzelle zu untersuchen. Man weiß, wie Erregungsmuster weitergeleitet werden, welche chemischen und elektrischen Prozesse sich hier ergänzen. Man hofft sogar schon, wie etwa im Blu-Brain-Projekt, durch Verschaltung genügend künstlicher (simulierter) Nervenzellen eine Art Gehirn konstruieren zu können. Doch das Ganze nur durch Beschreibung seiner Teile darzustellen, ist ungefähr so sinnvoll wie eine Beschreibung des Internet über eine Statistik über die Betriebssysteme, Speicherausstattung und Prozessorgeschwindigkeit aller daran angeschlossenen Computer.

Wissen, das in Strukturen gespeichert werden kann

Eine wirkliche Alternative dazu gibt es, wenn es um das Gehirn geht, aber noch nicht. Zu bruchstückhaft ist das Wissen darüber. So kann man im Kleinen davon ausgehen, dass Wissen oder Erinnerungen nicht in einzelnen Zellen, sondern in Strukturen gespeichert werden. Im Großen kann man mit funktionaler Magnetresonanztomografie die Areale identifizieren, in denen sich bei bestimmten Denkleistungen etwas tut. Wie das Beispiel des Franzosen mit dem winzigen Hirn zeigt, sind diese Areale aber gar nicht zwingend nötig, bei Bedarf (in diesem Fall primär durch einen Hydrocephalus und dessen Behandlung verursacht) kann es Funktionen in andere Bereiche verlagern.

Vor allem entwicklungsgeschichtlich versuchte man deshalb bisher, der grundlegenden Struktur des Gehirns auf die Schliche zu kommen. In der Evolution ältere Bestandteile im Stammhirn sind für die grundlegenden Lebensfunktionen zuständig - Atmen, Herzschlag und manche Reflexe. Das Kleinhirn, das bei vielen Tierarten im Vergleich zum Großhirn stärker ausgeprägt ist, koordiniert Bewegungen und reguliert das Gleichgewicht, außerdem wird ihm eine wichtige Rolle beim unbewussten Lernen zugeschrieben, womöglich sogar bei höheren Lernformen. Über all dem sitzt, vom Zwischenhirn mit gefilterten Informationen versorgt, der jüngste Gehirnteil, das Großhirn. Gedächtnis, höhere Denkvorgänge, aber auch die Reizverarbeitung finden hier statt.

Funktionale Netzwerke

Ob diese anatomisch überprüfbare Struktur aber auch eine funktionale Grundlage hat, darüber sind sich die Forscher nicht einig. In den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS) zeigt ein Wissenschaftlerteam nun, dass die einzelnen Areale womöglich auch eine netzwerkartige Struktur bilden.

Die Forscher haben dazu eine Technik entwickelt, mit der sie solche funktionalen Netzwerke besonders gut nachweisen konnten. Als sie ihr Verfahren an einem Abschnitt des Rattengehirns testeten, fanden sie unvermutet sehr ungewöhnliche Signalwege, die in auf den ersten Blick nicht verknüpfte Bereiche führten. Diese nachvollziehbar identifizierbaren Verbindungen waren als Ketten aus geschlossenen Schleifen organisiert - so ähnlich, wie man sich aus Papierringen selbst gebastelte Girlanden zum Kindergeburtstag vorstellen kann.

Die Forscher hoffen nun, ihre Technik systematisch zum Aufdecken der fundamentalen Netzwerkstrukturen des Gehirns anwenden zu können - des (äquivalent zum Genom oder Proteom) so genannten Connectoms. Da es sich um eine invasive Technik handelt, kommt sie zum Erforschen menschlicher Hirnstrukturen allerdings nicht in Frage.

Quelle : http://www.heise.de/tp/
« Letzte Änderung: 12 August, 2010, 00:04 von Jürgen »

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Ist der Wille frei?
« Antwort #38 am: 07 September, 2010, 13:26 »
Ulmer Hirnforscher wollen einen Beweis dafür gefunden haben, überzeugend ist er nicht

Philosophen setzen sich schon lange damit auseinander, ob es so etwas wie Willensfreiheit, Voraussetzung von vielen Religionen, allen Rechtssystemen und zwischenmenschlichen Beziehungen, überhaupt gibt oder welche Voraussetzungen dafür erforderlich sind. Zwar haben moderne Gesellschaften und ihre Religionen auf Willensfreiheit gesetzt und so (persönliche) Verantwortung mit allen Konsequenzen von der Wirtschaft über das Seelenheil bis zum Strafrecht bevorzugt.

Willensfreiheit würde aber bedeuten, wenn diese Voraussetzung wäre, einen Menschen zur Verantwortung für seine Entscheidungen zu ziehen, dass diese bewusst getroffen werden. Nun deuten manche neurowissenschaftliche Untersuchungen wie die von Libet aber darauf hin, dass das Gehirn neuronal Entscheidungen trifft, die erst verzögert bewusst zu werden scheinen. Wir könnten also gut in der Illusion leben, dass wir bewusst Entscheidungen treffen, die aber in Wirklichkeit schon gefallen sind. Wobei das bewusste Ich sich nur selbst diese Entscheidungen zurechnet.

Allerdings wäre hier zu fragen, warum unsere Gehirne evolutionär diese Illusion der Willensfreiheit ausgebrütet haben. Würde man "rational" argumentieren, hätte dies vor allem den Vorteil, den Anderen durch die Gruppe disziplinieren zu können, während es gleichzeitig den für die "Erfolgreichen" schlagenden Vorteil gibt, dass jeder für sein Leben selbst verantwortlich ist. Das dürfte im Übergang vom Feudalismus zum protestantischen Kapitalismus bis heute für das Selbstverständnis der Eliten bedeutsam sein, nämlich dass sie angeblich aus eigener Kraft zu Recht reicher, mächtiger oder erfolgreicher sind, während die da Unten versagt haben. Daher wäre aus dieser Sicht alles in Ordnung und kann auch so bleiben, man könnte nur den Versagern zur Selbstverbesserung ein wenig mehr Zwang angedeihen lassen, um die Kräfte der Selbstbestimmung zu entfalten – und das betrifft dann, wie uns Propheten wie Sarrazin versichern – nicht nur Individuen, sondern auch Gruppen, Völker und Staaten. Weil alles selbstbestimmt ist, trägt eben jeder auch Verantwortung beispielsweise auch dafür, dass er sich mit Hartz IV gesund und ausreichend ernährt oder mit steigender Kälte und sinkender Raumtemperatur desto dickere Pullover anzieht.

Wie man sieht, ist Willensfreiheit beileibe kein akademisches oder philosophisches Thema. Je nachdem, wie man die Frage beantwortet, ist man für Knast und Todesstrafe oder Resozialisierung, für Kürzung der Sozialhilfe oder für Hilfe, für den freien Markt oder für Unterstützung der Chancengleichheit etc.

Ulmer Gehirnforscher wollen nun herausgefunden haben, dass zumindest bewusste Entscheidungen (Top-down) nicht nur ideologische Einbettungen sind, sondern tatsächlich etwas bewirken können, also nicht alles neuronal und basisdemokratisch bottom-up passiert. Die Hirnforscher gehen davon aus, ihre Versuche würden zeigen, dass das "Bewusstsein unbewusste Prozesse im Gehirn" kontrolliert. Das hätte, gesellschaftlich gesehen, aber auch zur Konsequenz, dass "Eliten" die Entscheidungen des Kollektivs, das ein einzelnes Gehirn ist, entscheidend beeinflussen und es neuronal keine Demokratie von gleichberechtigten Individuen gibt.

Das sind große Thesen. In der Studie selbst, die im Journal of Experimental Psychology: General veröffentlich wurde, wurden die Gehirnströme von Versuchspersonen beim Lesen von sichtbaren Worten gemessen, um so die Auswirkung von Absichten zu erfassen: "Zuvor wurden andere Worte, so genannte Bahnungsreize, für eine ganz kurze Zeit eingeblendet, so dass sie nicht bewusst wahrnehmbar waren. Bedeutungsmäßig verwandte unbewusste Bahnungsreize beschleunigten die Erkennenszeiten der nachfolgend gezeigten kritischen Wörter (z.B. Tisch-Stuhl, Henne-Ei) nur dann, wenn die Probanden zuvor die Absicht hatten, die Bedeutung von Wörtern zu verstehen. Hatten die Probanden dagegen die Absicht, auf die Form von Buchstaben zu achten und die Wortbedeutung zu ignorieren, hatten die unbewussten Bahnungsreize keinen Einfluss auf die Erkennenszeiten der sichtbaren Worte."

Danach würde die gerichtete Aufmerksamkeit der Versuchspersonen die Wahrnehmung von Wörtern entscheidend beeinflussen. Unklar bleibt dabei jedoch, wie die Aufmerksamkeit gesteuert wird. Das ist nicht einfach. Schließlich wird Aufmerksamkeit wohl nicht nur bewusst gesteuert. Wenn wir hungrig oder durstig sind, wenn wir sexuell aufgeladen sind, wenn wir deprimiert sind, dann werden wir auch stärker auf die entsprechenden Reize ansprechen. Das kann ein solcher Test, wie ihn die Hirnforscher angelegt haben, aber gar nicht messen, weil die unbewussten Reize äußerlich vorgegeben werden und nicht intrinsisch sind.

Gleichwohl will Markus Kiefer, Sprecher des deutschlandweiten Projektnetzwerkes zur Bewusstseinsforschung und Mitautor der Studie, deren durchaus interessante Ergebnisse über Gebühr verallgemeinern: "Unser Wille ist freier als gedacht." Sie hätten gezeigt, dass die "Vorstellung des chaotischen und unkontrollierbaren Unbewussten" falsch sei: "Unsere Befunde widerlegen diese Lehrmeinung. Sie zeigen eindeutig, dass unser Bewusstsein zu den Absichten passende unbewusste Vorgänge in unserem Gehirn verstärkt, nicht passende dagegen abschwächt". Und Kiefer geht noch weiter. Es sei gewährleistet, dass unser bewusstes "Ich" Herr im Haus bleibt und nicht durch eine Vielzahl unbewusster Tendenzen beeinflusst wird.

Als Beispiel führt der Hirnforscher einen alltäglichen Gang in den Supermarkt an, was er wohl besser unterlassen hätte. Wenn man nämlich, was meist der Fall sein dürfte, in den Supermarkt geht, um etwas Bestimmtes zu kaufen, z.B. ein Spülmittel, dann sei man "wenig empfänglich für die Schokolade im Süßwarenregal". Das ist sicher richtig und müsste auch gar nicht von einem aufwändigen Versuch bestätigt werden – auch wenn dies nicht schadet -, aber es klärt in keiner Weise, wie die Präferenzen der Aufmerksamkeit zustande kommen. Der Hirnforscher will aber gleich aus der Aufmerksamkeitssteuerung ableiten, dass wir diese völlig unter unserer Kontrolle haben: "Die bewussten Absichten und Einstellungen entscheiden somit darüber, ob ein unbewusster Prozess in unserem Gehirn überhaupt ablaufen kann. Die Aussage 'Ich konnte nicht anders, ich hatte einen inneren Drang so zu handeln' sollte von daher in der Regel ehrlicherweise lauten 'ich wollte nicht anders'." So bestätigt anscheinend Wissenschaft die Ideologie, während in Wirklichkeit die Ideologie oder unkritisch übernommene Vorurteile die Interpretation von Forschungsergebnissen prägen.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Wörter direkt vom Gehirn ablesen
« Antwort #39 am: 09 September, 2010, 12:52 »
US-Wissenschaftler haben eine EEG-Schnittstelle entwickelt, mit der sich Wörter erkennen lassen, die im Sprachzentrum artikuliert werden.

Die Menschen kommunizieren, biologisch bedingt, mit ihrem Körper, in dem das Gehirn eingesperrt ist. Sie können mit Mimik und Gestik kommunizieren, aber auch mit der Sprache, also damit, dass sie sprechen. Aber diese körperliche Schnittstelle der Sprachareale mit der Stimme, die u.a. durch die Muskeln der Lippen, des Kiefers und der Zunge entsteht, ist eigentlich gar nicht notwendig. Wir können auch sprechen, indem wir motorisch mit den Fingern oder auch mit Gehirnwellen eine Tastatur bedienen, mit der eine künstliche Stimme gesteuert wird.

Neurobiologen der University of Utah und der University of Washington School of Medicine haben, wie sie in ihrem Artikel in der Zeitschrift Journal of Neural Engineering berichten, nun eine erste Schnittstelle mit den motorischen und sensorischen Spracharealen des Gehirns entwickelt. Mit Mikroelektroden, die unter den Schädel des Gehirns, aber nicht direkt in dieses eingepflanzt wurden, konnten die Wissenschaftler die motorischen Signale der Gesichtsmuskulatur und die des sensorischen Wernicke-Zentrums abhören und so einige Worte direkt verstehen. Gedacht ist die Technik für Menschen, die nicht mehr sprechen können, beispielsweise die Menschen mit dem Locked-in-Syndrom, aber die Anwendungen könnten natürlich vielfältig sein und weit darüber hinausgehen.

Die Neurobiologen haben ihre Schnittstelle – Gitter aus 16, jeweils im Abstand von 1 Millimeter angebrachten Mikroelektroden - allerdings nur an einem Patienten getestet und die Bedeutung von 10 Wörtern (yes, no, hot, cold, hungry, thirsty, hello, goodbye, more and less) anhand der Signale mit einer Wahrscheinlichkeit von 76-90 Prozent identifizieren können. Der an Epilepsie leidende Patient wiederholte laut sprechend in vier Sitzungen die 10 Wörter 30 bis 90 Mal, um das dadurch verursachte Muster an Gehirnströmen zu identifizieren. Auch hier gibt es also noch einigen Spielraum der Interpretation. Letztlich ist es nur ein wenig besser, als die Wörter per Zufall zu raten, geben die Forscher selbst zu. Noch ist man also weit entfernt von einem Computersystem mit einer Gehirnschnittstelle, um genau wiedergeben zu können, was eine Person sagen will. Vom Gedankenlesen ist man natürlich noch viel weiter entfernt.

Gleichwohl konnten die Forscher zeigen, dass die Abnahme von Gehirnströmen durch Mikro-EEG-Elektroden im Vergleich zu im Gehirn implantierten Elektroden gute Ergebnisse bringen können. Möglicherweise würde dazu auch reichen, die Hirnwellen von der Schädeloberfläche abzunehmen. Wenn mehr Mikroelektroden verwendet würden, dürfte sich auch die Genauigkeit der Decodierung erhöhen, sagen die Neurobiologen.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Die Prüfinstanz im Gehirn
« Antwort #40 am: 17 September, 2010, 21:15 »
Warum manche Menschen eigene Entscheidungen effizienter überprüfen können als andere

Ob sich jemand mit großer Überzeugung irrt oder unsicher auf dem richtigen Weg ist, kann im Alltag enorme Auswirkungen haben. Forscher haben die Gehirnstrukturen gefunden, die zwischen den beiden Fällen entscheiden: Hier findet die Introspektion statt, der wichtige Check, ob eigene Überlegungen und Entscheidungen denn tatsächlich richtig sind.

Die Fähigkeit zur effizienten Introspektion ist kein rein akademisches Forschungsgebiet - sie ist ein weitgehend unerforschtes, dabei aber ökonomisch und politisch ungemein bedeutendes Phänomen. Den meisten fällt sie erst durch ihr Fehlen auf - zum Beispiel beim Chef. Es gehört zu den typischen Karrieren in unserem Wirtschaftssystem, dass genau die Menschen auf der Karriereleiter nach oben klettern, die von sich und ihren Entscheidungen grenzenlos überzeugt sind. Zweifel, gar Selbstzweifel, sind verdächtig - fehlt es dem Betreffenden gar an Entscheidungskompetenz?

Das für die Introspektion kennzeichnende Gewebe in der anterioren präfrontalen Hirnrinde aus verschiedenen Perspektiven

Doch nicht nur Angestellte müssen darunter leiden, auch Angeklagte in Gerichtsprozessen bekommen mangelnde Introspektion zu fühlen. Wenn zwei Zeugen vor dem Richter stehen, die gegensätzliche Aussagen machen, kommt es in der Regel sehr darauf an, wie überzeugt die beiden von ihrer eigenen Wahrnehmung sind. Geglaubt wird oft dem Zeugen, der sich selbst am wenigsten in Frage stellt - dabei ist der Überzeugungsgrad doch kein Kennzeichen dafür, wie richtig oder falsch eine Wahrnehmung ist. In solchen Fällen müsste man nun eigentlich den Zeugen ins Gehirn schauen - denn aus dessen Struktur ist ablesbar, wie ausgeprägt die Fähigkeit eines Menschen zur Introspektion ist. Das berichten jedenfalls Biologen des University College of London in der aktuellen Ausgabe des Wissenschaftsmagazins Science.

Die Forscher haben dazu 32 Probanden einem Experiment unterworfen, das die Wahrnehmungsfähigkeiten der Testpersonen überprüfte. Doch nicht diese standen im Fokus der Studie, sondern vielmehr das Potenzial der Probanden, die eigenen Entscheidungen zu überprüfen und gegebenenfalls als fehlerbehaftet darzustellen. Dazu hielten die Wissenschaftler die tatsächliche Performance der Studienteilnehmer durch Veränderung der Experimentierbedingungen konstant bei 71 Prozent. Dabei zeigte sich nicht nur ein enormer individueller Unterschied in der Fähigkeit, die eigene Leistung einzuschätzen - bei Aufnahmen mit dem Magnetresonanztomografen erwies sich auch, dass die Größe eines bestimmten Gebietes im anterioren präfrontalen Kortex direkt mit dieser Fähigkeit korrelierte. Eine Beziehung konnten die Forscher auch zur Mikrostruktur der mit diesem Bereich verbundenen weißen Gehirnmasse ausmachen.

Das Problem des allzu von sich selbst überzeugten Chefs sollte sich auf diese Weise zumindest unter dem MRT belegen lassen. Zudem scheinen die Ergebnisse auch zu belegen, dass es diese Art von Meta-Kognition (also Gedanken über andere Gedanken) überhaupt gibt - man könnte ja auch argumentieren, dass Selbstkontrolle funktioniert, indem einfach nur über die Schwierigkeit der Aufgabe reflektiert wird, nach dem Prinzip: Je komplizierter ein Problem, desto eher irre ich mich. Die von den Forschern gefundene Hirnstruktur spricht für eine echte Meta-Kognition, weil sie selbst keinen Input von unseren Sinnen erhält und nur von anderen, nachweislich mit Entscheidungen befassten Arealen gespeist wird.

Allerdings ist durch die Untersuchung eine andere wichtige Frage noch nicht geklärt - handelt es sich um eine fixe Eigenart der Anatomie des menschlichen Gehirns, oder lässt sich die Größe des Introspektions-Areals (und damit die Fähigkeit zur Selbstüberprüfung) eventuell durch Training erhöhen? Das wäre eine wichtige Qualifikation für Personen, die diese Fähigkeit besonders dringend benötigen - vom Richter bis zum Politiker.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Fehlerkorrektur im Gehirn
« Antwort #41 am: 30 Oktober, 2010, 18:00 »
Wie hängen bewusste und unbewusste Prozesse im Gehirn zusammen? Experimente zeigen, dass Fehlerkorrektur auf zwei Ebenen stattfindet

Fahranfänger, ungeübte Tänzer und Einfinger-Tipper kennen das Problem: Solange eine Aufgabe nicht vertraut ist, muss der Mensch über jeden nötigen Schritt nachdenken. In der Fahrschule suchen wir bewusst nach dem Punkt, wo die Kupplung greift, und müssen uns die Schalt-Reihenfolge stets von Neuem vor Augen führen. In der Tanzschule zählen wir im Kopf den Takt mit und bemühen uns, die Reihenfolge der Schritte nicht zu verwechseln. Wer noch auf der Tastatur übt, muss nach jedem einzelnen Buchstaben suchen.

Mit der Zeit und genügend Übung gelingt es jedoch den meisten Menschen, solche Prozesse zu automatisieren. Wir treten automatisch im richtigen Moment auf Bremse und Kupplung. Statt auf die Schritte zu achten, hören wir beim Tanzen tatsächlich die Musik. Beim Tippen arbeiten wir uns nicht mehr von Taste zu Taste voran, stattdessen finden die Finger von allein die Stelle, an der sie drücken müssen. Die so erlernten Vorgänge finden nur noch auf einer Ebene unter dem Bewusstsein statt, sie laufen per Autopilot. Doch wie hängen bewusstes Handeln und dieser Autopilot zusammen? Wo gibt es Schnittpunkte, wie beobachten wir uns selbst bei unserem Tun?

In einem Paper in der aktuellen Ausgabe des Wissenschaftsmagazins Science untersuchen zwei Psychologen von der Vanderbilt University in Nashville dieses Phänomen am Beispiel von im Maschinenschreiben geübten Personen, die sie drei Experimenten unterwarfen. In Versuch Nummer 1 wurden den fleißigen Schreibern von der Software nach dem Zufallsprinzip Tippfehler untergeschoben - also eigentlich richtig geschriebene Wörter verändert - und parallel dazu manche der von den Probanden verursachten Fehler automatisch ausgebessert.

Als die Forscher die Tippgeschwindigkeit maßen, stellten sie fest, dass die Schreiber bei eigenen Fehlern ihr Tempo jeweils leicht verlangsamten - auch bei den Fehlern, die die Software automatisch korrigiert hatte. Bei künstlich eingefügten Fehlern hingegen blieb ihre Tippgeschwindigkeit konstant. Das heißt, es gibt offenbar eine innere Feedback-Schleife, die Fehler des Autopiloten feststellt und korrigiert, weil sie dauernd überprüft, ob der Finger sich an der richtigen Stelle befand.

Was der Bildschirm anzeigte, wirkte sich nur auf die äußere, die bewusste Fehlerschleife aus. Die Probanden übernahmen nämlich bei einer späteren Befragung bereitwillig die Verantwortung für die künstlich eingestreuten Fehler, während sie von den automatisch korrigierten echten Irrtümern nichts bemerkt hatten. Für diese äußere Fehlerkorrektur ist offenbar entscheidend, was auf dem Display zu sehen ist. Diese Illusion nahm allerdings ab, wenn die Versuchsleiter mehr und mehr Fehler einstreuten - das kam den Beteiligten dann wohl doch spanisch vor.

Tempo verringern

In einem zweiten Versuch sollten die Probanden insgesamt 600 Wörter schreiben und nach jedem einzelnen Wort ihre Leistung einschätzen. Die Software verhielt sich dabei wie beim ersten Experiment, fügte also mal Fehler ein, mal korrigierte sie Fehler. Allerdings wussten das die Versuchsteilnehmer nicht. Im letzten Experiment deckten die Forscher auch dieses Geheimnis auf. Obwohl das visuelle Feedback nun nach jedem Wort erfolgte und die Teilnehmer vor den Möglichkeiten der Software gewarnt waren, blieb es bei der Disassoziation zwischen unbewusster und bewusster Fehlerkorrektur - die Tippgeschwindigkeit änderte sich nur, wenn wirklich die Finger falsch lagen, und der Verstand der Probanden war gern bereit, einen gar nicht selbst verursachten Fehler zuzugeben.

Was bedeuten diese Ergebnisse für die Praxis? Die Forscher empfehlen, das Tempo zu verringern, wenn bei einer Tätigkeit der Autopilot an die Grenzen seines Leistungsvermögens gerät, wenn die innere, unbewusste Fehlerkorrektur kurz vor dem Aussetzen ist. Das gälte zum Beispiel beim Lenken eines Autos. Wenn allerdings eine nicht völlig fehlerfreie Arbeit unproblematisch ist (wie beim Schreiben am Computer), dann darf man gern seine äußere Fehlerkorrektur einsetzen, die das Ergebnis nachträglich überprüft. Zudem dürften die Ergebnisse Einfluss auf die Interpretation nachträglicher, auf bewusster Leistung beruhender Zeugenaussagen haben: Was der Körper unter Anleitung des Autopiloten leistet, daran kann auch nur der Körper selbst sich erinnern.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Zermanschte Gehirne
« Antwort #42 am: 17 November, 2010, 19:29 »
Weil wir viel zu viel surfen, sorgt sich Nicolas Carr um unsere geistige Gesundheit und intellektuelle Leistungskraft

Wer ständig oder zu viel online ist, verblödet auf Dauer. Das ist platt und prägnant zusammengefasst die Behauptung, mit der der US-Journalist und Blogger Nicolas Carr vor etwa zwei Jahren im Atlantic schon mal für große Auf- und Erregung im Netz gesorgt hat.

Damals richtete er den Finger noch und fast ausschließlich auf "die heilige Kirche Google". Jetzt hat er den "Verdummungsverdacht" breiter ausgewalzt, er hat dem Artikel eine Langversion an die Seite gestellt und ihn auf die gesamte Digitalkultur ausgeweitet. Womit Carr sogar die Aufmerksamkeit der BILD-Zeitung und ihrer knapp zwölfeinhalb Millionen Leser auf sich gezogen hat.

Verdummungsrisiko

Folgen wir Carr, dann lesen wir, seitdem das Netz und seine Applikationen unseren Alltag, unseren Beruf und unsere Kommunikation bestimmen, nicht nur oberflächlicher, lernen schlechter und erinnern uns schwächer, unsere Fähigkeit, sich länger auf einen Text oder eine Sache zu konzentrieren, fällt uns auch zunehmend schwerer. Statt uns linear, entlang der Konstruktion einer Erzählung oder der Argumentationsketten eines Autors zu bewegen, hangelten wir uns nur noch von Link zu Link, die den Text als solchen zerstörten.

Zwar stärkten wir mit diesem Tun unsere visuellen und taktilen Fertigkeiten, doch würden wir durch das ständige Klicken auf neue Webseiten und Links, das Abfeuern oder Empfangen neuer Mails, SMS oder Tweets, das permanente Gucken in unser Postfach oder das Prüfen des erreichten Status bei Facebook oder anderen sozialen Dienstleister immer hibbeliger, zerstreuter und ablenkbarer.

Netzgeschädigt

Als Beleg dienen Carr zunächst auch eigene Erfahrungen. Als er für einige Wochen und Monate seinen Netzkonsum auf Eis legte und sich selbstredend eine "Netzpause" gönnte, wurde er bald wieder viel ruhiger und gelassener als vorher. Er wurde ausgeglichener, "atmete freier" und konnte sich sogar wieder in einem Buch verlieren; und er konnte Gedankengänge nachvollziehen und in längere Prosa-Passagen abtauchen, ohne permanent in Gedanken abzuschweifen. Nur so war es beispielsweise möglich, eine schlüssige Argumentation zu entwickeln und dieses Buch mit mehreren hundert Seiten zu schreiben.

Als Beweis führt Carr aber auch eine Vielzahl hirnphysiologischer Studien an, die glaubhaft zeigen wollen, wie leicht formbar das menschliche Gehirn imgrunde ist. Der Umbau des Gehirns findet danach auf einer tieferen biologischen Ebene statt und betrifft die Art, wie sich Nervenzellen oder Neuronen miteinander verbinden. Carr ist überzeugt, dass übermäßiger Netzkonsum die Synapsen des Gehirns neu verknüpft und alsbald dazu führen wird, dass gründliches und verstehendes Lesen von Texten bald zu einer aussterbenden Kulturtechnik wird.

Belege dafür Und in der Tat scheint an Carrs Beobachtungen was dran zu sein. Wer selbst, gleich ob beruflich, dienstlich oder privat, ständig mit dem Netz zu tun hat, mit Tweets, SMS, Blogs oder Mails, wird das möglicherweise bestätigen können. Das Lesen längerer und vor allem diffiziler und komplexer Texte, kann bisweilen zum Kampf werden. Vor allem, wenn sie noch trocken abgefasst sind und wenig Kurzweil verströmen. Schnell verliert man die Lust, aber auch die Aufmerksamkeit, man driftet ab, wird unruhig und unkonzentriert. Noch im Urlaub dauert es oftmals mehrere Tage, bis man endlich wieder die nötige Ruhe findet, sich der Muße eines Buches hinzugeben, ohne ständig nach anderen Tätigkeiten zu suchen, die man viel lieber täte.

Und wer in jüngerer Zeit mal mit jungen Menschen gearbeitet hat, der wird nicht nur wissen, dass ADS und ADHS sowie der damit verbundene Ritalin- und Medinetkonsum, den Pädagogen und Psychologen meist auf exzessiven Medienkonsum zurückführen, den Lernalltag in den Klassenzimmern zunehmend erschweren; der wird auch wissen, dass das Bedienen von Touchscreens oder das Übermitteln von Popsongs oder Botschaften zwar bestens beherrscht werden, das Lesen und Denken, insbesondere das verstehende oder deutende, das eigenständige und exakte, aber nicht mehr. Von Behaltens- und Gedächtnisleistungen, die längerfristig abrufbar sind, von nachhaltigem Lernen und vom Stillsitzen, vom richtigen Schreiben und aufmerksamen Zuhören mal ganz zu schweigen.

Hinzu kommt, dass auch Verlage, Zeitungen und Magazine längst dazu übergegangen sind, die Länge ihrer Artikel zu kappen, ihnen Zusammenfassungen oder Navigationshilfen an die Seite zu stellen und sie mit Schlagzeilen, Bildern und Tönen aufzuhübschen, damit sich Inhalte leichter verdauen oder überfliegen lassen. Da beobachtet Carr durchaus richtig.

Nicht belegbar

Folgt man jedoch einigen US-Studien, die in den letzten Jahren zum Internetverhalten der User angestellt wurden, dann weicht der Intelligenzquotient, den exzessive Surfer aufweisen, nicht entscheidend von dem der realen Gesamtbevölkerung ab. Und zieht man noch den so genannten "Flynn-Effekt" zurate, der zeigen will, dass der Intelligenzquotient in den reicheren Gesellschaften stetig gewachsen ist, dann relativiert sich Carrs Behauptung gar auf dramatische Weise.

Der Eindruck, dass wir durch Facebook, Google und Co. irgendwie dümmer werden, lässt sich danach kaum erhärten. Eine von Internetdiensten irgendwie genervte oder gestresste Bevölkerung, laut Umfragen verbringen Bundesbürger im Schnitt zweieinhalb Stunden im Netz, scheint mit höheren IQ-Werten durchaus kompatibel zu sein. So düster, wie Carr die Lage malt, kann sie also nicht sein.

Seelisch verkümmert

Zweifellos leben wir in einer Zeit großer kultureller Umbrüche. Daran ist das Internet mit Sicherheit nicht ganz "schuldlos". Vernetzte Computer verändern unser Verhalten, aber auch unsere Expressivität und die Art, wie wir kommunizieren. Gewiss hält das Netz so manchen User vom Wesentlichen ab – wobei noch zu klären sein dürfte, was das denn dieses "Wesentliche" sein könnte.

Und gewiss zerstäubt die Vielzahl der ankommenden Botschaften, Nachrichten und Informationen Konzentration, Aufmerksamkeit und Gedankengänge des Users, er liest fortan hastiger, flüchtiger und sie hindert ihn daran, über gewisse Dinge mal ungestörter und intensiver nachzudenken.

Aber dass er dadurch gleich sein Einfühlungsvermögen verliert, wie Carr behauptet, und weniger leidenschaftlich wird als im analogen Leben, kann man aus all dem sicherlich nicht ableiten. Genau das Gegenteil scheint vielmehr der Fall zu sein. Liest man all die Messages, die in Blogs, auf Foren, in Chatrooms oder über Twitter und Facebook abgelegt werden, so hat der Beobachter eher den umgekehrten Eindruck.

Gerade dort kann von Entfremdung oder gar seelischer Verkümmerung keine Rede sein. Häufig würde man sich gern weniger Empathie, Vitalität und Emotionalität, dafür mehr Verstand, Abgeklärtheit und Nachdenklichkeit wünschen, wenn mal wieder über die Schlechtigkeit der Welt, die Verschlimmerung der Verhältnisse oder die Bösartigkeit der anderen gejammert, geheult oder voller Inbrunst gestritten wird.

Wer programmiert, wird programmiert

Bekanntlich ist das Internet nicht die erste Kultur, die diese vermeintliche "Deformierung" des Gehirns anrichtet. Schon damals fürchtete der Philosoph Sokrates, von dem bekanntlich nichts Schriftliches übermittelt ist, dass das Gedächtnis künftig lückenhafter würde und die Menschen daher immer vergesslicher würden, sollten sie ihre Gedanken veräußerlichen und sich zunehmend auf das geschriebene Wort verlassen.

Spätestens seit dieser Zeit, dem Übergang von der Sprache zur Schrift, kam es regelmäßig, wenn ein neues Medium, ein neuer Stil oder eine neue Mode die Menschen ereilte, zu neuen Abgesängen auf die Kultur. Man muss aber weder Marshall McLuhan, dem Carr offenbar sehr viel verdankt, gelesen haben, noch Neil Postman, dem Carr insgeheim wohl nacheifert, noch die Anekdote um Nietzsches Schreibgerät kennen, oder sich schließlich gar dem Turing-Test aussetzen, um zu wissen, dass Medien- und Netztechnologien an unseren Gedanken mitschreiben, wir, indem wir den Befehlsketten der Computer und Programme folgen, selbst in gewisser Weise zu Rechen- und Schreibmaschinen werden.

So wie Nicolas Carr allerdings diese medienwissenschaftlichen "Binsenweisheiten" mit der Hirnforschung vermanscht, genauso könnte man sich darüber auslassen oder gar beschweren, dass Autofahren und Händewaschen, das Schachspiel und die Pille danach unsere unseren Denkapparat verändern. Natürlich ist das richtig. Doch kaum jemand käme auf die irrige Idee, für eine Abschaffung oder Einschränkung all dieser Kulturtechniken zu plädieren. Insofern mutet die Übertragung hirnpsychologischer Erkenntnisse auf unser Online-Dasein schon etwas bizarr an.

Filtern statt Heulen

Längst wissen wir doch, dass das Leiden am "information overload" zuallererst eine Frage der Filterung und des richtigen Gebrauchs ist. Niemand wird zum Twittern, Flickern oder Facebooken gezwungen. Niemand fordert, dass man ständig seine Mailbox checken, nichtssagende Botschaften versenden oder empfangen muss. Und niemand verlangt, dass man jeden Graswurzelblog abonnieren oder sich mit Videos, Spielen oder Onlinechats die Zeit totschlagen muss.

Kluge und intelligente Menschen lassen sich davon weder beeindrucken noch ablenken. Sie zeigen auch in diesen Dingen hinreichend Talent, Übersicht und Disziplin. Zu dieser Art von Spezies zählen, darf man zweifellos auch Mr. Carr.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Das Gehirn als MP3-Encoder
« Antwort #43 am: 23 November, 2010, 08:37 »
Forscher weisen erstmals schlüssig nach, dass ein Teil der Effizienz des menschlichen Gehirns auf dem Weglassen vorhersehbarer Details beruht

Dass weder die Spracherkennung per Software noch künstliche Sinne für Roboter bisher wirklich zufriedenstellend funktionieren, hat eine Menge mit Verstehen zu tun. Das System, das aus der Vielzahl auf es einströmender Reize - ob nun Sprachfetzen verschiedener Sprecher oder visuelle Eindrücke bewegter und unbewegter Objekte - die entscheidenden Bruchstückchen in der richtigen Reihenfolge herausfischen soll, steht vor einer schier unlösbaren Aufgabe. Es sei denn, es versteht, was es da tut, es weiß, mit welcher Art von Daten es tun hat und kennt die dahinter stehenden Gesetzmäßigkeiten.

Automatische Übersetzungen wären einfacher, würden sich die Übersetzer im jeweiligen Fachgebiet auskennen, ein Haushaltsroboter könnte Befehle sicherer unterscheiden, wenn er wüsste, dass Menschen bestimmte Kommandos zum Beispiel stark geschlechtsabhängig geben. Dass das Wissen über die grundlegenden Gesetzmäßigkeiten mehr Effizienz ermöglicht, zeigt das MP3-Format: Damit encodierte Musikdateien sind mehrfach kleiner als das Original, und trotzdem ist in der Regel kein Unterschied zu hören. Das liegt daran, dass der Algorithmus die Wahrnehmungsfähigkeiten der Zuhörer beachtet - die zum einen die hörbaren Frequenzen betrifft, zum anderen aber auch Maskierungs-Effekte beachtet: In der Stille einer Bibliothek kann schon ein zu Boden schwebendes Blatt als laut empfunden werden, das im Lärm einer Schulklasse niemand beachten würde.

Auch die menschliche Wahrnehmung bedient sich offenbar ähnlicher Tricks. Das hatte die Forschung zwar bereits vermutet, doch bisher stand ein schlüssiger Beweis dafür noch aus. Der ist nun Wissenschaftlern der University of Wisconsin gelungen; in den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS) berichten sie davon. Man geht zwar davon aus, dass solche Mechanismen für alle Bereiche der Sensorik gelten, doch nachgewiesen haben die Forscher den Effekt nun für den Hörsinn.

Unaufmerksamkeitsblindheit

Dazu konstruierten sie zunächst spezielle Sounds, bei denen die beiden Parameter Anstieg/Abfall der Lautstärken-Hüllkurve und die Spektralkurve streng miteinander korreliert waren. Diesen Sounds wurden die Probanden für sieben Minuten ausgesetzt.

Anschließend mussten die Studienteilnehmer drei kurze Soundschnippsel voneinander unterscheiden - ohne die vorherige Berieselung war das eine leichte Aufgabe. Nun aber gelang es den Probanden nur noch, wenn die Schnippsel der Korrelation genügten, die sie vorher unbewusst registriert hatten. Beachtete ein Stück diese künstlich eingeführte Gesetzmäßigkeit nicht, waren die Zuhörer ratlos.

Offenbar hatte sich ihr Gehirn schon in sehr kurzer Zeit in die internen Regeln der Musikuntermalung eingehört und ignorierte dann im Vertrauen auf die Regelmäßigkeit all das, was nicht dazu passte. Ließ man die Versuchspersonen dann für einige Zeit nicht-korrelierte Sounds hören, erwarben sie ihre frühere Unterscheidungsfähigkeit zurück. Der Versuch erinnert zwar ein bisschen an den verblüffenden Versuch, bei dem Zuschauer durch das Bild laufende Gorillas nicht bemerken, wenn sie gerade mit einer Beobachtungsaufgabe beschäftigt sind - doch dabei geht es um die so genannte Unaufmerksamkeitsblindheit, ein anderes Phänomen der Wahrnehmung.

Ist der Effekt ein Verlust? Wohl eher ein Vorteil, meint Keith Kluender, einer der Forscher:

Zitat
Wenn Sie Ihr Ohr an die Wand pressen, verstehen sie jedes Wort einer lebhaften Diskussion nebenan, obwohl die Wand zwei Drittel der akustischen Information filtert - ihr Gehirn rekonstruiert den Rest.

Müssen sich die Roboterforscher und Programmierer deshalb also ihrer Arbeit schämen? Kaum - der Mensch hatte im Laufe seiner Evolution beinahe unendlich viel Zeit, sich an die Naturgesetze zu gewöhnen. Verglichen damit, sind maschinelles Sehen und Hören heute bereits sehr weit entwickelt.

Quelle : http://www.heise.de/tp/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Steuerung durch Gedanken wird marktreif
« Antwort #44 am: 27 Januar, 2011, 15:00 »
Ist heute noch ein Touch-Interface "leading edge" bei der Eingabetechnik, so könnte man demnächst vielleicht schon den nächsten Tweet allein per Gedankenkraft auf die Reise schicken. Entwicklungen im Bereich Brain Computer Interfaces (BCI) haben in den letzten Jahren einen entscheidenden Schritt nach vorn getan. Unter anderem haben Weiterentwicklungen der EEG-Messtechnik und Methoden des maschinellen Lernens, die die Trainingsphasen der Probanden drastisch reduzieren, dazu beigetragen, dass sich Computersysteme theoretisch relativ einfach über Gedanken steuern lassen – Grund genug für iX, in der aktuellen Ausgabe, zu untersuchen, was bereits geht und wo noch Forschungsbedarf besteht.

Dank neuerer Helme mit kapazitiven Elektroden, die nicht mehr mit Gel am Kopf des Nutzers befestigt werden müssen, hält die Gedankensteuerung jetzt auch in den Spielebereich Einzug. Ein aktueller Forschungstrend nutzt BCIs für ein Monitoring des Gehirns in Arbeitssituationen. So messen Forscher beispielsweise die kognitive Erschöpfung von Autofahrern, die als eine der häufigsten Unfallursachen gilt.

Mit der mental gesteuerten Schreibmaschine der österreichischen g.tec medical engineering GmbH können am Locked-in-Syndrom oder an ALS (Amyotrophe Lateralsklerose) Erkrankte, wie der englische Astrophysiker Stephen Hawking, per Gedankenkraft mit ihrer Umwelt kommunizieren. Ein EEG-Gerät (Elektroenzephalografie) misst dafür auf der Kopfhaut die von den Nerven im Gehirn erzeugten elektrischen Signale, und eine Software wandelt sie in mechanische Steuerungssignale um.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )