Info Corner / Internet-via-Sat, Datendienste / IPTV / Videoportale / Internet TV & Radio => # News diverses ... => Thema gestartet von: SiLæncer am 18 August, 2005, 16:35
Titel: Das menschliche Gehirn ....
Beitrag von: SiLæncer am 18 August, 2005, 16:35
Das übliche Modell der Kognitionswissenschaftler für die Sprachverarbeitung betrachtet das menschliche Gehirn wie einen Computer: Informationen werden Schritt für Schritt verarbeitet, wenn ein eindeutiges Ergebnis vorliegt. Wie eine Studie jetzt zeigte, gibt es wachsende Zweifel an dieser Annahme, berichtet Technology Review aktuell.
Forscher um den US-Psycholinguisten Professor Michael Spivey glauben gezeigt zu haben, dass der menschliche Geist Sprachinformationen nichtlinear verarbeitet und bis zum Endergebnis einen Überlagerungszustand einnehmen kann, wie er aus der Quantenphysik bekannt ist. Dazu ließen sie 42 Probanden mit Computermäusen auf das passende von zwei Bildern auf einem Monitor klicken, nachdem der Studienleiter das jeweilige Wort vorgegeben hatte.
Bei sehr verschiedenen Wörtern wie "Candle" und "Jacket" führten die Testpersonen den Mauszeiger in direkter Linie zum richtigen Bild. Bei ähnlich klingenden Begriffen wie "Candle" und "Candy" dagegen dauerte die Bewegung länger und nahm einen bogenförmigen Verlauf. Für Spivey ist das ein deutliches Zeichen für einen nichtlinearen Prozess in der Sprachverarbeitung, in dessen Verlauf sich das Gehirn in einer Art Grauzone befinde.
Quelle und Links : http://www.heise.de/newsticker/meldung/62932
Titel: Gehirn-Evolution: Der Mensch entwickelt sich weiter
Beitrag von: SiLæncer am 09 September, 2005, 21:49
Die Menschheit ist noch nicht am Ende ihrer Entwicklung angelangt, glauben amerikanische Forscher. Sie haben mehrere Gene entdeckt, die erst seit verblüffend kurzer Zeit ihre heutige Form haben - und bringen diese mit kulturellen Entwicklungen in Zusammenhang.
Als der Homo sapiens sich vor etwa 200.000 Jahren entwickelte, war er noch nicht fertig. Und vermutlich ist er - sind wir - es heute noch nicht. Das legen zumindest die Ergebnisse nahe, über die Wissenschaftler heute in gleich zwei Artikeln im Fachmagazin "Science" berichten (Bd. 309, S. 1717 & S.1720).
Das entscheidende Merkmal, das uns Menschen von unseren nächsten Verwandten unterscheidet, ist unser Gehirn. Und ausgerechnet das entwickelt sich immer noch weiter, glauben Bruce Lahn von der University of Chicago und seine Kollegen. "Wir, einschließlich der Wissenschaftler, haben uns immer für die Krone der Schöpfung gehalten", sagte Kahn - aber nach seinen Ergebnissen wachsen der Krone immer noch neue Zacken.
Lahns Kollege Greg Wray von der Duke University formuliert es so: "Es ist ist fast unmöglich, dass die Evolution nicht weitergeht."
Verbindung zwischen Genen und Kultur?
Die Befunde der Forscher sind dennoch umstritten, denn es ist nicht klar, welche Auswirkungen die genetischen Veränderungen, die sie feststellen konnten, tatsächlich haben. Lahn und Kollegen verweisen zwar auf Parallelen mit entscheidenden kulturellen Entwicklungsschritten - aber die Beziehung zwischen einzelnen Genen und der Kultur der Menschheit wird wohl kaum zu halten sein.
Das Team untersuchte zwei verschiedene Gene, Mikrozephalin und ASPM. Beide hängen mit der Größe des Gehirns zusammen. Wenn diese Gene ihre Arbeit nicht tun, werden Kinder mit verkleinerten Gehirnen geboren. Mikrozephalie nennen Mediziner das.
In DNA-Proben von verschiedenen ethnischen Gruppen fanden die Wissenschaftler eine Reihe von Variationen in jedem der Gene, die ungewöhnlich häufig vorkamen. Sie könnten deshalb keine Zufallsmutationen mehr sein, sondern müssten sich durch natürliche Selektion durchgesetzt haben, argumentieren Lahn und sein Team.
"Potentiell gefährliches Terrain"
Beim Mikrozephalin-Gen sei diese Variation vor etwa 37.000 Jahren aufgetreten, berichten die Wissenschaftler in "Science". Zur gleichen Zeit hätten sich etwa Kunst, Musik und die Herstellung von Werkzeugen verstärkt entwickelt. Für das Gen ASPM sei die durchsetzungsfähige Variation vor etwa 5.800 Jahren aufgetreten - zur gleichen Zeit, zu der sich auch Schriftsprache und Ackerbau durchsetzten und die ersten Städte gegründet wurden.
"Die genetische Evolution des Menschen in der jüngsten Vergangenheit könnte auf gewisse Weise mit der kulturellen Evolution verknüpft sein", sagt Lahn.
Andere Wissenschaftler sind skeptischer. Es sei "völlig unbewiesenes und potentiell gefährliches Terrain", das da mit "lückenhaften Daten" betreten werde, sagte etwa Francis Collins vom National Human Genome Research Institute der USA gegenüber dem Onlinedienst der Zeitschrift "Nature". Man wisse nicht, was die Genvariationen tatsächlich bewirkten - und außerdem sei unklar, wie genau das Modell sei, das Lahn verwendet habe, um die Veränderungen zu datieren. Sorge bereitet Collins etwa, dass die von dem Team beschriebenen Variationen bei vielen afrikanischen Stämmen nicht auftreten - er befürchtet genetisch motivierten Rassismus.
Lahn selbst gesteht ein, dass die Variante des Mikrozephalin-Gens irgendwann im Zeitraum von vor 60.000 Jahren bis vor 14.000 Jahren entstanden sein könnte. Bei ASPM liegt das Unsicherheitsintervall zwischen "vor 500 Jahren" und "vor 14.000 Jahren".
Eins jedenfalls haben Lahn und Kollegen gezeigt: Die Menschheit entwickelt sich weiter.
Quelle : www.spiegel.de
Titel: Speicherchips folgen den Prinzipien des Gehirns
Beitrag von: SiLæncer am 02 Oktober, 2005, 09:55
Daten sollen in dreidimensionalen Netzen gespeichert werden
Forscher am Imperial College London und den Universitäten Durham und Sheffield wollen Daten in Chips dreidimensional speichern und so eine deutlich höhere Datendichte erreichen, als dies mit aktuellen Speicherchips möglich ist. Dabei setzen sie auf ein komplexes Netz, das den Strukturen im menschlichen Gehirn ähneln soll.
Das Netz aus miteinander verbundenen Nanodrähten ist mit Rechenfunktionen ausgestattet, so dass an jedem Knoten Entscheidungen getroffen werden können, beschreiben die Forscher ihren Ansatz, der damit Neuronen und Axonen im menschlichen Gehirn ähneln soll. Gegenüber heute eingesetzten Chips sollen diese neuen Speicherchips eine rund 200 mal größere Speicherkapazität bieten.
Die Daten werden dabei statt durch Ladungen mit Hilfe des "Spins" von Elektronen gespeichert, der auch für Magnetismus verantwortlich ist. Dafür haben die Forscher eine neue dreidimensionale Speicherarchitektur entworfen. Derzeit wird die Technik mit Partnern aus der Industrie weiterentwickelt, um einen besseren Demo-Chip zu erzeugen.
Quelle : www.golem.de
Titel: Renaissance der Denkmaschinen
Beitrag von: SiLæncer am 21 Oktober, 2005, 12:55
Jeff Hawkins hat mit seinem Buch "On Intelligence" als Außenseiter eine umfassende Theorie über die Funktionsweise der menschlichen Großhirnrinde vorgelegt. Im Interview mit Technology Review erklärte der CTO von Palm, der als geistiger Vater des Palm-PDA gilt, am Rande der Emerging Technology Confernce, wie sich seine Erkenntnise ganz handgreiflich umsetzen ließen.
"Man könnte Wettersensoren auf der ganzen Welt platzieren", meint Hawkins, die "das Wetter dann so wahrnehmen, wie ein Mensch ein Gebäude wahrnimmt". Man könnte eine ganze sensorische Welt voller Dinge schaffen, "die der Mensch selbst schlecht wahrnehmen oder vorhersehen kann, weil wir daran nicht angepasst sind".
An Selbstbewusstsein lässt es Hawkins, der seine Ideen mit Hilfe der Neugründung Numenta auch vermarkten will, jedenfalls nicht fehlen: "Die Leute sagen mir ständig, dass ich besser nicht über solche Sachen reden sollte, weil die Menschheit dann denkt, ich sei verrückt. Ich antworte dann immer, dass ich daran glaube, dass es wirklich so kommen wird."
Mehr in Technology Review aktuell:
* Neue Theorien über das menschliche Gehirn
Quelle und Links : http://www.heise.de/newsticker/meldung/65201
Titel: Links für "Lefties": Linkshänder erobern das Netz
Beitrag von: SiLæncer am 21 Dezember, 2005, 10:51
Ob beim Schreiben, Gitarre spielen oder am PC-Arbeitsplatz: Für Linkshänder ist der Alltag spiegelverkehrt. Jeder vierte Deutsche erledigt heute Schätzungen zufolge alles "mit links". Doch in einer Welt voller Rechtshänder haben sie es nicht immer leicht. Produkte, Lebenshilfe und Kontakt zu Leidensgenossen finden "linke Typen" im Internet.
Linkshänder wird, wessen rechte Gehirnhälfte dominanter ist, weiß man heute. Kindern einzubläuen, das "schöne Händchen", also das rechte, statt das bevorzugte zu verwenden, kann Wissenschaftlern zufolge psychische Schäden verursachen. Eltern, die nichts falsch machen wollen, sind verunsichert, beobachtet Johanna Barbara Sattler, Leiterin der Ersten deutschen Beratungs- und Informationsstelle für Linkshänder und umgeschulte Linkshänder in München. "Manche Eltern benötigen Rat, wenn ihr Kind beide Hände benutzt und sie nicht wissen, welche die richtige ist", nennt die Psychologin ein Beispiel.
Ein großer Teil der Beratung läuft über Telefon und Internet. Viele allgemeine Informationen, Tipps und Tricks, aber auch Hinweise zur Rückschulung von vermeintlichen Rechtshändern bietet die Einrichtung auf ihrer Webseite www.linkshaender-beratung.de. Sie richtet sich nicht nur an Eltern von Linkshändern. In einem "FAQ-Forum" können Nutzer Fragen loswerden. Sie werden von Experten – für alle Besucher sichtbar – online beantwortet. Oft sind es einfache praktische Fragen, die Nutzer verzweifeln lassen ndash; etwa, wo sie spezielle Linkshänderscheren erhalten können, erläutert Sattler.
Wer im Geschäft um die Ecke danach fragt, wird selten fündig. "Es gibt sehr wenige Produkte für Linkshänder im herkömmlichen Einzelhandel", hat Hannelore Baust aus Erlangen festgestellt. Spezial-Artikel von der Gartenschere bis zur PC-Tastatur (mit Nummernblock auf der linken statt der rechten Seite) können Linkshänder bei ihr unter www.linkshaender-shop.de bestellen. Neben Bausts haben sich eine Reihe weiterer Fachgeschäfte auf den Online-Versand von Produkten für diese Klientel verlegt, zum Beispiel die Seiten www.linkshandversand.de, www.der-linkshaender-laden.de oder speziell für Kinder www.lafueliki.com.
Neben Schreib- und Büroartikeln wie Stiften und Scheren werden Dosenöffner und Korkenzieher stark nachgefragt, erzählt Hannelore Baust. Selbst einen Bumerang hat sie im Angebot ndash; exklusiv für linke Hände, mit rechts schmiert er ab. "Minimal teurer" als normale Artikel sei das Sortiment, weil meist nur kleine Stückzahlen hergestellt werden, sagt Baust. Manche Wünsche könne sie nicht erfüllen, beispielsweise digitale Fotokameras für Linkshänder gebe es einfach nicht, E-Gitarren kaum.
Von der Suche nach speziellen Bassgitarren können auch Hobby-Rocker ein Liedchen singen. Früher glich sie jener nach der Nadel im Heuhaufen, erinnert sich Volkmar Arnecke aus Bielefeld. Das ist inzwischen passé, dem Internet sei Dank. Auf seiner Webseite www.leftybass.com sind Gesuche und Angebote von Instrumenten aus zweiter Hand und Links zu Herstellern zu finden. Außerdem bietet Arnecke dort linkshändigen Bassisten aus aller Welt Gelegenheit, sich und ihre Bands vorzustellen.
Per Mailing-Liste können sie in Kontakt treten. Die Resonanz ist groß: Jede Menge Porträts von "Lefties" ndash; so nennen sie sich ndash; auch aus den USA, den Niederlanden, Pakistan oder Brasilien sind dabei. Denn nicht nur Ex-Beatle Paul McCartney spielt sein Instrument mit links. "Es gibt viel mehr linkshändige Bassisten, als man glaubt", war Arnecke anfangs überrascht.
Zudem gibt es offenbar auch allerhand andere Linkshänder mit Vorliebe für das Netz. Aktualität und Umfang der vielen privaten Seiten schwanken aber erheblich. Erfahrungen und Ratschläge werden zum Beispiel im Forum für Linkshänder ausgetauscht. Boris Ruf aus Gomaringen (Baden-Württemberg) macht sich die Mühe, die weltweit größte Liste prominenter Linkshänder ins Netz zu stellen. Mehr als 850 Namen hat er zusammen, darunter Napoleon Bonaparte, Bill Gates und Diego Maradonna.
Sogar in einer eigenen Zeitschrift können "Lefties" stöbern. Als Sprachrohr jener Leidgeprüften versteht sich "Left Hand Corner" seit 1997. Die Web-Ausgabe des von Norbert Martin in Wuppertal herausgegebenen Magazins hat zwar eher den Charakter einer privaten Homepage. Viele online gestellte Artikel aus früheren Ausgaben sind aber durchaus lesenswert. Der Eindruck der Ein-Mann-Redaktion Martin: "Auch heute noch werden Linkshänder benachteiligt und dazu gezwungen, die andere Hand zu nutzen."
Dagegen wehrt sich eine "Linksanwältin". So nennt sich augenzwinkernd Inken B. Spreda, nach eigenen Angaben Ärztin und Linkshänderin, die unter www.linkshaenderseite.de Wissenswertes, kuriose Anekdoten, Adressen und Literaturtipps zum Phänomen der Linkshändigkeit zusammengetragen hat. Aufklärung wolle sie betreiben und dazu beitragen, dass die Bedürfnisse von Linkshändern stärker berücksichtigt werden, schreibt sie. Das beginnt für sie schon mit mehr Gleichberechtigung für die Internet- und SMS-Generation ndash; etwa mit der Kultivierung des offiziellen Linkshänder-Smiley "(-:". (Berti Kolbow, dpa)
* Eine ausführliche Aufzählung berühmter Linkshänder enthält zum Beispiel die List of famous left-handed people in der der Wikipedia.
Quelle und Links : http://www.heise.de/newsticker/meldung/67601
Titel: Menschliche Intelligenz: Und es kommt doch auf die Größe an
Beitrag von: SiLæncer am 25 Dezember, 2005, 19:24
Die Intelligenz könnte zumindest zum Teil von der Größe des Gehirns abhängen. Je raumgreifender das Denkorgan, desto höher ist die sprachliche Intelligenz - zumindest bei Frauen und rechtshändigen Männern, wie eine Untersuchung jetzt ergab.
Ein Einfluss der Gehirngröße auf die Intelligenz wird unter Wissenschaftlern immer wieder diskutiert. Frühere Studien lieferten allerdings widersprüchliche Ergebnisse: Einige bestätigten eine höhere Intelligenz bei größeren Gehirnen, andere fanden lediglich einen Zusammenhang zwischen der sogenannten grauen Substanz und der Intelligenz. Wieder andere konnten überhaupt keinen Einfluss des Gehirnvolumens nachweisen.
Problematisch bei all diesen Untersuchungen ist allerdings die exakte Bestimmung der Gehirngröße. Zwar ist eine Abschätzung mithilfe bildgebender Verfahren wie der Magnetresonanztomographie möglich, die Ergebnisse sind jedoch umstritten. Andererseits kann die deutlich genauere Messung nach dem Tod eines Menschen meist nicht verwertet werden, weil es keine Informationen über dessen Intelligenz zu Lebzeiten gibt.
Kanadische Forscher erhielten jetzt von 100 unheilbar Kranken die Erlaubnis, nach ihrem Tod die Gehirne zu untersuchen und mit den Ergebnissen verschiedener Intelligenztests zu vergleichen. Das Ergebnis: Bei Frauen war die Gehirngröße ein wesentlicher Faktor für die sogenannte verbale Intelligenz, zu der unter anderem Sprachgefühl, eine gute Auffassungsgabe für Gesprochenes und Kreativität beim Umgang mit Sprache gehören.
Das gleiche galt für männliche Rechtshänder, nicht aber für Linkshänder. Das sei ein Hinweis darauf, dass die sprachliche Intelligenz bei Männern stärker in einer Hirnhälfte konzentriert sei als bei Frauen, folgern die Forscher um Sandra Witelson von der McMaster University in Hamilton. Die räumliche Vorstellungskraft hing bei Frauen ebenfalls von der Gehirngröße ab, allerdings nicht so ausgeprägt wie die sprachliche.
Bei Männern fanden die Forscher dagegen überhaupt keinen Zusammenhang zwischen räumlicher Intelligenz und Hirngröße. Ein weiterer Unterschied zwischen den Geschlechtern war die Größenveränderung mit dem Alter, schreiben die Wissenschaftler in der Fachzeitschrift "Brain". So nahm das Hirnvolumen bei Männern im Alter deutlich ab, bei Frauen war dieser Effekt jedoch praktisch nicht vorhanden.
Diese Ergebnisse stützen nach Ansicht der Forscher die schon früher geäußerte These, dass viele Dinge in den Gehirnen von Männern und Frauen völlig unterschiedlich verarbeitet werden.
Quelle : www.spiegel.de
Titel: Inselbegabte: Die Geistes- Giganten
Beitrag von: SiLæncer am 29 Juni, 2006, 10:58
Sie sind oft hilfsbedürftig und behindert. Aber in ihren Gehirnen haben Inselbegabte Platz für alles Wissen der Welt: Sie lernen Telefonbücher auswendig, zeichnen Stadtpläne aus dem Gedächtnis und spielen spontan Pianokonzerte nach. Wo liegt der Schlüssel zum Genie?
Zum Frühstück gibt es Cheese-Bagel mit Eiern. Kim Peek schiebt sich das Zeug in den Mund, schnell muss es gehen. Er hat viel zu sagen. Dazu gibt es Cola und ein paar Brocken deutsche Geschichte. Er erzählt von den Franken und den Habsburgern, schreit Regierungsdaten und Geburtstage in das Restaurant, stößt Lacher aus und immer neue Zahlen. "Nicht so laut, Kim", sagt der Vater.
Kim Peek versucht es leiser, singt Melodien aus "Tristan und Isolde", Richard Wagner, 1859 komponiert, 1865 uraufgeführt, sechs Hörner, drei Trompeten, drei Posaunen. Tamdadaram. Ein gurgelndes Lachen rollt aus ihm heraus. Irgendwie kommt er dann über Käptn Nemo zurück zu den Habsburgern. "1438 bis 1806", sagt er, "immer Habsburger." Dann zählt er sie auf, im Schnelldurchlauf, verhaspelt sich, so viele Namen, sind alle in seinem Kopf. Nur die Sprache kommt nicht mit. Bei den letzten Bissen ist Zweiter Weltkrieg. Bei Hitlers Tod ist der Teller leer. Den Rest erledigt er im Hinausgehen: "Adenauer, Erhard, Kiesinger, Brandt, Schmidt, Kohl, Schröder, Merkel. Stimmt doch, Dad?" Dad nickt.
So ist das, wenn man mit Kim Peek unterwegs ist. Es ist großartig.
Im Auto geht es weiter. Kim Peek macht das Radio an, Klassik, volle Lautstärke, dann singt er mit. Er singt immer mit, weil er jedes Lied kennt, das er einmal gehört hat. Jede Note. In Konzerte kann man ihn deshalb schon lange nicht mehr mitnehmen. In Shakespeare-Aufführungen auch nicht. Ein Fehler, und er sprengt die Vorstellung. Es gibt Menschen, die ihn Kimputer nennen, weil er die Daten irgendwo in seinem Kopf speichert in endloser Zahl. Jederzeit abrufbar. Aber wenn Kim Peek nach Hause kommt, putzt ihm sein Vater die Zähne.
So ist das, wenn man nicht vergessen kann; wenn es keine Löschtaste und keinen Filter gibt; wenn man, wie es der australische Hirnforscher Allan Snyder sagt, "einen privilegierten Zugang zu den tieferen Schichten des Gehirns hat". Wenn die normalerweise wenig genutzte rechte Hirnhälfte wie besessen arbeitet, weil die sonst immer dominante linke Hälfte ausgeschaltet wurde. Bei manchen durch einen angeborenen Fehler. Andere wurden durch einen Unfall genial. Es ist verwirrend.
Vor dem Fenster rauscht Salt Lake City vorbei, diese Stadt, in der Kim Peek jedes Haus kennt, jede Straßennummer, jeden Eigentümer, jeden Mieter. Weil er alle Adress- und Telefonbücher der Stadt gelesen hat. Alle, die es in der Bibliothek von Salt Lake City gibt. Gestern hat er stundenlang das Buch aus dem Jahr 1901 durchgearbeitet. Er hat es ganz nah an sein Gesicht gezogen und gelesen, die linken Seiten mit dem linken Auge, die rechten mit dem rechten. Kim Peek nennt das "scannen". Acht Seiten in 53 Sekunden. Vergessen wird er fast nichts davon.
Seit ein paar Jahren ist Kim Peek mit diesem "Telefonzeug" beschäftigt, wie es sein Vater nennt. Manche Namen schreibt Kim Peek auf, andere nicht. Er ordnet Menschen. Warum, weiß niemand. Aber er arbeitet an seinem Projekt wie ein Besessener, als hätte er einen geheimen Auftrag. Im Auto kommt das Wissen zum Einsatz: Dort, in Haus 5070, lebt das älteste Mitglied des Mormonenchors. Da drüben war einmal eine Wäscherei, dann ein Parkplatz, dann Dairy Queen, jetzt ein griechisches Restaurant. Kim Peek starrt seine Finger an. "Ich bin auf dem Sofa aufgewachsen. Ist es nicht so, Dad?" - "Ja, dein Kopf war so groß, dass dein Hals ihn nicht tragen konnte", sagt Fran Peek und schiebt seinem Sohn ein Pfefferminzbonbon in den Mund.
Am 11. November 1951 kam Kim Peek auf die Welt, mit einem Kopf, der ein Drittel größer war als der normaler Babys. Die Eltern haben es am Anfang gar nicht gemerkt, haben sich mehr Sorgen gemacht um die winzigen Nachbarkinder.
Und Kim lag da mit seinem Schädel, groß wie ein Medizinball.
Es ist ein Kopf, von dem die Wissenschaftler heute gar nicht genug bekommen können. Es gibt wohl kaum ein Gehirn, das öfter gescannt, durchleuchtet und getestet wurde als das von Kim Peek. Es wurde mit Röntgenstrahlen bearbeitet und bei der Kernspintomographie magnetischen Feldern ausgesetzt, ihm wurden für die Positronen-Emissions-Tomographie radioaktiv markierte Substanzen injiziert, an der Universität von Kalifornien wurde bei ihm mithilfe des Diffusion Tensor Imaging die Verteilung von Wasserstoffmolekülen und Nervenfaserverbindungen gemessen, und Forscher haben zugeschaut, welche Neuronen bei ihm bei welchen Gedanken aktiv sind. Kim Peeks Gehirn ist weltweit millimeterscheibchenweise und dreidimensional abrufbar. Es gibt viele, die sein Hirn kennen, aber durchschaut hat ihn trotzdem noch niemand. Man hat nur einen Namen für Menschen wie Kim Peek - Savants, die Wissenden, die Inselbegabten.
Wer zu Darold Treffert in den Keller seines Hauses in Wisconsin geht, kann sich die Gehirne sehr vieler Savants ansehen. Der Psychologe gilt als einer der bedeutendsten Savant-Forscher der Welt. Während er in Kisten und Papierstößen nach den Unterlagen zu Kim Peek sucht, sagt er: "Solange wir das Savant-Syndrom nicht erklären können, können wir uns selbst nicht erklären."
Natürlich sei man vorangekommen, seit der Arzt Benjamin Rush 1789 erstmals die unerklärlichen Fähigkeiten des Thomas Fuller beschrieb, sagt Treffert. Fuller, der mit Mühe zählen konnte, antwortete einst auf die Frage, wie viele Sekunden ein Mann gelebt habe, der 70 Jahre, 17 Tage und 12 Stunden alt sei, nach nur eineinhalb Minuten mit: 2210500800. Es dauerte dann noch einmal fast 100 Jahre, bis der Arzt John Langdon-Down den Begriff "idiots-savants" einführte, weil er einen Patienten beobachtet hatte mit dem sehr niedrigen IQ von 25, der Edward Gibbons Buch "Verfall und Untergang des römischen Imperiums" nach einmaligem Lesen auswendig konnte. Alles lange her. Der Begriff Idiot wurde verworfen und man weiß mittlerweile, dass es auch Savants mit sehr viel höherem IQ gibt. Man weiß auch, dass jeder zehnte Autist ein Savant ist und dass sechs von sieben Savants Männer sind.
Sie sind vorangekommen, aber letztlich stehen sie noch immer vor einem Rätsel.
Seit mehr als 40 Jahren beschäftigt sich Treffert mit Savants, er hat Männer untersucht, die aus der Ferne einen Turm anschauen und sagen, wie hoch er ist, auf den Zentimeter genau. Er hat so viel Unerklärliches gesehen, dass er eigentlich alles glaubt. Treffert hält Kims Gehirnscan hoch, schaut ihn an wie ein Kunstwerk und sagt: "Die Menschen sehen Savants, staunen und vergessen sie wieder. Aber wir können sie nicht einfach da draußen rumfliegen lassen wie Ufos. Wir müssen versuchen, sie zu verstehen. Kein Modell über Gehirnfunktionen ist komplett, bevor es nicht Kim mit einbezieht."
Was ist also los im Gehirn von Kim Peek? Wie kann es sein, dass ein Baby, das sich nicht bewegen konnte und aus dessen rechtem Hinterkopf eine gigantisch große Blase herauswucherte, plötzlich Bücher aus dem Regal zog und anfing, alles auswendig zu lernen? Namen, Jahreszahlen, das komplette Fernsehprogramm, alle Telefonvorwahlen der USA, das gesamte Straßennetz. Die Ärzte gaben Kim 14 Jahre, ein so schwer behindertes Kind mache es nicht länger, sagten sie und rieten, ihn in ein Heim zu geben.
Kim Peek ist jetzt 54 Jahre alt. Und er ist immer noch da.
Und er ist berühmt. "Er ist der Gigant unter den Savants, ein Mega-Savant", sagt Treffert. Kim Peeks Fähigkeit ist Wissen. In 15 Bereichen. Jedes Buch, das er gelesen hat, merkt er sich, jedes Musikstück, das er einmal gehört hat, kennt er für immer, jedes Bild, das er gesehen hat, jedes Zitat, das er gehört hat. Einen wie Kim habe es in den letzten 120 Jahren so nicht gegeben, sagt Darold Treffert.
Er muss es wissen, er kennt sie alle. Viele sind es ohnehin nicht. Treffert sagt, es gibt 100 weltweit. 100 so genannte Prodigious Savants. Savants, die nicht nur die Busfahrpläne eines Bundeslands auswendig lernen oder die Fußballtabellen herunterrattern. Wer in Darold Trefferts Keller aufgenommen werden will, muss mehr können. Er muss wie der blinde und geistig behinderte Leslie Lemke mit 14 Jahren mitten in der Nacht hinuntergehen zum Klavier und Tschaikowskys Pianokonzert Nummer eins perfekt spielen. Ohne jemals Klavierunterricht gehabt zu haben. Einfach so, weil das Stück im Fernseher als Hintergrundmusik lief.
Oder er muss sich wie Matt Savage mit sechs über Nacht selbst das Klavierspielen beibringen, mit sieben Jazz komponieren, und zwar so gut, dass Jazzlegenden wie Chick Chorea von einem Jahrhunderttalent sprechen. Matt, der Autist, den die eigene Mutter nicht berühren durfte.
Oder er muss wie Stephen Wiltshire nach einem 45-Minuten-Flug über Rom die Stadt nachzeichnen, aus dem Gedächtnis, über eine Papierbahn von fünf Metern Länge, und dabei jedes Haus, jedes Fenster, jeden Torbogen richtig erinnern. Stephen, der erst mit fünf sein erstes Wort sprach.
Oder er muss wie der autistische Alonzo Clemons schon als kleines Kind perfekte Tierskulpturen formen. Wundersame Gebilde, die er mit denselben Händen bastelt, die nicht dazu fähig sind, Essen in seinen Mund zu schieben oder seine Schuhe zu binden.
Oder er muss wie der vor kurzem verstorbene Schotte Richard Wawro detailgenau Szenen nachmalen, die er ein paar Sekunden gesehen hat. Er, der als Kind stundenlang nur im Kreis lief und auf dem Klavier immer und immer wieder eine einzige Taste anschlug.
Darold Treffert sieht das so: Man habe fast alles, was man über gesunde Körper wisse, durch Krankheiten gelernt. Und so werde man auch mehr über das gesunde Gehirn lernen, wenn man anormale Gehirne verstehe. Savants wissen Dinge, die sie nie gelernt haben. Woher? Und was für ein Potenzial steckt dann in uns allen? Wie können wir es an die Oberfläche bringen, ohne einen Herzinfarkt zu bekommen oder einen Schlag an den Kopf wie Orlando Serrell, der zehn Jahre alt war, als er von einem Baseball getroffen wurde. Seitdem erinnert er sich an jedes Detail, an jeden Tag in seinem Leben. An jeden Cheeseburger und jeden Regenschauer.
Darold Treffert dachte immer, dass es Zeit braucht, bis ein Defizit in der linken Hirnhälfte von der rechten kompensiert werden kann. "Aber die Plötzlichkeit, mit der es bei Serrell hochkam, bedeutet, dass es schon da ist, das muss nicht erst entwickelt werden. Es ist nur eine Art Entkommen aus der dominanten, linken Hemisphäre."
Mehr (http://www.spiegel.de/wissenschaft/mensch/0,1518,423748-2,00.html)
Quelle : www.spiegel.de
Titel: NUMERATOR - Wir sind alle Super- Computer!
Beitrag von: SiLæncer am 27 Juli, 2006, 09:44
Jeder Mensch ist ein Künstler, sagte einst Joseph Beuys. Nur wenige wissen, dass jeder Mensch auch ein genialer Rechner ist. Das Gefühl für Mathematik steckt tief in uns, ehrlich.
Der Mensch ist zum Rechnen geboren. Das mögen viele anzweifeln, aber es ist nun einmal so. Auch wenn die meisten Menschen zum Beispiel kaum wissen, was eigentlich ein Logarithmus ist, so beherrschen sie das Logarithmieren doch im Schlaf. Sie tun es permanent den ganzen Tag. Genauer gesagt ihr Ohr logarithmiert.
Denn wir hören logarithmisch - zumindest näherungsweise. Damit ein Geräusch als doppelt so laut empfunden wird, muss sein Schalldruck etwa zehnmal so hoch sein. Ein Schalldruck der Größenordnung 100 (= 102) wird vom Menschen im Vergleich zu einem Schalldruck von 10 (= 101) als doppelt so laut empfunden. Logisch, denn der Logarithmus von 102 ist 2, jener von 101 hingegen 1.
Was das Ohr mit dem Schalldruck macht, würde die meisten Besitzer der Ohren vollkommen überfordern, müssten sie die Aufgabe mit Stift und Papier erledigen. Das Ohr ermittelt den Exponenten zur Basis 10, so dass die 10Exponent genau dem Schalldruck entspricht.
Logarithmieren ist aber nicht die einzige komplexe Rechenaufgabe, die wir Menschen intuitiv beherrschen. Jeder, der Tennis, Fußball oder Volleyball spielt, kann mühelos in Sekundenbruchteilen Parabeln konstruieren - denn genau auf derartigen Kurven bewegen sich Bälle, wenn sie durch die Lüfte rasen.
Parabeln im Kopf
Hinzu kommt womöglich noch eine Eigenrotation des Balls (Spin), die die Flugbahn zusätzlich beeinflusst. Selbst mit Computerunterstützung könnte kaum ein Tennisspieler genau vorausberechnen, an welcher Stelle genau der Ball im eigenen Feld landen wird. Trotzdem rennt jeder halbwegs talentierte Spieler intuitiv an die richtige Stelle auf dem Platz und wuchtet den Ball zurück übers Netz. Mathematisch gesehen eine Meisterleistung - wozu braucht man da noch Klausuren und Prüfungen?
Eine ganz andere Art von Prüfung sind wilde Bäche, die einem plötzlich den Weg versperren. Aber auch hier erweist sich der Mensch als Schnellrechner. Im Nu wissen wir, ob wir den Sprung wagen können oder besser nach einer Brücke suchen sollten. Sprungkraft, Anlaufgeschwindigkeit, Breite des Bachs - all das fließt in die Kalkulation ein, die binnen Sekundenbruchteilen zum Ergebnis "Ja, das klappt" oder "Nein, besser nicht" führt.
Auch komplexe geometrische Aufgabenstellungen beherrschen wir intuitiv. So hat der Mensch ein äußerst geschultes Auge für Symmetrien. Das besondere an Gesichtern sind die minimalen Abweichungen von der Symmetrie. Uns fällt sofort auf, wenn ein Gesicht auf einem Computer gespiegelt wurde - also zu hundert Prozent symmetrisch ist.
Was ist die Wurzel aus Fünf?
Unsere Ästhetik lässt uns sogar im Hinterkopf die Wurzel aus fünf ziehen - zumindest im übertragenen Sinn beim sogenannten Goldenen Schnitt. Wenn eine Strecke so geteilt wird, dass die kürzere Hälfte sich zur längeren verhält, wie die längere zur Gesamtstrecke, dann wird diese Aufteilung als besonders harmonisch empfunden.
Hinter dem Goldenen Schnitt steckt eine irrationale Zahl: Das Verhältnis der längeren zur kürzeren Strecke beträgt 1/2 * (1 + Wurzel aus 5) - eine Zahl, die mit 1,61803.... beginnt. Beispiele aus Kunst und Architektur gibt es zuhauf: die Akropolis in Athen, Leonardo da Vincis Zeichnung von den menschlichen Proportionen, das Leipziger Rathaus - überall steckt der Goldene Schnitt drin.
Das Ohr wurde ja bereits als Meister des Logarithmierens geadelt - läuft aber gemeinsam mit unserem Gehirn zu mathematischer Höchstform auf, wenn Musik ins Spiel kommt. Dass Musik und Mathematik viel miteinander zu tun haben, ist hinlänglich bekannt. Dmitri Tymoczko, ein Musiktheoretiker von der Priceton University, hat jedoch kürzlich gezeigt, dass komplexe westliche Musik eine Menge mit höherer Mathematik zu tun hat, von der die meisten Komponisten und Zuhörer ja eigentlich kaum etwas verstehen.
Chopin und die Topologie
Tymoczko wollte herausfinden, wie Akkorde einer Komposition miteinander zusammenhängen und landete schließlich bei einem Modell in der nichteuklidschen Geometrie. Dort, in einem topologischen Gebilde namens Orbifold, stellt jeder Punkt einen Akkord dar. Zur Überraschung Tymoczkos liegen die Akkorde eines Werks, etwa von Frédéric Chopin, in einem sehr beschränkten Bereich des Orbifolds - sie bilden eine Art Cluster. Von Akkord zu Akkord sind nur kurze Sprünge üblich.
Ein Werk mit einer anderen Harmonie belegt mit seinen Akkorden einen Cluster in einem anderen Bereich des Raums - und bildet so eine andere Klangwelt, die aber in sich stimmig ist. Tymoczko Arbeit, die unlängst im renommierten Wissenschaftsmagazin "Science" erschien, ließ die Musiktheoretiker aufhorchen.
Im Grunde macht die Studie auch den Musikliebhaber zu einem Freizeitmathematiker, der einiges von Topologie und nichteuklidscher Geometrie verstehen muss. Oder gibt es neben der höheren Mathematik noch eine andere schlüssige Erklärung dafür, was ein Klavierkonzert von Chopin so einzigartig macht?
Quelle : www.spiegel.de
Titel: Ab 2020 sollen Chips die Kapazität des menschlichen Gehirns erreichen
Beitrag von: SiLæncer am 21 Oktober, 2006, 17:32
Chang-Gyu Hwang, Chef der Chip-Abteilung des koreanischen Konzerns Samsung Electronics, hatte letztes Jahr prophezeit, dass bald Festplatten überflüssig sein und von Flash-Speicher ersetzt werden. Im September hatte der weltweit größte Hersteller von Speicherchips berichtet, einen Flash-Speicher mit 32 Gigabit (4 GByte) mit einer 40 Nanometer Struktur entwickelt zu haben. In seiner Rede auf der bis Sonntag geöffneten Korea Electronics Show 2006 kündigte er an, den nächsten Schritt hin zu 30 Nanometer anzustreben. Gerade verkündete der Konzern, den ersten 1 Gigabit DDR2 DRAM Chip mit einer 50 Nanometer Struktur entwickelt zu haben, dessen Leistung 55 Prozent größer als die des vor kurzem entwickelten 60 Nanometer-Chips sei.
Hwang – auch „Mr. Chip“ genannt - hat für die rasante Entwicklung der Speicherchips, deren Kapazität sich in den letzten 10 Jahren alle 18 Monate verdoppelte, in Analogie zum Mooreschen Gesetz nicht ganz unbescheiden vom „Hwang’s Law“ gesprochen. Auf seiner Keynote-Rede baute er den Fortschrittsoptimismus noch weiter aus. So sagte er, dass Halbleiterchips irgendwann nach 2020, wenn ihre Kapazität 3.000 Mal größer als jetzt auf 100 Terabytes geworden ist, in Konkurrenz mit dem menschlichen Gehirn treten werden. Die „Entwicklung eines Chips, der eine Kopie des menschlichen Gehirns ist“, sei auch das ultimative Ziel der Halbleiteringenieure: „Computerchips erreichen schon fast die Rechengeschwindigkeit von menschlichen Gehirnen, sie müssen nur eine größere Kapazität erreichen.“ Um mit der „Logik der 6 Milliarden neuronalen Zellen des menschlichen Gehirns“ mithalten zu können, müssten Chips eine Speicherkapazität von 100 Terabytes haben.
Hwang ist auch zuversichtlich, dass bis 2020 die Informations- und Kommunikationstechnologien die primären Motoren der menschlichen Evolution bleiben werden. Danach käme die Blütezeit der Biowissenschaften und der humanoiden Roboter. Zunächst aber stehe das Zusammenwachsen von BT (Biotechnologie) und IT (Informationstechnologie) an, deren Ergebnis in naher Zukunft Halbleiterchips sein werden, „die die DNA analysieren und Gesundheitsprobleme diagnostizieren können".
Quelle : www.heise.de
Titel: Das Leben - eine einzige Erfindung
Beitrag von: SiLæncer am 28 Oktober, 2006, 15:46
Das Gedächtnis selektiert und verzerrt wichtige Ereignisse. Forscher können gar falsche Erinnerungen erzeugen - etwa an Ballonfahrten, die nie stattgefunden haben. Was nach einem Fehler der Evolution klingt, ermöglicht uns erst, im Alltag zurechtzukommen.
Auf irgendeine geheimnisvolle Weise musste sich der alte Mann mit der Brille, dem blauen Flanellhemd und einem Kranz grauer Haare auf dem Kopf in das Gedächtnis von Chris Coan eingeschlichen haben. Lebhaft schildert der 14-Jährige, wie er im Alter von fünf Jahren in einer Einkaufspassage verloren gegangen ist und wie seine Mutter ihn später in Begleitung des Mannes wiedergefunden hat. "Ich hatte schreckliche Angst", erinnert sich der junge Amerikaner: "Ich hab gedacht, jetzt sehe ich meine Familie nie wieder."
Tatsächlich war Chris nie verloren gegangen. Mit einem Trick hatte die Psychologin Elizabeth Loftus von der University of Washington in Seattle ihm die Erinnerung "eingepflanzt": Die Wissenschaftlerin hatte seinen älteren Bruder Jim gebeten, Chris drei wahre Geschichten aus dessen Kindheit zu beschreiben - und eine erfundene. Chris eignete sich auch diese Geschichte an und schmückte sie sogar aus. Als der Bruder ihn nach einigen Wochen aufklärte, konnte Chris es nicht glauben: "Ich erinnere mich doch genau, wie ich geweint habe und wie Mom auf mich zukam und sagte: Mach das nie wieder!"
Gedächtnisforscher sprechen bei solchen Vorgängen von "implantierter Erinnerung". Eine derart manipulierte Episode ist von tatsächlich erlebten Ereignissen subjektiv nicht mehr zu unterscheiden. Was Chris widerfuhr, ist nicht ungewöhnlich: Das autobiografische Gedächtnis des Menschen, in dem er die Erinnerung an Personen, Erlebnisse und Gefühle aufbewahrt, arbeitet höchst unzuverlässig.
Noch leichter als durch erzählte Geschichten lässt sich die Erinnerung durch Bilder manipulieren. Die Psychologin Loftus zeigte Probanden Fotos, auf denen sie sich als Kind zusammen mit einem Verwandten in einem Heißluftballon schweben sahen. Die Hälfte der Befragten erinnerte sich später genau an die auf-regende Ballonfahrt. Doch auch die hatte niemals stattgefunden. Loftus hatte die Kinderfotos der Probanden ohne deren Wissen in Fotos von einem Ballonflug hineinmontiert. Durch Bilder lassen sich Erinnerungen besonders leicht durcheinanderbringen, weil sich die für das Visuelle zuständigen Verarbeitungssysteme im Gehirn mit jenen überlappen, die bei Fantasien aktiv werden.
DIE VERWIRRENDE ERKENNTNIS, dass das Gedächtnis keineswegs ein Archiv ist, das pendantisch die Vergangenheit speichert, beschäftigt Neurobiologen, Psychologen und Sozialwissenschaftler inzwischen weltweit. Noch vor 20 Jahren hielt man das Gedächtnis für eine Art Computer, der unbestechlich aufzeichnet, was faktisch geschehen ist.
Dass dies ein Irrtum war, hatte und hat ungeahnte Folgen, etwa bei Kindesmissbrauchs-Pro-zessen. Die renommierte, aber auch um-strittene Gutachterin Loftus legt immer neue Studien vor, um Richtern zu zeigen, wie wenig Verlass auf das Gedächtnis ist. Wie wenig man den Aussagen von Missbrauchs-Opfern unkritisch Glauben schenken könne, wenn sie sich erst nach Jahrzehnten an die Gewalttat erinnern. Loftus vertritt die Seite der Angeklagten; eine heikle Position.
Doch auch wenn der Streit in der "False Memory"-Debatte kaum lösbar ist - die Studien, die er anstieß, haben die Gedächtnis-Forschung ein gutes Stück vorangebracht. "Eines sollten wir uns klar machen", sagt Loftus, "unser Gedächtnis wird jeden Tag neu geboren."
Die Kapriolen, die es schlägt, sind höchst verblüffend. Ein dras-tisches Beispiel dafür lieferte unfreiwillig der US-Gedächtnis-forscher Donald Thompson. Er wurde von einem Vergewaltigungsopfer akribisch genau als Täter beschrieben und wiedererkannt. Zu seinem Glück hatte Thompson ein zweifelsfreies Alibi: Zur Zeit des Verbrechens war er live im Fernsehen zu sehen, wo er ein Interview zum Thema Gedächtnisverzerrung gab.
Das Vergewaltigungsopfer hatte zufällig unmittelbar vor der Gewalttat gerade diese Sendung gesehen und dann eine "Fehlattributierung" vorgenommen: Für die Frau sah der Täter wie der Professor aus.
DAS TRÜGERISCHE GEDÄCHTNIS - ein Versehen der Schöpfung? Wohl eher ein geglückter Coup der Evolution. "Das autobiografische Gedächtnis hat wenig mit der Vergangenheit zu tun, es ist vielmehr dafür da, dass wir uns in der Gegenwart und in der Zukunft orientieren können", sagt Hans Markowitsch, Professor für Physiologische Psychologie an der Universität Bielefeld. Im autobiografischen Gedächtnis lagert die persönliche, subjektiv erlebte Lebensgeschichte. Es ist das komplexeste der Erinnerungssysteme und zugleich dasjenige, das bei Kindern als letztes entsteht, im Alter von etwa drei Jahren, wenn ein Kind eine Vorstellung von seinem Selbst zu entwickeln beginnt. Dass Schimpansen und Menschen, die 99 Prozent des genetischen Codes gemeinsam haben, dennoch grundverschieden sind, liege vor allem am autobiografischen Gedächtnis, sagt Markowitsch. Nur der Mensch kann sich an seine Biografie bewusst erinnern, nur er weiß, wie er eine bestimmte Situation erlebt und wie er sich dabei gefühlt hat.
Die Erinnerungen an die Lebensgeschichte prägen die Persönlichkeit, formen die Identität. Doch nicht etwa die objektiven Lebensdaten spielen dabei die Hauptrolle, sondern Gefühle. Sie sind es, die filtern, was im Langzeitspeicher landet und was gelöscht wird. "Gefühle", sagt Markowitsch, "sind die Wächter unserer Erinnerung."
Wäre das nicht so, würde der Mensch von Informationen geradezu überflutet. So aber ge-langen die Eindrücke aus dem Kurzzeitgedächtnis zunächst ins limbische System. Dort wird deren emotionaler Gehalt bewertet. Nur was als bedeutsam eingeschätzt wird, erreicht die Großhirnrinde, wo Eindrücke als Erinnerungsbild, als "Engramm", abgelegt werden. Wer das autobiografische Gedächtnis trainieren will, müsse, so Markowitsch, "ein Ereignis emotionalisieren - eine Bewertung vornehmen und sich fragen: Wie fühle ich mich gerade?" Wahrscheinlich erinnere man sich selten an das Ereignis selbst, sondern an die Gefühle, die man einst damit verband.
Wie wichtig Gefühle für die Erinnerung sind, wird besonders dann deutlich, wenn sie fehlen. Markowitsch berichtet von einer Patientengruppe, die an dem sehr seltenen Urbach-Wiethe-Syndrom leidet, einer Stoffwechselstörung mit neurologischen Ausfällen, bei der sich Kalk in den Gefäßen der Amygdala, des Mandelkerns, ablagert und dadurch das Gefühlszentrum des Gehirns lahm legt. Diesen Patienten erzählten die Forscher eine Geschichte von einer Frau, die in einem schwarz-gelb geblümten Kleid einen Raum betritt, in dem sie nach einiger Zeit von einem Mann hinterrücks erstochen wird.
Später konnten viele der Patienten zwar ausführlich berichten, was die Frau trug, den Mord aber hatten sie vergessen. "Sie sind nicht mehr in der Lage, eingehende Reize emotional adä-quat zu bewerten", erklärt Markowitsch. Weil ihre Gefühlswelt verarmt ist, vermochten sie die Wertigkeit von Kleiderfarbe und Mord nicht zu unterscheiden. Banales wird behalten, Bedeut-sames gelöscht.
Titel: ILLUSIONEN - Wie das Gehirn die Augen täuscht
Beitrag von: SiLæncer am 09 Dezember, 2006, 18:46
Wie wir die Welt um uns herum wahrnehmen, beruht großteils auf Spekulationen des Gehirns. Meist liegt es dabei richtig - aber eben nicht immer. Das beweisen schon einfache Zeichnungen, die das Sehsystem in die Irre führen können.
Angenommen, Sie sehen etwas Ovales, Weißes: Das könnte etwa ein Ei sein. Oder aber eine kreisrunde, flache Scheibe, die Sie aus leicht schräger Perspektive betrachten. Oder auch etwas ganz anderes. Was es auch ist - Sie erkennen es in der Regel augenblicklich, denn Ihr Gehirn nimmt ohne Umschweife die richtige Antwort ins Visier. Wie schafft es das? Indem es eine Reihe schlauer Vermutungen über statistische Wahrscheinlichkeiten anstellt. Optische Täuschungen bringen diese unbewussten Vorgänge, die im Verborgenen ablaufen, an den Tag.
Ein gutes Beispiel ist das Talent unseres Denkapparats, unerklärliche Lücken im Netzhautbild einfach auszufüllen. Mit Hilfe des blinden Flecks in Ihrer Netzhaut können Sie sich das selbst vor Augen führen. Betrachten Sie das Bild oben links. Fixieren Sie bei geschlossenem rechtem Auge das untere weiße Quadrat. Halten Sie das zweite Bild etwa 30 Zentimeter von Ihrem Gesicht entfernt und führen Sie es dann langsam näher zu sich heran. In einem bestimmten Abstand verschwindet der Kreis links im Bild, denn er fällt nun genau auf den blinden Fleck Ihres linken Auges. An dieser Stelle der Netzhaut, der Papille, befinden sich keine Photorezeptoren, weil dort der Sehnerv das Auge verlässt.
Erstaunlicherweise nimmt man nun an Stelle des Kreises nicht etwa ein Loch oder einen dunklen Schatten wahr. Vielmehr füllt unser Sehsystem die entsprechende Fläche mit der Farbe der angrenzenden Umgebung aus. Das Gehirn, so scheint es, mag keine Leere.
Auch eine durch den blinden Fleck verlaufende Gerade erscheint nicht in der Mitte unterbrochen: Machen Sie das kleine Experiment von eben noch einmal, schauen Sie diesmal aber auf das obere weiße Quadrat! Sobald der Kreis im blinden Fleck verschwindet, sehen Sie einen durchgehenden senkrechten Balken. Offenbar hält es das Gehirn für höchst unwahrscheinlich, dass zufällig beiderseits des blinden Flecks Linien liegen könnten, die nicht nur gleich dick und farblich identisch sind, sondern auch dieselbe Orientierung aufweisen.
Der blinde Fleck hat erstaunliche Ausmaße. Zum Vergleich: Seine Fläche ist fast neunmal so groß wie die des Vollmonds am Himmel. Das reißt ein ganz schönes Loch in Ihre Wahrnehmung, welches Ihr Gehirn mühsam auffüllen muss. Noch ein Versuch gefällig? Schließen Sie einmal das linke Auge und blicken Sie mit dem rechten im Raum umher. Mit etwas Übung sollte es Ihnen gelingen, mit dem blinden Fleck beliebige kleine Gegenstände zum Verschwinden zu bringen. Dieses Spiel trieb bereits der englische König Charles II. (1630 - 1685), der sich sehr für die Wissenschaften interessierte und die Royal Society gründete. Er pflegte zum Tode verurteilte Gefangene visuell zu "enthaupten" - noch vor ihrer tatsächlichen Hinrichtung. Bitte nicht weiter verraten: Bei öden Fakultätssitzungen machen wir uns oft denselben Spaß mit unbeliebten Kollegen.
Doch wie gut funktioniert eigentlich das Ausfüllen des blinden Flecks bei komplexeren, detaillierteren Bildern, wenn das Gehirn also mehr als nur eine gleichmäßige Hintergrundfarbe berücksichtigen muss? Um die Grenzen dieses Mechanismus sowie die ihn steuernden Gesetze zu erkunden, benötigen Sie lediglich einige verschiedenfarbige Filzstifte und ein paar Blatt Papier - oder ein Zeichenprogramm auf Ihrem Computer. Ich schildere im Folgenden einige Beispiele; lassen Sie Ihrer Fantasie beim Ausdenken neuer Varianten aber ruhig freien Lauf!
Im dritten Bild fällt Ihr blinder Fleck auf den Mittelpunkt eines Kreuzes, das aus einem langen grünen und einem kürzeren roten Balken besteht. Werden nun beide ergänzt? Oder nur einer - und wenn ja, welcher? Die meisten Menschen stellen fest, dass ihnen nur die längere Linie kontinuierlich erscheint - wobei sie natürlich die kürzere, für sich allein dargeboten, problemlos ergänzen können. Hier scheint also das Gesamtbild entscheidend zu sein - genauer gesagt die Frage, welche Linie die längere ist.
In anderen Fällen hingegen berücksichtigt das Gehirn ausschließlich die unmittelbare Umgebung der weggezauberten Stelle und kümmert sich überhaupt nicht um den Rest. So etwa, wenn Sie den blinden Fleck Ihres linken Auges genau auf die Mitte eines gelben Rings mit andersfarbigem Zentrum richten: Dann werden Sie eine durchgängig gelbe Scheibe sehen. Die meisten Menschen erleben dieses Phänomen auch im Bild links oben, trotz des recht komplexen, tapetenartigen Musters. Das visuelle System vernachlässigt dieses vollständig und extrapoliert streng lokal.
Weniger eindeutig ist die Sache im Bild links unten. Richten Sie den blinden Fleck des linken Auges auf den blauen Kreis, bis dieser verschwindet. Ergänzt nun Ihr Sehsystem die horizontalen, durch den blinden Fleck verlaufenden Streifen? Oder eher den vertikalen Balken - der selbst nur auf einer Illusion beruht? Probieren Sie es aus und variieren Sie dabei den Abstand der waagrechten Streifen. Sie werden sehen, dass davon die Antwort entscheidend abhängt.
Keine Katzenscheiben
Nette Spielerei, werden Sie vielleicht denken, aber wozu dient überhaupt dieser Ausfülleffekt? Dass unser visuelles System diese Fähigkeit nur entwickelt hat, um mit dem Problem des blinden Flecks fertigzuwerden, ist unwahrscheinlich - schließlich sehen wir gewöhnlich in stereo, sodass das andere Auge die Wahrnehmungslücke problemlos ausgleicht.
Letztlich handelt es sich dabei wohl um eine der vielen Fassetten der "Surface Interpolation" - zu Deutsch etwa Oberflächeninterpolation. Diese Fähigkeit entwickelte sich im Lauf der Evolution, damit wir kontinuierliche Oberflächen und Umrisse in der Natur auch dann noch erkennen, wenn diese teilweise verdeckt sind und dadurch unterbrochen erscheinen. So nehmen wir beispielsweise eine Katze hinter einem Lattenzaun als vollständiges Tier wahr - und nicht etwa als "Katzenscheiben".
Physiologen wie Leslie Ungerleider vom National Institute of Mental Health in Bethesda, Ricardo Gattass von der Bundesuniversität Rio de Janeiro und Charles Gilbert von der New Yorker Rockefeller University erforschen gegenwärtig die neuronalen Mechanismen, die hinter diesem Phänomen stecken. Dazu beobachten sie, wie einzelne Nervenzellen in den visuellen Zentren im Gehirn auf Objekte reagieren, die teilweise vom blinden Fleck oder durch Sichtschranken verborgen werden.
Ihnen wird das Spiel mit Ihrem blinden Fleck langsam langweilig? Dann probieren Sie doch einmal Folgendes: Kleben Sie einen kleinen weißen Pappkreis mit einem halben Zentimeter Durchmesser und einem schwarzen Punkt in der Mitte in die rechte Hälfte Ihres Fernsehbildschirms. Etwa zwölf Zentimeter daneben bringen Sie ein zwei mal zwei Zentimeter großes Quadrat aus hellgrauer Pappe an. Stellen Sie nun einen Kanal ohne Signal ein, sodass Sie nur "Schnee" sehen, und setzen Sie sich in rund einem Meter Entfernung vor die Mattscheibe.
Wenn Sie jetzt mit beiden Augen 15 Sekunden lang unausgesetzt auf den schwarzen Punkt starren, wird das graue Quadrat verschwinden und der entsprechende Bereich mit Rauschen ausgefüllt. Sie halluzinieren also "Schnee", wo gar keiner ist! Genauso wird auch ein einzelner roter Fleck inmitten lauter grüner Kleckse durch einen weiteren grünen Punkt ersetzt.
Diese Experimente illustrieren, wie wenig Informationen Ihr Gehirn eigentlich aus der Umwelt aufnimmt und wie viel es stattdessen selbst produziert. Ihr persönliches Erleben in all seiner Vielfalt ist weit gehend eine Illusion; in Wirklichkeit "sehen" wir sehr wenig und verlassen uns ansonsten auf - begründete und evolutionär bewährte - Annahmen unseres Denkorgans.
Quelle : www.spiegel.de (http://www.spiegel.de/wissenschaft/mensch/0,1518,451666,00.html)
Titel: Warum eine Matrix bauen?
Beitrag von: SiLæncer am 10 Februar, 2007, 13:21
Und warum Sie sich in einer befinden könnten
Zweck der Matrix
Warum die Matrix? Warum haben es die Maschinen getan? (Das menschliche Gehirn kann vieles sein, eine leistungsfähige Batterie ist es jedoch ganz sicher nicht.) Wie ließe sich eine Welt rechtfertigen, deren Bewohner systematisch über ihre fundamentale Realität getäuscht werden, die gar nicht wissen, warum sie existieren, und die all den Grausamkeiten und Leiden ausgesetzt sind, die wir in der Welt um uns herum erleben? Kinder sterben an AIDS. Liebespaare werden durch Krieg und Armut getrennt. Krebspatienten werden von unerträglichen Schmerzen gequält. Opfer eines Schlaganfalls verlieren Sprache und Denkvermögen... Man möchte meinen, nur ein Sadist könnte die Phantasie besitzen und sich solche Gräuel ausdenken oder sogar den Wunsch haben, eine Welt zu schaffen, in der all das in solchem Übermaß vorkommt. Aber die Maschinen haben es getan. Zumindest wird es so erzählt.
Auch wenn die von ihnen geschaffene Welt der Matrix alles andere als perfekt ist, so ist sie doch - aber darüber kann man streiten - besser als gar keine Welt, die Austilgung aller Menschen. Allerdings hätten die Maschinen doch auch eine Welt schaffen können, in der es viel mehr Güte, Glück, Weisheit, persönliches Aufblühen, Liebe und Schönheit gibt, eine Welt ohne die meisten natürlichen und vom Menschen gemachten Übel, die unsere Welt prägen. Wie es heißt, haben sie es sogar versucht, aber angeblich hat es nicht funktioniert.
Agent Smith: "Wussten Sie, dass die erste Matrix als perfekte Welt geplant war, in der kein Mensch hätte leiden müssen? Ein rundum glückliches Leben. Es war ein Desaster. Die Menschen haben das Programm nicht angenommen. Es fielen ganze Ernten aus. Einige von uns glauben, wir hätten nicht die richtige Programmiersprache, Euch eine perfekte Welt zu schaffen, aber ich glaube, dass die Spezies Mensch ihre Wirklichkeit durch Kummer und Leid definiert. Die perfekte Welt war also nur ein Traum, aus dem Euer primitives Gehirn aufzuwachen versuchte. Die Matrix wurde neu designed, zu dem, was sie heute ist, der Höhepunkt Eurer Zivilisation."
Das Vorhandensein unnötigen Elends ist eines der schlagendsten Argumente gegen die Ansicht, dass die Welt von einem allmächtigen, allwissenden und gänzlich gütigen Gott erschaffen wurde. Über Jahrhunderte haben Theologen versucht, eine Antwort darauf zu finden - mit sehr fragwürdigem Erfolg. Aber das Problem des Elends ist nur dann ein Problem, wenn man annimmt, dass die Welt von einem allmächtigen und gänzlich gütigen Wesen erschaffen wurde. Geht man hingegen davon aus, dass der Schöpfer nicht gänzlich gütig und möglicherweise noch nicht einmal allmächtig war, wäre es weitaus einfacher, sich mit dem Gedanken anzufreunden, dass unsere Welt mit ihren scheinbar offensichtlichen ethischen Mängeln erschaffen worden ist.
Und was ist mit Ihnen? Sie sind nicht allmächtig, allwissend und gänzlich gütig. Doch was wäre, wenn Sie die Fähigkeit besäßen, diese Art von Matrix zu bauen? Würden Sie es tun? Selbst wenn Sie sich nicht dazu entschließen würden, eine Welt wie diese zu gestalten, so gibt es doch viele andere Menschen, die Ihre Skrupel nicht teilen. Wenn diese Menschen über die Fähigkeit verfügten, Matrices zu erschaffen, könnten einige ihrer Werke gut und gern jener Welt gleichen, in der wir uns befinden.
Warum könnten sie die Absicht haben, eine Matrix zu bauen, die unserer Realität entspricht? Da sind viele Gründe denkbar - wenn man den einfältigen Gedanken der Nutzung des menschlichen Gehirns als Batterie verwirft. Künftige Historiker würden vielleicht eine Matrix erschaffen, die die Geschichte ihrer eigenen Spezies nachahmt. Das könnten sie tun, um mehr über ihre Vergangenheit zu erfahren oder um kontrafaktische historische Szenarien zu untersuchen. In der Welt der "Architekten" mag Napoleon bei der Eroberung Europas siegreich gewesen sein, und unsere Welt könnte eine Matrix sein, die erschaffen wurde, um zu erforschen, was geschehen wäre, wenn Napoleon geschlagen worden wäre. Oder vielleicht wird es künftige Künstler geben, die Matrices als Kunstform erschaffen, so wie wir Filme und Opern produzieren. Oder vielleicht wird die Tourismusbranche interessante historische Epochen simulieren, sodass ihre Zeitgenossen auf Themenurlaub in vergangene Zeiten gehen können, indem sie in die Simulation eintreten und mit ihren Bewohnern interagieren. Der möglichen Motive gibt es viele, und wenn künftige Menschen irgendwie wie die heutigen Menschen sind und wenn sie die technische Macht und das Recht hätten, Matrices zu bauen, wäre damit zu rechnen, dass viele Matrices erschaffen würden, einschließlich solcher, die wie die Welt aussehen, die wir gerade erleben. Das Simulationsargument
Wenn jede fortgeschrittene Zivilisation viele Matrices ihrer eigenen Geschichte erschaffen würde, würden viele Menschen wie wir, die in einem technisch primitiveren Zeitalter leben, innerhalb statt außerhalb der Matrices leben. Wenn dies der Fall wäre, wo würden Sie höchstwahrscheinlich sein?
Das so genannte Simulationsargument, das ich vor einigen Jahren eingeführt habe, macht diese Denkweise präziser und führt sie zu ihrem logischen Schluss, der da lautet, dass es drei Grundmöglichkeiten gibt, von denen mindestens eine wahr ist. Die erste Möglichkeit ist, dass die Menschheit fast sicher ausstirbt, bevor sie technische Reife erreicht. Die zweite Möglichkeit ist, dass fast keine technisch reife Zivilisation am Bau von Matrices interessiert ist. Die dritte Möglichkeit ist, dass wir fast sicher bereits in einer Matrix leben. Warum? Weil, wenn nicht die beiden ersten Möglichkeiten zutreffen, mehr "Menschen" in Matrices leben als in "realen Welten". Für Sie als "Person" ist es dann wahrscheinlich, dass Sie in einer Matrix leben statt in einer "realen Welt".
Das Simulationsargument sagt uns nicht, welche dieser drei Möglichkeiten sich durchsetzt, nur, dass es mindestens eine tun wird. Das Argument nutzt zwar etwas Mathematik und Wahrscheinlichkeitstheorie, aber der Grundgedanke ist auch ohne Rückgriff auf einen technischen Apparat zu verstehen.
Titel: Hirnforschung: Rechenschwach durch Magnetkraft
Beitrag von: SiLæncer am 26 März, 2007, 11:11
Hirnforscher haben ihre Probanden mit Hilfe von Magnetspulen künstlich rechenschwach gemacht - wenn auch nur für kurze Zeit. Die Methode, bei der durch die Schädeldecke das Gehirn gestört wird, verspricht in den kommenden Jahren rasanten Erkenntniszuwachs.
Für die Versuchspersonen kann es ein bisschen unangenehm werden. Laborkräfte in weißen Kitteln machen sich an ihrem Kopf zu schaffen, platzieren Magnetspulen, die mächtige Kräfte abstrahlen, an ihrer Schädeldecke - und plötzlich geht irgendetwas nicht mehr. Eine Hand zuckt, oder eben noch einfache Aufgaben werden plötzlich schwierig.
Transkranielle Magnetstimulation (TMS) ist eine seit Jahren angewendete Methode, mit der bestimmte Hirnbereiche kurzzeitig lahmgelegt werden können - jetzt schwingt sich der magnetische Schlag auf den Kopf zum methodischen Königsweg auf: Man könne damit, hoffen einige Forscher, endlich den Funktionen der Hirnrinde und den Ursachen für deren Störungen auf die Spur kommen.
Eine internationale Forschergruppe hat den Magnethammer nun angesetzt, um einer angeborenen Rechenschwäche, "Dyskalkulie" genannt, nachzustellen. Menschen, die daran leiden, haben enorme Schwierigkeiten mit Zahlen - und zwar deutlich mehr als der normale Schüler, der Mathe nicht leiden kann. Fachleute glauben heute, dass Dyskalkulie einer bestimmten Ausprägung darauf beruht, dass die Patienten kein automatisches Gefühl für Zahlen haben. Beim Rest der Menschheit ist das nämlich so, auch wenn viele das im Alltag anders erleben.
Das Gehirn lässt sich leicht verwirren
Ein normaler Mensch, und sei er noch so mathematikfeindlich, nimmt den Zahlenwert einer Ziffer ganz automatisch war. Ebenso wie jeder, der Lesen kann, ein gedrucktes Wort vor seiner Nase auch automatisch liest, ob er will oder nicht.
Bei Zahlen kann man das so zeigen: Man präsentiert eine "4" in kleiner Schriftgröße und eine "8" in groß. Eine Versuchsperson muss dann per Tastendruck angeben, welche Zahl größer gedruckt ist - mit großgedruckter "8" geht das sehr schnell. Ist die "4" aber größer gedruckt als die "8", verzögert das die Reaktion - weil der Wert und die äußere Gestalt der Ziffer nicht zusammenpassen. Die "4" ist zwar physisch größer, aber numerisch kleiner als die "8", und das verwirrt ein gesundes Gehirn, weil es die Zahlenwerte ganz automatisch wahrnimmt und zueinander in Beziehung setzt.
Bei Dyskalkulie-Patienten ist das anders: Sie können die großgedruckte "8" nicht schneller einordnen, die großgedruckte "4" aber auch nicht langsamer. Der Zahlenwert spielt für ihre Wahrnehmung der Ziffern-Größe keine oder nur eine verringerte Rolle. Weil, glauben Wissenschaftler, die Ziffern nicht automatisch und blitzschnell auf einem sogenannten mentalen Zahlenstrahl eingeordnet werden, wie das bei anderen Menschen der Fall ist.
Künstliche Dyskalkulie durch die Magnetspule
Roi Cohen Kadosh vom University College London und seine Kollegen haben nun aus Gehirnen normaler Studenten kurzzeitig Dyskalkulie-Gehirne gemacht - mit Hilfe der Magnetspulen am Kopf. Zunächst sahen sie mit funktionaler Magnetresonanztomografie (fMRI) im Kopf ihrer Probanden nach, was bei der Bearbeitung der "kleiner oder größer"-Aufgabe normalerweise geschah.
Den Bereich, der dabei am aktivsten war, störten sie dann mit dem Magnetschock durch die Schädeldecke. Und siehe da: Nun spielte auch bei den eigentlich gar nicht rechenschwachen Versuchspersonen die numerische Größe der Ziffer keine so wichtige Rolle mehr. Für wenige Minuten verhielten sich die Gehirne der Kontroll-Probanden ganz ähnlich wie die der Dyskalkulie-Patienten, berichten die Wissenschaftler in der April-Ausgabe von "Current Biology".
Für Hirnforscher ist die Kombination von fMRI und TMS ein Segen - denn den Möglichkeiten, die genaue neurologische Ursache bestimmter Störungen zu finden, sind üblicherweise enge Grenzen gesetzt. Auch wenn man weiß, dass ein Patient an einem bestimmten Ort im Gehirn eine Schädigung oder "Läsion" hat, ist noch lange nicht klar, dass eine bestimmte Einschränkung auch direkt von dieser Läsion verursacht wird. "Man kann keine kausalen Zusammenhänge herstellen", erklärte Cohen Kadosh im Gespräch mit SPIEGEL ONLINE. Wer Ursachen sucht, braucht härtere Daten
Mit dem Blick ins Hirn per fMRI ist es auch nicht getan, denn "normalerweise sieht man bei solchen Studien im Scanner das halbe Hirn aufleuchten", erklärt Hans-Otto Karnath vom Hertie-Institut für klinische Hirnforschung in Tübingen. Welches Areal wirklich eine Rolle spielt, ist schwer zu erkennen, Kausalzusammenhänge sind nicht abzuleiten. Bildgebende Verfahren, so populär sie inzwischen sind, können deshalb nur Anhaltspunkte dafür geben, wo ein bestimmter Prozess abläuft. Wer ursächliche Folgerungen ableiten will, braucht härtere Daten.
Um die anatomische Wurzel eines Problems zu finden, braucht man mindestens "zehn bis zwölf Patienten, die alle eine bestimmte Störung haben", sagt Karnath. Wenn diese Patienten Läsionen in leicht unterschiedlichen Bereichen haben - sei es durch Schlaganfälle, Schädeltraumata oder andere Ursachen - kann man gewissermaßen eine Schnittmenge bilden. Mit ziemlicher Sicherheit liegt dort, wo alle diese Patienten eine Schädigung haben, auch der Ort, von dem die Störung ausgeht.
Diese Art Studie sei für ihn nach wie vor überzeugender als künstliche Läsionen per TMS, sagt Karnath, der selbst mit der Magnettechnik arbeitet. Zwar sind die Methoden in den letzten Jahren präziser geworden - man kann die Magnetwirkung nun auf Areale begrenzen, die nur einen Quadratzentimeter groß oder noch kleiner sind - aber die Grenzen der Technik sind dennoch klar.
Einen künstlichen Schlaganfall erzielt man so nicht
Es sei nämlich "enttäuschend, wie gering die Effekte sind", die man mit der Spulen-Stimulation hervorrufen könne, beklagt Karnath. Die Veränderungen seien sehr schwach, und schlügen sich in erster Linie in verlängerten Reaktionszeiten nieder, wie im Experiment von Cohen Kadosh und seinen Kollegen. Einen reversiblen, künstlichen Schlaganfall kann man durch TMS im Rahmen des Erlaubten nicht hervorrufen.
Christian Plewnia vom Tübinger Universitätklinikum glaubt dennoch, dass die Methode die Neurowissenschaften dauerhaft verändern wird: "Man kann erstmals die kausale Relevanz bestimmter Regionen an Gesunden prüfen." Plewnia selbst ist mit seinen Kollegen dabei, mit Hilfe von TMS die neuronalen Grundlagen des Tinnitus zu erforschen, also der äußerst unangenehmen ständigen Ohrgeräusche, an denen manche Menschen leiden.
Die Einschränkungen der Methode sind nicht zuletzt den ethischen Richtlinien geschuldet, die für solche Experimente gelten - höhere Stimulationsintensitäten würden zwar stärkere Effekte mit sich bringen, aber auch echte Gefahren für den Probanden. Auch so sind TMS-Studien für die Teilnehmer "ziemlich unangenehm", gibt Cohen Kadosh zu. Plewnia beschreibt "Muskelzucken oder dumpfe, stechende Empfindungen", die so manchen Probanden zum Abbruch eines Experimentes trieben. Cohen Kadosh freut sich dennoch über "die ersten kausalen Belege" für die Rolle eines bestimmten Areals im Scheitellappen, dem sogenannten interparietalen Gyrus, für Dyskalkulie. "Mit TMS geht das", sagt Cohen Kadosh, "weil man den Schaden reversibel gestalten kann".
Quelle : www.spiegel.de
Titel: Die neue Landkarte des Gehirns
Beitrag von: SiLæncer am 24 Mai, 2009, 07:47
Wo ist das Fach für die peinlichen Erinnerungen, in welche Schublade ordnet unser Gehirn die Familienfotos ein? Untersuchungen per Magnetresonanztomograf ergeben eine sich ständig ändernde Landkarte des menschlichen Denkorgans.
Die Vorstellung, bestimmte Nervenzellen hätten jeweils ganz bestimmte Funktionen im Denken und Fühlen inne, wird von der Wissenschaft längst als überholt angesehen. Auch die Vorstellung einer ausgeprägten Arbeitsteilung zwischen linker und rechter Gehirnhälfte ist nicht mehr als ein Modell. Tatsächlich funktioniert das Denkorgan durch die Vernetzung seiner Bestandteile. Und doch lassen sich mit Hilfe der funktionellen Magnetresonanztomografie Bereiche abgrenzen, in denen bestimmte Vorgänge ablaufen. Eine zusammenfassende Auswahl der jüngsten Ergebnisse.
Im dorsalen medialen präfrontalen Kortex - im Prinzip gleich hinter der Stirn - steckt das Zentrum, das autobiografische Erinnerungen mit Musik und Gefühl verknüpft. Diesen "Multimedia-Hub" haben Forscher entdeckt, als sie feststellten, dass Alzheimer-Betroffene auch im letzten Stadium der Krankheit stark auf ihnen bekannte Musik reagieren. Das Gebiet ist nämlich eines der letzten, das im Verlauf der Krankheit atrophiert.
Das Einsamkeits-Zentrum
Die temporoparietale Verbindung, der die Funktion des Sich-in-andere-Versetzens zugeschrieben wird, lässt sich offenbar auch als Sitz des Gefühls der Einsamkeit ausmachen: Forscher fanden heraus, dass dieser Bereich bei einsamen Menschen stärker aktiviert wird, wenn diese sich Fotos von Menschen in unangenehmen Situationen ansehen. Das ventrale Striatum hingegen, dem Funktionen im Belohnungssystem zugeordnet werden, wird bei sich nicht einsam fühlenden Menschen stärker aktiviert, wenn diese Fotos von Menschen in angenehmen Situationen betrachten.
Das Aufpass-Zentrum
Der Locus Ceruleus, auch "blauer Kern" genannt, ist offenbar für den Übergang von einem zerstreuten zu einem aufmerksamen Gehirnzustand zuständig. Das konnten Forscher in einer Studie zeigen, indem sie mit Hilfe eines Medikaments den Zustand des blauen Kerns änderten - das Ergebnis lässt auf eine Behandlungsmöglichkeit etwa für Autismus oder Schizophrenie hoffen.
Das Lernzentrum
In einem Teil der Großhirnrinde vollzieht sich anscheinend ein Großteil der Lernprozesse, wenn es um Faktenwissen geht. Dabei, auch das haben fMRI-Aufnahmen ergeben, ändern sich die Erfolg versprechenden Lernstrategien mit dem Alter: Während achtjährige Kinder vor allem durch positives Feedback lernen, können Zwölfjährige (aber auch Erwachsene) schon mit negativer Kritik umgehen. Bei jüngeren Kindern verpufft negatives Feedback noch.
Das Mitleidzentrum
Wenn wir mit jemandem, der unter Schmerzen leidet, Mitleid empfinden, registriert das gleich eine ganze Reihe von Hirnarealen - und zwar interessanterweise dieselben, die auch für die Schmerzempfindung zuständig sind. Das schließt den somatosensorischen Kortex ein, die temporo-parietale Verbindung und die Amygdala. Wenn aber erkennbar ist, dass der leidende Mensch absichtlich verletzt wird, kommen zusätzlich die Hirnregionen ins Spiel, die sich mit sozialer Interaktion und moralischer Beurteilung befassen.
Das Navigationszentrum
Das GPS-Organ des menschlichen Gehirns wird von einem Teil des Hippocampus gebildet. Eine Studie an Londoner Taxifahrern zeigte, dass die über lange Jahre erworbene Kenntnis von 250.000 Straßen der Stadt den aktivierten Teil des Hippocampus stark vergrößert - selbst bei Busfahrern war von diesem Phänomen nichts festzustellen.
Das Ich-Zentrum und das Du-Zentrum
Wenn wir versuchen, die Gedanken anderer Menschen zu erahnen, werden dieselben Gehirngebiete hochgefahren wie beim Nachdenken über uns selbst - nämlich Teile des ventromedialen präfrontalen Kortex. Mit einer Besonderheit: Das gilt nur für Menschen, die uns ähnlich sind. Betrachten wir hingegen jemanden als politisch, sozial oder religiös andersartig, dann beurteilen wir diesen eher aus unseren Beobachtungen und Erfahrungen heraus.
Das Glaubenszentrum, das Unglaubenszentrum und das Unsicherheitszentrum
Gott im Gehirn zu finden, ist den Forschern bisher nicht gelungen - im Gegenteil, Versuche an Nonnen zeigen, dass sich Religiosität im Hirn sehr unterschiedlich manifestiert. Es gibt aber Areale, die typischerweise mit Glauben, Unglauben und Unsicherheit zu assoziieren sind, glauben die Forscher. Dazu untersuchte man in einer Studie Probanden, denen Wissen vorgelegt wurde, das sie entweder glaubten, nicht glaubten oder nicht beurteilen konnten. Der Unterschied zwischen Glauben und Unglauben zeigte sich demnach vor allem anhand von Aktivitäten im Frontallappen, und zwar unabhängig vom Inhalt des geglaubten (oder nicht geglaubten). Unglauben zeigte sich zudem besonders in den Bereichen, die man sonst Gefühlen wie Schmerz und Unbehagen zuordnet, wie sie etwa bei negativen Sinneseindrücken aus dem Geschmacks- oder Geruchssinn auftreten. Waren die Probanden hingegen unsicher, aktivierten sie vor allem ihren anterioren cingulären Kortex, der sich um Konfliktauflösung und Fehlererkennung kümmert.
Das Schönheitszentrum
Die Beuteilung von Schönheit vollzieht sich in zwei unabhängigen, nicht exklusiven Prozessen: zur Erkennung "objektiver" Schönheit (etwa an Skulpturen mit Proportionen im "Goldenen Schnitt") aktivieren wir die Insula. Die subjektive Perspektive, die Vergleiche und das "gefällt mir" ermöglicht, verleiht uns hingegen die rechte Amygdala.
Quelle : http://www.heise.de/tp/
Titel: Die neue Landkarte des Gehirns - die Rückseite
Beitrag von: SiLæncer am 24 Mai, 2009, 11:44
Wo verwalten wir Sucht und Furcht, welche Nervenzellen rechnen? Der zweite Teil einer kleinen Landkarte des Gehirns, die aktuelle Untersuchungen per Magnetresonanztomograf aufgestellt haben.
Vorgemerkt sei auch hier, dass die Vorstellung, ein ganz bestimmte graue Zelle würde jahrein, jahraus nur die Farbe von Großmutters Nachthemd speichern, von der Wissenschaft schon seit längerem abgelehnt wird. Das Gehirn ist eben kein Archiv, in dem es nach den Regeln der Bibliothekskunst zugeht und fixe Schubladen bestimmte Daten enthalten. Vielmehr arbeitet unser Denkorgan dynamisch und in Strukturen. Eben diese lassen sich mit Hilfe der funktionellen Magnetresonanztomografie gut aufspüren - wenn Nervenzellverbände aktiv sind, sind sie durch einen stärkeren Blutfluss gekennzeichnet. Und der ist im Magnetresonanztomogramm deutlich erkennbar. Eine Zusammenfassung der jüngsten Ergebnisse.
Das Suchtzentrum
Wie würden Sie entscheiden, müssten Sie Jörg Draeger gegenüberstehen und sich in "Geh aufs Ganze!" für ein Tor oder für den vom Showmaster gebotenen Geldbetrag entscheiden? Ob Sie sich dabei eher nicht zu einem Deal überreden lassen, sondern auf den Hauptgewinn hoffen, hängt offenbar weniger vom Inhalt des Geldbriefs ab als davon, was in ihrem Gehirn passiert. Pulsiert nämlich ihr ventrales Striatum nur so von Aktivität, gehören Sie wohl zu den impulsiven Entscheidern, die ihre Belohnung im Hier und Jetzt suchen. Ob jemand die sofortige Befriedigung sucht oder auch länger darauf warten kann, ist jedoch direkt mit Impulskontroll-Problemen verknüpft, wie sie für Spiel- und Drogensucht typisch sind.
Das Furchtzentrum
Tragen Sie auch schon lange die Entscheidung mit sich herum, sich endlich mal einen neuen Zahnarzttermin zu besorgen? Klar, für den kurzen Anruf war bisher einfach keine Zeit… Das Bestreben, Entscheidungen mit erwartbar unangenehmen Folgen herauszuzögern, teilen Sie immerhin mit vielen Mitmenschen. Aber wenn der Termin dann herangekommen ist, dann wollen Sie ihn vermutlich so schnell wie möglich hinter sich haben - ein typisches Zeichen dafür, dass die Furcht vor dem Ereignis schwerer auszuhalten ist als das Ereignis selbst. Forscher haben diese Furcht im Labor untersucht - die Probanden mussten sich hier entscheiden, entweder sofort einen schmerzhafteren Elektroschock zu erhalten oder für gewisse Zeit auf einen weniger schmerzhaften Stromschlag zu warten. Immerhin ein Viertel der Versuchsteilnehmer entschied sich für die "Ende mit Schrecken"-Strategie. Dabei war insbesondere der Teil ihres Gehirns aktiv, der sich mit Schmerzen befasst - in ihrer Verbindung zu Aufmerksamkeit - nicht aber die Teile, denen man eine Rolle bei Ängsten zuschreibt. Das heißt aber auch, dass man diese Art Furcht im Wortsinn zerstreuen kann - mit einer Ablenkung, die den Aufmerksamkeitsfaktor dämpft.
Das Rechenzentrum
Der intraparietale Sulcus im Schläfenlappen ist anscheinend für die quantitative Auffassung zuständig. Sogar bei Vierjährigen, die ihre numerischen Fähigkeiten erst noch entwickeln müssen, scheint das der Fall zu sein.
Das Lügenzentrum
Der Lügendetektor, im US-Gerichtswesen nicht ganz unbekannt, spielt aus gutem Grund hierzulande keine Rolle. Dass er als Beweismittel nichts taugt, hat aber nicht nur mit den bürgerlichen Rechten Verdächtiger zu tun, es hat auch handfeste physiologische Ursachen. Die Kennzeichen, die der Lügendetektor misst, sind nämlich trainierten Probanden durchaus auch bewusst zugänglich. US-Forscher haben nun untersucht, ob sich auch im Gehirn selbst Anzeichen für Lügen finden lassen. Ein echtes Lügenzentrum fanden die Wissenschaftler (abgesehen von erhöhter Aktivität im Frontallappen) zwar nicht. Aber bewusst zu lügen ist schwieriger, als einfach nur die Wahrheit zu sagen - und so zeigte sich beim Lügen Aktivität in immerhin 14 Gebieten, blieb der Proband bei der Wahrheit, aktivierte er nur acht Bereiche.
Das Stresszentrum
Stress zeigt sich im Gehirn im rechten anterioren Teil des präfrontalen Kortex - einem Gebiet, dem man schon länger Angst und Depressionen zuordnete. Die höhere Aktivität ging nicht einmal zurück, wenn Forscher den Stresstest an ihren Probanden beendet hatten - ein Hinweis auf die schädigende Wirkung von Stress.
Das Liebes- und das Sex-Zentrum
Und wo steckt die Liebe? Auf der Suche danach testeten US-Forscher 17 junge Männer und Frauen, die sich selbst als neu und stark verliebt bezeichneten. Ihre Erkenntnisse dürften konservativen Eltern gefallen: Die frühe romantische Liebe hat demnach mehr mit Aspekten rund um Motivation, Belohnung und Antrieb zu tun als mit Gefühlen oder gar Sex. Es werden zunächst Gebiete aktiviert, die wir evolutionär mit anderen Säugetieren teilen. Die frühe romantische Liebe, folgerten die Forscher, könnte demnach ein Überbleibsel früherer Zeiten darstellen, als uns eine Art Jagdinstinkt dazu brachte, den gewünschten Partner auszuwählen und schließlich zur Strecke zu bringen. Gefühle wie Euphorie oder Angst und selbst sexuelle Erregung, das geben die Forscher gern zu, stellen sich früher oder später ebenfalls ein - doch zunächst versuche eben das evolutionär ältere Belohnungssystem zu seinem Recht zu kommen.
Quelle : http://www.heise.de/tp/
Titel: Simuliertes Gehirn: Wir werden ewig leben im Silizium
Beitrag von: SiLæncer am 20 Juli, 2009, 19:56
Körper nutzen sich ab, aber es naht der Zeitpunkt, an dem wir Gehirne im Computer simulieren können - und ewig in ihnen leben, glaubt der Hirnforscher David Eagleman. Wichtig ist nur, dass wir auf dem Chip auch weiterhin Erinnerungen sammeln können. Sonst droht Stillstand.
Die Medizin wird zwar im nächsten halben Jahrhundert Fortschritte machen. Der Weg zur Unsterblichkeit ist aber nicht die Heilung sämtlicher Krankheiten. Ein Körper nutzt sich im Laufe der Zeit einfach ab.
Wir machen allerdings riesige Fortschritte bei Technologien, die uns gestatten, unvorstellbare Datenmengen zu speichern und gigantische Simulationen durchzuführen. Daher werden wir - lange bevor wir verstanden haben, wie das Gehirn funktioniert - in der Lage sein, digitale Kopien der Gehirnstruktur anzufertigen. Und dann können wir auch das Bewusstsein auf einen Computer herunterladen.
Sollte die Hypothese stimmen, dass das Gehirn im Grunde genommen wie ein Computer arbeitet, müsste eine genaue Nachbildung unseres Gehirns auch unsere Erinnerungen enthalten, so handeln, denken und fühlen, wie wir es tun, und unser Bewusstsein erleben - unabhängig davon, ob diese Nachbildung aus biologischen Zellen, Modellbauteilen oder Nullen und Einsen besteht.
Der wichtige Teil unseres Gehirns ist - so die Theorie - nicht dessen Struktur. Es geht vielmehr um die Algorithmen, die auf dieser Struktur laufen. Bildet man also das Gerüst nach, das diese Algorithmen unterstützt, dann sollte der sich daraus ergebende Geist identisch sein - selbst wenn das Medium ein anderes ist.
Sollte sich das als korrekt herausstellen, ist es nahezu sicher, dass wir bald über Technologien verfügen werden, mit denen wir unsere Gehirne kopieren können - um im Silizium ewig zu leben.
Wir werden nicht mehr sterben müssen.
Stattdessen werden wir in virtuellen Welten wie der "Matrix" leben. Ich kann mir vorstellen, dass es Märkte geben wird, in denen man verschiedene Arten von Leben nach dem Tode wird erwerben können. Und man wird diese mit unterschiedlichen Menschen teilen können - das ist die Zukunft sozialer Netzwerkdienste.
Dem eigenen Tod zuschauen
Hat man sich erst einmal heruntergeladen, kann man vielleicht sogar den Tod des eigenen Körpers, draußen in der echten Welt, beobachten - so wie man sich einen interessanten Film anschauen würde.
Diese hypothetische Zukunft stützt sich natürlich auf viele Annahmen. Wenn sich nur eine davon als Trugschluss erweist, stürzt das gesamte Kartenhaus zusammen. Das Hauptproblem besteht darin, dass wir nicht genau wissen, welche Variablen entscheidend sind und unbedingt in unsere hypothetische Gehirnabtastung einbezogen werden müssen.
Entscheidend werden vermutlich die Details der Verbindungen zwischen den Hunderten von Milliarden von Neuronen sein. Doch auch eine genaue Kenntnis der Verschaltung des Gehirns wird nicht reichen. Die dreidimensionale Anordnung der Nervenzellen und Glia-Zellen wird wahrscheinlich ebenfalls von Bedeutung sein, beispielsweise wegen der dreidimensionalen Diffusion von Signalen außerhalb der Zellen. Auch wie stark jede der 100 Billionen synaptischen Verbindungen ist, müssen wir ermitteln und festhalten. In einem noch komplexeren Szenario wird es zudem noch nötig sein, den Zustand einzelner Proteine (den Phosphorylierungszustand, die genaue räumliche Struktur, die Wechselwirkung mit benachbarten Proteinen etc.) zu erfassen und zu speichern.
Möglicherweise wird eine Simulation, die sich auf das Zentralnervensystem beschränkt, nicht ausreichen, um das Erleben vernünftig zu simulieren. Andere Aspekte des Körpers müssen womöglich ebenfalls berücksichtigt werden - etwa der Hormonhaushalt, der Signale an das Gehirn schickt und von dort empfängt. So könnten es möglicherweise Trillionen von Variablen sein, die man speichern und nachbilden müsste.
Gehirnsimulation muss nicht in Echtzeit laufen
Die andere große technische Hürde besteht darin, dass das simulierte Gehirn in der Lage sein muss, sich selber zu modifizieren. Wir benötigen nicht nur die einzelnen Teile und Komponenten, sondern auch die physikalischen Eigenschaften ihrer fortwährenden Wechselwirkungen. Transkriptionsfaktoren, die in den Zellkern wandern, um dort Gene zu aktivieren, die Veränderungen der Position und Stärke der Synapsen, etc.
Nur wenn die simulierten Erlebnisse in der Lage sind, die Struktur des simulierten Gehirns zu verändern, kann man auch neue Erinnerungen bilden. Wenn man das nicht kann, wird man das Verstreichen der Zeit nicht bemerken. Hätte es unter solchen Umständen dann überhaupt einen Sinn, unsterblich zu sein?
Die gute Nachricht ist die, dass die Rechenleistung von Computern ausreichend schnell zunimmt. Innerhalb eines halben Jahrhunderts dürften wir das alles schaffen. Außerdem: Die Simulation des Gehirns muss nicht in Echtzeit laufen, damit das simulierte Gehirn glaubt, in Echtzeit zu agieren.
Zweifelsohne ist die ganze Gehirnnachbildung ein äußerst komplexes Problem. Zum gegenwärtigen Zeitpunkt haben wir keine neurowissenschaftlichen Technologien, die für die benötige Abtastung mit einer extrem hohen Auflösung geeignet wären. Und selbst wenn wir sie hätten, würden mehrere der leistungsstärksten Computer der Welt notwendig sein, um ein paar Kubikmillimeter Gehirngewebe in Echtzeit abzubilden.
Es ist eine gewaltige Herausforderung. Aber sofern wir bei den theoretischen Überlegungen nichts Entscheidendes ausgelassen haben, haben wir das Problem abgesteckt. Ich gehe davon aus, dass das Herunterladen von Bewusstsein zu meinen Lebzeiten Wirklichkeit werden wird.
Aus dem Englischen übersetzt von Daniel Bullinger
Quelle : www.spiegel.de (http://www.spiegel.de)
Titel: Re: Simuliertes Gehirn: Wir werden ewig leben im Silizium
Beitrag von: Jürgen am 21 Juli, 2009, 01:44
Warum solle man das geringste Interesse daran haben, das eigene Gehirn irgendwohin kopieren zu lassen? Pervertierte Eitelkeit?
Es ist nicht davon auszugehen, dass das eigene Bewusstsein, die eigene Wahrnehmung, diesen Umzug mitmachen würde. Man würde also nicht das eigene Sterben sehen, sondern allenfalls das Nicht-Sterben einer Maschine. Um den Preis der eigenen Einzigartigkeit. Wer braucht schon 'nen maschinellen Klon... Und um den der Freiheit, denn man darf getrost von exorbitanten Kosten ausgehen. Müsste also grosse Teile des eigenen Lebens der Finanzierung eines Cyborg opfern, möglicherweise sogar anstelle der Verlängerung des eigenen Lebens. Und wenn man tot ist, kann man die Stromrechnung nicht mehr zahlen. Also zieht wohl bald wer den Stecker raus. Ende jeder Illusion. Die Menschheit braucht solche elektrischen Zombies ohnehin allenfalls als Arbeitssklaven. Maschinen haben eben keine Menschenrechte. So muus wohl auch jeder, der seinen Kadaver als Cryonaut einfrieren lässt, damit rechnen, eines Tages als Hundefutter zu enden.
Na denn, viel Spass in der Ewigkeit als CPU, zerrieben zwischen Investoren und Zeitarbeitsfirma...
Titel: Was ist die primäre Funktion des Bewusstseins?
Beitrag von: SiLæncer am 08 Oktober, 2009, 12:01
Nach einer Studie von Psychologen wird das Bewusstsein vor allem dann als Vermittler und Entscheidungsinstanz eingeschaltet, wenn unvereinbare motorische Handlungsabsichten vorliegen
Warum ist Bewusstsein primär entstanden? US-Psychologen glauben, einen Hinweis darauf gefunden zu haben, dass Bewusstsein ursprünglich die Funktion hatte, unvereinbare Handlungen zu lösen. Der Gedanke dahinter ist der, dass ein Mensch sich nicht gleichzeitig in verschiedene Richtungen bewegen kann und bei inkompatibeln Anforderungen motorisch die Entscheidung treffen muss, etwa rechts oder links zu laufen.
Kaum untersucht sei, so sagen die Psychologen, der Zusammenhang zwischen Konflikten und der subjektiven Erfahrung. Dies sei wissenschaftlich eine "terra incognita". Sie verweisen auf den Stroop-Test, bei dem Versuchspersonen Worte in einem farbigen Feld lesen müssen. Passen diese nicht zusammen, beispielsweise das Wort BLAU in einem roten Feld auftaucht, dann verlängert sich die Reaktionszeit und häufen sich die Fehler. Untersucht worden seien aber nur die kognitiven oder neuronalen Grundlagen, nicht aber die subjektiven Folgen.
Viele Konflikte werden unbewusst gelöst, die eigenwillige Hypothese der Psychologen ist, dass das Bewusstsein dann eingeschaltet wird, wenn es um die Kontrolle der Skelettmuskeln geht weil dies gewissermaßen eher Eindeutigkeit erzwingt als bei kognitiven oder perzeptuellen Konflikten. Mit dem Bewusstwerden wird dann durch eine Art Dialog (cross talk) versucht, die widersprechenden Bewegungsintentionen zu lösen. Während Konflikte auf der Wahrnehmungsebene wie konfligierende Stimuli das Bewusstsein oft nicht sonderlich beschäftigen, sei eine starke Aktivität bei Konflikten für die motorische Steuerung zu beobachten – selbst wenn diese nur bewusst als Handlungsplan vorgestellt, aber noch gar nicht realisiert werden.
Aufgebracht hatte diese Theorie der primären – natürlich nicht ausschließlichen - Funktion des Bewusstseins zur willentlichen Steuerung von Muskeln, die mit dem Skelett verbunden sind, Ezquiel Morsella, der auch leitender Autor diese Studie ist. "Wenn das Gehirn einem System von Computern gleicht die verschiedene Aufgaben steuern", so versucht er seine Theorie zu erklären, "dann ist das Bewusstsein einem WLAN, das es den Hirnarealen ermöglicht, miteinder zu sprechen und zu entscheiden, welche Handlung gewinnt" und ausgeführt wird."
Für ihre Studie " The Essence of Conscious Conflict: Subjective Effects of Sustaining Incompatible Intentions", die in der Oktoberausgabe der Zeitschrift Emotion erschienen ist, ließen sie daher Versuchspersonen, die zuvor zur Selbstwahrnehmung trainiert wurden, sich vorstellen, einander widersprechende Aktionen ausführen zu wollen, beispielsweise mit derselben Hand gleichzeitig einen Knopf links und rechts zu drücken. Solche Konflikte rufen stärkere Veränderungen im Bewusstsein hervor als miteinander vereinbare Absichten, beispielsweise zu einem Knopf langen und den Arm dabei wackeln zu lassen, oder solche Vorstellungen, die keine Bewegungen von Skelettmuskeln einschießen. Die Versuchspersonen mussten die Stärke der "Aktivität" des Bewusstseins auf einer Skala angeben.
Damit soll die Theorie bestätigt werden, dass das Bewusstsein primär auf die Ausführung von Tätigkeiten ausgerichtet ist. Eine der Funktionen sei, diese Handlungen durch Simulation vorwegzunehmen. Deswegen könnten sich dann auch Handlungen in der Zukunft bewusst planen lassen. Allerdings kann die Hypothese wohl nur einen möglichen Aspekt von Bewusstsein deutlich machen. Ob es ein primärer ist, bleibt eine Behauptung, zumal sicherlich auch kognitive und emotionale Zerrissenheiten sowie Konflikte in der Wahrnehmungsdeutung schnell gelöst werden müssen, wenn keine Routinen vorhanden sind, also sicherlich auch Bewusstsein und Aufmerksamkeit zur Lösung benötigen.
Quelle : http://www.heise.de/tp/
Titel: Re: Was ist die primäre Funktion des Bewusstseins?
Beitrag von: Jürgen am 09 Oktober, 2009, 01:59
Wenn das stimmt, was ich durchaus glaube, muss man auch vielen Tieren ebenfalls ein Bewusstsein zugestehen (was ich schon lange tue). Damit wäre abermals eine Bastion des Aberglaubens von der Einzigartigkeit menschlicher Überlegenheit gefallen.
IBM Research hat einen Schritt in Richtung Computersysteme gemeldet, welche die Fähigkeiten des Gehirns simulieren und emulieren können. Wissenschaftlern des IBM-Forschungszentrums Almaden ist erstmals eine Simulation annähernd in Echtzeit gelungen.
Die Simulation umfasst einen Kortex mit einer Milliarde Neuronen und zehn Billionen Synapsen - mehr als beim Gehirn einer Katze. Für die Katzenhirn-Simulation, die im Rahmen der Supercomputer-Konferenz SC09 vorgestellt wurde, kam der Superrechner "Dawn" am Lawrence Livermore National Laboratory zum Einsatz. Dieses Blue Gene/P-System belegt mit seiner Rechenleistung im 34. Superrechner-Top-500-Ranking, das zur SC09 erschienen ist, Platz elf. Dementsprechend dürfte der Weg bis zu Computern, die wirklich wie ein menschliches Gehirn arbeiten, noch relativ weit sein.
Die kortikale Simulation ist ein Werkzeug, um die Arbeitsweise des Gehirns besser zu verstehen, um eine technische Nachbildung zu ermöglichen. "Vom Gehirn zu lernen ist eine attraktiv Möglichkeit, Energieversorgungs- und Dichteherausforderungen zu bewältigen, mit denen das Computing heute konfrontiert ist", sagt Josephine Cheng, Vice President bei IBM Research - Almaden. Ein "synaptischer" Chip könnte nanotechnologisch unter Ausnutzung von Fortschritten bei Phasenwechsel-Speichermaterialien und magnetischen Tunnelkontakten realisiert werden.
Ergänzt wird die Simulation dabei durch einen zweiten Forschungs-Meilenstein. Ein in Zusammenarbeit mit der Universität Stanford entwickelter Algorithmus verspricht die Möglichkeit, die vielen neuralen Verbindungen im menschlichen Gehirn mithilfe von diffusionsgewichteter Magnetresonanztomografie nicht-invasiv zu vermessen. Solche Daten können die Grundlage für Theorien zur Gehirnfunktion bilden, die dann mit dem Simulator getestet werden können.
"Das IBM-Modell ist völlig anders als das, was wir machen", meint Henry Markram, Leiter des Blue Brain Projekts an der École Polytechnique Fédérale de Lausanne (EPFL), auf Nachfrage von pressetext. Das Schweizer Projekt simuliert zwar ebenfalls das Gehirn und nutzt bislang ebenso einen IBM-Superrechner, eine Verbindung zwischen den beiden Forschungsprojekten besteht jedoch nicht. Das mag mit unterschiedlichen Zielsetzungen zusammenhängen. Während IBM eher die Chipentwicklung in den Vordergrund stellt, will Blue Brain auch helfen, neurologische Störungen zu verstehen. "Was IBM da macht ist trivial und hat wenig mit dem Gehirn zu tun", meint Markram gar. Dem gebürtigen Südafrikaner zufolge könnte ein künstliches menschliches Gehirn in zehn Jahren Realität sein - was etwa hundert mal mehr Neuronen und Synapsen bedeutet als in IBMs Katzenkortex-Simulation.
Quelle : www.tecchannel.de
Titel: Streit um IBMs „Katzenhirn“-Simulation
Beitrag von: SiLæncer am 24 November, 2009, 13:39
Eine Präsentation von IBM auf der internationalen Supercomputing Conference SC09 in Portland, Oregon, hat zu einem heftigen Streit unter Wissenschaftlern geführt. In einem offenen Brief an den IBM-CTO Bernard Meyerson bezeichnete der Hirnforscher Henry Markram die von IBM in einer Pressemitteilung zu dieser Präsentation verbreiteten Behauptungen als „Betrug an der Öffentlichkeit“, „komplette Zeitverschwendung“ und „schädlich für die Wissenschaft“.
Stein des Anstoßes ist insbesondere die publikumswirksame Behauptung der Wissenschaftler um Dharmendra Modha, Leiter des Bereichs „Cognitive Computing“ bei IBM Research, man habe „ein Gehirn größer als das einer Katze nahezu in Echtzeit“ simuliert. Die Präsentation auf der SC09 trug dementsprechend den Titel: „The Cat is out of the Bag: Cortical Simulations with 109 Neurons and 1013 Synapses.“
Modha und seine Kollegen hatten bereits vor einem Jahr für viel Aufsehen gesorgt, als sie den Zuschlag für ein Teilprojekt des Programms „Systems of Neuromorphic Adaptive Plastic Scalable Electronics“ (SyNAPSE) der DARPA bekommen hatten. Nicht weniger als ein „reengineering des Gehirns“ schwebe ihm vor, hatte Modha erklärt. IBM werde mit seinen Uni-Partnern ein System kreieren, das in Anlehnung an das menschliche Gehirn in der Lage ist, kognitive Fähigkeiten zu entwickeln. Für das C2S2-System (Cognitive Computing via Synaptronics and Supercomputing) stellt die DARPA zunächst 4,9 Millionen Dollar zur Verfügung.
Im Rahmen eines Interviews mit Technology Review hatte Modha dann allerdings eingeräumt, dass seine Simulation mit relativ einfach strukturierten Neuronen läuft. „Im vergangenen Jahr haben wir Hirngewebe simuliert, dass etwa so groß ist, wie das einer Ratte“, sagt er. „Aber um das klar zu sagen: Das war nicht das Gehirn einer Ratte – es war neuronales Gewebe, dessen Größe dem eines Rattenhirn entspricht. Jede Simulation ist nicht mehr als eine Skizze – eine Art Cartoon – der Realität, die ungeheuer komplex ist. Unter dieser gegebene Voraussetzung haben wir die Neuronen so komplex modelliert wie möglich. Aber letztendlich bin ich ein Ingenieur und kein Neurologe. Ich will sehr irdische Probleme lösen - ich will IBM helfen, bessere Services für seine Kunden anzubieten.“
Der Hirnforscher Henry Markram, dessen ebenfalls von IBM gefördertes Projekt „Blue Brain“ auch die Simulation von Hirngewebe zum Ziel hat, geht dagegen einen ganz anderen Weg: Er will die einzelnen Neuronen so exakt wie möglich simulieren. Das bislang übliche Vorgehen, eine Neuron einfach als mit anderen Hirnzellen verknüpften Punkt zu betrachten lasse „über 90 Prozent der Funktionalität des Gehirns“ außer Acht, sagt Markram. Kritiker hatten auch Markram vorgeworfen, seine Ankündigung, in zehn Jahren könne man das Hirn eines Säugetiers biologisch exakt in Echtzeit simulieren, schüre überzogene Erwartungen.
Nach der SC09-Präsentation zeigte sich Markram jedoch deutlich angefressen. „Du hast mir doch gesagt, dass Du diesen Kerl an den Zehen aufhängst, wenn er wieder so dummes Zeug über die Simulation eines Mäusehirns erzählt“, schreibt Markram in seinem von IEEE Spectrum dokumentierten Brief an den „lieben Bernie“. „Ich bin absolut geschockt von dieser Pressemitteilung. Nicht, weil es eine technische Meisterleistung wäre, sondern weil es eine Täuschung der Öffentlichkeit ist“.
Gedankenlesen gilt als Zauberei, ist Stoff für Legenden und Mythen. Doch moderne Hirnforschung und Physik könnten diesen uralten Menschheitstraum wahr machen, glaubt der Physiker Freeman Dyson. Dann werden wir auch tief in Gehirne von Tieren eintauchen.
Was wird alles verändern? Welche wissenschaftlichen Ideen und Entwicklungen, die sämtliche Spielregeln verändern würden, erwarten Sie noch in Ihrem eigenen Leben?
Da ich 85 Jahre alt bin, kann ich nicht davon ausgehen, dass ich noch in meinem eigenen Leben große Veränderungen in der Wissenschaft sehen werde. Gestatten Sie mir, die Frage abzuändern, damit sie etwas interessanter wird.
Was wird alles verändern? Welche wissenschaftlichen Ideen und Entwicklungen, die sämtliche Spielregeln verändern würden, erwarten Sie noch im Leben Ihrer Enkel?
Ich gehe davon aus, dass einige meiner Enkel in 80 Jahren noch am Leben sein werden. Lang genug, dass die Neurologie die Rolle der dominierenden, weltverändernden Wissenschaft übernimmt. Ich vermute, dass Genetik und Molekularbiologie in den nächsten fünfzig Jahren dominieren werden, und dass danach die Neurologie an der Reihe sein wird. Die Neurologie wird die Spielregeln des menschlichen Lebens drastisch verändern sobald wir die Mittel entwickeln, um die Aktivitäten des menschlichen Gehirns im Detail von außen zu beobachten und zu steuern.
Die uralte Legende von der Telepathie wird durch Physik erreicht werden
Dies sind die wesentlichen Punkte, welche eine detaillierte Beobachtung und Steuerung des Gehirns ermöglichen werden: Mikrowellensignale können sich im Gewebe des Gehirns problemlos über Entfernungen von einigen Zentimetern fortpflanzen. Die Dämpfung ist gering genug, dass Signale von innen übermittelt und draußen nachgewiesen werden können. Kleine Mikrowellentransmitter und -Empfänger verfügen über Bandbreiten im Gigahertzbereich, während Neuronen Bandbreiten im Kilohertzbereich haben. Die Bandbreite eines einzelnen Mikrowellentransmitters im Gehirn würde daher ausreichen, um die Aktivität von einer Million Neuronen nach draußen zu übertragen. Ein System bestehend aus 10 hoch 5 winzigen Transmittern im Gehirn mit 10 hoch 5 Empfängern außerhalb könnte die Aktivität eines ganzen menschlichen Gehirns, bestehend aus 10 hoch 11 Neuronen, im Detail beobachten. Ein System bestehend aus 10 hoch 5 Transmittern draußen und 10 hoch 5 Empfängern drinnen könnte die Aktivität von 10 hoch 11 Neuronen im Detail steuern. Die Mikrowellensignale ließen sich so codieren, dass man jedes der 10 hoch 11 Neuronen anhand des Codes bestimmen könnte, den es übermittelt oder empfängt.
Dieses physikalische Gerät würde es möglich machen, "Funktelepathie" zu praktizieren, die unmittelbare Übertragung von Gedanken und Gefühlen von einem Gehirn zum anderen. Die uralte Legende von der Telepathie, der Übertragung anhand einer okkulten und unheimlichen Fernwirkung, würde einer prosaischen Form der Telepathie weichen, die durch physikalische Mittel erreicht wird.
Damit Funktelepathie möglich wird, müssen wir lediglich zwei neue Technologien erfinden: Erstens die direkte Umwandlung von neuralen Signalen in Funksignale und umgekehrt, und zweitens die Platzierung von mikroskopischen Funktransmittern und -Empfängern in ein lebendiges Gehirn. Ich habe zwar keine Ahnung, wie diese Erfindungen realisiert werden können, ich bin jedoch davon überzeugt, dass die raschen Fortschritte in der Neurologie sie hervorbringen werden noch bevor das 21. Jahrhundert zu Ende geht.
Wir werden unmittelbar das Glücksgefühl erleben, als Vogel zu fliegen
Es ist gut vorstellbar, dass Funktelepathie ein mächtiges Instrument für soziale Veränderungen wäre, das entweder für gute oder für böse Zwecke eingesetzt werden könnte. Sie könnte Grundlage für gegenseitiges Verständnis und friedliche Kooperation der Menschen auf der ganzen Welt sein - aber auch für Tyrannei und aufgezwungenen Hass zwischen verschiedenen Gemeinschaften.
Das einzige, was wir mit Gewissheit sagen können, ist, dass die Möglichkeiten der menschlichen Erfahrung und Erkenntnis radikal erweitert würden. Eine durch Funktelepathie zusammengeschweißte Gesellschaft würde das menschliche Leben auf eine vollkommen neuartige Weise erleben. Es wird die Aufgabe unserer Enkel sein, die Spielregeln so festzulegen, dass die Auswirkungen der Funktelepathie konstruktiv statt destruktiv sein werden. Sie sollten schon heute über diese Verantwortung nachdenken. Die erste Spielregel, die nicht so schwer in Gesetzesform zu bringen sein dürfte, lautet: Jedem Einzelnen muss die Möglichkeit garantiert werden, die Funktelepathie jederzeit abzuschalten - ob mit oder ohne Grund. Wenn die Kommunikationstechnik immer tiefer ins Privatleben eindringt, muss die Privatsphäre als Grundrecht des Menschen geschützt werden.
Eine weitere Reihe von Möglichkeiten und Verpflichtungen wird entstehen, wenn die Funktelepathie vom Menschen auf andere Lebewesen ausgedehnt wird. Wir werden unmittelbar das Glücksgefühl erleben, als Vogel zu fliegen oder als Wolf im Rudel zu jagen, aber auch die Schmerzen des gejagten Rehs oder des hungernden Elefanten. Wir werden am eigenen Leib die Gemeinschaft der Lebewesen spüren, der wir angehören. Ich kann nur hoffen, dass wir, indem wir unsere Gehirne mit unseren Mitlebewesen teilen, zu besseren Hütern unseres Planeten werden.
Quelle : www.spiegel.de
Titel: Re: Hirn ruft Hirn
Beitrag von: Jürgen am 30 November, 2009, 02:35
Megabytes von einem Computer zum anderen zu übertragen funktioniert, das wissen wir.
Aber die Grundvoraussetzungen dafür sind vielfältig.
So wird zuallererst eine gleichartige Interpretation der Daten vorausgesetzt. Das geht z.B. über standardisierte Betriebssysteme oder speziell für Datenaustausch vorgesehene Software-Komponenten wie Browser. Gibt's im Hirn nicht, denn jedes ist individuell strukturiert, viele der neuronalen Vernetzungen sind erst im Laufe des zweifellos individuellen Lebens gewachsen, verschwunden, umgenutzt usw. Damit sind wir bei'm zweiten Knackpunkt, der Speicherorganisation. So wie der RAM-Inhalt von Windows XP mit dem von DOS oder irgendeinem Linux überhaupt nichts zu tun hat, nicht einmal die Struktur / Fragmentierung, geschweige denn die Bedeutung, so sind auch die Strukturen zweier Gehirne niemals völlig gleich bzw. kompatibel. Das Betriebssystem im Hirn, wenn man davon sprechen möchte, arbeitet eben jahrelang selbstorganisiert und selbstkorrigiert. Die grobe Struktur ist zwar ähnlich, wie z.B. das Sprachzentrum immer mehr oder weniger am selben Ort sitzt, aber schon die Anzahl der enthaltenen Zellen ist nie genau identisch, die der Ganglien schon gar nicht. Und deren Interaktion erst recht nicht.
Nebenbei möchte ich darauf hinweisen, dass es für keinen Neurologen der Welt bislang auch nur annähernd möglich ist, die tatsächliche Bedeutung eines einzelnen Nervenimpulses im Hirn festzustellen. Ebensowenig, wie ein einziges Bit im RAM eines modernen Rechners auch keine ständig festgelegte Bedeutung hat. Also ist es mit Sicherheit nicht möglich, zwischen betriebswichtigen Bereichen der Hirn-Datenstruktur und solchen zu unterscheiden, die eventuell schadlos mit fremden Daten bespielt werden könnten. Was würde es nützen, wenn man vielleicht einmal ein fremd gehörtes Geräusch übertragen könnte, aber damit die komplette Kiste zum Absturz bringt...
Dann denken wir doch einmal über so simple Verdrahtungen wie den Gehörnerv nach, und über die Versuche, diesen zu kontaktieren, um Tauben wider eine Art von Gehör zu geben. Schon dieser Versuch, mit z.B. 64 Elektroden Signale dort einzuspielen, setzt anschliessend voraus, dass das Hören monatelang neu erlernt wird. Die Lage der Nervenzellen im Bündel ist nämlich kaum oder gar nicht mit der Arbeitsfrequenz der Sinneszellen in der Schnecke koordiniert. Gedankenmuster sind sicherlich nicht weniger komplex verteilt als das Gehör. Und selbst von der Funktionsweise des menschlichen Audio-DSP haben wir noch überhaupt keine Ahnung.
Auch hier eine Analogie zum Computer: Kann man von der Pin-Anzahl eines Audio-Chips auf seine Funktiosweise schliessen? Oder kann man gar erwarten, ohne einen exakten Schaltplan fünfzigmal das Gehäuse anzubohren und so nützliche Signale eines etwas anderen Chips zu übertragen?
Es ist viel eher anzunehmen, dass man so sowohl die Hardware ruiniert als auch das ganze Betriebssystem beschädigt.
Glücklicherweise, möchte ich betonen. Sonst würden uns nämlich die Politiker, Arbeitgeber, Gläubiger usw. sofort zu verdrahteten Sklaven in der Matrix machen.
Never ever. I don't take any of those pills...
Jürgen
Titel: Wie speichert das Gehirn Begriffe?
Beitrag von: SiLæncer am 14 Januar, 2010, 20:00
Wissenschaftler entschlüsseln das Wörterbuch des Gehirns
Wissenschaftler haben entschlüsselt, wie das Gehirn Begriffe speichert. Mit Hilfe von bildgebenden Verfahren und Computern haben sie Menschen beim Denken beobachtet und Aktivitätsmuster für bestimmte Wörter errechnet. Am Ende konnten sie vorhersagen, welche Regionen im Gehirn ein Wort aktivieren wird.
Das menschliche Gehirn speichert Wörter in bestimmten Regionen, die thematisch mit dem Substantiv verbunden sind. Zu diesem Ergebnis sind Wissenschaft in den USA gekommen. Sie konnten drei Kategorien - Manipulation, Schutz und Essen - ausmachen, nach denen das Gehirn Begriffe speichert.
Testpersonen beim Denken zugeschaut
Die Neurowissenschaftler Marcel Just und Vladimir Cherkassky haben zusammen mit den Informatiker Tom Mitchell und Sandesh Aryal von Carnegie Mellon Universität (CMU) in Pittsburgh im US-Bundesstaat Pennsylvania elf rechtshändigen Probanden per funktioneller Magnetresonanztomographie (fMRT) beim Denken ins Gehirn geschaut. Sie wollten herausfinden, was dort passiert, wenn wir an bestimmte Begriffe denken.
Sie gaben ihren Testpersonen eine Liste mit 60 Alltagsbegriffen, über die sie kurz nachdenken sollten und hielten fest, welche Regionen im Gehirn dabei aktiv waren. Gewisse Aktivitätsmuster mussten sie ausfiltern, etwa alles, was mit Sehen und Lesen zu tun hat. Die übriggebliebenen Muster ließen sie mit einem Computeralgorithmus analysierten. Dabei zeichneten sich bestimmte Aktivitätsmuster ab.
Das Wörterbuch des Gehirns
"Wir haben entdeckt, wie das Wörterbuch des Gehirns aufgebaut ist", sagt Just."Es ist nicht alphabetisch, nicht nach der Größe oder Farbe von Gegenständen geordnet. Es gibt drei Grundmerkmale, die das Gehirn einsetzt, um Begriffe wie Hammer, Wohnung oder Möhre zu definieren." Sie hätten die Merkmale, die jeweils in drei bis fünf verschiedenen Regionen in Gehirn kodiert seien, Manipulation, Schutz und Essen genannt, schreiben die Wissenschaftler in einem Aufsatz (http://dx.plos.org/10.1371/journal.pone.0008622), der in der Open-Access Open-Access-Fachzeitschrift Plos One erschienen ist.
Die Vorhersage über die Gehirnaktivität bei einem bestimmten Wort (rechts) stimmt mit der später gemessenen überein (Bild: CMU)
Denke der Proband beispielsweise an das Wort Hammer, werde das Bewegungszentrum, der sogenannte Motorcortex, aktiviert. Für das Gehirn sei eben die Tatsache, wie der Hammer gehalten werde, entscheidend, erklärte Cherkassy. Deshalb repräsentiere der sensomotorische Cortex den Begriff "einen Hammer halten".
Gleiche Aktivitätsmuster
Diese Muster, so zeigte sich, sind reproduzierbar: Die Gehirne der Teilnehmer an dem Experiment wiesen bei gleichen Begriffen vergleichbare Aktivitätsmuster auf. "Wenn zwei Menschen an das Wort Hammer oder Haus denken, zeigen ihre Gehirne ähnliche Aktivierungsmuster", sagt Mitchell.
Diese Muster waren so regelmäßig, dass auch eine Gegenprobe gelang: Der Computer konnte anhand der Aktivitätsmuster mit einer relativ hohen Wahrscheinlichkeit feststellen, an welches der Worte auf der Liste ein Proband gerade dachte. Im Schnitt betrug die Trefferquote 72 Prozent. Bei zwei Personen lag sie sogar bei 84 Prozent.
Den Wissenschaftler gelang es mit Hilfe des Computers sogar vorherzusagen, welche der Regionen von Wörtern, die nicht auf der Liste standen, aktiviert werden würden. Der Computer errechnete auf Basis der Muster, die die Wörter auf der Liste erzeugten, ein Muster für das Wort Apartment, das mit dem Muster, das das Gehirn tatsächlich erzeugte, weitgehend übereinstimmte.
Zwischenmenschliche Beziehungen ausgelassen
Die Wissenschaftler schränken jedoch ein, dass sie noch nicht das ganze Wörterbuch des Gehirns entschlüsselt haben. So hätte die Liste, die sie ihren Probanden vorgelegt haben, alles was im weitesten Sinne mit Liebe, Sex oder Fortpflanzung zu tun habe, ausgespart. Nicht einmal das Wort Person sei darauf gewesen, sagte Just, Sie sind deshalb sicher, dass zu den drei Kategorien, die sie gefunden haben, noch eine für für die zwischenmenschlichen Beziehungen hinzukommt.
Es sei die erste Studie gewesen, bei der das Gehirn der Probanden allein mit Worten stimuliert worden sei. Bei bisherigen vergleichbaren Versuchen bekamen die Probanden entweder Worte und Bilder oder nur Bilder vorgesetzt.
Die Wissenschaftler glauben, dass ihre Forschungsergebnisse helfen können, psychische oder neurologische Krankheiten zu bekämpfen. Diese störten zuweilen das Verständnis bestimmter Begriffe, erklärte Just. "Ein Patient, der an Agoraphobie leidet, also an der Angst vor öffentlichen Plätzen, hat möglicherweise eine zu starke Kodierung in der Dimension Schutz." Mit Hilfe ihrer Technik könnte es möglich werden, solche Verzerrungen zu messen und vielleicht sogar zu beheben.
Quelle : www.golem.de
Titel: Neuromarketing: Der Logenplatz im Kopf des Kunden
Beitrag von: SiLæncer am 20 Januar, 2010, 10:47
Wenn keine Emotionen im Spiel sind, macht der Kunde kein Geld locker. Nur was Gefühle auslöst, schafft Wert im Gehirn. Deshalb ist die Vermarktung von Produkten, Marken und Dienstleistungen nur über die Emotionalisierung möglich. Diese These propagierte der Münchner Psychologe und Unternehmensberater Hans-Georg Häusel in einer Keynote auf der Omnicard 2010 in Berlin.
Für den Evangelisten der Verbindung von Psychologie und Hirnforschung zum Zwecke des Marketing ist der homo oeconomicus – der bewusste, freie, rational entscheidende und handelnde Kunde – ein Mythos. Was in dessen Bewusstsein vorgeht, hat wenig mit den tatsächlichen Entscheidungsabläufen im Gehirn zu tun. Laut Häusel laufen weit über 70 Prozent unserer Entscheidungen unbewusst ab; auch die wenigen bewussten Entscheidungen fällen wir nicht so frei, wie wir glauben. Sie sind quasi das Ergebnis eines Skripts, das die Evolution dem Menschen aufgeprägt hat. So haben wir 98,8% der Gene noch mit dem Schimpansen gemeinsam, "und wenn man eine Stunde auf deutschen Autobahnen unterwegs ist, wird einem das sofort klar".
Tief im limbischen System verankerte Grundemotionen, Nervenbotenstoffe und Hormone sind die eigentlichen Kräfte, die uns antreiben. Was soll man also tun, damit die Kunden die Karte zücken und kaufen? Den Orten der Entscheidung mehr Beachtung schenken und mit Neuromarketing tiefer in die Seele des Kunden schauen, rät der Psychologe, der seine Botschaft in der Münchner Nymphenburg Consult AG – "Wir sind weltweit führend im hirnforschungsorientierten Marketing" – sowie in etlichen Büchern vermarktet. Von ihm ist unter anderem "Think Limbic! Die Macht des Unbewussten nutzen für Motivation, Marketing, Management" und jüngst "Emotional Boosting – Die hohe Kunst der Kaufverführung" erschienen.
Wie Häusel den Managern erklärte, die in Kategorien von Prozesseffizienz, Innovation und Ergonomie zu denken gewohnt sind, bilden sich die Emotionen im Gehirn in einem korrespondierenden Dreieck zwischen den Polen der Dominanz, Stimulanz und Balance. Dominanz steht für Wachstum und Kontrolle, Stimulanz ist die Lust auf Neues und Balance wägt Risiken und Kosten/Nutzen-Verhältnisse ab. "Es beginnt im Gehirnstamm und endet im Großhirn, immer mit dem hormonellen System verbunden". Testosteron sorgt für Dominanz, Dopamin stimuliert, und für die Balance ist das Cortisol zuständig.
Das Ganze nennt er, markenrechtlich geschützt, 'Limbic Map'. Sie beschreibt "die Logik unseres Lebens". Die Limbic Map könne jedes (Kauf-)Verhalten aus den drei Grundmotiven erklären; mit ihr lassen sich auch Persönlichkeitsprofile bilden. Beim Autokauf etwa sind der balanzierten Persönlichkeit Sicherheit wichtig, führte der Vermarktungsexperte aus; der dominante Charakter fragt nach den PS unter der Haube und die stimulante Persönlichkeit will wissen, ob es das Objekt der Begierde auch in Pink gibt.
"Lernen Sie, die innere Logik unseres Gehirns verstehen!", appellierte Häusel an die versammelte Smartcard-Elite. "Wir wollen ans Geld unserer Kunden kommen – dazu müssen wir verstehen, wie das Gehirn funktioniert". Die Psychologie war einmal eine Theorie der Befreiung; in den Händen von Unternehmensberatern wird sie zu einem Instrument der Entmündigung. Und das ist selbst unter intelligenten Menschen offenbar gesellschaftsfähig.
Quelle : www.heise.de
Titel: X Prize für Gehirn-Computer-Schnittstelle ausgelobt
Beitrag von: SiLæncer am 04 Februar, 2010, 12:37
Die X Prize Foundation, die hoch dotierte Preise auf das Erreichen wichtiger Meilensteine in der technischen Entwicklung ausschreibt, hat einen Wettbewerb um die Entwicklung einer Gehirn-Computer-Schnittstelle gestartet.
Aktuell sucht die Stiftung Geldgeber, die das Ausloben des Preises ermöglichen. Immerhin 10 Millionen Dollar soll es für denjenigen geben, der zuerst die Anforderungen erfüllt. Binnen zehn bis zwanzig Jahren sollen entsprechende Implantate für den breiten kommerziellen Einsatz zur Verfügung stehen, so das Ziel.
In erster Linie soll die Forschung in diesem Bereich behinderten Menschen helfen. Eine Schnittstelle zwischen dem Gehirn und einer Recheneinheit könnte es beispielsweise ermöglichen, Blinde wieder zu Sehenden zu machen oder fehlende Körperteile durch maschinell betriebene und von unbewussten Gehirn-Impulsen gesteuerte Prothesen zu ersetzen.
Der letzte große Preis, den die X Prize Foundation ausschrieb, ging im Jahr 2004 an Scaled Composites. Dem Unternehmen gelang es als erstem kommerziellen Projekt, mit dem SpaceShipOne zweimal binnen zwei Wochen über eine Höhenmarke von 100 Kilometern aufzusteigen.
Aktuell läuft ein weiterer X Prize-Wettbewerb, der von Google finanziert wird. Dabei geht es um die Durchführung einer unbemannten Mond-Mission.
Titel: Re: X Prize für Gehirn-Computer-Schnittstelle ausgelobt
Beitrag von: Jürgen am 06 Februar, 2010, 00:29
"In erster Linie"... Schon klar.
Bilder einzuspielen, das wird aufgrund der fast zufälligen Feinstrukturen im Sehzentrum allerdings wohl niemals gelingen. Und das weiss zumindest jeder erfahrene Neurologe oder Neurochirurg. Allenfalls ist an Sehnerv- / Netzhaut-Stimulation zu denken, nur sind Implantate dafür keine reine Zukunftsmusik mehr, sondern Realität im Anfangsstadium.
Genausowenig wird es je gelingen, Bilder aus dem Gehirn auszulesen.
Betrachtet man das Gehirn als eine Art Maschine, dann denke man daran, dass sowohl Hardware-Feinstruktur als auch Betriebssystem / Firmware / Algos sehr individuell sind und sich zudem permanent verändern und gegenseitig beeinflussen.
Was allerdings gewisse Gruppen sehr interessieren dürfte, wäre eine möglichst präzise Erfassung emotionaler Reaktionen. Und das scheint durchaus praktikabel, weit besser als mit Lügendetektor oder EEG. Und insofern werden manche Arbeitgeber und Sicherheitsfanatiker wieder einmal von Borg-Implantaten träumen... Das macht mir langfristig durchaus Sorgen.
Jürgen
Titel: Gute Kompatibilität zwischen Gehirn und Computer
Beitrag von: SiLæncer am 24 Februar, 2010, 08:55
Es dürfte kaum einen netzaffinen Science-Fiction-Fan geben, der William Gibsons erste Cyberpunk-Buchreihe nicht kennt: In den Romanen "Neuromancer", "Count Zero" und "Mona Lisa Overdrive" wird eine Art dreidimensionales Internet beschrieben, in das sich die Protagonisten in ihrem Geiste hineinversetzen können. Die Schnittstelle in diese Welt ist dabei ein sogenanntes Brain Interface – man "steckt ein", um direkt per Hirn mit dem Rechner und dem darin abgebildeten Netz verbunden zu werden.
Solche Computer-Gehirn-Schnittstellen existieren inzwischen in zunehmender Komplexität in der Realität: Sie werden beispielsweise genutzt, um Prothesen nach Amputationen oder Lähmungen zu steuern. Forscher an der University of Washington haben nun in Testreihen festgestellt, dass sich das Gehirn erstaunlich gut an solche Systeme anpasst, berichtet Technology Review in seiner Online-Ausgabe.
Bei der Studie, die im Februar in den Proceedings of the National Academy of Sciences erschien, wurde eine Gruppe von Epileptikern untersucht, denen in Vorbereitung einer Operation Elektroden ins Gehirn eingesetzt worden waren. Die Versuchspersonen wurden zunächst gebeten, bestimmte Bewegungen durchzuführen, etwa ihre Arme oder ihren Oberkörper zu heben. Anschließend sollten sie sich den gleichen Bewegungsablauf nur vorstellen. Beide Aktionen wurden aufgezeichnet.
Im Anschluss wurden die Probanden an einen Computer gesetzt, der à la "Neuromancer" mit dem Brain Interface in Verbindung stand. Dort löste dann das Signal der reinen Vorstellung einer Bewegung das Fortschreiten eines Cursors aus. Es dauerte keine 10 Minuten, bis die dabei auftretenden Gehirnsignale deutlich stärker wurden – sogar stärker als bei der tatsächlichen Durchführung der Bewegung in der Realität. Es kam sogar noch besser: Weitere 10 Minuten später meldeten zwei der Testpersonen, dass sie den Cursor schon dann bewegen konnten, wenn sie nur daran dachten, ihn zu bewegen. Gedanken an die tatsächliche körperliche Aktion waren gar nicht mehr nötig. Das University of Washington Team sucht nun nach Wegen, die Gehirnsignale auch ohne operativ einzusetzende Elektroden abzugreifen.
Titel: Kognitive Immunität vor Informationsflut
Beitrag von: SiLæncer am 11 März, 2010, 11:05
Medien haben wenig Chancen, für Aufklärung zu sorgen, weil die Menschen nur wahrnehmen, was sie wahrnehmen wollen
Medien mögen die vierte Macht sein, aber sie scheinen nicht als Mittel der Aufklärung zu fungieren, sondern eher Meinungen zu zementieren. Schließlich rezipieren die Menschen nicht nur vorwiegend die Medien, in denen sie ihre Meinung eher wiederfinden, sie wählen auch selektiv aus, was ihnen passt – und ziehen mitunter aus Nachrichten schon einmal heraus, was dort gar nicht geschrieben oder gesagt wurde bzw. überlesen oder überhören begründete Widerlegungen einer Position, die aber trotzdem weiter aufrechterhalten wird. Offenbar gibt es auch wenig erfreuliche Mechanismen, sich vor der medialen Informationsüberflutung zu schützen.
Viele Menschen haben ein "selektives Gedächtnis", in dem bleibt, was einmal aufgenommen wurde, und das neue, korrigierende oder widersprechende Informationen wie ein Immunsystem Viren abwehrt, um energieökonomisch die Arbeit der Veränderung zu vermeiden. Das zumindest ist auch das Ergebnis einer Studie des Medienwissenschaftlers Barry Hollander von der University of Georgia, der dafür eine Umfrage unter 2.400 US-Amerikanern ausgewertet hat, die während der letzten Präsidentschaftskampagne zu drei Zeitpunkten im September, Oktober und November jeweils dieselben Fragen beantworten sollten.
Um die 20,2 Prozent der US-Amerikaner glaubten 2008, dass Barack Obama ein Muslim ist. Daran hielten sie auch fest, obgleich es genügend Medienberichte gab, die das Gerücht widerlegten. Wenn es eine mediale Aufklärung geben sollte, dann müssten Medienberichte, so die Hypothese Hollanders, eigentlich das politische Wissen korrigieren oder verändern können. Aber auch nach drei Monaten waren immer noch 19,7 Prozent derselben Meinung: "In diesem Fall hatte die Medienrezeption keine Auswirkung. Die Botschaft lautet letztlich, dass die Menschen einfach glauben, was sie glauben wollen."
Allerdings ist es dann doch nicht ganz so einfach. 60 Prozent derjenigen, die im September Obama für einen Muslim hielten, waren auch noch im November dieser Meinung. 90 Prozent derjenigen, die ihn für einen Christen hielten, änderten ihre Meinung nicht, aber 10 Prozent liefen ins andere Lager über. Es gibt also Bewegung – und auch trotz vermehrter Aufklärung von der zuerst richtigen Position zur falschen. Jüngere, weniger gut ausgebildete und politisch interessierte Menschen, die noch dazu eher politisch konservativ sind und an eine wörtliche Auslegung der Bibel glauben, haben trotz der Medienberichte und selbst der Korrektur durch den reprublikanischen Präsidentschaftskandidaten McCain ihre Meinung geändert und Obama zum Muslim gemacht. Für Hollander sind das die Gruppen, die generell den Mainstream-Medien nicht vertrauen: "Wenn Journalisten ihnen sagen, dass das nicht wahr ist, kann das auch den gegenteiligen Effekt haben und sie stärker an das Gerücht glauben lassen."
Ein Beispiel, das die These von Hollaner belegt, ist die von der Bush-Regierung in Vorbereitung zum Irak-Krieg verbreitete Desinformation, dass Saddam Hussein irgendwie in Verbindung mit al-Qaida gestanden oder gar die Anschläge vom 11.9. mit inszeniert habe. Viele Amerikaner glaubten auch noch Jahre nach dem Einmarsch in den Irak, trotz andauernder, die Meinung widerlegender Medienberichte, dass Hussein im Besitz von Massenvernichtungswaffen war. Der damalige Verteidigungsminister Rumsfeld hatte die Behauptung trotz fehlender Beweise etwa damit zu retten gesucht, dass sie halt irgendwo in der Wüste versteckt worden seien. Ende 2005 glaubten noch immer 41% der US-Bürger, Hussein habe enge Verbindungen mit al-Qaida gehabt. 22% meinten, dass Hussein irgendwie an den Anschlägen vom 11.9. beteiligt war, und 24%, dass Iraker unter den Attentätern waren. Wissenschaftler sprachen damals von einer Realitätsverdrängung, die Bush-Anhänger würden nur sehen, was sie sehen wollen, und versuchen, eine kognitive Dissonanz zu vermeiden. Die ist eben ungemütlich und erfordert ein Umdenken, was auch eine Veränderung der Identität mit sich bringt.
Hollander prophezeit, dass ähnliche Phänomene sich in den USA – und auch anderswo - in Zukunft vermehren werden. Die großen Medien verlieren Leser und Publikum, auch das Fernsehen werde parteilicher. Das selektive Gedächtnis breitet sich aus, das allerdings schon durch selektive Informationsaufnahme geprägt wird. Letztlich hat dies der philosophische radikale Konstruktivismus immer behauptet, nämlich dass die Menschen keinen direkten Zugang zur "Wirklichkeit" haben, sondern ihre Wirklichkeit konstruieren, was natürlich auch durch Ausblendung geschieht.
Nur wenn "Störungen" oder "Irritationen" groß genug werden, kann Neues nicht mehr assimiliert werden, sondern muss das träge System verändert werden. Es kommt wie nach den Bush-Jahren und dem alles beherrschenden Krieg gegen den Terrorismus sowie dem Fokus auf Sicherheit "Change" zustande, was freilich nicht bedeuten muss, dass sich wirklich etwas tiefgreifend verändert. In dem Fall hat eine knappe Mehrheit der US-Bürger die Irritation Bush durch das Mem Obama ersetzt, um zur Ruhe zu kommen oder ein neues Gleichgewicht zu finden, was aber in der realen Welt nicht gelingt, wenn nicht langatmig Strukturen verändert werden und kognitive Prägungen aufgelöst werden. Meme sind Infektionen, führen zum Widerstand des Immunsystems und müssen dieses überwinden, um integriert zu werden, d.h. ihren Code in den Wirt einzubauen. Daran beginnt Obama zu scheitern, die Gehirne wurden nicht umgebaut, das Fieber ist vorbei, die Wirtschaftskrise hat die Gehirne von Change wieder auf (Selbst)Erhaltung umgestellt.
Quelle : http://www.heise.de/tp/
Titel: Multitasking funktioniert doch
Beitrag von: SiLæncer am 30 März, 2010, 08:57
Allerdings sind nach einer Studie nur sehr wenige "Supertasker", die zwei Aufgaben gleichzeitig ohne Leistungsverlust bewältigen können
Während die einen darauf schwören, dass Multitasking durchaus möglich ist, sagen andere, es sei unmöglich gleichzeitig zwei oder mehr unterschiedliche Informationsströme zu verarbeiten. Mitunter wurde Multitasking schon mal als Körperverletzung bezeichnet. Es dürfte allerdings sehr darauf ankommen, was man darunter verstehen will.
Schließlich könnte man schon einen Spaziergang in Begleitung als Multitaskingrausch begreifen, weil man nicht nur geht und dabei schauen muss, nicht zu stolpern, keinen Passanten anzurempeln, auf Fahrradfahrer aufzupassen und die Richtung einzuhalten, sondern auch die Umgebung betrachtet und entweder zuhört oder spricht. Man könnte argumentieren, dass wir nur immer einer verschiedene sensorische, motorische und andere kognitive Prozesse integrierenden Tätigkeit nachgehen, dafür aber schnell zwischen Aufgaben hin- und herswitchen können. Das wiederum könnte zu der Oberflächlichkeit und Zerstreutheit führen, die viele Multitasking-Kritiker der Mediengeneration attestieren. Allgemein wird davon ausgegangen, dass aufgrund der begrenzten Kapazität der Aufmerksamkeit zwei Aufgaben schlechter bewältigt werden können als eine. Ein bekanntes Beispiel dafür ist, dass Telefonieren beim Autofahren das Risiko steigert, da die Reaktionsgeschwindigkeit beim Bremsen verlangsamt ist
Die Psychologen Jason Watson und David Strayer vom Applied Cognition Lab der University of Utah wollen nun jedenfalls herausgefunden haben (die Studie wird in der Zeitschrift Psychonomic Bulletin and Review veröffentlicht), dass es zwar sehr kleine, dafür aber höchst effektive Gruppe von Multitaskern gibt. Sie stellen 2,5 Prozent der Bevölkerung dar und können beispielsweise sicher fahren, während sie mit dem Handy telefonieren. Die Kehrseite der Studie ist natürlich der bekannte Fakt, dass der Rest, immerhin 97,5 Prozent, nicht erfolgreich und uneingeschränkt fahren und telefonieren kann. Watson meint, dass wir wahrscheinlich denken, wir seien die Ausnahme: "Die Chance, ein Supertasker zu sein, sind so gut wie die Wahrscheinlichkeit, eine Münze zu werfen und fünfmal hintereinander Kopf zu erhalten."
Supertasker nennen die Psychologen die Aufmerksamkeitselite, die sie aufgrund von Tests von 200 Versuchspersonen im Alter von 18-53 Jahren gefunden haben. Sie mussten in einem realistischen Fahrsimulator fahren und telefonieren oder nur fahren bzw. telefonieren. Die Telefonaufgabe war sehr anspruchsvoll, denn die Versuchsteilnehmer mussten sich an 2-5 Worte in der richtigen Reihenfolge erinnern und dabei auch noch störende mathematische Aufgaben lösen. Eine Aufgabe lautet als Beispiel: "ist (3/1) -1 = 2?": "Katze": "ist (2*2) + 1 = 4?", wobei die Versuchspersonen die Rechenaufgabe beantworten und sich die Reihenfolge der eingeflochtenen Worte merken mussten: "Schachtel". Gemessen wurde die Reaktionsgeschwindigkeit beim Bremsen, der Abstand zum nächsten Fahrzeug, die Gedächtnisleistung und die Leistung beim Rechnen.
Wie erwartet sank bei den meisten Teilnehmern die Leistung beim Multitasking zum Teil erheblich. Durchschnittlich brauchten sie 20 Prozent mehr Zeit zum Bremsen, während sich der Abstand zum vorderen Fahrzeug um 30 Prozent vergrößerte, weil die Fahrer mit dem simulierten Verkehr nicht mithalten konnten (allerdings würde dann aber auch das erhöhte Risiko durch längere Reaktionszeit auch sinken). Die Gedächtnisleistung nahm um 11 Prozent ab, nur 3 Prozent jedoch die Rechenleistung. Das würde insgesamt etwa den Leistungen eines betrunkenen Fahrers entsprechen. Bei den Supertaskern – 3 Männer und 2 Frauen - zeigte sich hingegen keine Verschlechterung, ihre Gedächtnisleistung verbesserte sich sogar um 3 Prozent. Und wenn sie nur eine Ausgabe ausführten, waren sie ebenfalls deutlich besser als der Rest. Die Ergebnisse seien nicht zufällig, was eine Überprüfung durch die Monte-Carlo-Methode ergeben hat.
Warum aber sind nicht alle Menschen Supertasker. Das hätte doch schließlich Vorteile, nicht nur Autofahren oder beim Steuern eines Düsenflugzeugs. Die Psychologen spekulieren, dass womöglich eine perfekte Multitasking-Leistung auf Kosten von anderen kognitiven Kapazitäten gehen könne. Es könnte aber auch sein, dass die Situationen, die Multitasking-Fähigkeiten erfordern, noch so neu seien, dass sich noch keine selektiven evolutionären Vorteile entwickeln konnten. Wenn die Technik weiter den Alltag durchdringt, könnte es aber auch sein, dass die Supertasker die gleichzeitige Bewältigung von zwei Aufgaben auch nicht mehr leisten können. Die Psychologen glauben aber, weil sie den Blick auf einzelne Menschen gelegt haben, dass ihr Ergebnis erst einmal die allgemein vertretene Annahme widerlegt, dass Multitasking nicht möglich sei.
Quelle : http://www.heise.de/tp/
Titel: Wenn das Gehirn in der Wolke steckt
Beitrag von: SiLæncer am 04 April, 2010, 12:54
Der selbst ernannte Internet-Süchtige und Web-Entwickler Dave Pell schrieb in seinem lesenswerten Blog "Tweetage Wasteland" kürzlich eine interessante Geschichte auf: Der Babysitter der Familie hatte kurz vor der Haustür einen bedauernswerten Zusammenstoß mit einem Auto. Dabei kam es zum Glück nicht zu schweren Verletzungen, doch das Handy der jungen Dame wurde völlig zerstört.
Vor dem Aufbruch ins Krankenhaus wollte Pell noch wissen, ob er denn den Freund der Frau anrufen solle. Das sei nett, sagte sie, doch sie kenne seine Telefonnummer nicht. Der Grund: Sie habe sie sich nie gemerkt, sondern sie nur im nun zerlegten Handy gespeichert. Pell wunderte sich zunächst darüber und dachte, dass ein derartiger Gedächtnisverlust wohl allein mit dem Unfall zu tun haben könne. Schließlich fiel ihm auf, dass auch er selbst die Nummer des Babysitters ohne sein iPhone nicht kannte.
Pells Beispiel zeigt anschaulich, wie sich die Nutzung unseres Denkapparats in den letzten Jahren verändert hat. Dank Netzdiensten wie dem Cloud Computing, dank Laptops und Smartphones ist es immer öfter unnötig, sich triviale Informationen wie Nummern, Adressen oder sogar Namen zu merken – jedenfalls scheint uns das so. All das, so glauben wir, haben wir feinsäuberlich in der Elektronik abgelegt, jederzeit abrufbar. "Das Gehirn ist dann wieder für andere Dinge frei!"
Unsere Kinder lernen unterdessen im Rahmen der Medienerziehung nicht, wie sie sich Dinge merken und sie später einsetzen können, sondern hauptsächlich den Weg, an sie heranzukommen. Googeln oder die Nutzung von Online-Lexika ersetzt jederzeit im eigenen Kopf abrufbares Basiswissen. Dass wir das eigentlich brauchen, um unsere Netzentdeckungen einzuordnen, steht auf einem anderen Blatt.
Blöd wird's immer nur dann, wenn Server oder Internet ausfallen, das Backup versagt oder gar keines (wie in Pells Beispiel) existiert. Ich will hier nicht dem wilden Faktenpauken das Wort reden, mit dem man z.B. in Japan oder China die Kinder immer noch quält. Doch die Forderung, dass man bestimmte Dinge, die unter Umständen lebensnotwendig sind, behalten sollte, ist doch eigentlich nicht zu viel verlangt, oder? Und nein, das bloße Aufschreiben auf ein analoges Blatt Papier meine ich damit nicht...
Quelle : http://www.heise.de/tr/
Titel: Kein Dreier im Gehirn
Beitrag von: SiLæncer am 16 April, 2010, 13:10
Warum der Mensch höchstens zwei Aufgaben gleichzeitig lösen kann
Der Urmensch hatte anscheinend ein relativ entspanntes Leben - jedenfalls wenn man davon ausgeht, dass die Evolution im Interesse des Überlebens einer Spezies in der Regel dafür sorgt, dass die Form der Funktion folgt. Einer Antilope hinterherzujagen und gleichzeitig ein Auge auf potenzielle Räuber zu haben, das dürfte das typische Multitasking gewesen sein, das unseren Vorfahren abverlangt wurde. Den potenziellen Sexualpartner auf dem Beifahrersitz mit witzigen Geschichten zu überzeugen, auf den Verkehr zu achten und gleichzeitig einen neuen Radiosender zu suchen, das hätte nicht nur Adam und Eva überfordert - es ist definitiv auch heutigen Menschen zu viel. Zumindesten den meisten.
Dass dem so ist, wissen Psychologen schon lange. Arbeitnehmer, die dauernd zwischen verschiedenen Aufgaben wechseln müssen, geraten nicht nur unter Stress, sondern erfüllen auch jede dieser Aufgaben in suboptimaler Qualität. Bei Autofahrern, die gerade das Handy oder Navi bedienen, verlängert sich die Reaktionszeit messbar. Das liegt daran, dass das Gehirn keine echte Gleichzeitigkeit kennt. Es arbeitet wie ein Prozessor, der seine Rechenzeit in Scheiben einteilt, die er für die geforderte Leistung bereitstellt. Doch auch der Wechsel selbst braucht Zeit - und das verlängert die Gesamt-Bearbeitungszeit im Vergleich dazu, würde man jede Aufgabe wirklich nacheinander ausführen.
Grenzen der Gleichzeitigkeit
Doch auch diese gefühlte Gleichzeitigkeit hat noch Grenzen. Das haben französische Forscher jetzt in einer Studie herausgefunden, die das Wissenschaftsmagazin Science veröffentlicht. Die Neurologen ließen 32 Probanden Buchstaben sortieren - eine simple Aufgabe, die aber zufallsgesteuert von einer zweiten Aufgabe unterbrochen wurde.
Dabei wurden die Versuchsteilnehmer dann entweder aufgefordert, Problem 1 abzubrechen und sich nur noch um die zweite Frage zu kümmern - oder sie sollten zusätzlich auch noch Problem 1 im Auge behalten, um nach der Bearbeitung der zweiten Aufgabe wieder darauf zurückzukommen. Zusätzlich setzten die Forscher auch noch unterschiedlich hohe Belohnungen für das korrekte Lösen der Probleme aus.
Wenn Menschen zwei Ziele A und B gleichzeitig verfolgen, teilen sich die zwei Frontallappen die Arbeit, indem sie simultan die zwei Ziele und damit verbundene Handlungen repräsentieren. Der hinterste Teil der Frontallappen ermöglicht es, zwischen den zwei Zielen hin- und herzuschalten, also eines zu verfolgen, während das andere Pause hat. Diese Teilung zwischen den Hemisphären erklärt, warum Menschen nicht mehr als zwei Aufgaben korrekt ausführen können. (Bild: Etienne Koechlin, Inserm-Ens Lyon)
Das erste Ergebnis, das die Wissenschaftler schildern, ist gut nachvollziehbar: Egal, ob die Probanden nun eine der Aufgaben abbrechen durften oder nicht, die Erfolgswahrscheinlichkeit war stets mit der Höhe der Belohnung für die Lösung korreliert. Das Belohnungszentrum spielt beim Multitasking offenbar eine wichtige Rolle. War die für Aufgabe 1 anstehende Belohnung allerdings an sich schon sehr hoch, dann spielte der Lohn für Lösung 2 eine geringere Rolle. Die physiologischen Grundlagen dieses Resultats testeten die Forscher mit Hilfe der funktionellen Magnetresonanztechnik (fMRT). Hier zeigte sich ein spannendes Bild: Das Belohnungszentrum teilt seine Arbeit offenbar auf beide Gehirnhälften auf.
In der rechten Hälfte repräsentierte Belohnungen wurden von einer Änderung bei der primären Aufgabe nicht beeinflusst - und umgekehrt. Doch auch die Problembearbeitung selbst vollzog sich in den beiden Gehirnhälften strikt getrennt. Dabei schnappte sich die linke Gehirnhälfte in der Regel die erste Aufgabe, die rechte Hälfte kam dann beim zweiten Problem zum Einsatz.
Die Informationsverarbeitung selbst beschränkte sich dann stets auf eine von beiden Hälften. Das erklärt, meinen die Forscher, warum selbst das eingeschränkte Multitasking, dessen der Mensch fähig ist, schnell an seine Grenzen stößt - es stehen eben nicht mehr als zwei Gehirnhälften zur Verfügung. Das testeten die Verfasser des Papers, indem sie prompt eine dritte Aufgabe einführten. Wie zu vermuten ist, scheiterten die Probanden nun genau dann, wenn sie nach dem Bearbeiten des dritten Problems wieder zur ersten Aufgabe zurückkehren sollten. Deren Platz hatte nun offenbar Aufgabe 3 eingenommen.
Quelle : http://www.heise.de/tp/
Titel: Wie weit trägt Gehirnjogging?
Beitrag von: SiLæncer am 22 April, 2010, 15:53
Eine im Fachblatt Nature erschienene Studie bezweifelt den Wert von Gedächtnistraining. Dabei ist es durchaus möglich, sein Gehirn zu trimmen.
Millionen von Menschen versuchen, ihr Denkvermögen mit Gedächtnistraining und Computerspielen auf Trab zu halten und auszubauen. Britische Wissenschaftler haben nun im Auftrag der BBC die Leistungssteigerung von über 11.000 Teilnehmern einer Internetstudie kontrolliert und sind zu dem Ergebnis gekommen, dass Gehirntraining nicht generell die geistige Kapazität steigert.
Obwohl diese Erkenntnis nicht neu ist, rauscht es im Medienwald. Wieder einmal lohnt ein genauerer Blick auf die Studie, um deren Relevanz und Aussagekraft einordnen zu können.
Das Design
Die Probanden absolvierten über sechs Wochen hinweg online mindestens drei Mal pro Woche für mindestens zehn Minuten kognitive Übungen. Dabei wurden sie in drei Gruppen eingeteilt. Die erste trainierte logisches Denken, Planen und Problemlösungsverhalten mit Hilfe populärer Gehirnjogging-Programme. Die zweite schulte in Videospielen Kurzzeitgedächtnis, Aufmerksamkeit, das Verarbeiten räumlicher Eindrücke und mathematische Fertigkeiten. Die Aufgaben lassen sich auf der Website der BBC spielen. Die dritte Gruppe diente zum Vergleich, ihre Mitglieder bekamen einfache Suchaufgaben für das Surfen im Internet.
Das Ergebnis
Nach sechs Wochen stellte sich heraus, dass die Teilnehmer zwar besser in dem geworden waren, was sie trainiert hatten. Die allgemeine geistige Leistungsfähigkeit hatte sich allerdings nicht gesteigert, wie die Wissenschaftler in Nature nun berichten. Man hatte dies mit Hilfe von vier Benchmarking-Tests gemessen, die in der Kognitionswissenschaft üblich sind.
Die offenen Fragen
Reichte die Zeit aus, um das Gehirn überhaupt vernünftig zu trainieren? Der in diesem Fall nicht ganz unabhängige Neurowissenschaftler und Firmengründer Torkel Klingberg spricht in der TIME davon, dass insgesamt nur drei Stunden geübt wurde. Das sei zu wenig, nötig seien zwischen acht und 12 Stunden. Zudem sei die Studie nicht unter kontrollierten Bedingungen abgelaufen. Da die Teilnehmer zu Hause gesessen hätten, seien Ablenkungen durch beispielsweise Hintergrundgeräusche möglich. Klingberg ist Mitautor einer der wenigen Studien, die Transfereffekte von Trainingsprogrammen bei Kindern herausgefunden haben will. Er hält den Autoren der Nature-Studie vor, unzulässigerweise von ihrem Einzelfall auf alle Gehirntraining-Programme zu schließen.
Die Kernfrage bleibt: Schiebt Gehirnjogging Transferleistungen zwischen kognitiven Bereichen an? Anders formuliert: Hilft Gehirntraining generell oder ausschließlich in dem geübten Aufgabenbereich? Findet jemand, der Telefonnummern auswendig lernt, später auch seine Autoschlüssel schneller wieder? So wie es aussieht, eher nicht.
Das heißt aber keinesfalls, dass Hirntraining gänzlich nutzlos ist. Gerade für ältere Menschen (60+) existieren Studien (1, 2), die zeigen, dass Knobeleien auch positive Wirkungen auf den Gesamtzustand des Geistes haben können. Zudem hat Susanne M. Jaeggi von der Universität Michigan vor zwei Jahren ein Trainingsprogramm veröffentlicht, das durchaus in der Lage scheint, die Fähigkeiten in anderen Bereichen als den geübten zu schärfen und das Arbeitsgedächtnis allgemeine zu verbessern.
Das Problem ist: Die auf dem Markt befindlichen Programme versprechen Elefantengedächtnis für alle, dabei sind gerade sie nur sehr eingeschränkt in der Lage, Transferleistungen anzuschieben.
Die Frage ist weniger, ob Gehirntraining funktioniert. Das tut es. Die Frage ist: Für wen und in welchem Bereich? Ein nächster Schritt wäre, man ahnt es, eine neue Studie, die alle Altersgruppen einschließt und die verschiedenen Aufgabenstellungen aus den bisherigen Studien vergleicht.
Quelle : http://www.heise.de/tp/
Titel: Gehirn-ähnliche Prozessoren - Selbstheilend und extrem klein
Beitrag von: SiLæncer am 29 April, 2010, 16:59
Die Prozessorforschung bewegt sich in Bereichen, die vor einigen Jahren noch Science Fiction waren.
Forscher aus Japan und der Technologischen Universität in Michigan haben laut XbitLabs (http://www.xbitlabs.com/news/other/display/20100428181814_Researchers_Build_Brain_Like_Molecular_Microprocessor.html) einen molekularen Mikroprozessor hergestellt, der das menschliche Gehirn als Vorbild hat. Obwohl die Neuronen im Gehirn nur 1.000x pro Sekunde aktiv sind und moderne Prozessoren Milliarden Befehle pro Sekunde verarbeiten können, ist das Gehirn dennoch überlegen. Neuronen besitzen mehrere Verbindungen, die gleichzeitig benutzt werden, während Prozessoren die Befehle nacheinander und immer auf die gleiche Weise abarbeiten.
Ein sechseckiges Molekül mit der Bezeichnung DDQ, das aus den Elementen Stickstoff, Sauerstoff, Chlor und Kohlenstoff besteht, kann wie Neuronen funktionieren. Es setzt sich zwischen zwei Gold-Substrat-Schichten selbst zusammen und kennt nicht nur die üblichen Zustände 0 und 1 sondern auch 2 und 3. Damit ist es den Forschern gelungen, eine Reihe von molekularen Schaltern aufzubauen, die gleichzeitig in Verbindung stehen und mehrere Aufgaben und Simulationen auf einmal erledigen können. Ungefähr 300 Moleküle arbeiten dabei in Verbindung und bilden die Funktion von Neuronen nach.
Laut dem Physiker Ranjit Pati sorgt dieses Netzwerk für Intelligenz und ermöglicht Lösungen für Probleme, die herkömmliche Prozessoren nicht bewältigen. Bei einem Defekt können sich die Moleküle sogar selbst reparieren. Auch diese Funktion entspricht dem menschlichen Gehirn, bei dem andere Neuronen im Notfall einspringen können.
Quelle : www.gamestar.de
Titel: Umdenken bei Alzheimer
Beitrag von: SiLæncer am 31 Mai, 2010, 18:51
Ein Hirnforscher sammelt seit Jahren Indizien dafür, dass die bisherige Erklärung der Alzheimer-Krankheit falsch sein könnte. Seine neue Hypothese ist schlecht für die bisherige Forschung und alle, die gut von ihr leben.
Bartzokis? Nie gehört. Wer soll das sein? Und was wollen Sie wissen? Myelin-Hypothese?" Der Heidelberger Professor, eine bekannte Größe der deutschen Alzheimer-Forschung, schwankt am Telefon zwischen Erstaunen und Spott über die Frage. "Nein, im Ernst, ich wüsste nicht, was an der gängigen Hypothese auszusetzen wäre." Dieses Recherchegespräch ist symptomatisch. Sobald der Name George Bartzokis fällt, finden Telefonate in ungewöhnlich süffisantem Tonfall statt oder kommen gar nicht erst zustande.
Der geschmähte Wissenschaftler ist Psychiater am Hirnforschungsinstitut der University of California in Los Angeles (UCLA) und hat 2009 eine neue Theorie zur Entstehung der Alzheimerschen Krankheit vorgestellt. Bartzokis ist überzeugt, dass Generationen von Wissenschaftlern an der falschen Stelle nach Therapiemöglichkeiten gesucht haben: "Wer Alzheimer hat, der hat keine Schwierigkeiten mit Proteinablagerungen im Gehirn. Was ihn krank macht, sind Defekte an der Isolierung der Nervenfortsätze, an den sogenannten Myelinscheiden." Diese Defekte entstünden, weil das Gehirn mit fortschreitendem Alter die Myelinschicht immer schlechter instand halten könne. Abhilfe könnte ausgerechnet eine bessere Versorgung mit Cholesterin schaffen – ein Stoff, der bisher in der Öffentlichkeit eher mit zu hohen Werten im Blut von sich reden machte.
Um seine These zu stützen, hat der Hirnforscher seit 2003 regelmäßig in namhaften Fachmagazinen eigene Gehirnbild-Studien sowie sogenannte Reviews – vergleichende Interpretationen anderer Studien – veröffentlicht. Doch auch nach sieben Jahren will niemand so recht Notiz von ihm nehmen. Erstaunlich, findet der Gehirnforscher, denn die konventionelle Alzheimer-Forschung stecke inzwischen gehörig in der Krise: Die bisherigen Hauptansätze zur medikamentösen Behandlung von Alzheimer haben alle versagt: der Versuch, durch Impfstoffe die Proteinablagerungen aufzulösen ebenso wie der, das Enzym Beta-Sekretase zu hemmen, damit die sogenannten Amyloid-Plaques gar nicht erst entstehen.
"Das Verrückte daran ist, dass eine der Impfungen sogar funktioniert hat, die Ablagerungen sind tatsächlich verschwunden", berichtet Bartzokis. "Nur hat das in vielen Fällen nichts an den Demenzsymptomen der Patienten geändert." Doch weder dieses gewichtige Indiz noch das zweite, das auch nicht so recht ins Bild von den bösen Ablagerungen passt, ließ die anderen Forscher ihre Theorie hinterfragen: Menschen, in deren Gehirn sich nach ihrem Tod Unmengen von Plaques fanden, ohne dass zuvor Alzheimer-Symptome aufgefallen waren. Beide Befunde kamen zwar auf Kongressen zur Sprache, wurden aber als Einzelfälle abgetan.
Kein Wunder: Bartzokis rüttelt an einem weltweit anerkannten und bisher als gesichert geltenden Erklärungsmodell und stellt damit auch die gesamte bisherige Therapie-Entwicklung infrage. Hätte er recht, würde dies bedeuten, dass Milliarden an Forschungsgeldern in den Sand gesetzt wurden. Fest steht: Bartzokis' These würde nicht nur einige rätselhafte Puzzleteile des Krankheitsbildes erklären helfen, sondern auch die Entwicklung von neuen, vielleicht sogar vorbeugend wirkenden Medikamenten ermöglichen. Etwa 50 Milliarden Euro, so viel wie der gesamte Staatshaushalt von Bayern, fließen jährlich in die Alzheimer-Forschung. Neun von zehn unterstützten Laboratorien suchen nach Wegen, den Plaques den Garaus zu machen. Vor allem bei der Entwicklung eines Impfstoffes gegen die Ablagerungen haben sich die Forscher ein Kopf-an-Kopf-Rennen geliefert. Doch als Bartzokis 2003 hochauflösende Bilder der Magnetresonanz-Tomografie (MRT) von 300 Patienten auswertete, kamen ihm erste Zweifel an der Plaque-Theorie.
mehr ... (http://www.heise.de/tr/artikel/Umdenken-bei-Alzheimer-1002160.html?artikelseite=2)
Quelle : http://www.heise.de/tr/
Titel: Computer denken mit
Beitrag von: SiLæncer am 26 Juli, 2010, 16:12
Eine Demonstration während der TED Converence zeigt den Entwicklungsstand bei der Steuerung von Computern per Gedanken.
Das Hardware Keyboard als Eingabehilfe für Computer scheint langsam aber sicher seinem Ende zu zu gehen. Neben der längst bekannten Maus und der Entdeckung von blossen Händen für Telefon und Tabletcomputer durch Apple haben sich auch Spracheingaben eine Nische geschaffen. Diktiersoftware gehört in Rechtskanzleien zur Standardausrüstung am Arbeitsplatz.
Aber im Bereich der Spielekonsolen hebt die Steuerung durch die eigene Person nun nach den Fuchteleien von Nintendo ganz ab und macht den Spieler durch Kinect für die Xbox 360 zum Eingabeinstrument. Gestik und Mimik werden Teil der Steuerung.
Tan Le und ihre Präsentation auf der Ted Conference 2010 zeigt nun eine weitere Möglichkeit auf. Die Steuerung eines Computers via Gedanken.
Was sich wie ein schlechter Auftritt in einer Jahrmarktsbude anhört, braucht ganze acht Sekunden Tarierungszeit des Systems, und ein Nutzer mit einem gar nicht einmal mehr so schlecht aussehenden Headset kann einen Würfel bewegen oder sogar verschwinden lassen.
Weitere Demofilme zeigen Rollstuhlfahrer, die ihre Gefährte bewegen. Oder Bastler mit dem Hang, ihr Deckenlicht mittels Gedankenkraft auszuknipsen.
Die Schnittstelle zwischen Mensch und Maschine durchschneidet dabei eine bisherige Grenze und der Zugriff auf die innere Welt eines Menschen wird invasiv. So verwischen die Grenzen zwischen beiden zunehmend.
Und als nächster Schritt wäre ein Computer zu sehen, der durch eigene (oder fremde) Gedanken gesteuert in das eigene (oder fremde) Hirn Bilder projeziert. Vermutlich wäre es dann ein naheliegender Schritt zu Szenarien, mit denen ein aktueller Blockbuster (http://teaser-trailer.com/2009/12/leonardo-dicaprio-inception.html) spielt. Aber vorerst bewegt sich ein Würfel in einer Windows-Oberfläche und ein Rollstuhl. Wenn man sich ausreichend konzentrieren kann.
Quelle : http://www.heise.de/tp/
Titel: Gedankenverschmelzung ist real
Beitrag von: SiLæncer am 28 Juli, 2010, 22:53
Bei gelungener Kommunikation ist die Gehirnaktivität des Sprechers mit der des Zuhörers in Zeit und Raum gekoppelt
"Mein Geist zu deinem Geist. Meine Gedanken zu deinen Gedanken.": Mit diesen Worten leiten im Star-Trek-Universum Mr. Spock oder andere Vulkanier eine so genannte Gedankenverschmelzung ein. Dazu legen sie noch je einen Finger auf Schläfe, Wange und Kinn des betreffenden Wesens - falls diese anatomischen Merkmale zu identifizieren sind, denn auch mit Walen oder ehemaligen Raumsonden, so die Geschichte, sind solche Geistes-Kopplungen angeblich möglich.
Wie sich nun zeigt, lagen die Erfinder der Science-Fiction-Serie gar nicht so weit ab von der Realität. Mit den beiden Sätzen des Gedankenverschmelzungs-Rituals können auch Menschen einen Ritus einleiten, der sich schlicht Kommunikation nennt. Überraschend ist allerdings, wie weit die Gehirne der Beteiligten dabei synchron arbeiten. Auf die Spur dieses Phänomens führen drei Forscher der amerikanischen Princeton University in einem Paper in den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS); der Artikel ist im Volltext online verfügbar (http://www.pnas.org/content/early/2010/07/13/1008662107).
Grundsätzlich beruht der Vorgang der Kommunikation bekanntermaßen darauf, dass sich mindestens zwei Teilnehmer zur selben Zeit mit derselben Tätigkeit befassen, dem Informationsaustausch. Je nach aktuellem Modus sind dabei zwei Rollen zu besetzen - die des Sprechers und die des Zuhörers. Die US-Forscher haben nun mit der Methode der funktionalen Magnetresonanz untersucht, was sich währenddessen in den Gehirnen der Gesprächspartner tut. Das erwies sich zunächst als technisch gar nicht trivial: Die lauten Geräusche des Magnetresonanztomografen erschweren Sprach-Kommunikation ungemein. Da man nun schlecht zwei Personen gleichzeitig im selben Messgerät unterbringen kann, hat man zuerst die Hirnaktivität eines Sprechers gemessen, der seine Lebensgeschichte dem Tonband erzählte - mit der ausdrücklichen Anweisung, so zu berichten, als gelte die Geschichte einem Freund.
Anschließend ließ man einen Zuhörer die komplette Geschichte verfolgen, zeichnete dabei die Gehirnaktivität auf und ließ den Zuhörer zudem per Fragebogen vom Grad seines Verstehens berichten. Die Idee der Forscher: Die Gehirne der Kommunikationspartner müssten genau dann zeitlich synchronisiert erscheinen, wenn der Sprecher für die Sprachproduktion sein Verständniszentrum nutzt - und der Zuhörer für das Verstehen sein Sprachzentrum. Allerdings sollte die Aktivierung dabei mit gewisser Verzögerung erfolgen: Wenn die Sprache beim Zuhörer ankommt, geht dem ja schon ein gewisser Prozess beim Sprecher voraus. Wenn allerdings der Zuhörer versucht, einen Teil der Kommunikation vorherzuahnen, sollte seine Aktivität der des Sprechers vorangehen. Schließlich sollte auch noch der Grad der Kopplung über den Erfolg der Kommunikation Auskunft geben.
Tatsächlich zeigte sich im Experiment, dass die Vermutungen der Forscher zutreffen. Die Gehirnaktivität von Sprecher und Zuhörer ist im vermuteten Ausmaß gekoppelt - und auf die Kommunikation selbst zurückzuführen. Wenn etwa eine russischsprachige Testperson einem Amerikaner aus ihrem Leben erzählte, stellte sich die "Gedankenverschmelzung" nicht ein, obwohl der Sprecher noch immer versuchte, Informationen zu übermitteln. Andererseits war die Verschränkung der Geister umso deutlicher feststellbar, je höher die Zuhörer den Grad ihres Verstehens einschätzten. Im Prinzip könnte man so auf recht objektive Weise etwa den Erfolg eines Lehrers bei seinen Schülern messen. Dass die sich im Unterricht nicht auf die faule Haut legen sollten, darauf macht ein weiteres Ergebnis aufmerksam: Das Verstehen war nämlich umso besser, je stärker die Gehirnaktivität des Zuhörers war.
Auch die vermutete "Verspätung" bei den Zuhörern war im Experiment festzustellen. Sie dient den Forschern auch noch dazu, eine methodologische Schwäche der Arbeit auszuschließen: Es könnte ja sein, dass ein Anschein von Kopplung entsteht, weil der Sprecher automatisch zum Zuhörer seiner eigenen Stimme wird. Interessant ist aber, dass in einzelnen Hirnarealen durchaus der Zuhörer dem Sprecher auch voraus sein kann: Während der Kommunikation stellt der Hörer etwa dauernd darüber Vermutungen an, wie sich der Prozess wohl fortsetzt.
Quelle : http://www.heise.de/tp/
Titel: Das Gehirn als Netzwerk
Beitrag von: SiLæncer am 11 August, 2010, 09:56
Selbst mit zehn Prozent der üblichen Gehirnmasse ist noch alltägliches Leben möglich - wie ist unser Denkorgan strukturiert?
Über das menschliche Gehirn weiß man, technisch gesehen, eine ganze Menge. Es ist im Mittel 1375 Gramm schwer, wenn es im Kopf eines Mannes sitzt, und es wiegt durchschnittlich 1245 Gramm, wenn sein Besitzer eine Frau ist. Es beansprucht ungefähr 15 Prozent des gesamten Energiebedarfs des Körpers, damit seine etwa 100 Milliarden Nervenzellen reibungslos funktionieren können.
Mit 15 bis 20 Watt chemischer Leistung erreicht es eine "Rechengeschwindigkeit" von 10 hoch 13 bis 10 hoch 16 Operationen pro Sekunde - dies allerdings im Gegensatz zu Computern nicht durch eine hohe Geschwindigkeit der Neuronen/Transistoren, sondern durch eine enorme Parallelität. Vor allem aber ist das Gehirn enorm flexibel, weder sein Gewicht noch sein Volumen stehen in Beziehung zur Intelligenz seines Trägers. Selbst mit zehn Prozent der üblichen Gehirnmasse ist noch alltägliches Leben möglich - wie das Beispiel eines Franzosen zeigt, bei dem Mediziner eher zufällig ein dermaßen kleines Gehirn fanden (2007 berichteten die Ärzte im Fachmagazin Lancet davon).
Die Forschung ist auch schon relativ weit darin fortgeschritten, die genaue Struktur und Funktionsweise einer Nervenzelle zu untersuchen. Man weiß, wie Erregungsmuster weitergeleitet werden, welche chemischen und elektrischen Prozesse sich hier ergänzen. Man hofft sogar schon, wie etwa im Blu-Brain-Projekt, durch Verschaltung genügend künstlicher (simulierter) Nervenzellen eine Art Gehirn konstruieren zu können. Doch das Ganze nur durch Beschreibung seiner Teile darzustellen, ist ungefähr so sinnvoll wie eine Beschreibung des Internet über eine Statistik über die Betriebssysteme, Speicherausstattung und Prozessorgeschwindigkeit aller daran angeschlossenen Computer.
Wissen, das in Strukturen gespeichert werden kann
Eine wirkliche Alternative dazu gibt es, wenn es um das Gehirn geht, aber noch nicht. Zu bruchstückhaft ist das Wissen darüber. So kann man im Kleinen davon ausgehen, dass Wissen oder Erinnerungen nicht in einzelnen Zellen, sondern in Strukturen gespeichert werden. Im Großen kann man mit funktionaler Magnetresonanztomografie die Areale identifizieren, in denen sich bei bestimmten Denkleistungen etwas tut. Wie das Beispiel des Franzosen mit dem winzigen Hirn zeigt, sind diese Areale aber gar nicht zwingend nötig, bei Bedarf (in diesem Fall primär durch einen Hydrocephalus und dessen Behandlung verursacht) kann es Funktionen in andere Bereiche verlagern.
Vor allem entwicklungsgeschichtlich versuchte man deshalb bisher, der grundlegenden Struktur des Gehirns auf die Schliche zu kommen. In der Evolution ältere Bestandteile im Stammhirn sind für die grundlegenden Lebensfunktionen zuständig - Atmen, Herzschlag und manche Reflexe. Das Kleinhirn, das bei vielen Tierarten im Vergleich zum Großhirn stärker ausgeprägt ist, koordiniert Bewegungen und reguliert das Gleichgewicht, außerdem wird ihm eine wichtige Rolle beim unbewussten Lernen zugeschrieben, womöglich sogar bei höheren Lernformen. Über all dem sitzt, vom Zwischenhirn mit gefilterten Informationen versorgt, der jüngste Gehirnteil, das Großhirn. Gedächtnis, höhere Denkvorgänge, aber auch die Reizverarbeitung finden hier statt.
Funktionale Netzwerke
Ob diese anatomisch überprüfbare Struktur aber auch eine funktionale Grundlage hat, darüber sind sich die Forscher nicht einig. In den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS) zeigt ein Wissenschaftlerteam nun, dass die einzelnen Areale womöglich auch eine netzwerkartige Struktur bilden.
Die Forscher haben dazu eine Technik entwickelt, mit der sie solche funktionalen Netzwerke besonders gut nachweisen konnten. Als sie ihr Verfahren an einem Abschnitt des Rattengehirns testeten, fanden sie unvermutet sehr ungewöhnliche Signalwege, die in auf den ersten Blick nicht verknüpfte Bereiche führten. Diese nachvollziehbar identifizierbaren Verbindungen waren als Ketten aus geschlossenen Schleifen organisiert - so ähnlich, wie man sich aus Papierringen selbst gebastelte Girlanden zum Kindergeburtstag vorstellen kann.
Die Forscher hoffen nun, ihre Technik systematisch zum Aufdecken der fundamentalen Netzwerkstrukturen des Gehirns anwenden zu können - des (äquivalent zum Genom oder Proteom) so genannten Connectoms. Da es sich um eine invasive Technik handelt, kommt sie zum Erforschen menschlicher Hirnstrukturen allerdings nicht in Frage.
Quelle : http://www.heise.de/tp/
Titel: Ist der Wille frei?
Beitrag von: SiLæncer am 07 September, 2010, 13:26
Ulmer Hirnforscher wollen einen Beweis dafür gefunden haben, überzeugend ist er nicht
Philosophen setzen sich schon lange damit auseinander, ob es so etwas wie Willensfreiheit, Voraussetzung von vielen Religionen, allen Rechtssystemen und zwischenmenschlichen Beziehungen, überhaupt gibt oder welche Voraussetzungen dafür erforderlich sind. Zwar haben moderne Gesellschaften und ihre Religionen auf Willensfreiheit gesetzt und so (persönliche) Verantwortung mit allen Konsequenzen von der Wirtschaft über das Seelenheil bis zum Strafrecht bevorzugt.
Willensfreiheit würde aber bedeuten, wenn diese Voraussetzung wäre, einen Menschen zur Verantwortung für seine Entscheidungen zu ziehen, dass diese bewusst getroffen werden. Nun deuten manche neurowissenschaftliche Untersuchungen wie die von Libet aber darauf hin, dass das Gehirn neuronal Entscheidungen trifft, die erst verzögert bewusst zu werden scheinen. Wir könnten also gut in der Illusion leben, dass wir bewusst Entscheidungen treffen, die aber in Wirklichkeit schon gefallen sind. Wobei das bewusste Ich sich nur selbst diese Entscheidungen zurechnet.
Allerdings wäre hier zu fragen, warum unsere Gehirne evolutionär diese Illusion der Willensfreiheit ausgebrütet haben. Würde man "rational" argumentieren, hätte dies vor allem den Vorteil, den Anderen durch die Gruppe disziplinieren zu können, während es gleichzeitig den für die "Erfolgreichen" schlagenden Vorteil gibt, dass jeder für sein Leben selbst verantwortlich ist. Das dürfte im Übergang vom Feudalismus zum protestantischen Kapitalismus bis heute für das Selbstverständnis der Eliten bedeutsam sein, nämlich dass sie angeblich aus eigener Kraft zu Recht reicher, mächtiger oder erfolgreicher sind, während die da Unten versagt haben. Daher wäre aus dieser Sicht alles in Ordnung und kann auch so bleiben, man könnte nur den Versagern zur Selbstverbesserung ein wenig mehr Zwang angedeihen lassen, um die Kräfte der Selbstbestimmung zu entfalten – und das betrifft dann, wie uns Propheten wie Sarrazin versichern – nicht nur Individuen, sondern auch Gruppen, Völker und Staaten. Weil alles selbstbestimmt ist, trägt eben jeder auch Verantwortung beispielsweise auch dafür, dass er sich mit Hartz IV gesund und ausreichend ernährt oder mit steigender Kälte und sinkender Raumtemperatur desto dickere Pullover anzieht.
Wie man sieht, ist Willensfreiheit beileibe kein akademisches oder philosophisches Thema. Je nachdem, wie man die Frage beantwortet, ist man für Knast und Todesstrafe oder Resozialisierung, für Kürzung der Sozialhilfe oder für Hilfe, für den freien Markt oder für Unterstützung der Chancengleichheit etc.
Ulmer Gehirnforscher wollen nun herausgefunden haben, dass zumindest bewusste Entscheidungen (Top-down) nicht nur ideologische Einbettungen sind, sondern tatsächlich etwas bewirken können, also nicht alles neuronal und basisdemokratisch bottom-up passiert. Die Hirnforscher gehen davon aus, ihre Versuche würden zeigen, dass das "Bewusstsein unbewusste Prozesse im Gehirn" kontrolliert. Das hätte, gesellschaftlich gesehen, aber auch zur Konsequenz, dass "Eliten" die Entscheidungen des Kollektivs, das ein einzelnes Gehirn ist, entscheidend beeinflussen und es neuronal keine Demokratie von gleichberechtigten Individuen gibt.
Das sind große Thesen. In der Studie selbst, die im Journal of Experimental Psychology: General veröffentlich wurde, wurden die Gehirnströme von Versuchspersonen beim Lesen von sichtbaren Worten gemessen, um so die Auswirkung von Absichten zu erfassen: "Zuvor wurden andere Worte, so genannte Bahnungsreize, für eine ganz kurze Zeit eingeblendet, so dass sie nicht bewusst wahrnehmbar waren. Bedeutungsmäßig verwandte unbewusste Bahnungsreize beschleunigten die Erkennenszeiten der nachfolgend gezeigten kritischen Wörter (z.B. Tisch-Stuhl, Henne-Ei) nur dann, wenn die Probanden zuvor die Absicht hatten, die Bedeutung von Wörtern zu verstehen. Hatten die Probanden dagegen die Absicht, auf die Form von Buchstaben zu achten und die Wortbedeutung zu ignorieren, hatten die unbewussten Bahnungsreize keinen Einfluss auf die Erkennenszeiten der sichtbaren Worte."
Danach würde die gerichtete Aufmerksamkeit der Versuchspersonen die Wahrnehmung von Wörtern entscheidend beeinflussen. Unklar bleibt dabei jedoch, wie die Aufmerksamkeit gesteuert wird. Das ist nicht einfach. Schließlich wird Aufmerksamkeit wohl nicht nur bewusst gesteuert. Wenn wir hungrig oder durstig sind, wenn wir sexuell aufgeladen sind, wenn wir deprimiert sind, dann werden wir auch stärker auf die entsprechenden Reize ansprechen. Das kann ein solcher Test, wie ihn die Hirnforscher angelegt haben, aber gar nicht messen, weil die unbewussten Reize äußerlich vorgegeben werden und nicht intrinsisch sind.
Gleichwohl will Markus Kiefer, Sprecher des deutschlandweiten Projektnetzwerkes zur Bewusstseinsforschung und Mitautor der Studie, deren durchaus interessante Ergebnisse über Gebühr verallgemeinern: "Unser Wille ist freier als gedacht." Sie hätten gezeigt, dass die "Vorstellung des chaotischen und unkontrollierbaren Unbewussten" falsch sei: "Unsere Befunde widerlegen diese Lehrmeinung. Sie zeigen eindeutig, dass unser Bewusstsein zu den Absichten passende unbewusste Vorgänge in unserem Gehirn verstärkt, nicht passende dagegen abschwächt". Und Kiefer geht noch weiter. Es sei gewährleistet, dass unser bewusstes "Ich" Herr im Haus bleibt und nicht durch eine Vielzahl unbewusster Tendenzen beeinflusst wird.
Als Beispiel führt der Hirnforscher einen alltäglichen Gang in den Supermarkt an, was er wohl besser unterlassen hätte. Wenn man nämlich, was meist der Fall sein dürfte, in den Supermarkt geht, um etwas Bestimmtes zu kaufen, z.B. ein Spülmittel, dann sei man "wenig empfänglich für die Schokolade im Süßwarenregal". Das ist sicher richtig und müsste auch gar nicht von einem aufwändigen Versuch bestätigt werden – auch wenn dies nicht schadet -, aber es klärt in keiner Weise, wie die Präferenzen der Aufmerksamkeit zustande kommen. Der Hirnforscher will aber gleich aus der Aufmerksamkeitssteuerung ableiten, dass wir diese völlig unter unserer Kontrolle haben: "Die bewussten Absichten und Einstellungen entscheiden somit darüber, ob ein unbewusster Prozess in unserem Gehirn überhaupt ablaufen kann. Die Aussage 'Ich konnte nicht anders, ich hatte einen inneren Drang so zu handeln' sollte von daher in der Regel ehrlicherweise lauten 'ich wollte nicht anders'." So bestätigt anscheinend Wissenschaft die Ideologie, während in Wirklichkeit die Ideologie oder unkritisch übernommene Vorurteile die Interpretation von Forschungsergebnissen prägen.
Quelle : http://www.heise.de/tp/
Titel: Wörter direkt vom Gehirn ablesen
Beitrag von: SiLæncer am 09 September, 2010, 12:52
US-Wissenschaftler haben eine EEG-Schnittstelle entwickelt, mit der sich Wörter erkennen lassen, die im Sprachzentrum artikuliert werden.
Die Menschen kommunizieren, biologisch bedingt, mit ihrem Körper, in dem das Gehirn eingesperrt ist. Sie können mit Mimik und Gestik kommunizieren, aber auch mit der Sprache, also damit, dass sie sprechen. Aber diese körperliche Schnittstelle der Sprachareale mit der Stimme, die u.a. durch die Muskeln der Lippen, des Kiefers und der Zunge entsteht, ist eigentlich gar nicht notwendig. Wir können auch sprechen, indem wir motorisch mit den Fingern oder auch mit Gehirnwellen eine Tastatur bedienen, mit der eine künstliche Stimme gesteuert wird.
Neurobiologen der University of Utah und der University of Washington School of Medicine haben, wie sie in ihrem Artikel (http://iopscience.iop.org/1741-2552/7/5/056007/pdf/1741-2552_7_5_056007.pdf) in der Zeitschrift Journal of Neural Engineering berichten, nun eine erste Schnittstelle mit den motorischen und sensorischen Spracharealen des Gehirns entwickelt. Mit Mikroelektroden, die unter den Schädel des Gehirns, aber nicht direkt in dieses eingepflanzt wurden, konnten die Wissenschaftler die motorischen Signale der Gesichtsmuskulatur und die des sensorischen Wernicke-Zentrums abhören und so einige Worte direkt verstehen. Gedacht ist die Technik für Menschen, die nicht mehr sprechen können, beispielsweise die Menschen mit dem Locked-in-Syndrom, aber die Anwendungen könnten natürlich vielfältig sein und weit darüber hinausgehen.
Die Neurobiologen haben ihre Schnittstelle – Gitter aus 16, jeweils im Abstand von 1 Millimeter angebrachten Mikroelektroden - allerdings nur an einem Patienten getestet und die Bedeutung von 10 Wörtern (yes, no, hot, cold, hungry, thirsty, hello, goodbye, more and less) anhand der Signale mit einer Wahrscheinlichkeit von 76-90 Prozent identifizieren können. Der an Epilepsie leidende Patient wiederholte laut sprechend in vier Sitzungen die 10 Wörter 30 bis 90 Mal, um das dadurch verursachte Muster an Gehirnströmen zu identifizieren. Auch hier gibt es also noch einigen Spielraum der Interpretation. Letztlich ist es nur ein wenig besser, als die Wörter per Zufall zu raten, geben die Forscher selbst zu. Noch ist man also weit entfernt von einem Computersystem mit einer Gehirnschnittstelle, um genau wiedergeben zu können, was eine Person sagen will. Vom Gedankenlesen ist man natürlich noch viel weiter entfernt.
Gleichwohl konnten die Forscher zeigen, dass die Abnahme von Gehirnströmen durch Mikro-EEG-Elektroden im Vergleich zu im Gehirn implantierten Elektroden gute Ergebnisse bringen können. Möglicherweise würde dazu auch reichen, die Hirnwellen von der Schädeloberfläche abzunehmen. Wenn mehr Mikroelektroden verwendet würden, dürfte sich auch die Genauigkeit der Decodierung erhöhen, sagen die Neurobiologen.
Quelle : http://www.heise.de/tp/
Titel: Die Prüfinstanz im Gehirn
Beitrag von: SiLæncer am 17 September, 2010, 21:15
Warum manche Menschen eigene Entscheidungen effizienter überprüfen können als andere
Ob sich jemand mit großer Überzeugung irrt oder unsicher auf dem richtigen Weg ist, kann im Alltag enorme Auswirkungen haben. Forscher haben die Gehirnstrukturen gefunden, die zwischen den beiden Fällen entscheiden: Hier findet die Introspektion statt, der wichtige Check, ob eigene Überlegungen und Entscheidungen denn tatsächlich richtig sind.
Die Fähigkeit zur effizienten Introspektion ist kein rein akademisches Forschungsgebiet - sie ist ein weitgehend unerforschtes, dabei aber ökonomisch und politisch ungemein bedeutendes Phänomen. Den meisten fällt sie erst durch ihr Fehlen auf - zum Beispiel beim Chef. Es gehört zu den typischen Karrieren in unserem Wirtschaftssystem, dass genau die Menschen auf der Karriereleiter nach oben klettern, die von sich und ihren Entscheidungen grenzenlos überzeugt sind. Zweifel, gar Selbstzweifel, sind verdächtig - fehlt es dem Betreffenden gar an Entscheidungskompetenz?
Das für die Introspektion kennzeichnende Gewebe in der anterioren präfrontalen Hirnrinde aus verschiedenen Perspektiven
Doch nicht nur Angestellte müssen darunter leiden, auch Angeklagte in Gerichtsprozessen bekommen mangelnde Introspektion zu fühlen. Wenn zwei Zeugen vor dem Richter stehen, die gegensätzliche Aussagen machen, kommt es in der Regel sehr darauf an, wie überzeugt die beiden von ihrer eigenen Wahrnehmung sind. Geglaubt wird oft dem Zeugen, der sich selbst am wenigsten in Frage stellt - dabei ist der Überzeugungsgrad doch kein Kennzeichen dafür, wie richtig oder falsch eine Wahrnehmung ist. In solchen Fällen müsste man nun eigentlich den Zeugen ins Gehirn schauen - denn aus dessen Struktur ist ablesbar, wie ausgeprägt die Fähigkeit eines Menschen zur Introspektion ist. Das berichten jedenfalls Biologen des University College of London in der aktuellen Ausgabe des Wissenschaftsmagazins Science.
Die Forscher haben dazu 32 Probanden einem Experiment unterworfen, das die Wahrnehmungsfähigkeiten der Testpersonen überprüfte. Doch nicht diese standen im Fokus der Studie, sondern vielmehr das Potenzial der Probanden, die eigenen Entscheidungen zu überprüfen und gegebenenfalls als fehlerbehaftet darzustellen. Dazu hielten die Wissenschaftler die tatsächliche Performance der Studienteilnehmer durch Veränderung der Experimentierbedingungen konstant bei 71 Prozent. Dabei zeigte sich nicht nur ein enormer individueller Unterschied in der Fähigkeit, die eigene Leistung einzuschätzen - bei Aufnahmen mit dem Magnetresonanztomografen erwies sich auch, dass die Größe eines bestimmten Gebietes im anterioren präfrontalen Kortex direkt mit dieser Fähigkeit korrelierte. Eine Beziehung konnten die Forscher auch zur Mikrostruktur der mit diesem Bereich verbundenen weißen Gehirnmasse ausmachen.
Das Problem des allzu von sich selbst überzeugten Chefs sollte sich auf diese Weise zumindest unter dem MRT belegen lassen. Zudem scheinen die Ergebnisse auch zu belegen, dass es diese Art von Meta-Kognition (also Gedanken über andere Gedanken) überhaupt gibt - man könnte ja auch argumentieren, dass Selbstkontrolle funktioniert, indem einfach nur über die Schwierigkeit der Aufgabe reflektiert wird, nach dem Prinzip: Je komplizierter ein Problem, desto eher irre ich mich. Die von den Forschern gefundene Hirnstruktur spricht für eine echte Meta-Kognition, weil sie selbst keinen Input von unseren Sinnen erhält und nur von anderen, nachweislich mit Entscheidungen befassten Arealen gespeist wird.
Allerdings ist durch die Untersuchung eine andere wichtige Frage noch nicht geklärt - handelt es sich um eine fixe Eigenart der Anatomie des menschlichen Gehirns, oder lässt sich die Größe des Introspektions-Areals (und damit die Fähigkeit zur Selbstüberprüfung) eventuell durch Training erhöhen? Das wäre eine wichtige Qualifikation für Personen, die diese Fähigkeit besonders dringend benötigen - vom Richter bis zum Politiker.
Quelle : http://www.heise.de/tp/
Titel: Fehlerkorrektur im Gehirn
Beitrag von: SiLæncer am 30 Oktober, 2010, 18:00
Wie hängen bewusste und unbewusste Prozesse im Gehirn zusammen? Experimente zeigen, dass Fehlerkorrektur auf zwei Ebenen stattfindet
Fahranfänger, ungeübte Tänzer und Einfinger-Tipper kennen das Problem: Solange eine Aufgabe nicht vertraut ist, muss der Mensch über jeden nötigen Schritt nachdenken. In der Fahrschule suchen wir bewusst nach dem Punkt, wo die Kupplung greift, und müssen uns die Schalt-Reihenfolge stets von Neuem vor Augen führen. In der Tanzschule zählen wir im Kopf den Takt mit und bemühen uns, die Reihenfolge der Schritte nicht zu verwechseln. Wer noch auf der Tastatur übt, muss nach jedem einzelnen Buchstaben suchen.
Mit der Zeit und genügend Übung gelingt es jedoch den meisten Menschen, solche Prozesse zu automatisieren. Wir treten automatisch im richtigen Moment auf Bremse und Kupplung. Statt auf die Schritte zu achten, hören wir beim Tanzen tatsächlich die Musik. Beim Tippen arbeiten wir uns nicht mehr von Taste zu Taste voran, stattdessen finden die Finger von allein die Stelle, an der sie drücken müssen. Die so erlernten Vorgänge finden nur noch auf einer Ebene unter dem Bewusstsein statt, sie laufen per Autopilot. Doch wie hängen bewusstes Handeln und dieser Autopilot zusammen? Wo gibt es Schnittpunkte, wie beobachten wir uns selbst bei unserem Tun?
In einem Paper in der aktuellen Ausgabe des Wissenschaftsmagazins Science untersuchen zwei Psychologen von der Vanderbilt University in Nashville dieses Phänomen am Beispiel von im Maschinenschreiben geübten Personen, die sie drei Experimenten unterwarfen. In Versuch Nummer 1 wurden den fleißigen Schreibern von der Software nach dem Zufallsprinzip Tippfehler untergeschoben - also eigentlich richtig geschriebene Wörter verändert - und parallel dazu manche der von den Probanden verursachten Fehler automatisch ausgebessert.
Als die Forscher die Tippgeschwindigkeit maßen, stellten sie fest, dass die Schreiber bei eigenen Fehlern ihr Tempo jeweils leicht verlangsamten - auch bei den Fehlern, die die Software automatisch korrigiert hatte. Bei künstlich eingefügten Fehlern hingegen blieb ihre Tippgeschwindigkeit konstant. Das heißt, es gibt offenbar eine innere Feedback-Schleife, die Fehler des Autopiloten feststellt und korrigiert, weil sie dauernd überprüft, ob der Finger sich an der richtigen Stelle befand.
Was der Bildschirm anzeigte, wirkte sich nur auf die äußere, die bewusste Fehlerschleife aus. Die Probanden übernahmen nämlich bei einer späteren Befragung bereitwillig die Verantwortung für die künstlich eingestreuten Fehler, während sie von den automatisch korrigierten echten Irrtümern nichts bemerkt hatten. Für diese äußere Fehlerkorrektur ist offenbar entscheidend, was auf dem Display zu sehen ist. Diese Illusion nahm allerdings ab, wenn die Versuchsleiter mehr und mehr Fehler einstreuten - das kam den Beteiligten dann wohl doch spanisch vor.
Tempo verringern
In einem zweiten Versuch sollten die Probanden insgesamt 600 Wörter schreiben und nach jedem einzelnen Wort ihre Leistung einschätzen. Die Software verhielt sich dabei wie beim ersten Experiment, fügte also mal Fehler ein, mal korrigierte sie Fehler. Allerdings wussten das die Versuchsteilnehmer nicht. Im letzten Experiment deckten die Forscher auch dieses Geheimnis auf. Obwohl das visuelle Feedback nun nach jedem Wort erfolgte und die Teilnehmer vor den Möglichkeiten der Software gewarnt waren, blieb es bei der Disassoziation zwischen unbewusster und bewusster Fehlerkorrektur - die Tippgeschwindigkeit änderte sich nur, wenn wirklich die Finger falsch lagen, und der Verstand der Probanden war gern bereit, einen gar nicht selbst verursachten Fehler zuzugeben.
Was bedeuten diese Ergebnisse für die Praxis? Die Forscher empfehlen, das Tempo zu verringern, wenn bei einer Tätigkeit der Autopilot an die Grenzen seines Leistungsvermögens gerät, wenn die innere, unbewusste Fehlerkorrektur kurz vor dem Aussetzen ist. Das gälte zum Beispiel beim Lenken eines Autos. Wenn allerdings eine nicht völlig fehlerfreie Arbeit unproblematisch ist (wie beim Schreiben am Computer), dann darf man gern seine äußere Fehlerkorrektur einsetzen, die das Ergebnis nachträglich überprüft. Zudem dürften die Ergebnisse Einfluss auf die Interpretation nachträglicher, auf bewusster Leistung beruhender Zeugenaussagen haben: Was der Körper unter Anleitung des Autopiloten leistet, daran kann auch nur der Körper selbst sich erinnern.
Weil wir viel zu viel surfen, sorgt sich Nicolas Carr um unsere geistige Gesundheit und intellektuelle Leistungskraft
Wer ständig oder zu viel online ist, verblödet auf Dauer. Das ist platt und prägnant zusammengefasst die Behauptung, mit der der US-Journalist und Blogger Nicolas Carr vor etwa zwei Jahren im Atlantic schon mal für große Auf- und Erregung im Netz gesorgt hat.
Damals richtete er den Finger noch und fast ausschließlich auf "die heilige Kirche Google". Jetzt hat er den "Verdummungsverdacht" breiter ausgewalzt, er hat dem Artikel eine Langversion an die Seite gestellt und ihn auf die gesamte Digitalkultur ausgeweitet. Womit Carr sogar die Aufmerksamkeit der BILD-Zeitung und ihrer knapp zwölfeinhalb Millionen Leser auf sich gezogen hat.
Verdummungsrisiko
Folgen wir Carr, dann lesen wir, seitdem das Netz und seine Applikationen unseren Alltag, unseren Beruf und unsere Kommunikation bestimmen, nicht nur oberflächlicher, lernen schlechter und erinnern uns schwächer, unsere Fähigkeit, sich länger auf einen Text oder eine Sache zu konzentrieren, fällt uns auch zunehmend schwerer. Statt uns linear, entlang der Konstruktion einer Erzählung oder der Argumentationsketten eines Autors zu bewegen, hangelten wir uns nur noch von Link zu Link, die den Text als solchen zerstörten.
Zwar stärkten wir mit diesem Tun unsere visuellen und taktilen Fertigkeiten, doch würden wir durch das ständige Klicken auf neue Webseiten und Links, das Abfeuern oder Empfangen neuer Mails, SMS oder Tweets, das permanente Gucken in unser Postfach oder das Prüfen des erreichten Status bei Facebook oder anderen sozialen Dienstleister immer hibbeliger, zerstreuter und ablenkbarer.
Netzgeschädigt
Als Beleg dienen Carr zunächst auch eigene Erfahrungen. Als er für einige Wochen und Monate seinen Netzkonsum auf Eis legte und sich selbstredend eine "Netzpause" gönnte, wurde er bald wieder viel ruhiger und gelassener als vorher. Er wurde ausgeglichener, "atmete freier" und konnte sich sogar wieder in einem Buch verlieren; und er konnte Gedankengänge nachvollziehen und in längere Prosa-Passagen abtauchen, ohne permanent in Gedanken abzuschweifen. Nur so war es beispielsweise möglich, eine schlüssige Argumentation zu entwickeln und dieses Buch mit mehreren hundert Seiten zu schreiben.
Als Beweis führt Carr aber auch eine Vielzahl hirnphysiologischer Studien an, die glaubhaft zeigen wollen, wie leicht formbar das menschliche Gehirn imgrunde ist. Der Umbau des Gehirns findet danach auf einer tieferen biologischen Ebene statt und betrifft die Art, wie sich Nervenzellen oder Neuronen miteinander verbinden. Carr ist überzeugt, dass übermäßiger Netzkonsum die Synapsen des Gehirns neu verknüpft und alsbald dazu führen wird, dass gründliches und verstehendes Lesen von Texten bald zu einer aussterbenden Kulturtechnik wird.
Belege dafür Und in der Tat scheint an Carrs Beobachtungen was dran zu sein. Wer selbst, gleich ob beruflich, dienstlich oder privat, ständig mit dem Netz zu tun hat, mit Tweets, SMS, Blogs oder Mails, wird das möglicherweise bestätigen können. Das Lesen längerer und vor allem diffiziler und komplexer Texte, kann bisweilen zum Kampf werden. Vor allem, wenn sie noch trocken abgefasst sind und wenig Kurzweil verströmen. Schnell verliert man die Lust, aber auch die Aufmerksamkeit, man driftet ab, wird unruhig und unkonzentriert. Noch im Urlaub dauert es oftmals mehrere Tage, bis man endlich wieder die nötige Ruhe findet, sich der Muße eines Buches hinzugeben, ohne ständig nach anderen Tätigkeiten zu suchen, die man viel lieber täte.
Und wer in jüngerer Zeit mal mit jungen Menschen gearbeitet hat, der wird nicht nur wissen, dass ADS und ADHS sowie der damit verbundene Ritalin- und Medinetkonsum, den Pädagogen und Psychologen meist auf exzessiven Medienkonsum zurückführen, den Lernalltag in den Klassenzimmern zunehmend erschweren; der wird auch wissen, dass das Bedienen von Touchscreens oder das Übermitteln von Popsongs oder Botschaften zwar bestens beherrscht werden, das Lesen und Denken, insbesondere das verstehende oder deutende, das eigenständige und exakte, aber nicht mehr. Von Behaltens- und Gedächtnisleistungen, die längerfristig abrufbar sind, von nachhaltigem Lernen und vom Stillsitzen, vom richtigen Schreiben und aufmerksamen Zuhören mal ganz zu schweigen.
Hinzu kommt, dass auch Verlage, Zeitungen und Magazine längst dazu übergegangen sind, die Länge ihrer Artikel zu kappen, ihnen Zusammenfassungen oder Navigationshilfen an die Seite zu stellen und sie mit Schlagzeilen, Bildern und Tönen aufzuhübschen, damit sich Inhalte leichter verdauen oder überfliegen lassen. Da beobachtet Carr durchaus richtig.
Nicht belegbar
Folgt man jedoch einigen US-Studien, die in den letzten Jahren zum Internetverhalten der User angestellt wurden, dann weicht der Intelligenzquotient, den exzessive Surfer aufweisen, nicht entscheidend von dem der realen Gesamtbevölkerung ab. Und zieht man noch den so genannten "Flynn-Effekt" zurate, der zeigen will, dass der Intelligenzquotient in den reicheren Gesellschaften stetig gewachsen ist, dann relativiert sich Carrs Behauptung gar auf dramatische Weise.
Der Eindruck, dass wir durch Facebook, Google und Co. irgendwie dümmer werden, lässt sich danach kaum erhärten. Eine von Internetdiensten irgendwie genervte oder gestresste Bevölkerung, laut Umfragen verbringen Bundesbürger im Schnitt zweieinhalb Stunden im Netz, scheint mit höheren IQ-Werten durchaus kompatibel zu sein. So düster, wie Carr die Lage malt, kann sie also nicht sein.
Seelisch verkümmert
Zweifellos leben wir in einer Zeit großer kultureller Umbrüche. Daran ist das Internet mit Sicherheit nicht ganz "schuldlos". Vernetzte Computer verändern unser Verhalten, aber auch unsere Expressivität und die Art, wie wir kommunizieren. Gewiss hält das Netz so manchen User vom Wesentlichen ab – wobei noch zu klären sein dürfte, was das denn dieses "Wesentliche" sein könnte.
Und gewiss zerstäubt die Vielzahl der ankommenden Botschaften, Nachrichten und Informationen Konzentration, Aufmerksamkeit und Gedankengänge des Users, er liest fortan hastiger, flüchtiger und sie hindert ihn daran, über gewisse Dinge mal ungestörter und intensiver nachzudenken.
Aber dass er dadurch gleich sein Einfühlungsvermögen verliert, wie Carr behauptet, und weniger leidenschaftlich wird als im analogen Leben, kann man aus all dem sicherlich nicht ableiten. Genau das Gegenteil scheint vielmehr der Fall zu sein. Liest man all die Messages, die in Blogs, auf Foren, in Chatrooms oder über Twitter und Facebook abgelegt werden, so hat der Beobachter eher den umgekehrten Eindruck.
Gerade dort kann von Entfremdung oder gar seelischer Verkümmerung keine Rede sein. Häufig würde man sich gern weniger Empathie, Vitalität und Emotionalität, dafür mehr Verstand, Abgeklärtheit und Nachdenklichkeit wünschen, wenn mal wieder über die Schlechtigkeit der Welt, die Verschlimmerung der Verhältnisse oder die Bösartigkeit der anderen gejammert, geheult oder voller Inbrunst gestritten wird.
Wer programmiert, wird programmiert
Bekanntlich ist das Internet nicht die erste Kultur, die diese vermeintliche "Deformierung" des Gehirns anrichtet. Schon damals fürchtete der Philosoph Sokrates, von dem bekanntlich nichts Schriftliches übermittelt ist, dass das Gedächtnis künftig lückenhafter würde und die Menschen daher immer vergesslicher würden, sollten sie ihre Gedanken veräußerlichen und sich zunehmend auf das geschriebene Wort verlassen.
Spätestens seit dieser Zeit, dem Übergang von der Sprache zur Schrift, kam es regelmäßig, wenn ein neues Medium, ein neuer Stil oder eine neue Mode die Menschen ereilte, zu neuen Abgesängen auf die Kultur. Man muss aber weder Marshall McLuhan, dem Carr offenbar sehr viel verdankt, gelesen haben, noch Neil Postman, dem Carr insgeheim wohl nacheifert, noch die Anekdote um Nietzsches Schreibgerät kennen, oder sich schließlich gar dem Turing-Test aussetzen, um zu wissen, dass Medien- und Netztechnologien an unseren Gedanken mitschreiben, wir, indem wir den Befehlsketten der Computer und Programme folgen, selbst in gewisser Weise zu Rechen- und Schreibmaschinen werden.
So wie Nicolas Carr allerdings diese medienwissenschaftlichen "Binsenweisheiten" mit der Hirnforschung vermanscht, genauso könnte man sich darüber auslassen oder gar beschweren, dass Autofahren und Händewaschen, das Schachspiel und die Pille danach unsere unseren Denkapparat verändern. Natürlich ist das richtig. Doch kaum jemand käme auf die irrige Idee, für eine Abschaffung oder Einschränkung all dieser Kulturtechniken zu plädieren. Insofern mutet die Übertragung hirnpsychologischer Erkenntnisse auf unser Online-Dasein schon etwas bizarr an.
Filtern statt Heulen
Längst wissen wir doch, dass das Leiden am "information overload" zuallererst eine Frage der Filterung und des richtigen Gebrauchs ist. Niemand wird zum Twittern, Flickern oder Facebooken gezwungen. Niemand fordert, dass man ständig seine Mailbox checken, nichtssagende Botschaften versenden oder empfangen muss. Und niemand verlangt, dass man jeden Graswurzelblog abonnieren oder sich mit Videos, Spielen oder Onlinechats die Zeit totschlagen muss.
Kluge und intelligente Menschen lassen sich davon weder beeindrucken noch ablenken. Sie zeigen auch in diesen Dingen hinreichend Talent, Übersicht und Disziplin. Zu dieser Art von Spezies zählen, darf man zweifellos auch Mr. Carr.
Quelle : http://www.heise.de/tp/
Titel: Das Gehirn als MP3-Encoder
Beitrag von: SiLæncer am 23 November, 2010, 08:37
Forscher weisen erstmals schlüssig nach, dass ein Teil der Effizienz des menschlichen Gehirns auf dem Weglassen vorhersehbarer Details beruht
Dass weder die Spracherkennung per Software noch künstliche Sinne für Roboter bisher wirklich zufriedenstellend funktionieren, hat eine Menge mit Verstehen zu tun. Das System, das aus der Vielzahl auf es einströmender Reize - ob nun Sprachfetzen verschiedener Sprecher oder visuelle Eindrücke bewegter und unbewegter Objekte - die entscheidenden Bruchstückchen in der richtigen Reihenfolge herausfischen soll, steht vor einer schier unlösbaren Aufgabe. Es sei denn, es versteht, was es da tut, es weiß, mit welcher Art von Daten es tun hat und kennt die dahinter stehenden Gesetzmäßigkeiten.
Automatische Übersetzungen wären einfacher, würden sich die Übersetzer im jeweiligen Fachgebiet auskennen, ein Haushaltsroboter könnte Befehle sicherer unterscheiden, wenn er wüsste, dass Menschen bestimmte Kommandos zum Beispiel stark geschlechtsabhängig geben. Dass das Wissen über die grundlegenden Gesetzmäßigkeiten mehr Effizienz ermöglicht, zeigt das MP3-Format: Damit encodierte Musikdateien sind mehrfach kleiner als das Original, und trotzdem ist in der Regel kein Unterschied zu hören. Das liegt daran, dass der Algorithmus die Wahrnehmungsfähigkeiten der Zuhörer beachtet - die zum einen die hörbaren Frequenzen betrifft, zum anderen aber auch Maskierungs-Effekte beachtet: In der Stille einer Bibliothek kann schon ein zu Boden schwebendes Blatt als laut empfunden werden, das im Lärm einer Schulklasse niemand beachten würde.
Auch die menschliche Wahrnehmung bedient sich offenbar ähnlicher Tricks. Das hatte die Forschung zwar bereits vermutet, doch bisher stand ein schlüssiger Beweis dafür noch aus. Der ist nun Wissenschaftlern der University of Wisconsin gelungen; in den Veröffentlichungen der US-Akademie der Wissenschaften (PNAS) berichten sie davon. Man geht zwar davon aus, dass solche Mechanismen für alle Bereiche der Sensorik gelten, doch nachgewiesen haben die Forscher den Effekt nun für den Hörsinn.
Unaufmerksamkeitsblindheit
Dazu konstruierten sie zunächst spezielle Sounds, bei denen die beiden Parameter Anstieg/Abfall der Lautstärken-Hüllkurve und die Spektralkurve streng miteinander korreliert waren. Diesen Sounds wurden die Probanden für sieben Minuten ausgesetzt.
Anschließend mussten die Studienteilnehmer drei kurze Soundschnippsel voneinander unterscheiden - ohne die vorherige Berieselung war das eine leichte Aufgabe. Nun aber gelang es den Probanden nur noch, wenn die Schnippsel der Korrelation genügten, die sie vorher unbewusst registriert hatten. Beachtete ein Stück diese künstlich eingeführte Gesetzmäßigkeit nicht, waren die Zuhörer ratlos.
Offenbar hatte sich ihr Gehirn schon in sehr kurzer Zeit in die internen Regeln der Musikuntermalung eingehört und ignorierte dann im Vertrauen auf die Regelmäßigkeit all das, was nicht dazu passte. Ließ man die Versuchspersonen dann für einige Zeit nicht-korrelierte Sounds hören, erwarben sie ihre frühere Unterscheidungsfähigkeit zurück. Der Versuch erinnert zwar ein bisschen an den verblüffenden Versuch, bei dem Zuschauer durch das Bild laufende Gorillas nicht bemerken, wenn sie gerade mit einer Beobachtungsaufgabe beschäftigt sind - doch dabei geht es um die so genannte Unaufmerksamkeitsblindheit, ein anderes Phänomen der Wahrnehmung.
Ist der Effekt ein Verlust? Wohl eher ein Vorteil, meint Keith Kluender, einer der Forscher:
Zitat
Wenn Sie Ihr Ohr an die Wand pressen, verstehen sie jedes Wort einer lebhaften Diskussion nebenan, obwohl die Wand zwei Drittel der akustischen Information filtert - ihr Gehirn rekonstruiert den Rest.
Müssen sich die Roboterforscher und Programmierer deshalb also ihrer Arbeit schämen? Kaum - der Mensch hatte im Laufe seiner Evolution beinahe unendlich viel Zeit, sich an die Naturgesetze zu gewöhnen. Verglichen damit, sind maschinelles Sehen und Hören heute bereits sehr weit entwickelt.
Quelle : http://www.heise.de/tp/
Titel: Steuerung durch Gedanken wird marktreif
Beitrag von: SiLæncer am 27 Januar, 2011, 15:00
Ist heute noch ein Touch-Interface "leading edge" bei der Eingabetechnik, so könnte man demnächst vielleicht schon den nächsten Tweet allein per Gedankenkraft auf die Reise schicken. Entwicklungen im Bereich Brain Computer Interfaces (BCI) haben in den letzten Jahren einen entscheidenden Schritt nach vorn getan. Unter anderem haben Weiterentwicklungen der EEG-Messtechnik und Methoden des maschinellen Lernens, die die Trainingsphasen der Probanden drastisch reduzieren, dazu beigetragen, dass sich Computersysteme theoretisch relativ einfach über Gedanken steuern lassen – Grund genug für iX, in der aktuellen Ausgabe, zu untersuchen, was bereits geht und wo noch Forschungsbedarf besteht.
Dank neuerer Helme mit kapazitiven Elektroden, die nicht mehr mit Gel am Kopf des Nutzers befestigt werden müssen, hält die Gedankensteuerung jetzt auch in den Spielebereich Einzug. Ein aktueller Forschungstrend nutzt BCIs für ein Monitoring des Gehirns in Arbeitssituationen. So messen Forscher beispielsweise die kognitive Erschöpfung von Autofahrern, die als eine der häufigsten Unfallursachen gilt.
Mit der mental gesteuerten Schreibmaschine der österreichischen g.tec medical engineering GmbH können am Locked-in-Syndrom oder an ALS (Amyotrophe Lateralsklerose) Erkrankte, wie der englische Astrophysiker Stephen Hawking, per Gedankenkraft mit ihrer Umwelt kommunizieren. Ein EEG-Gerät (Elektroenzephalografie) misst dafür auf der Kopfhaut die von den Nerven im Gehirn erzeugten elektrischen Signale, und eine Software wandelt sie in mechanische Steuerungssignale um.
Quelle : www.heise.de
Titel: Forscher lesen Videoclips aus menschlichem Gehirn aus
Beitrag von: SiLæncer am 24 September, 2011, 15:18
Hirnforschern vom Gallant Lab der UC Berkeley ist ein beachtliches Experiment geglückt. Den Wissenschaftler gelang es, aus den Gehirnen verschiedener Probanden Videos auszulesen, die die Personen wenige Momente zuvor sahen. Zwar ist die Qualität und Genauigkeit der bewegten Bilder wenig beeindruckend, ein Vergleich zum Original lässt sich jedoch durchaus ziehen.
Das menschliche Gehirn erzeugt je nach Aktivität verschiedenste Blutströme im Gewebe. Diese wurden von den Forschern mittels funktioneller Magnetresonanztomographie-Technik (fmRI) genau mitgeschnitten, während sich Testpersonen völlig willkürliches Bildmaterial ansahen. Durch die Aufnahmen gelang es, die gesehenen Bilder schemenartig abzuspeichern und mit einem Computer zu einem Video zusammenzufügen. Zwar sind die errechneten Ausschnitte qualitativ nicht sehr hochwertig, verglichen mit dem Original-Clip erkennt man jedoch Parallelen.
Da sich die Wissenschaftler bei der Auswahl ihrer Videos beim Online-Portal YouTube bedienten, konnten sie sogar den genauen Namen des Bildmaterials aus den Hirnströmen schließen. Laut Angaben der Hirnforscher war die Auswahl vom Programm meist auf zehn verschiedene Clips begrenzt worden.
Die Erkenntnisse, die sich aus den Experimenten ziehen ließen, könnten nun in der Medizin genutzt werden. Gerade bei Schlaganfallpatienten oder anderen gelähmten Menschen könnte die Technik bei der Kommunikation mit der Umwelt dienlich sein.
Auch andere Experten im Bereich der Hirnforschung sind von den Ergebnissen Gallants Arbeit, beeindruckt. So auch Robert Turner, Direktor der Abteilung Neurophysik am Leipziger Max-Planck-Institut für Kognitions- und Neurowissenschaften, der sich sicher ist, dass das derartige Projekt, nicht die Grenzen der Forschung darstelle. „Und es wird noch weitergehen. Das ist erst der Anfang“, wird er bei Spiegel Online zitiert.
Bis zum tatsächlichen Durchbruch im Bereich der Gedankenforschung ist es allerdings immer noch weit. Das gewonnene Material ist nur die Wiedergabe von direkter Stimulation durch die Forscher, erklärte Neurowissenschaftler Rainer Goeble. Für ihn ist das Ergebnis der Experimente noch kein Beweis, dass man tatsächlich die Gedanken eines Menschen lesen kann.
Quelle : www.gulli.com
Titel: Re: Forscher lesen Videoclips aus menschlichem Gehirn aus
Beitrag von: Jürgen am 25 September, 2011, 03:33
Tut mir leid, aber mir scheint, da sind den Experimentatoren die Gäule durchgegangen. Habe mir den Clip nun etliche Male genau angeschaut, und kaum irgendwelche tatsächlichen Übereinstimmungen gefunden. Im Gegenteil, rechts erscheinen sogar Texteinblendungen, Bilder völlig anderer Personen mit völlig anderer Kleidung, ganz andere Objekte und Landschaften. Und es sind Details in geradezu sagenhafter Schärfe unterlegt, die die Vorlage links überhaupt nicht enthält.
Vielleicht haben sich die Macher sogar selbst komplett auf's Glatteis geführt. Aus Berichten zu Videotelefonie und extremen Kompressionsverfahren wissen wir ja, dass es Algos gibt, in die bestimmte Grundformen schon eingebaut sind, wie die grobe Form eines menschlichen Kopfes, samt Augen, Nase und Mund. Führt man nun einer solchen Stufe nur genügend Rauschen mit geringer Bandbreite zu, kriegt man ganz sicher irgendwann Köpfe zu sehen... So ist anzunehmen, dass die Forscher eine grosse Datenbank mit vorbereiteten Inhalten verwendet haben, und die erfassten extrem unstrukturierten Signale der Delinquenten lediglich so lange damit verrechnet, bis es irgendwelche scheinbaren Ähnlichkeiten ergab. Ebenso hätte man in dem Bandrauschen einer Leerkassette nach Bibelzitaten suchen können...
Und manches an unglaublich scharfen Details scheint schlicht direkt irgendeinem Fernsehsignal und / oder Photoshop entsprungen zu sein.
Da unsere Augen keine rechteckige Sichtfeldbegrenzung kennen, keine Zeilenstruktur, kein Zeitraster, und unser Gehirn ebenso keine Struktur aufweist, die Bilder in irgendeiner nachvollziehbaren räumlich-zeitlichen Koordination widerspiegeln könnte, zudem die synaptischen Feinstrukturen bei jedem Menschen anders weil erlernt und stets veränderlich sind, behaupte ich schlichtweg, das Ganze ist ein dreister und kompletter Hoax :Kopf
Jürgen
Titel: Hirnchip funktioniert im Tiermodell
Beitrag von: SiLæncer am 27 Oktober, 2011, 12:00
Das menschliche Gehirn mit einem Chip aufzurüsten, davon träumten bislang vor allem Science-Fiction-Autoren. In der Realität sind Hirnforscher von einem echten "Log-in" ins menschliche Gehirn noch weit entfernt. Allerdings könnten implantierbare Chips Patienten helfen, bei denen ein Tumor, Unfall oder Schlaganfall Hirngewebe zerstört hat, und ihnen die Funktion der verlorenen Gebiete wiedergeben, berichtet Technology Review.
In Tierexperimenten konnten nun Forscher mit Prototypen für solche Gehirnprothesen erste Erfolge verzeichnen – und sind sich gleichzeitig uneins darüber, wie gut sie die Arbeitsweise des Gehirns verstehen müssen, um Teile davon durch elektronische Bauteile ersetzen zu können.
Der US-Wissenschaftler Theodore Berger von der University of Southern California in Los Angeles glaubt, dass es ausreicht, dem Gehirn bei seiner Arbeit richtig zuzuhören. Mit seinem Kollegen Samuel Deadwyler von der Wake Forest University in North Carolina implantierte er einen Chip mit 32 Elektroden in den sogenannten Hippocampus von Laborratten. Dieser Hirnbereich spielt eine wichtige Rolle beim Lernen und bei der Gedächtnisbildung.
Die Forscher brachten den Ratten zunächst bei, von zwei Hebeln in ihrem Käfig immer denjenigen zu drücken, den sie zuerst gezeigt bekamen. Während des Experiments wertete ein an die Elektroden angeschlossener Computer aus, welche Nervenzellsignale beim erfolgreichen Lernen im Gehirn der Ratten auftraten. Mit diesem Signalmuster stimulierten die Forscher in einem Folgeversuch das Gehirn derselben Nager, die sich daraufhin häufig an den richtigen Hebel erinnerten und weniger Fehler machten als beim natürlichen Lernen – sogar dann, wenn ein größerer Zeitraum nach dem Lernen vergangen war. Die Stimulation half den Tieren auch noch beim Erinnern, wenn die Forscher Teile des Hippocampus durch ein Medikament blockierten.
Mehr zum Thema in Technology Review online:
Eine Prothese fürs Gehirn (http://www.heise.de/tr/artikel/Eine-Prothese-fuers-Gehirn-1365074.html)
Quelle : www.heise.de
Titel: Gedankenlesen im Zeitalter der Gehirnscanner
Beitrag von: SiLæncer am 18 November, 2011, 13:07
Forscher tasten langsam das Dickicht der Gehirnfunktionen ab und enträtseln peu a peu die Architektur des Gehirns
Bildgebende Verfahren in den Neurowissenschaften liefern immer feiner aufgelöste Bilder des Gehirns und seiner Funktionalität. Mittlerweile ist es möglich, das Aktivitätsmuster für gedachte Begriffe oder gesehene Muster approximativ vorherzusagen und mit gespeicherten Mustern zu vergleichen. Die fMRT-Geräte, sogenannte "Teleskope fürs Gehirn", sind immer wieder eine gute Quelle für Überraschungen.
Im vergangenen September wurde ein an der Universität Berkeley produziertes Video vorgestellt: Die Bildabfolge zeigt die rekonstruierte Aktivität des Gehirns beim Betrachten eines Videoclips von wenigen Sekunden Länge. D.h. eine Person schaut ein kurzes Video an, und der Computer versucht, anhand der dabei erzeugten und mit fMRT gemessenen Aktivitätsmuster im Gehirn, die gesehene Bildfolge zu erraten.
Das Ergebnis ist teilweise frappierend: Wenn Gesichter gesehen wurden, erzeugt der Computer auch Umrisse und Schatten von Gesichtern ungefähr an derselben Stelle und mit derselben Ausrichtung wie beim betrachteten Video. Dies stellt eine primitive Form des "Gedankenlesens" dar, das trotz der Einschränkungen der Messapparatur eindrucksvolle Resultate liefert. So tasten sich die Forscher langsam das Dickicht der Gehirnfunktionen ab und enträtseln peu a peu die Architektur des Gehirns.
mehr ... (http://www.heise.de/tp/artikel/35/35893/1.html)
Quelle : http://www.heise.de/tp/
Titel: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: SiLæncer am 07 Januar, 2012, 19:00
Der beständige Zuwachs an Wissen überfordert die Menschen. Davon ist der Karlsruher Medienphilosoph Peter Weibel überzeugt. Um die Informations-Revolution zu überstehen, müsse der Mensch die Rechnerleistung seines Gehirns und seiner Sinnesorgane verbessern, sagte Weibel in einem Gespräch mit der dpa. Ähnlich dem Brust- und Herz-Implantat könne es auch ein Gehirn-Chip-Implantat geben. "Diese Vorstellung macht vielen Menschen Angst – aber sie folgt der Logik."
Der Mensch kontrolliere inzwischen die natürliche Umwelt einigermaßen erfolgreich. "Doch die Anzeichen mehren sich – von der Umweltkrise bis zur Finanzkrise –, dass er an der von ihm selbst geschaffenen künstlichen Umwelt zu scheitern droht", erläuterte Weibel. Als Beispiel nannte er die Finanzwelt, in der "Heerscharen von Menschen an Computern eine Armee von Algorithmen befehligen". Dabei verlören die Menschen Schlacht um Schlacht.
Cloud Computing als Blaupause
"In dieser explodierenden Wissens- und Mediengesellschaft muss der Mensch die technische Ausdehnung seiner natürlichen Sinnesorgane, bis hin zum Zentralorgan, dem Gehirn, verbessern, ähnlich dem Cloud Computing", sagte Weibel, der das Zentrum für Kunst und Medientechnologie (ZKM) in Karlsruhe leitet. Der Mensch müsse Teil der technischen Wissensrevolution werden, wenn er nicht ihr Opfer werden wolle.
Schon jetzt haben Menschen nach Ansicht des Wissenschaftlers weit mehr Vertrauen in Rechner als in die Rechenleistungen ihrer Mitbürger. "Das fängt schon an der Kaufhauskasse an. Stellen Sie sich vor, die Kassiererin addiert die Preise im Kopf. Da würde jeder kontrollieren", erläuterte Weibel und schlussfolgert: "Die Fähigkeit, rechnen zu können, macht uns nicht zum Menschen. Das können Maschinen viel besser."
"Entschleunigung" keine Option
Der Wissensfortschritt sei nicht aufzuhalten. "Eine Entschleunigung gibt es nicht", ist sich Weibel sicher. Der Mensch könne aber nur dann Schritt halten, wenn er seine Natur verbessere. "Wir können das nicht mehr der Evolution überlassen." Bereits in den vergangenen Jahrzehnten habe der Mensch seine Sinnesorgane mit technischer Hilfe enorm erweitert. "Wir horchen mit der Radio-Astronomie Millionen von Kilometer tief ins Weltall und zeichnen Töne von dort auf, die unser Ohr allein nie wahrnehmen könnte." Für Weibel steht der Mensch an der Schwelle einer Exo-Evolution, einer von ihm selbst gesteuerten Evolution.
Quelle : www.heise.de
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: dada am 07 Januar, 2012, 20:29
Ich will ja nicht böse sein, aber sollte man dem Herrn Weibl vielleicht ein menschliches Gehirn implantieren?
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: Jürgen am 08 Januar, 2012, 04:05
An sich ein guter Vorschlag, aber da wohl nicht hilfreich. Ganz sicher wurde er mit einem solchen geboren. Aber so wie er geschafft hat, dieses gründlich abzustellen, würde ein Spenderorgan auch sehr bald abgestoßen.
Ganz besonders abartig ist allerdings seine Begründung mit der Finanzkrise. Diese ist nämlich keineswegs ein Produkt menschlicher Kontrolle entkommener Computer, das ist nur die Ausrede der wahren Verbrecher. In Wirklichkeit ist die Krise menschengemacht und ganz bewusst inszeniert, um die Ausplünderung und Zinsversklavung auch der Teile der Weltbevölkerung zu perfektionieren, die sich eigentlich wirksam dagegen wehren könnten.
Wer wissen will, in wessen Interesse das Ganze gefingert wird, der stelle sich einfach die klassische Frage "Cui bono?"
Schon schließt sich der Kreis, und uns wird klar, ein solches Implantat zur Denkkontrolle wäre das finale Werkzeug genau dieser Plünderer. Und mir zwingt sich der Verdacht auf, eben diesen dürfte dieser Möchtegern-Dr.Faust auch dienen (wollen).
Wer nun einwenden möchte, der Herr käme ja eigentlich eher aus der kreativen Ecke, dem sei noch empfohlen sich zu erinnern, dass solche Gehirnimplantat- und Computerherrschaftsträume schon seit Jahrzehnten kalter Kaffee sind. Das war längst da, ein wenig in den (19)20ern, etwas mehr in den 50ern, bis zur Erschöpfung abgefrühstückt in den 70ern uind 80ern. Gehört genauso in die Mottenkiste wie Atomautos, fliegende Häuserblocks und Publikumsbeschimpfungen im Theater.
Seitdem erzeugt das Thema Computerkontrolle des Gehirns nicht mehr wohliges Gruseln bei Feuilleton-Lesern, sondern bestenfalls Zweifel an der Zurechnungsfähigkeit des Herrn W. und der Mittelverwendung für sein Gehalt, sowie wahres Entsetzen über die unvermeidlichen Konsequenzen solch einer Technologie. Damit gelingt also keine hippe Provokation mehr, das ist genau so out wie dreckige Badewannen oder Künstlerdreck in Dosen. Nur eben viel gefährlicher und absolut menschenverachtend.
Nicht der Mensch gehört an die Technik oder Wirtschaft angepasst, sondern ausschließlich die Technik und die Wirtschaft an den Menschen.
Setzen, Sechs!
Jürgen
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: ritschibie am 08 Januar, 2012, 12:40
"Die Fähigkeit, rechnen zu können, macht uns nicht zum Menschen. Das können Maschinen viel besser."
Das macht mich stutzen: Meint Weibel wirklich, dass Maschinen "besser" rechnen können?. M.E. können sie vielleicht "länger" und "schneller" rechnen, niemals aber "besser" als es die mathematischen Modell-Vorgeber (Menschen) ersonnen haben bzw. designen werden. Aber er meint wohl den Durchschnittsmenschen, dieses unbekannte Wesen...
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: Jürgen am 08 Januar, 2012, 23:20
Stimmt, diesen Aspekt habe ich glatt vergessen.
Tatsächlich ist die mathematische Qualität von Rechenmaschinen HÖCHSTENS so gut wie die ihrer Konstrukteure. Nicht von Geschwindigkeit rede ich, oder von extrem vielen Stellen, sondern von Präzision und Freiheit von systematischen Fehlern.
Aus den Frühzeiten der (technisch-wissenschaftlichen) Taschenrechner erinnere ich durchaus noch einige ziemlich banale Aufgaben, die aufgrund intern verwendeter Approximationen zu sehr erheblich abweichenden Ergebnissen führten (und teils auch heute noch führen). Bei oft nicht voll dokumentierten Veränderungen der Algos bzw. Näherungsverfahren oder auch interner Rechenauflösung bei bestimmten Operationen haben sich diese Rechenfehler dann auch kaum vorhersehbar verändert. Der Praktiker lernte dann (hoffentlich) irgendwann, in welchen Bereichen mit unbrauchbaren Ergebnissen zu rechnen war. Leider war das lange vor Einführung des Internets, weshalb ich leider die damaligen Kniffe und Diskussionen nirgendwo verzeichnet finde.
Der PC kann heute sicher die meisten dieser Fußangeln vermeiden (lernen), wenn sich die Programmierer UND Hardware-Entwickler dieser Problematik bewusst sind.
Dennoch, was der Mensch nicht zu denken vermag, wird der Computer nicht zu rechnen lernen. Von wem denn...
Jürgen ____ der noch mit dem Rechenschieber gelernt hat, im Sinne von 2*2 ergibt in grober Näherung 3,99 +/- 0,5% ____
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: dada am 09 Januar, 2012, 00:03
Selbst wenn das Moor'sche Gesetz noch über längere Zeit funktionieren sollte, kann ich mir nicht vorstellen, dass in den nächsten paar Jahren ein entscheidungsfähiger Rechner gebaut werden könnte. Es ist sicher richtig, dass die besten Schachspieler inzwischen Computer sind, aber die leben von der Geschwindigkeit und sind bestimmt besser, als ihre Programmierer. Aber denken im menschlichen Sinne (wie immer man das auch zu definieren wagt) können die Teile in absehbarer Zeit nicht. Die Vernetzung von Neuronen im Gehirn ist absehbar nicht elektronisch nachstellbar und so wird es auch bis auf weiteres keinen Rechner mit akzeptablem IQ geben (von denkbaren Ausnahmen will ich hier absehen).
Titel: Re: Mensch mit Wissen überfordert – Computerchip implantieren?
Beitrag von: Jürgen am 09 Januar, 2012, 00:17
Ich weiß nicht, ob das tröstet, aber zumindest eine für manche Menschen typische Wesensart scheint sich in letzter Zeit fast perfekt auf Computer ertragen zu lassen, die Gier. Moderne Spekulanten überlassen ja heutzutage Geschäfte im Takt von Sekundenbruchteilen regelmäßig den Algos ihrer Maschinen. Und es scheint, dass die Annäherung an das sagenhafte Verhalten der Lemminge dabei besser gelingt als zuvor im Parketthandel. Mit Petaflops gemeinsam in den Abgrund... ::)
Titel: Kurzweil will Gehirn-Schaltkreise nachbauen
Beitrag von: SiLæncer am 26 November, 2012, 13:22
Der Futurologe Ray Kurzweil ist davon überzeugt, aus dem menschlichen Gehirn die Vorlage für leistungsfähigere Computer ableiten zu können. Im Interview erklärte Kurzweil, er habe ein neues Unternehmen gegründet, um die Theorien, die er in seinem neuen Buch „How to Create a Mind“ erklärt, technisch zu nutzen.
„Eines der wesentlichen Elemente menschlicher Intelligenz ist die Fähigkeit des Neokortex, also des entwicklungsgeschichtlich jüngsten Teils der Großhirnrinde, Informationen hierarchisch zu organisieren“, argumentiert Kurzweil. „Der Neokortex kann Fakten abstrahieren, dann die abstrahierten Fakten noch einmal abstrahieren und so weiter. Diesen Prozess muss das Gehirn durchmachen, um Intelligenz auszubilden“.
Als wesentliches Element dieser Informationsverarbeitung hat Kurzweil „Module“ im Gehirn identifiziert, die für diese hierarchische Informationsverarbeitung zuständig sind. Der Hirnforscher Henry Markram, der mit seinem „Blue Brain Project“ Teile eines Rattengehirns simuliert - sein Fernziel ist die Simulation eines kompletten menschlischen Gehirns -, habe gezeigt, dass es im Gehirn Module gibt, die aus etwa 100 Neuronen bestehen deren interne Verdrahtung sich im Laufe der Zeit nicht ändert, sagt Kurzweil. „Die Verbindungen zwischen diesen Modulen verändern sich allerdings sehr stark, wenn das Gehirn lernt. Diese Module, die laut Kurzweil analog zu Hidden-Markov-Modellen funktionieren, „ sind in der Lage, Muster zu erkennen. Um diese Muster hierarchisch zu ordnen, verbinden sie sich mit anderen Modulen“, so wie Menschen beim Lesen Buchstaben erkennen, um daraus Wörter zu formen. Auf diese Weise lerne das Gehirn, so Kurzweil.
Kurzweil, 64, der täglich rund 150 Pillen am Tag schluckt, um „die volle Blüte der Biotechnologie-Revolution“ zu erleben, gilt als so etwas wie der personifizierte Fortschrittsglaube des Silicon Valley. Seit mehr als zwanzig Jahren produziert der Zukunftsforscher und Erfinder Bücher, in denen er beschreibt, was in den nächsten Jahrzehnten auf die Menschheit zukommen wird: programmierbare Nano-Roboter in unserer Blutbahn, Software-Downloads für das menschliche Bewusstsein – und schließlich die „Singularität“, der Punkt, an dem keine sinnvollen Vorhersagen über die technologische Entwicklung mehr möglich ist.
Dass der Futurologe lebensverlängernde Präparate nicht nur in seinen Büchern propagiert, sondern sondern sie auch in einem Online-Shop verkauft, hat ihm allerdings massive Kritik eingebracht. Auf die Frage, ob er keine Bedenken, damit seinen wissenschaftlichen Ruf zu schädigen, antwortet Kurzweil: „Nun, wenn Sie „Fantastic Voyage“ lesen, werden Sie rund 2000 wissenschaftliche Zitate finden. Aus anerkannten wissenschaftlichen Zeitschriften. Alles, was wir vorschlagen, ist tatsächlich recht konservativ. Wir empfehlen keine umstrittenen Mittel wie etwa menschliche Wachstumshormone. Kurz gesagt: Es gibt eine Menge wissenschaftlicher Belege. Aber viele meiner Kritiker haben die schlicht nicht gelesen.“
Mehr in Technology Review 12/2012:
Wie baut man ein Gehirn, Herr Kurzweil (http://www.heise.de/tr/artikel/Wie-baut-man-ein-Gehirn-Herr-Kurzweil-1750742.html)
Quelle : www.heise.de
Titel: Re: Kurzweil will Gehirn-Schaltkreise nachbauen
Beitrag von: Jürgen am 26 November, 2012, 20:01
Bin mal gespannt, wie lange es noch dauert, bis der erste Computer depressiv wird, übellaunig oder schizophren.
Das würde sicher die Mächtigen nicht davon abhalten, weiterhin strikt zu behaupten, Computer würden sich nie irren. Und wir kleine Leute wären natürlich die Leidtragenden.
Die Menschheit braucht keine Maschinen, die erst lange lernen und erwachsen werden müssen. Das können wir selbst "besser". Die Menschheit braucht keine Maschinen, die irren und lügen können. Das können wir selbst "besser". Die Menschheit braucht keine Maschinen, die morden oder Selbstmord begehen können. Das können wir selbst "besser". Die Menschheit braucht keine Maschinen, die man erst überzeugen muss, bevor sie sich vielleicht zu irgendeiner Funktion entschließen. Das können wir selbst "besser".
Das Ende der Menschheit beginnt spätestens damit, dass man mit dem Dosenöffner zu diskutieren beginnt, der gerade nicht so gut drauf ist. Oder mit einer neurotischen Bombe...
Jürgen
Titel: Hirnsimulator wird europäisches Forschungs-Flaggschiff
Beitrag von: SiLæncer am 28 Januar, 2013, 16:40
Die Europäische Kommission hat am heutigen Montag zwei Leuchtturmprojekte benannt, die in den kommenden zehn Jahren mit insgesamt je einer Milliarde Euro finanziert werden sollen. Die Initiativen Human Brain Project und Graphene CA sind von einem Expertengremium aus einer Liste von sechs Projekten ausgewählt worden, die sich um den Status eines FET-Flagships beworben hatten:
Das Projekt "FuturICT": die Computersimulation sozialer, ökonomischer und politischer Systeme. Das Konsortium "Graphene CA": die systematische Erforschung und Entwicklung von Graphen-Mikroelektronik. Das Vorhaben "IT Future of Medicine": die Entwicklung einer "datengetriebenen" individualisierten Form der Medizin, bei der jeder praktizierende Arzt das persönliche Genom seiner Patienten nutzt. Das "Human Brain Project": die biologisch realistische Simulation des menschlichen Gehirns, die nicht nur helfen soll, Krankheiten wie Alzheimer zu behandeln, sondern auch den Bau biologisch inspirierter "Robotergehirne" ermöglicht. Das Projekt "Robot Companions for Citizens": die Entwicklung "vernunftbegabter" Roboter, die ein Bewusstsein von sich selbst haben.
Graphen weist eine außergewöhnliche Kombination physikalischer und chemischer Eigenschaften auf: E300-mal stärker als Stahl, und lässt sich trotzdem bis zu 20 Prozent seiner Länge dehnen. Es habe ein optimales Verhältnis von Oberfläche zu Gewicht und eignet sich damit hervorragend zum Einsatz in Energiespeichern. Zudem ist der Stoff transparent und leite sowohl Strom als auch Wärme exzellent "Graphene CA" will diese Eigenschaften beispielsweise in flexiblen Funketiketten oder in Lithium-Ionen-Akkus und Superkondensatoren nutzen.
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Hirnsimulator-wird-europaeisches-Forschungs-Flaggschiff-1792443.html)
Quelle : www.heise.de
Titel: Künstliches Gehirn: Memristoren werden zu Synapsen
Beitrag von: SiLæncer am 20 Februar, 2013, 18:45
Das Gehirn muss nicht programmiert werden - es lernt. Wissenschaftler versuchen deshalb, seinen Mechanismus nachzubauen. Der Bielefelder Forscher Andy Thomas versucht das mit Memristoren.
Einen Computer nach dem Vorbild des menschlichen Gehirns zu bauen, ist das Ziel von Andy Thomas. Als Nervenzellen nimmt der Bielefelder Physiker für seinen Hirncomputer Memristoren.
Memristoren (von: Memory, Speicher, und Resistor, elektrischer Widerstand) sind passive elektrische Bauteile, deren elektrischer Widerstand variabel ist und die als Verbindung von Stromleitungen eingesetzt werden können. Diese Bauteile sind ein elektronisches Pendant zu einer Synapse. Das ist der Teil einer Nervenzelle, über den sie eine Verbindung zu einer anderen Nervenzelle herstellt.
Der ganze Artikel (http://www.golem.de/news/kuenstliches-gehirn-memristoren-werden-zu-synapsen-1302-97723.html)
Quelle : www.golem.de
Titel: Brain-To-Brain Interface: Mensch steuert anderen mit Gedanken fern
Beitrag von: SiLæncer am 28 August, 2013, 12:20
Einem US-Wissenschaftler ist es gelungen, einen Kollegen fernzusteuern. Er hat seine Gedanken in dessen Gehirn übertragen und eine Bewegung ausgelöst, ohne dass der andere das wollte.
Ein Mensch kontrolliert die Gedanken eines anderen: Das haben Wissenschaftler der Universität des US-Bundesstaates Washington in Seattle getan. Über eine Gehirn-zu-Gehirn-Schnittstelle (Brain-To-Brain Interface) hat der Informatiker Rajesh Rao auf das Bewegungszentrum seines Kollegen Andrea Stocco zugegriffen, um ein Computerspiel zu bedienen.
Für das Experiment trug Rao eine Datenkappe, die per Elektroenzephalografie seine Gehirnströme aufzeichnete. Stocco befand sich in einem anderen Gebäude auf dem Campus und trug eine Badekappe, in die eine Spule eingearbeitet war. Diese sollte per transkranieller Magnetstimulation (TMS) sein Gehirn beeinflussen.
Der ganze Artikel (http://www.golem.de/news/brain-to-brain-interface-mensch-steuert-anderen-mit-gedanken-fern-1308-101246.html)
Quelle : www.golem.de
Titel: Re: Brain-To-Brain Interface: Mensch steuert anderen mit Gedanken fern
Beitrag von: Jürgen am 29 August, 2013, 04:35
Für mich ist das nutzloser Blödsinn, zum Glück. Diese menschliche Laborratte war ja schon genau auf diese Aktion fixiert, und lediglich der Zeitpunkt wurde hier aus der Ferne beeinflusst, wenn überhaupt. Und als Auslöser hätte ein bloßes Erschrecken, ein Tritt auf den Fuß oder schlicht hinlängliches Abwarten auch genügt. Ein so grober Reiz großer Areale des Hirns kann überhaupt keine bestimmte Handlung auslösen, allenfalls eine ohnehin gerade sehr aktive oder besonders inaktive Region geringfügig beeinflussen. Ungefähr so stark, wie ein leichtes Jucken am Ohrläppchen...
Also braucht auch weiterhin niemand Angst vor irgendeiner Fernsteuerung per Induktionsschleife zu haben. Genau so wenig, wie vor Datendiebstahl direkt aus dem Hirn per Körperfettwaage oder Neutrinostrahl ::)
Daniela Schiller, Hirnforscherin an der Mount Sinai School of Medicine in New York, hat in Untersuchungen demonstriert, dass Erinnerungen nichts Statisches sind, berichtet Technology Review in seiner Online-Ausgabe. Eine Erinnerung abzurufen sei ein aktiver Prozess. "Es erfolgt jedes Mal ein erneuter Speicherprozess." Das bedeutet, dass Erinnerungen sich in einem instabilen Zustand befinden und sie bei jedem Abruf neugeschrieben und umgeformt werden. "Wir erinnern uns nicht an die Originalversion, sondern an deren Überarbeitung durch das Gehirn."
Der ganze Artikel (http://www.heise.de/newsticker/meldung/Hirnforschung-Erinnern-veraendert-Erinnerungen-2038624.html?wt_mc=rss.ho.beitrag.atom)
Na wunderbar. Das ist doch wie gemalt für unsere Politiker! Die erinnern sich vermutlich ganz oft an das, was sie vor den Wahlen versprochen haben :hmm
Titel: Re: Hirnforschung: Erinnern verändert Erinnerungen
Beitrag von: Hans Vader am 13 November, 2013, 17:21
Na wunderbar. Das ist doch wie gemalt für unsere Politiker! Die erinnern sich vermutlich ganz oft an das, was sie vor den Wahlen versprochen haben :hmm
Gab da mal ein Liedchen. Zitat in etwa : Was Du heute kannst versprechen, darfst Du morgen wieder brechen ... :rauch
Titel: Re: Hirnforschung: Erinnern verändert Erinnerungen
Beitrag von: Jürgen am 14 November, 2013, 04:39
Ich teile diese Theorie nicht in vollem Umfang.
Es stimmt zwar, dass das intensive Erinnern zu einer erneuten Speicherung führt, aber die ursprüngliche Information geht dabei in der Regel nicht verloren. Ähnlich wie bei Lernen und Wiederholung entsteht statt dessen eine gewisse Redundanz. Allerdings können diese "Versionen" im Laufe der Zeit einzeln verändert werden oder auch mal verloren gehen. Und das betrifft dann typischerweise nicht die älteste Speicherung, sondern eher spätere Wiederholungen, die ja jeweils per se weniger wichtig gewesen bzw. empfunden worden sein dürften.
Das ist der Grund dafür, dass man manchmal irgendetwas vergessen zu haben scheint, obwohl man weiß, dass man sich eigentlich daran erinnern müsste, es einem dann aber nach einer gewissen Zeit (Minuten oder Stunden später) plötzlich doch wieder verfügbar wird. Die uralten Originale können insofern ziemlich verschüttet sein, weil länger nicht abgerufen. Sie sind dann aber eben doch noch vorhanden. Und meiner Erfahrung nach sind sie typischerweise auch noch korrekt.
Diese Redundanzen sind auch der Hauptgrund, weshalb sich Demente oder organisch hirngeschädigte Menschen häufig noch gut an uralte Dinge erinnern, während Neueres gnadenlos verschütt geht. Das olle Zeugs ist eben oft so vielfach gespeichert, dass sich immer noch eine lesbare Kopie findet, oder in diesem Sinne sogar das Original. Laufen die Dinge in dieser Art ab, erkennt man das gelegentlich an einer kurzen Verzögerung. Die Geschwindigkeit der Neuronen ändert sich nämlich nicht, aber Umwege, so sie denn letztlich noch funktionieren, brauchen einfach mehr Zeit.
Ich selbst vergleiche das Gedächtnis gerne mit einem komprimierten Datenträger, der ebenfalls komprimierte Unterstrukturen beinhaltet. Teilweise kann man wohl sogar von einer Art Verschlüsselung der Struktur ausgehen, u.U. auch mehrstufig, für die Schlüssel-Gedankengänge (Eselsbrücken) oder aktuelle Wahrnehmungen entscheidend sein können Auch das durchaus auf mehreren möglichen Wegen.
Strengt sich der Nachdenkende dabei auch noch besonders an, dauert's gern noch länger, wie ja fast jeder aus Prüfungssituationen wissen wird. Hat man schließlich ab- bzw. aufgegeben, fällt einem - leider dann zu spät - gern alles Wichtige ohne große Mühe wieder ein.
Und solche Anstrengung beim Versuch des Erinnerns kann tatsächlich zu verfälschten Ergebnissen führen, insbesondere bei Menschen mit einer stark emotional geprägten Denkweise. Das ist dann Glauben, nicht Wissen, aber dies ist den Betroffenen oft nicht bewusst. Man könnte dabei sogar von Erinnerungs-Pfusch sprechen...
Und solche Situationen sind bei der polizeilichen Vernehmung und vor Gericht eigentlich typisch, weil kaum jemand vorgeladen wird, den die Sache nicht wirklich berührt, auf die eine oder andere Weise.
Allein aus solchen Ausnahmesituationen darf man aber nicht auf die grundlegende Arbeitsweise des Erinnerungsvermögens schließen.
Jürgen
Titel: Neurogrid: Chip ahmt das Gehirn nach
Beitrag von: SiLæncer am 01 Mai, 2014, 18:15
Forscher der Universität Stanford haben einen Chip entwickelt, der nahezu wie ein menschliches Gehirn arbeitet. Das sogenannte Neurogrid-Board soll 9000-mal schneller arbeiten als aktuelle PCs, aber nur einen Bruchteil an Energie benötigen.
Das von der Europäischen Union initiierte Human Brain Project verfolgt das Ziel, mit Hilfe von Supercomputern die Arbeit des menschlichen Gehirns nachzustellen. Biowissenschaftler der kalifornischen Universität Stanford haben nun unter der Bezeichnung Neurogrid eine Rechnerplatine entwickelt, deren 16 "Neurocore"-Chips nach dem Prinzip des Gehirns arbeiten. Das System von der Größe eines Tablets ist in der Lage, rund eine Millionen Neuronen und Milliarden von Synapsen-Kontakten zu simulieren.
Mit diesem Ansatz lassen sich erhebliche Geschwindigkeitsvorteile gegenüber den klassischen Rechnersystemen mit Halbleiterchips erzielen – bereits ein Mäusegehirn arbeite rund 9000-mal schneller als ein aktueller PC beim Versuch, das Hirn zu simulieren, erklärt der am Projekt beteiligte Wissenschaftler Kwabena Boahen. Ein weiterer maßgeblicher Vorteil von Neurogrid sei die Energieeffizienz. Das System arbeite etwa um den Faktor 40.000 sparsamer als ein herkömmlicher PC.
Um Neurogrid für den praktischen Einsatz reif zu machen, arbeiten die Wissenschaftler aktuell an der Entwicklung von Compiler-Software und einer weiteren Senkung der Kosten des Systems – der vom National Institut of Health geförderte Prototyp hat rund 40.000 US-Dollar gekostet. Konkrete Einsatzmöglichkeiten für Neurogrid sieht Boahen beispielsweise bei der Steuerung von Körperprothesen oder auch humanoider Roboter.
Das Lesen von Akronymen wie FBI oder DVD ruft bei jedem Menschen individuelle Hirnströme hervor. Diese ließen sich laut Forschern langfristig zur Zugangskontrolle für sensible Bereiche oder Daten nutzen.
In ihrer im akademischen Magazin Neurocomputing veröffentlichten Studie mit dem Titel „Brainprint“ haben Forscher der Binghamton University die Gehirnströme von 45 Freiwilligen ausgewertet, während diese eine Wortliste mit Akronymen studieren mussten. Bei der Aufzeichnung der Gehirnwellen fanden die Wissenschaftler heraus, dass jeder Proband die aus wenigen Buchstaben bestehenden Abkürzungen minimal anders verarbeitet. Ein angeschlossenes Computersystem konnte die jeweiligen Hirnströme in 94 Prozent aller Versuche konkret einer Person zuordnen.
Die einzigartige Reaktion auf bestimmte Wörter (http://www.eurekalert.org/pub_releases/2015-06/bu-brt060215.php) ließe sich den Forschern zufolge in Zukunft für Sicherheitssysteme nutzen, die die Identitäten von Person bestimmen können. Sarah Laszlo, Dozentin und Mitautorin der Studie, sieht die aus den Versuchen gewonnenen Biometriedaten für Einloggvorgänge als besonders geeignet an. Im Gegensatz zu Fingerabdrucksensoren oder Retina-Scannern könnten sie nicht so leicht ausgetrickst werden. Sollte ein Brainprint doch einmal entwendet werden, so könnte der Nutzer einfach ein neues Akronym festlegen.
Für das Freischalten des Smartphones dürften Brainprints nach Ansicht von Mitautor Zhanpeng Jin in naher Zukunft jedoch nicht geeignet sein. Wichtige Sicherheitsanwendungen könnten jedoch von den individuellen Gehirnströmen profitieren. Jin sieht Einsatzmöglichkeiten für Brainprints daher eher in Bereichen, in denen sich nur wenige Menschen aufhalten dürfen, als Beispiel nennt er Einrichtungen wie das Pentagon oder die Air Force Labs.
Quelle : www.heise.de
Titel: Re: Forschung: Hirnwellen könnten künftig Passwort ersetzen
Beitrag von: Jürgen am 08 Juni, 2015, 02:03
Schon klar, um in Zukunft eine Tür zu öffnen, schmiert man sich den Kopf mit leitfähigem Gel ein und setzt dann einen Spezialhelm mit Dutzenden Elektroden auf. Und dann hofft der Betreiber, man hätte in letzter Zeit seine Denkmuster überhaupt nicht verändert und nichts Neues im Kopf.
So ein Schmarrn passt sicher auf viele Beamte, Politiker und Militärs, mit längst mumifiziertem Intellekt.
Ganz sicher aber nicht auf Menschen, die wichtige neue Ideen entwickeln oder folgenreiche Dinge entscheiden sollen. Die nämlich müssen geistig rege und flexibel sein, und ihre gedanklichen Reaktionen werden sich daher aufgrund wachsender Erfahrung ständig verändern. Zudem verwenden sie in der Regel keine mentalen Techniken oder Drogen zur zumindest vorläufigen Stillegung des ansonsten automatisch aktiven Denkapparats.
Noch mehr aber als chronisch albträumende Geheimdienstverschwörer würden sich Internetkraken und Werbewirtschaft für ein unauffälliges Dauer-EEG am Smartphone interessieren, z.B. um die Reaktion auf bestimmte Begriffe, Bilder oder Töne zu beobachten oder später sogar manche Gehirnstromzacken einfach als angebliche Kaufentscheidung zu interpretieren.
Meine Gedanken verlassen meinen Kopf ausschließlich durch meine eigene Entscheidung, und nur in Form von Sprache, Text und allenfalls noch körperlichem Nachdruck.
Jürgen
Titel: Software unterstützt und kontrolliert Gedächtnis
Beitrag von: SiLæncer am 22 Juni, 2017, 17:04
Digitale Helfer können dem Gedächtnis des Menschen tatsächlich auf die Sprünge helfen. Aber die Technik bietet auch Missbrauchsmöglichkeiten, warnen Forscher.
Albrecht Schmidt von der Universität Stuttgart hat ein Programm entwickelt, das sein Gedächtnis sanft unterstützt. Die Software protokolliert lückenlos seine tägliche Arbeit am Laptop und präsentiert ihm am nächsten Morgen eine fünfminütige Diashow von Screenshots des Vortags – zwei Bilder jeder Minute, im extremen Zeitraffer zusammengeschnitten. Als Außenstehender bleibt man ratlos: Die Bilder laufen viel zu schnell. "Aber ich kann sehen, wie ich gearbeitet habe, was ich gemacht habe, wie schnell – und vor allem: Was ich gelernt habe", sagt Schmidt.
Zweischneidige Technik
Im EU-finanzierte Projekt Recall haben Schmidt und seine Kollegen untersucht, ob und wie sich Lifelogging-Techniken als Gedächtnisstütze nutzen lassen, berichtet Technology Review in seiner Juli-Ausgabe (seit Donnerstag am Kiosk oder online bestellbar). Das Ergebnis: Bereitet man die Datenflut aus einem Lifelogging richtig auf und präsentiert dem User eine kurze Zusammenfassung seines Tages, kann er sich an mehr Begebenheiten erinnern. "Schnell wurde klar, dass die Technologie auch gesunden Menschen helfen kann", erklärt Schmidt, der ebenfalls an Recall beteiligt war. Aber die Technik ist durchaus zweischneidig, denn mit dem Verstärken bestimmter Erinnerungen werden andere Erinnerungen abgeschwächt.
"Wie gut man sich an ein Objekt erinnert, wird beeinflusst von der Zahl der ähnlichen Objekte, denen man begegnet", sagt Geoff Ward, Psychologe an der University of Essex. Er hat Studierende auf eine Campustour geschickt. An acht verschiedenen Stationen warteten jeweils sechs verschiedene Dinge. Die Studenten sollten sich möglichst viele dieser Dinge merken. Eine Gruppe aber behandelte er etwas anders: Nach der Tour und vor dem Test zeigte er ihnen Fotos von einigen ausgewählten Dingen, die an drei der acht Orte auf sie gewartet hatten. Wenig überraschend war, dass sich diese Gruppe zu 80 Prozent an jene Dinge erinnern konnte, die ihnen zusätzlich auf den Bildern gezeigt worden waren – und damit deutlich besser als die Kontrollgruppe. Sie hatte sich nur an 60 Prozent aller gesehenen Dinge erinnert. Erstaunlich jedoch war das zweite Ergebnis: An Dinge, von denen die Fotogruppe nachträglich kein Bild gesehen hatte, erinnerte sie sich nur zu 45 Prozent – und damit schlechter als die Kontrollgruppe. Die Fotos hatten sie also Dinge vergessen lassen, die ohne Fotos im Gedächtnis geblieben wären.
Erinnerungen einpflanzen
Wenn also ein Algorithmus den Tag in Bildern zusammenfasst wie im Projekt Recall, verändert er die Wahrnehmung – und am Ende unser Handeln. Ward sieht darin aber auch eine Chance. Wir könnten die Methode nutzen, um das perfekte, von negativen Erinnerungen gereinigte Gedächtnis zu schaffen. "Wer den Algorithmus macht, der kann uns Erinnerungen einpflanzen", sagt Albrecht Schmidt.
Aber ist das nicht Gehirnwäsche? "Nein, das ist das Leben", sagt Ward: So funktioniert unser Gehirn. Auch das Verhalten von Menschen könnte man dank dieses Mechanismus ändern: Wer öfter ins Fitnessstudio gehen möchte, aber mit seinem inneren Schweinehund kämpft, könnte sich die Erinnerung daran verstärken lassen, wie gut es ihm hinterher ging. "Die Technik dafür ist reif", sagt Ward, "das muss uns bewusst sein".