-
Der Playstation-Hersteller Sony hat ein US-Patent errungen, virtuelle Sinneseindrücke ohne operativen Eingriff direkt mit Ultraschall-Impulsen ins Gehirn des Rezipienten zu leiten. Die Pulse, die das Sende-Timing der Nervenzellen im Cortex manipulieren, sollen gleichermaßen zur Vermittlung von Bildern, Klängen oder auch Gerüchen taugen, sogar dann, wenn der Empfänger solche Empfindungen normalerweise gar nicht aufnehmen könnte, etwa weil er blind ist. Außerdem bietet sich die Methode an, künftige Spielkonsolen mit zusätzlichen Reizen aufzupeppen.
Zwar gibt es bereits ein Verfahren, um die vermeintlichen Daten von Sinnesorganen durch modulierte Magnetfelder ins Hirn einzuspeisen, doch laut der Zeitschrift New Scientist lassen sich auf diesem Wege nur vergleichsweise große Gruppen von Hirnzellen adressieren. Wie sich die Sony-Technik davon abhebt, kann man im Augenblick wohl kaum sagen: Laut Unternehmenssprecherin Elizabeth Boukis beruht das Patent zum Teil auf einer "prophetischen Erfindung". Experimentelle Studien zur patentierten Technik haben bislang offenbar nicht stattgefunden.
Quelle : www.heise.de
-
Ich würd' das lassen!
Wenn der Ultraschall stark genug ist, um die Hirnzellen zur Reaktion zu bewegen, dürfte die Energie auch ausreichen, dauerhafte und unerwünschte Nebenwirkungen auszulösen.
Denkt an das Prionen-Problem...
Immerhin würde dann das alte Vorurteil bestätigt, dass übermässiges Spielen am Bildschirm die grauen Zellen in einen dampfenden Haufen Sch... oder eine Art amorphen Glibber verwandeln kann ::)
Mit Mikrowellen oder Röntgenstrahluing geht das bestimmt noch besser ;D
...oder baut doch gleich einen Pürierstab ein...
Wahrscheinlich haben die Patent-Anmelder vorher zuviel Selbstversuche durchgeführt!
-
Also wenn man schon mit solchen Sachen anfängt, dauert es nicht mehr lange bis die ersten Viren fürs Gehirn programmiert werden. Wahrscheinlich wird man dann vom PC animiert in irgenwelche Sekten einzutreten oder noch mehr Produkte zu kaufen.
-
...Viren fürs Gehirn...
z.B. Prionen ?
Mahlzeit!
Glücklicherweise ist das Betriebssystem nicht von M$, die Hardware individuell unterschiedlich und der gesamte Speicher nicht flüchtig / reset- bzw. reboot-fähig. Zudem gibt es keine zentrale Schnittstelle.
Allerdings gibt es ganz sicher sowieso schon viele ernste Schwachstellen und Sicherheitslücken, Beweise dafür liefern reichlich:
Sekten und andere extreme Glaubensgemeinschaften,
rücksichtslose, asoziale Vertreter angeblich "höherer" politischer und wirtschaftlicher Interessen,
Drogenmissbraucher,
Gewalttäter,
Militaristen,
Machtsüchtige,
Spanner
(auch und gerade von Berufs wegen...)
und unzählige andere
Geisteskranke und hirnlose Idioten...
-
Sony bastelt an der Idee eines Computer-Gehirn-Interfaces. Das sei erst der Anfang, glaubt der britische Futurologe Ian Pearson. Schon 2050 könnten es sich Reiche leisten, ihr Gehirn in einen Rechner zu laden. Das Ziel: Unsterblichkeit.
In naher Zukunft schon soll es ein Geist-Rechner-Interface geben, mit dem man Filme oder Computerspiele nicht nur hören und sehen, sondern auch anders sinnlich erfahren kann.
Geschmack und Gefühl, Geruch und selbst direkt induzierte Emotionen sollen durch ein zuerst 2000 von Sony zum Patent angemeldetes Gerät erfahrbar sein, dessen Konzept der Entertainment-Konzern seitdem mehrmals, zuletzt im Februar 2005, spezifiziert hat (US 2004/267118).
Und das alles ohne Eingriff in den Körper: Per Ultraschall sollen bestimmte Regionen des Gehirns gezielt stimuliert werden, so das auch die Synapsen den Vorstellungen des Regisseurs entsprechend feuern. Konkrete Experimente oder eine Umsetzung des Konzepts gebe es noch nicht, sagte Sony dem "New Scientist": Noch sei das eine Vision.
Die Möglichkeiten sind verlockend: Für die deutsche Filmkomödien-Industrie könnte das endlich den Auslandsmarkt eröffnen und auch Gracia hätte in Kiew wohl bessere Chancen gehabt - gut ist schließlich das, was man so empfindet.
Doch Spaß beiseite. Was wie reine Science Fiction klingt, mag schon bald keine mehr sein. Nicht nur die Entertainment-Industrie treibt die Entwicklung von Interfaces voran, die das Spektrum der medial vermittelbaren Sinneseindrücke erweitern wollen. Auch der umgekehrte Weg, die Beeinflussung des Computers durch den menschlichen Geist, wird von vielen aus teils guten Gründen gewünscht. Hier und da gibt es bereits Ansätze, wenn es etwa Forschern gelingt, einen Computercursor durch mentale Kommandos zu steuern oder eine Beinprothese Nervenimpulsen gehorchen lernt.
Cyborg!
Für Futurologen und manche Kybernetiker ist das erst der Anfang einer logischen Entwicklung hin zu einem Ziel, das Otto-Normalverbraucher zunächst eher skurril erscheint als wünschenswert: der Verschmelzung von Geist und Maschine.
Der ganze Artikel (http://www.spiegel.de/netzwelt/netzkultur/0,1518,357133,00.html)
Quelle : www.spiegel.de
-
Ultraschall, der stark genug ist, Synapsenfunktionen zu beeinflussen, kann bestimmt auch Gewebestrukturen stören, z.B. die DNS, oder den Zellstoffwechsel.
Das klingt sehr nach Instant Alzheimer oder DIY-CJS.
Ich glaub', mein Hirn gerinnt...
Wahrscheinlich existiert eine solche Technologie schon lange und wird in Parlamenten, Aufsichtsräten und an der Börse rege eingesetzt.
Es soll sogar ohne Technik gehen, eine Gesangsdarbietung vom Daniel Übelkübel genügt auch für diesen Glibber-Effekt in der grauen Masse.
Lass stecken...
-
Und als Krönung dann ein kollektives Bewusstsein.
Nein Danke. Meine "Rübe" gehört mir.
*will nicht assimiliert werden*
-
Aber
der umgekehrte Weg, die Beeinflussung des Computers durch den menschlichen Geist
existiert im Grunde schon sehr lange, wird allerdings recht selten genutzt.
Dafür braucht man eigentlich nur ein bis zwei HID [size=0](Maus / Keyboard)[/size], sowie einen Nutzer, der nicht unbedingt vom Typ Bill G. oder "isch, äh... bin'sch schon drin äh?" ist 8)
-
Aber der umgekehrte Weg, die Beeinflussung des Computers durch den menschlichen Geist
existiert im Grunde schon sehr lange, wird allerdings recht selten genutzt.
Dafür braucht man eigentlich nur ein bis zwei HID [size=0](Maus / Keyboard)[/size], sowie einen Nutzer, der nicht unbedingt vom Typ Bill G. oder "isch, äh... bin'sch schon drin äh?" ist 8)
Der war gut ;D ;D
Von mir ein ++ (in Anlehnung an das Heiseforum)
-
Noch werden die allermeisten Geräte mit Händen und Fingern bedient, nur gelegentlich dienen Gesten, die Stimme oder gar der Blick zur Steuerung. Das amerikanische Unternehmen NeuroSky will nun einen einfach anzubringenden Sensor entwickelt haben, der in Verbindung mit einem die Hirnwellen analysierenden Chip via Bluetooth mit einem Handy verbunden werden könnte.
Das Unternehmen hat bereits einige Anwendungen im Blick, die mit dem System vereinfacht oder gar erst dadurch möglich werden. Die Unterstützung der Medizintechnik – etwa zur Steuerung von elektronischen Geräten durch querschnittgelähmte Patienten – steht dabei gar nicht unbedingt im Vordergrund: Die Macher haben bereits einen Vertrag mit dem chinesischen Mobiltelefonprovider Ziyitong Technology unterzeichnet, der die Technik gerne anbieten würde, um das Spielen auf Handys positiver erscheinen zu lassen.
Siehe dazu in Telepolis:
* Mind Control für Handys?
(ll/c't)
Quelle und Links:
http://www.heise.de/newsticker/meldung/60950
Im Grunde kann man die Nutzung des Hirns (sofern vorhanden) im Zusammenhang mit dem Handy nur begrüssen.
Allerdings spiegeln die Gehirnwellen nicht den bewussten Willen wider, sondern zum allergrössten Teil vegetative und unbewusste Funktionen. Auch die Triebsteuerung gehört sichert dazu. Und ich denke, genau dass hätten J@mba, Klingeltonanbleter & Co. gerne, man bekommt ein Bildchen gezeigt, reagiert unterschwellig und das Gerät bestellt irgendwas automatisch, ohne dass das dem Nutzer bewusst wird. Trainiert wird das Gerät dann über sogenannte Spiele, aber der eigentliche Zweck ist eben ein ganz anderer.
Das ist nicht nur rechtlich unhaltbar, sondern ohnehin in unserer medienüberfluteten Welt schon lange geübte Praxis :P
Wer kennt das nicht:
"Ihre Internet-Verbindung ist nicht optimiert! Klicken Sie hier"
In Zukunft also: "... denken Sie jetzt" ???
Allein denken und Knöpfe bewusst drücken ist ganz klar sicherer und billiger!
Jürgen
-
Norbert Wiener, der zusammen mit Arturo Rosenblueth als Begründer der Kybernetik gilt, würde heute seinen 111. Geburtstag begehen. Mit seinem 1948 erschienenen Buch "Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine" gab Wiener der Naturwissenschaft wie der Philosophie nach Ende des II. Weltkrieges neue Anstöße. Wer heute mit Begriffen wie Nachricht, Information, Rückkopplung und Homeostase hantiert, steht in der Tradition dieser Kybernetik, die den entscheidenden Input dafür lieferte, dass der genetische Code von der Molekularbiologie entschlüsselt werden konnte. Zeitweilig hielt sich Norbert Wiener sogar für den verhinderten Erfinder des Computers; sein Freund Vannevar Bush konnte ihn jedoch von diesem Irrglauben abbringen. Wiener gilt obendrein als Prototyp des zerstreuten Wissenschaftlers, der sich eher an Zahlen als an Menschen orientierte – darum wird hier sein 111. Geburtstag gefeiert.
Norber Wiener war der Sohn des russischen Juden Leo Wiener und der deutschen Jüdin Bertha Kahn. Der Vater war Professor für Deutsch und slawische Sprachen und unterrichtete zeitweilig seinen Sohn, der als Wunderkind galt. Norbert Wiener absolvierte die High School mit 11 Jahren, das College mit 14 und promovierte mit 18 Jahren über mathematische Philosophie. Seine intellektuellen Lehr- und Wanderjahre verbrachte er in England und Deutschland. Beeinflusst von Bertrand Russell, David Hilbert, G.H. Hardy und Edmund Landau lernte er, wie man mit der Mathematik lebt. Im I. Weltkrieg arbeitete Wiener für die amerikanische Armee an der Entwicklung eines Feuerleitgerätes für die Flugabwehr. Bei seiner Beschäftigung mit Ballistik und Aerodynamik entwickelte er die Idee der "Rückkopplung", mit der das Flugverhalten von Angreifern berechnet werden konnte. Als Rückkopplung, ein zentraler Begriff der späteren Kybernetik, definierte Wiener den nachrichtentechnischen Zustand, "wenn bei einer von einem Muster gelenkten Bewegung die Abweichung der wirklich durchgeführten Bewegung von diesem Muster als neue Eingabe benutzt wird, um den geregelten Teil zu veranlassen, die Bewegung dem Muster näher zu bringen."
Nach dem ersten Weltkrieg arbeitete der am MIT unterrichtende Norbert Wiener, der laufend mit den führenden Mathematikern Europas in Kontakt stand, an Problemen der Ergodentheorie, dem Brownschen Rauschen, der harmonischen Analyse, der Thermodynamik und der Quantenmechanik. Diese Interdisziplinarität und ständige Diskussionsbereitschaft setzte er im II. Weltkrieg, von Europa isoliert, mit einer Gruppe von Physikern, Soziologen, Biologen und Psychologen fort. Sie entwickelten einen Code, der die Grenzen der einzelnen Teilwissenschaften überwinden sollte, die Kybernetik. Wer Wieners Buch "Kybernetik" zur Hand nimmt, wird erstaunt feststellen, wie der Autor im ellenlangen Vorwort zur ersten Ausgabe nichts anderes macht, als einen bunt wimmelnden Kosmos von Personen vorzustellen, die allesamt an der großen vereinheitlichenden Theorie der Kybernetik arbeiten. Bis zu seinem Tod am 18. März 1964 auf einer Vortragsreise in Stockholm versuchte Wiener unermüdlich, die Kybernetik auch weit entfernten Sachgebieten anzudienen.
Mit der Kybernetik, die in den 60er Jahren die Wissenschaft dominierte und heute unter anderem als Systemtheorie fortlebt, entwickelte Wiener auch eine leise Kritik der herrschenden Zustände. Sein berühmter Satz, dass das Gehirn ein Computer ist, muss um seine weniger berühmte Einschätzung ergänzt werden: "Das menschliche Gehirn mag so weit auf dem Weg zu seiner destruktiven Spezialisierung sein wie die großen Nasenhörner der letzten der Titanotherien."
Quelle und Links : http://www.heise.de/newsticker/meldung/66675
-
Die Haustür aufschließen oder Geld bei der Bank abheben, indem man einfach nur noch an sein Passwort denkt? Möglicherweise wird das nicht ewig Zukunftsmusik bleiben. Tech-Entwickler entdecken Hirnwellen als biometrisches Merkmal.
Forscher der kanadischen Carleton University arbeiten an einer Technologie, die biometrische Daten ganz neuer Art erfasst, so berichtet es das Technologiemagazin Wired: das System soll die Hirnwellen einer Person erkennen und zuordnen, wenn diese einen bestimmten Gedanken denkt.
Dabei gehen die Entwickler des Gedankenscanners von der Voraussetzung aus, dass die Hirnwellen jedes einzelnen Menschen ähnlich unverwechselbar sind wie seine Fingerabdrücke. Selbst wenn zwei Menschen an ein und denselben Gegenstand denken oder über einer identischen Aufgabe brüten, weichen ihre Hirnwellenmuster stets ein wenig voneinander ab. Und diese Unterschiede sollen die Basis der biometrischen Erkennung bilden. Dabei ist es völlig gleich, ob sich das Hirn mit dem Lieblingssong, dem letzten Urlaub oder Kindheitserinnerungen beschäftigt.
Die Frage ist nun, ob ein vom Nutzer willkürlich ausgelöstes Signal in wiederholbarer Weise bestimmte Datensätze erzeugen kann. Im Unterschied zu den bisherigen Systemen wie Fingerprint, Gesichtserkennung oder Irisscan hat es den großen Vorteil, regelmäßig und in beliebigen Zeitabständen ein neues "Passwort" zuzulassen.
Wer nun befürchtet, ein derartiges System zur Authentifizierung würde die Gedanken eines jeden lesen können, kann beruhigt werden. Die entsprechende Software würde nur einen Musterabgleich vornehmen und im Falle von wiederkannten Datensequenzen "grünes Licht" geben. Ganz ähnlich, wie ja auch beim Irisscan oder einer Identifizierung mittels DNS keine eigentliche Interpretation der Daten erfolgt.
Doch wer bereits glaubt, demnächst mit einem Kopfnicken sämtliche sicherheitsrelevanten Aktionen erledigen zu können, den holt Iead Rezek von der Universität Oxford wieder auf den Boden der Tatsachen zurück. Die Idee hätte zwar "Flair, ist aber unpraktisch." Im Kopf gingen zu viele Sachen gleichzeitig vor, außerdem würden parallel die Signale von unzähligen Hirnzellen gemessen und zusammengemixt.
Stand der Dinge: Science Fiction, da zu unpräzise
Überdies verändern wir mit der Zeit die Art unserer Erinnerungen, daher scheint es wenig wahrscheinlich, ein System zu konstruieren, das diese Abweichungen von der ursprünglichen Gedankensignatur mit einkalkuliert. Daher schlägt Jacques Vidal von der Universität von Kalifornien ein einfacheres Verfahren vor, anstelle sehr schwer erfassbarer persönlicher Erinnerungen würde ein Computer ein optisches oder akustisches Signal erzeugen und die entsprechende "Antwort" des Gehirns messen. Die fällt bei verschiedenen Individuen entsprechend unterschiedlich aus, bleibt aber bei derselben Person quasi identisch.
Doch das größte Problem ist die Art und Weise, wie man derzeit noch an die entsprechenden Daten gelangt. Bis jetzt müsste man sich wie bei einem EEG einer umständlichen Prozedur unterziehen, sich also eine Kappe mit Messfühlern auf den Kopf setzen, der außerdem auch noch mit Gel für die Sensoren leitfähig gemacht werden muss. Kein annehmbares Verfahren z.B. für VIP-Gäste.
Allerdings mag sich in der Fernerkennung von Hirnwellenmustern noch einiges tun. Am vielversprechendsten scheinen derzeit optische Erkennungssysteme zu sein. Reza Shadmehr von der John Hopkins Universität verweist auf Methoden, die die neurale Aktivität im oberen Cortex bestimmen können. Dazu wird die Reflexionsrate eines fokussierten Lichtstrahls auf die Kopfhaut gemessen, und die ändert sich abhängig vom Blut-Oxydationsniveau. Aber diese Technologie stecke noch in den Kinderschuhen, so Shadmehr. Daher wäre es auch verfrüht, bereits jetzt alle seine Passwörter zu verbrennen. Einen funktionierenden Gedankenscanner erwartet der Professor erst in 20 Jahren. Gegenwärtig sei dergleichen indes noch "sehr viel Science Fiction".
Quelle : www.spiegel.de
-
...Reflexionsrate eines fokussierten Lichtstrahls auf die Kopfhaut...
...wenn das jemals so weit kommt, gibt's nur eine Lösung, Mütze auf!
Gedankenkontrolle hätten viele kranke Hirne gern' zur Verfügung, wie z.B. Geheimdienste und Polizeibehörden, manche moderne Sklavenhalter / Arbeitgeber, mitunter vielleicht sogar eifersüchtige Partner...
Wehret den Anfängen!
-
Nach Ansicht des US-Neurowissenschaftlers Randall O'Reilly arbeiten Teile des menschlichen Gehirns ähnlich wie ein digitaler Computer und nicht wie ein Analogrechner. Dabei handelt es sich um den Präfrontalen Cortex, der sich im Frontallappen der Großhirnrinde hinter der Stirn befindet, und die so genannten Basalganglien, die unter der Großhirnrinde liegen. Zu diesem Schluss kommt O'Reilly, der an der Universität von Colorado in Boulder arbeitet, nach Auswertung neuer biologischer Computermodelle des Gehirns. Seine Hypothese stellt er in der aktuellen Ausgabe des Wissenschaftsmagazins Science vor.
In digitalen Computer werden elektrische Signale an- oder abgeschaltet und kodieren so binäre Informationswerte. Vergleichbaree Vorgänge seien auch in Teilen des Gehirns beobachtbar: "Die Neuronen im Präfrontalen Cortex sind binär – sie haben zwei Zustände, entweder aktiv oder inaktiv –, und die Basalganglien fungieren im Wesentlichen wie ein großer Schalter, der es ermöglicht, dynamisch verschiedene Teile des Präfrontalen Cortex an- und abzuschalten", sagt O'Reilly. Damit wendet er sich gegen die derzeit vorherrschende Lehrmeinung, das menschliche Gehirn funktioniere anders als digitale Computer.
O'Reilly bestreitet zwar nicht, dass die restlichen Hirnbereiche eher wie ein "soziales Netzwerk" aus Neuronen funktionieren, das keine Parallelen zur Informationsverarbeitung in heutigen Computern aufweist. Aber seine Hypothese biete möglicherweise erst den Ansatz, zu verstehen, warum der Mensch zu kognitiven Leistungen wie Entscheidungsfindung oder Problemlösung fähig sei. Diese werden von der Hirnforschung im Präfrontalen Cortex verortet, der beim Menschen im Verhältnis zu anderen Säugetieren deutlich größer ausfällt. Deshalb wird ihm auch eine wesentliche Rolle bei der Entstehung von Intelligenz zugeschrieben. "Vielleicht wird ein umfassenderes Verständnis dieser Synthese aus analogen und digitalen Rechenprozessen endlich das Rätsel der menschlichen Intelligenz lösen", schreibt O'Reilly im Science-Paper.
Quelle : www.heise.de
-
Also ich habe einige Leute kennengelernt da funktioniert DEFINITIV nix digital.... ;D
-
Hmmm digitales Gehirn...
Schon bald eine neue Einnahmequelle für die GEZ? :D
-
Ich tippe eher auf Analog-Rechner innerhalb der Zelle und auch analoge Kommunikation nach ausserhalb. Dann allerdings wohl auf binären Pegeln, moduliert über Pulsbreite oder -folge.
Auch aus der Analogtechnik wissen wir, dass es da Schwellwertschalter, Multiplizierer, Triggerstufen, Hüllkurvengeneratoren und sogar grundlegende Verknüpfungsformen geben kann, ohne dass das Ganze dadurch digital wird.
Digital heisst nicht in erster Linie binär, denkt an die Signale von QAM usw.
Die müssen zwingend analog übertragen werden, weil sie mit etlichen Amplitudenstufen arbeiten. Begrenzt man hart, wie's bei binären Signalen ganz üblich ist, gehen grosse Teile des Inhalts verloren. Siehe DSL oder "Analog"-Modem...
Analoges FM dagegen passt durchaus durch binäre Kanäle.
Im Übrigen arbeiten auch unsere heutigen Computer intern teils nicht mehr mit nur zwei Pegeln, spätestens seit AGPx8...
Ich fürchte, diese sonst sicher sehr kompetenten Forscher kennen sich mit technischer Signalübertragung wirklich nicht aus.
-
Mit der Abnahme von Gehirnwellen lassen sich Cursor auf dem Bildschirm steuern oder Prothesen bedienen. Nun hat der Computerwissenschaftler Rajesh Rao, Leiter der Neural System Group an der University of Washington, zeigen können, dass sich damit auch ein humanoider Roboter steuern lässt. Eine Kappe mit 32 Elektroden nimmt die Gehirnwellen ab.
(http://www.heise.de/bilder/82682/0/0)
EEG-Kappe zur Steuerung des Roboters [Bild: Neural Systems Lab]
Die Person, die den Roboter über das EEG steuert, beobachtet auf einem Bildschirm die Bewegungen des Roboters. Eine Kamera ist am Roboter angebracht, die andere über ihm. Die Steuerung beschränkt sich allerdings noch auf wenige Befehle. Auf der Tagung Current Trends in Brain-Computer Interfacing in Whistler, B.C., konnte Rao aber demonstrieren, dass der semi-autonome Roboter über die Abnahme der Gehirnwellen zu bestimmten Orten gesteuert werden konnte, um einen von zwei dort befindlichen Gegenständen aufzunehmen und an einen von zwei vorher festgelegten Orten zu bringen. Bei der Demonstration befand sich die Person in einem anderen Raum als der Roboter.
Die Gegenstände, zwischen denen gewählt werden kann, werden von der Roboterkamera aufgenommen und auf dem Bildschirm gezeigt. Dort leuchten sie in einem zufälligen Rhythmus auf. Betrachtet der Benutzer das Objekt, für das er sich entschieden hat, dann verursacht das Aufleuchten ein mit dem EEG messbares Überraschungsmuster der Gehirnaktivität. Dies wird dann als Befehl für den Roboter verwendet, diesen Gegenstand zu nehmen. Auf ähnliche Weise kann die Bewegung des Roboters im Raum gesteuert werden.
(http://www.heise.de/bilder/82682/1/0)
Aufgreifen eines ausgewählten Objekts [Bild: Neural Systems Lab]
Rao hofft, dass solche semi-autonomen Roboter irgendwann, wenn die Technik besser ausgereift ist, beispielsweise Behinderten helfen könnten. Rao betont, dass die EEG-Steuerung nichtinvasiv ist. Allerdings sei sie in ihrer Genauigkeit sehr beschränkt, da nur sehr einfache Befehle erfasst werden könnten. Daher müssten die Roboter relativ autonom sein und sich an ihre Umgebung anpassen können, um Hindernissen ausweichen, beliebige Gegenstände holen oder mehrere Räume durchwandern zu können. Ein humanoider Roboter wurde deswegen benutzt, weil er sich besser in den von Menschen bewohnten Räumen bewegen kann, in denen es beispielsweise Treppen gibt.
Quelle : www.heise.de
-
Verräterische Muster im Gehirn
Wissenschaftlern ist es erstmals gelungen, die Absichten von Probanden an ihrer Hirnaktivität abzulesen
Unsere Gedanken kann niemand wirklich lesen. Was wir planen und vorhaben, bleibt anderen Menschen verborgen, bis wir es in die Tat umsetzen – das glauben wir zumindest. Forschern des Max-Planck-Instituts für Kognitions- und Neurowissenschaften ist es jetzt allerdings gelungen, die Absichten ihrer Versuchspersonen schon im Voraus zu entschlüsseln. Ihre Ergebnisse haben die Wissenschaftler in Current Biology Online veröffentlicht.
Mehr... (http://www.heise.de/tp/r4/artikel/24/24611/1.html)
Quelle : www.heise.de
-
Wiener Wissenschaftler durchleuchten Mäusehirne
Forscher der technischen Universität von Wien haben erstmals Gehirnstrukturen bis auf die Ebene einzelner neuronaler Verbindungen in ein 3D-Modell übertragen. Am Computer lassen sich so die Vorgänge beim Denken und Lernen sichtbar machen.
Unter der Leitung von Hans-Ulrich Dodt, Professor für Bioelektronik, hat man an der TU Wien Gehirne von Mäusen zunächst einem Laserscan unterzogen. Das Gewebe wurde dazu in eine ölige Flüssigkeit gelegt, die denselben Brechungsindex wie die Proteine aufweist. Dadurch werden, je nach Fokussierung des Lasers, die Gehirnstrukturen transparent. Die Daten wurden anschließend in einen Rechner übertragen und dort als 3D-Modell zusammengesetzt.
(http://scr3.golem.de/screenshots/0703/3DHirn/hirn-durchsichtig.jpg)
Diese Visualisierung ermöglicht es den Wissenschaftlern, die Darstellung frei zu drehen und Einblick in ein physisch intaktes, aber nicht mehr lebendes Gehirn zu nehmen. Besonderes Interesse galt bei den Versuchen dem Hippocampus, in dem das Kurzzeitgedächtnis sitzt. Die Forscher erhoffen sich Erkenntnisse über die Veränderungen an den Nervenzellen (Synapsen) des Gehirns bei Lernvorgängen. Professor Dodt nennt sein Verfahren "Ultramikroskopie".
Die Ultramikroskopie erreicht eine höhere Auflösung als bisherige Tomographie-Verfahren wie MRI (Magnetic Resonance Imaging), da sie bis auf das Niveau einer einzelnen Zelle reicht, was unerlässlich für die Darstellung von Gehirnstrukturen ist. Ihre Ergebnisse wollen die Wissenschaftler in der April-Ausgabe der US-Zeitschrift "Nature Methods" veröffentlichen.
(http://scr3.golem.de/screenshots/0703/3DHirn/hypocampus.jpg)
In weiteren Schritten will das Team um Dodt sich der Großhirnrinde widmen, um dort neuronale Erkrankungen wie Alzheimer besser verstehen zu lernen. Auch an eine Anwendung des Verfahrens bei der Ausbildung von Medizinern ist gedacht, die durch den Flug durch ein Gehirn die komplexen Strukturen schneller begreifen sollen.
Quelle : www.golem.de
-
Mit Hilfe der so genannten funktionalen Magnetresonanz-Tomographie, kurz fMRI, können Forscher Versuchspersonen inzwischen dabei zusehen, wie sie Gedanken formulieren und Muster erkennen. Der Kognitionsforscher John-Dylan Haynes vom Berliner Bernstein Center for Computional Neuroscience nutzt dabei so genannte Dekodierer, die aus den fMRI-Aufnahmen des menschlichen Denkapparats Vorschläge aufbereiten, was eine Versuchsperson möglicherweise gedacht haben könnte.
Gedankenlesen kann ein solches System natürlich nicht – die eingesetzten Hochleistungsrechner gleichen nur bekannte Muster mit neuen fMRI-Bildern ab, um etwa zu erkennen, ob eine Versuchsperson an einen Kreis oder ein anderes Objekt gedacht haben könnte. Dennoch glaubt Forscher Haynes im Gespräch mit dem Technologie-Magazin Technology Review, dass es eines Tages hocheffektive Techniken geben werde, mit der sich auch komplexe Gedankengänge aus den Gehirnaktivitäten lesen lassen.
"Die ethischen Probleme des Brain-Readings sind in den letzten Jahrzehnten schon oft im Zusammenhang mit Lügendetektoren diskutiert worden. Die Frage war, inwiefern man die "mentale Privatsphäre" des Menschen vor technischen Zugriffen schützen sollte", so Haynes. "Wenn es eine hypothetische Möglichkeit gäbe, einen Terroristen an seiner Gehirnaktivität zu erkennen, können wir uns dann dagegen sperren, solche Verfahren einzusetzen? Wir brauchen also eine neue ethische Debatte darüber, in welchen Bereichen wir Brain-Readings zulassen wollen, und in welchen nicht."
Siehe dazu in Technology Review online:
* "Eine ganz neue ethische Debatte" -> http://www.heise.de/tr/artikel/88477
Quelle : www.heise.de
-
Wenn es eine hypothetische Möglichkeit gäbe, einen Terroristen an seiner Gehirnaktivität zu erkennen, können wir uns dann dagegen sperren, solche Verfahren einzusetzen?
Hoffentlich liest das der Schäuble nicht...
Ganz klar ist jedenfalls, dass sowohl die Neuronen- als auch die eigentlichen Denk-Strukturen individuell und häufig einzigartig sind.
Allein aus der Beobachtung grober Hirn-Areale kann man allenfalls auf die allgemeine Gefühlsebene rückschliessen, oder gedankliche Anstrengung entdecken, keinesfalls konkrete Inhalte oder nur Themen dessen, was die Aktivitäten verursacht.
Und es ist keinesfalls sicher, dass die auffälligen Hirnaktivitäten überhaupt die entscheidenden sind, auf einen bestimmten Gedankenweg bezogen.
Glücklicherweise ist es völlig unmöglich, alle Neuronen und Synapsen präzise zu beobachten. Erst recht nicht die bisher völlig unverstandenen Abläufe innerhalb einer komplex vernetzten Zelle, quasi einem Ein-Bit-Computer mit fuzzy logic.
Das Ganze ist genauso sinnlos, wie ein laufendes Computerprogramm mit 'nem Kompass analysieren zu wollen, um einen Bug zu finden oder einen Algo zu knacken.
Bei Software ist jedes Bit von entscheidender Bedeutung, im Zusammenhang mit all seiner Umgebung.
Bei'm Denken ist's ähnlich, denn manche Gehirne beinhalten sogar eine Prise Logik...
-
Wie weit erlauben es uns die neuesten Methoden der Hirnforschung, in die menschliche Gedankenwelt einzudringen? Welche Prozesse können wir durch die Aufnahme neuronaler Aktivierung und mit Gehirn-Computer-Schnittstellen steuern? Zu diesen Fragen hat für heute die Gottlieb Daimler- und Karl Benz-Stiftung führende Hirnforscher aus aller Welt nach Berlin geladen. Zwei PDFs auf der Tagungsseite geben mit einer Einführung in die Gedankenforschung und Statements der Referenten einen Überblick dazu.
Die wissenschaftliche Leitung der Tagung übernahmen die Berliner Professoren John-Dylan Haynes vom Bernstein Center for Computational Neuroscience und Gabriel Curio vom Universitätsklinikum Charité. Haynes berichtete von seinen Versuchen, verdeckte Absichten oder einfache Entscheidungen mithilfe von Mustererkennungsalgorithmen zu entschlüsseln, die er auf Daten aus dem Hirnscanner anwandte. Der Einsatz dieser Verfahren ist schon aus der Bilderkennung oder der DNA-Analyse bekannt und wird seit kurzem auch von Hirnforschern versucht. Ihre Daten, die sie beispielsweise mit der funktionellen Magnetresonanztomographie (Kernspintomographie) bei psychologischen Experimenten messen, erlauben einen Rückschluss auf die neuronale Aktivierung im Gehirn. Haynes gelang es dabei, mit 60- bis 70-prozentiger Wahrscheinlichkeit die Hirndaten korrekt den Absichten und Entscheidungen der Probanden zuzuordnen, wobei der Zufallswert bei 50 Prozent liegt. Sein Kollege Curio stellte seine Forschungsarbeiten vor, bei denen Versuchspersonen erfolgreich Computerinterfaces durch gedankliche Steuerung benutzen konnten. Curio arbeitet jedoch im Gegensatz zu Haynes mit Elektroden, die elektrische Ströme auf der Kopfhaut aufzeichnen.
Einen Schritt weiter geht der auch zur Tagung geladene Hirnforscher Miguel Nicolelis, Professor am Duke University Medical Center in Durham, USA. In seinen Experimenten werden Affen Elektroden in die motorischen Gehirnbereiche implantiert, die dann die neuronale Aktivität einzelner Zellen aufzeichnen. Seine viel versprechenden Ergebnisse könnten mittelfristig zu gedanklich gesteuerten Prothesen führen. Diese würden es Patienten, die einen Arm oder ein Bein verloren haben, erlauben, ihre Gliedmaßen in natürlicher Weise zu bewegen und gar als einen Teil ihres Körpers zu erleben. Adrian Owen von der MRC Cognition & Brain Sciences Unit in Cambridge stellte seine Studien vor, die Patienten helfen sollen, die im Wachkoma liegen. Es gilt als umstritten, ob diese Menschen bei Bewusstsein sind und Informationen aus ihrer Umwelt wahrnehmen, da sie nicht mit anderen kommunizieren können. In Owens Experimenten wurden diese Patienten im Gehirnscanner untersucht, während man ihnen über Kopfhörer bestimmte Anweisungen gab. Die gefundene Hirnaktivierung könnte einen Hinweis darauf liefern, dass manche der Patienten bei Bewusstsein sind und damit die klinische Praxis für Wachkomapatienten verbessern.
Die öffentliche Tagung hat dabei nicht nur den gegenwärtigen Stand der Forschung dargestellt, sondern auch auf technische und ethische Grenzen der Studien hingewiesen. Der Wissenschaftshistoriker Cornelius Borck, Professor an der McGill Universität in Kanada, erinnerte an die weit reichenden Spekulationen der Hirnforscher, als diese in der ersten Hälfte des 20. Jahrhunderts mit Elektroden messbare Gehirnströme entdeckten, die zur Methode der Elektroenzephalographie (EEG) führten. Viele davon seien bis heute nicht eingelöst worden. Außerdem sprachen Gisbert zu Pulitz, Vorstandsvorsitzender der Stiftung und Physikprofessor an der Universität Heidelberg, und der Mainzer Philosophieprofessor Thomas Metzinger von einer "mentalen Privatsphäre" oder einem "Datenschutz fürs Gehirn". Die Tagung machte deutlich, dass die Zulässigkeit der neuen Verfahren im Alltag durch ethische und öffentliche Diskussionen geprüft werden muss, da sie in den innersten Bereich der menschlichen Psyche vordringen.
Quelle : www.heise.de
-
Fortschritte der Neurowissenschaft beim Gedankenlesen
Wie weit können wir in die menschliche Gedankenwelt vordringen und ist ein Datenschutz für das Gehirn erforderlich?
Neue Verfahren der Hirnforschung erlauben es Forschern, bisher ungeahnte Schlüsse über geistige Prozesse zu ziehen. Dabei liegen Schwerpunkte darauf, Bewusstseinsinhalte zu entschlüsseln und Computer oder gar künstliche Prothesen per Gedankenkraft zu steuern. Da die Methoden in den intimsten Bereich der menschlichen Psyche vordringen, müssen sie auch in einer ethischen und öffentlichen Diskussion auf ihre Alltagstauglichkeit überprüft werden.
Mehr... (http://www.heise.de/tp/r4/artikel/25/25256/1.html)
Quelle : www.heise.de