WR257 Zum Thema Brain-Computer-Interface

 

wrint_2014_zumthema_200In Utrecht wurde eine drahtlose Neuroprothese entwickelt, die demnächst an Menschen mit Locked-In-Syndrom ausprobiert werden soll. Martin war an Bau und Studiendesign beteiligt und erzählt ein wenig von diesem Gerät und von Roboterarmen (Video), die mittels Stecker im Kopf (Video) angesteuert werden. Wir reden über Schmetterling und Taucherglocke, Epilepsie, Ouija-Boards, den Motorcortex, das Arbeitsgedächtnis, das Jennifer-Anniston-Neuron, das EEG, das ECoG,  MRT und fMRT, über zufriedene Locked-In-Patienten, eine Hand mit sensorischem Feedback, hirngesteuerte Anwendungen und User Ready Brain Computer Interface Applications.

10 Gedanken zu „WR257 Zum Thema Brain-Computer-Interface

  1. Jörg

    Sehr interessant.
    Auch wenn das alles jetzt noch etwas einfach und grundlegend wirkt, bin ich überzeugt, dass wir da in den nächsten 20-30 Jahren noch viele Dinge erleben werden.

    Ich finde das Thema “lernen” da sehr interessant, denn es wäre ja extrem cool, wenn man wie in Matrix mal eben die Pilotensoftware für den Hubschrauber X einspielen könnte, oder auch die Differentialrechnung in Mathe, Grundkurs Russisch..
    Wenn man mal verstanden hat, wie die Lernprozesse funktionieren, könnte man doch bestimmt da einiges optimieren (aber auch kaputt machen)

    Und da wird es dann schwierig, denn ein Gehirn ist nun mal sehr empfindlich, was man schon alleine daran sehen kann, dass es durch eine Drogenpille dazu gebracht werden kann, komplett fiktive Dinge “Realität” werden zu lassen.

    Trotzdem ist das bestimmt eins der Zukunftsgebiete, bei denen es noch so richtig abgehen wird.

    Antworten
    1. Flotti

      Klugscheiße von einem Neurobiologen:
      es ist ein Unterschied, ob der Motorkortex Bewegungsmuster lernt, bzw. über ein BCI gefunkt bekommt, oder ob es komplexe Zusammenhänge lernt.
      Sprache, Musik, Mathe, etc. sind “abstrakte” Muster die gelernt werden müssen – dafür gibt es nicht ein dezidiertes Zentrum im Gehirn. Daher wird es auch schwierig das per Computer zu steuern, außer man verkabelt das ganze Gehirn. Dann ist aber die Frage in wieweit man das Gehirn verändert (durch die Applikation externer Signale von einem BCI beispielsweise)- und ob es dann überhaupt noch ein Gehirn ist…

    2. Jörg

      Stimmt, das ist schon ein Unterschied.
      Aber wenn der Fachmann schon mal da ist, wie viele Input/Output Ports hat eigentlich so ein Gehirn, gibt es dazu Zahlen? Ist das irgendwie eine irrsinnig große Zahl, oder doch eher schon überschaubar?
      So ein Gehirn a la der Professor Simon bei Captain Future wird wohl noch lange Zeit SciFi bleiben oder?

  2. Flotti

    Ich weiß nicht genau was Du mit Input/Output Ports meinst….streng genommen ja eigentlich nur 5 Input ports (sehen hören riechen schmecken fühlen) und 2 output ports (sprechen und fühlen/berühren) – also schon ne überschaubare Zahl 😉

    Vielleicht macht’s so etwas mehr Sinn: wir verstehen unser Gehirn heute als Netzwerk weil wir mit dem INternet und Computer “sozialisiert” wurden. Deshalb fällt es uns nicht so schwer uns komplexe dynamische Netze vorzustellen. Und genau das finden wir auch im Gehirn. Das motorische Zentrum eines Armamputierten organisiert sich um und übernimmt die Aufgabe des Sprachzentrums beispielsweise. Vor einigen Jahren noch, zur Zeit als Kybernetik der heiße Scheiß war, dachte man bei Computern an Kästen mit einem Netz aus Drähten. Auch das finden wir im Gehirn – Axone und Dendriten. Noch früher glaubte man, der Liquor der das Gehirn umspült sei das was die Denkleistung desselben ausmacht…. und so weiter.
    Der Punkt ist, man hat immer ein bisschen recht aber nie wirklich ganz mit solchen Analogien. Deshalb wird das Gehirn immer das Gehirn bleiben und kein “biologischer Computer”.
    Wirklich interessant wird’s wenn man sich fragt: was ist eigentlich DAS Gehirn? Jeder von uns ist doch individuell verschieden – was macht also DAS Gehirn aus? Gibt es ein Standard-Hirn?

    Antworten
  3. Jost

    Eine Frage zu der am Schluss angesprochenen visuellen Anwendung: Was für eine Bildqualität (in Pixeln?) ist da derzeit möglich, wenn man die Bilder sozusagen direkt ins Gehirn einspielt?

    (Und zum Vergleich: Welche Bildqualität ist derzeit möglich, wenn man stattdessen die Signale an den Sehnerv weitergibt und der die Kommunikation mit dem Gehirn übernimmt?)

    Antworten
    1. Martin

      Man sollte die Analogie zwischen Computer und Gehirn nicht übertreiben. Es ist nicht so, dass man einfach ein Bild hoch laden kann im Sinne von diese Woche schaffen wir acht Pixel und wenn wir genug Elektroden reinstecken schaffen wir 3 Megapixel.

      Wenn man den visuellen cortex direkt stimuliert kommt es häufig zu einem “diffusen” Sinneseindruck; man nimmt vielleicht eine Bewegung wahr oder den Unterschied zwischen hell und dunkel. Allerdings können in manchen Fällen Buchstaben auf DIN A4 groesse erkannt werden. D.h. es ermöglicht im Moment noch einem sehr rudimentäres sehen.

      Generell sollte die “Auflösung” und die Qualität bei Retinastimulation besser sein, da der visuelle Eindruck noch verschiedene vorverarbeitungsschritte durchlaeuft.
      Ähnlich ist das bei Menschen mit hoerverlust. Dort gibt es schon seit langem cochlear Implantate (CI). Bei CI-Trägern wird die Hoerschnecke (analog zur Retina bei Blinden) direkt elektrisch mittels Elektroden stimuliert. Dies ermöglicht es CI-trägern Sprache wieder zu verstehen. Eine direkte Stimulation des auditorischen Cortex führt zu ungleich schlechteren Ergebnissen.

      Anbei noch zwei englischsprachige uebersichtsartikel (fuer den geneigten leser mit journal rechten)

  4. Daniel

    Ich möchte Interessierten an dieser Stelle wärmstens die Out Trilogie von Andreas Eschbach empfehlen.

    Andreas Eschbach zeichnet da eine sehr detailierte und zugleich erschreckend realistisch erscheinende Zukunft, unter der Annahme, dass das mit den Computer Brain Interfaces klappt.

    Mit der Erkenntnis, die dieser Podcast enthält, gruselts gleich noch viel mehr.

    Antworten
  5. Nico79

    Oh, krass, was da alles schon möglich ist.
    Das war auf jeden Fall eine interessante Sendung und es wäre toll, wenn ihr im Laufe der Studie nochmal zusammen quatscht und über den Verlauf bzw. Fortschritt des Projekts berichtet.

    Antworten
  6. jab

    Was uebersehe ich ?
    Wenn jemand genau einen Muskel bewegen kann, den aber relative zielsicher, dann kann er schon morsen. Wenn er vor der Erkrankung noch nicht das Morsealphabet kann, dann wuerde ich trotzdem eine Kamera auf den speziellen Muskel richten und nen Morsedekoder anschliessen, das erkannte Zeichen (einzelner Buchstabe) wird auf einer grossen Anzeige im Sichtfeld aufgestellt. Wenn der Patient mitbekommt wie ein “e” geht oder “s” oder “a”, dann sollte das erlernen des Morsealphabet klappen. Ggf, kann man noch ne Lampe anbringen die leuchtet wenn das anspannen des Muskels erkannt wird… so kann die Patientin am Anfang das Anspannen ueben.

    P.S: Gruselig fand ich im Podcast die Stelle wo das mit dem Erinnerung holen und Chemie erwaehnt wurde, das kommt auch in Influx, dem neuen Roman von Daniel Suarez vor…und leider zu einer recht verstoerenden Anwendung…

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert