攻殻機動隊の電脳と義体をブレイン・マシン・インターフェース研究で読み解く

 

http://www.flickr.com/photos/30934989@N06/3792906411

photo by neil conway

 

攻殻機動隊に出てきたブレインマシンインターフェースについて調べてみました。

 

ブレイン・マシン・インターフェースとは

ブレイン・マシン・インターフェース(以下、BMI)とは、大雑把に言うと、脳を機械とつないで情報のやり取りをする技術のことです。

ブレイン・マシン・インターフェースBrain-machine Interface : BMI)とは、脳信号の読み取り・脳への刺激によって脳(思考)と機械のダイレクトな情報伝達を仲介するプログラムや機器の総称である。接続先がコンピュータである場合にはブレイン・コンピュータ・インタフェースBrain-computer Interface : BCI)とも呼ばれる。*1

 

攻殻機動隊ブレイン・マシン・インターフェース

攻殻機動隊BMIのアニメと言っても過言ではないです。

攻殻機動隊の世界では、人の生身の脳がマシンとつながり、バーチャル世界とつながり、他人の脳とつながります。人の脳の中に没入し、その記憶をひもといていくストーリーもあります。そもそも主人公である草薙素子は脳以外が機械でできています。

生身の脳からマシンへと接続し操るという、アニメの中でも当然のことのように行われていることが、現代からして見れば非常に高度な技術となります。

攻殻機動隊では「電脳」と呼ばれる技術が現れます。マイクロマシンを脳内に入れて神経に直接電気情報を流し、外部と情報のやり取りを行う技術です。「電脳」が攻殻機動隊でのBMIになります。

また、体の一部に高度なマシンを組み込んで扱うキャラクターも出てきており、そういった体の機械化を「義体化」と劇中では表現しています義体化するとその部分の能力が強化され、生身の体では到底できないような特殊な能力を発揮するキャラクターもいます。また、逆に、敢えて擬体化をしていないキャラクターも出てきます。そういった、完全義体化、部分義体化、義体化なしといったそれぞれの立場からの視点で様々な事件が進行していくのが攻殻機動隊です。(主に見たのはSTAND ALONE COMPLEX)

 「電脳」と「義体」。二つの基本となる技術ですが、義体化していないキャラクターはいますが、電脳化していない主要キャラクターはいません。義体化は主に肉体の強化です。一方で電脳化は脳をインターネットにつなげるようなイメージでしょうか。無線状態で外部から情報を得ることができます。仲間同士で会話もできますし、有線でつないで、視覚情報などの交換もできます。これがBMIの基礎になっています。脳→外部、外部→脳という双方向の情報のやり取りを可能にしている技術が「電脳」です。その技術を使って義体化した体を動かすなどしていると思われます。

マイクロマシンを使って電脳化を行うことは、とても都合が良い設定です。外科手術をして脳に電極を埋め込む必要がなく、容易に脳から電気信号を入出力できるようになります。生活に支障なく、行えそうです。しかし首の後ろには、外部との有線接続するためと思われる基盤が埋め込まれていて、これには外科手術が必要そうです。それ以外ではどうやって外部とやり取りを行っているかは触れられていませんが、マイクロマシンが全てやってくれるのでしょう。

義体化していないキャラクターでも電脳化をしているというのは現代のPCやスマートフォンを扱うような感覚で、通話をしたり、情報を調べたりすると言ったことが、やはり重要な位置を占めているということを物語っています。体の強化はそこまでいらないけど、情報収集はやっぱ必要だしシームレスじゃないとね、という人がそうしているのだと思います。何も機械を持たずに情報を収集できるのだから、これほど楽な物はないですね。攻殻機動隊はこの電脳化によるBMIが最大限に普及している世界と言ってもいいでしょう。

 

攻殻機動隊に出てくる電脳技術に近い研究を探してみる。

攻殻機動隊では登場人物ののほぼ全員がBMIを活用しているような世界でした。

現実の世界ではどうなんでしょうか。攻殻機動隊の中の電脳技術を以下の4つに分類して、それぞれ近い研究を探してみました。

  1. 電脳を義体とつなげて操作する技術
  2. 義体を使って外部の情報を検知する技術
  3. 義体で物に触れて感覚するための技術
  4. 電脳と電脳を接続する技術

 

1:電脳を義体とつなげて操作する技術

脳から情報を取り出し外部デバイスを動かす

Cortical Ensemble Adaptation to Represent Velocity of an Artificial Actuator Controlled by a Brain-Machine Interface

BMIでロボットアームを動かす研究です。

脳に電極をつないでサルがまずは手元のポールのようなコントローラーでアームを動かします。脳にも電極をつないでおいて、途中から手元のコントローラーではなく、脳の電極からのシグナルでロボットアームが動くように切り替えます。こうすることで早く脳でアームを動かせるようになります。そういったトレーニングをさせつつ、アームの動く速度の調整も行います。アームの速度は脳波の強さで調整しました。恐らく、一定のスピードで動かすのであればこういうことを考えなくても良いとおもいますが、実際の手として動かすのであれば、動かす速度は重要になります。実際に動かしていること脳の活動と操作の方法より、どのような脳の活動のときにどのようなアームの速度で動かさせれば良いかをチューニングしています。ニューロンごとにチューニングのパターンが異なるし、手ではなく、脳でのコントロールのチューニングは単純な数式ではできませんでした。そして、手の動きのある時のチューニングと脳でのコントロール時のチューニングは統計的に有意に異なるものでした。また、脳でのアームのコントロールではアーム速度の予測の精度が手でコントロールを行ったときよりも落ちるという結果になりました。

これらの結果より、実際に自分の体を動かすことと、BMIによる機械のコントロールは異なるということがわかりました。つまり実際に手を動かしたときの大脳皮質のニューロンの動きと、BMIで機械を動かしたときのニューロンの動きが異なるのです。そして、BMIでのコントロールも練習をすると上達するということも報告されています。

義体を使うということは、そのマシンをまさにこの研究のサルが使っていたロボットアームのように扱うということです。義体を自分の体の一部として脳が認知し、義体を動かすために脳から指令を出します。自分の体を動かすかのように。しかしそれは、実際の自分の体を動かしていた頃とは脳の使い方が違い、その義体部分専用の脳の使い方をしなければいけないということになります。

この論文ではアームの動きと速度に着目して、BMIでアームを動かしたときにどういった脳の動きの場合にどういう速度で動かせば良いのかを研究したものでした。腕を一つ動かすにも速度以外に、肘の角度や型の角度、どのくらいの力を入れるのか等、パラメーターは無数にあるわけなので、これらをプログラムに組み込んで操作するというのは途方もない研究が必要なのでしょうね。逆に言うと、単純な動きでいいのであれば、実用化も遠くないという見方もできます。実際に日本でも以下のような臨床研究も行われています。

 

2:義体を使って外部の情報を検知する技術

外部からの情報を脳へ入れて何かを感覚させる

ネズミ(ラット)に、肉眼では見えない赤外線を感知できるBMIをつけて行った研究です。

光が点灯するとその場所で水が飲めるようになる実験装置で、トレーニングをして実際に6匹中6匹のラットが7割の成功率で水が飲めるようになりました。肉眼では見えない赤外線を感知できる装置をラットにつけて脳に信号を送るようにすると、同じように7割程が水を飲めるようになりました。またトレーニングすることで正確性やスピードも上がっていきました。ただそのことで、脳の領域(一次感覚野:S1)に対しての感覚器官(洞毛:ひげ)からの刺激への反応が有意に鈍るということはありませんでした。

その個体が感知する能力を持っていない物に対して、それを感知できるようにするという研究です。今回は赤外線でしたが、センサーとして使える物であれば何でも「脳で感じる」ことができるのだと思います。同様の脳の領域で複数の刺激に対する使い分けが可能ということも示されましたが、この点に関しては行動にどう影響を与えるのかさらに研究が必要とのことです。また、ラットの脳でどのような変化が起きているのかという部分と、ラットには赤外線がどう「見えて」いるのかというのも気になるところです(Discussionではラットは赤外線を始めはひげからくる刺激として扱うが、しばらくするとそれとは異なる物として行動するようになる、と述べられている。)。赤外線が視覚情報として他の光のように目に見えているのか、ひげという触覚が反応するのと同じような感覚なのか、どちらでもないのか。入力という点で重要になってくるのはどう感じるかということなのだと思います。

どうやらセンサーを使うことで「脳で何かを感じる」ことには現実味が出てきているようです。センサーで検知した信号を脳にどう伝えるかはまた別の難しさがあると思いますが、それを自分の感覚として扱う柔軟性を脳は持っているようです。目を義体化(義眼化)してそこでサーモセンサーとして生物のいる場所を見たり、暗視スコープとして使ったりしたときには、その情報を脳でどのように処理するかが問題になってきます。視覚情報として、完全に見えているイメージを映し出すのか、それともぼんやりとしたイメージががわかればいいのか。脳のどこの部分にどうやって信号を送ればその画像が見えるかということが技術的な難易度に大きく関係してくるのではないでしょうか。(「画像情報を直接脳に送り画像を見る」などの論文があれば教えてほしいです。これとかが近いかもしれませんが↓)

 

3:義体で物に触れて感覚するための技術

脳と外部環境で情報をリアルタイムにやり取りする

これは一方向の情報の伝達ではなく、脳→機械、機械→脳という双方向の伝達に関する研究です。

サルがジョイスティックまたはBMIで、画面に映るカーソルや手を操作します。それでいろいろな動きをさせて、その動かし方によって微細な信号を脳の一次感覚野に送るというものです。そして、「報酬としての刺激」、「それ以外の刺激」、「何も刺激がない」の三つのパターンでフィードバックしました。画面上で物を動かして、動かした結果がリアルタイムに返ってくるわけです。いくつかのタスクをサルにあたえ、操作を行わせていくと、「報酬としての刺激」を受けている時間が、「それ以外の刺激」と「何も刺激がない」よりも長くなっていくことがわかりました。それはジョイスティックでコントロールしているときも、BMIでコントロールしているときも同じでした。こういった結果からバーチャルに物を触ったときにその刺激を返すことができ、その刺激の違いをつくることで、その後の行動の変化を起こすことができるとわかりました。つまりその返却される刺激が有効であるということを示しています。

物を触ったときに「触った」と感覚できることは義体としてはとても重要です。それがなければ、自分が物を触っているかどうかを目で見なければ確認できませんので。今回の研究はフィードバックとして「報酬としての刺激」、「それ以外の刺激」、「何も刺激がない」の三つを用いましたが、実際に人の触覚は圧力や温度、振動を感じたり、痛みを感じたりするための複数種類の細胞がある*2のでそれらに近い刺激を脳に送る必要が出てきます。これもどこまでの触覚を求めるかということになりますが、日常生活をするためには人の持っている触覚と同じ感覚があると良いのでしょう。そういった研究もされていますが、これはただBMIと言ってもメカニカルなところや、人工皮膚をつくるために合成化学を扱うところなど、様々な分野が協力してやっていかなければならないと感じました。

 

以下のような研究もなされています。

単結晶のシリコンでできた、圧力、温度、湿度センサーのついた人工皮膚を神経につなげる研究

 

Stretchable ​silicon nanoribbon electronics for skin prosthesis

 

薄くて、圧力、振動、温度、音を感知できる強誘電体の人工皮膚の開発をして、ロボットなどへの応用を考えている研究

Fingertip skin–inspired microstructured ferroelectric skins discriminate static/dynamic pressure and temperature stimuli | Science Advances

 

圧力を電気信号に変換できる有機的なセンサーで、実際にマウスの体性感覚ニューロンにそのシグナルを送り、圧力の大きさによってニューロンの信号も変化させることができた研究

A skin-inspired organic digital mechanoreceptor

 

4:電脳と電脳を接続する技術

脳から脳へ情報を伝達する

リアルタイムに脳から脳への情報伝達を行った研究です。

ラット(発信ラット)をトレーニングして、2カ所あるレバーのうち、LEDの光った方を押すと水が得られるということを学ばせます。そのときのニューロンの活動を変換してもう一匹のラット(受信ラット)の脳へ微細な刺激(皮質内微小電気刺激法:ICMS)としてリアルタイムに与えるようにします。その刺激からその受信ラットは2カ所あるうちのレバーから一方を選び押します。そのレバーが脳の刺激を送ってきた発信ラットが選んだものと同じ方であれば2匹とも報酬がもらえます。発信ラットのLEDが光った方のレバーを押して水が得られる確率が約95%前後のとき、受信ラットが水を得られる確率は64%前後程でした。何も刺激を与えていない場合は成功率が50%以下だったので、情報の伝達は行われていることがわかります。

もう一つの実験では発信ラットがひげで感じた「狭い」「広い」の脳の刺激を同様に受信ラットに送ります。発信ラットは狭ければ左のレバー広ければ右のレバーを押すように訓練して、受信ラットは刺激がくれば左、刺激がこなければ右のレバーを押すように訓練します。結果としては先ほどの実験と同様に、刺激のない場合に比べて水を得ることができる確率は上がりました。

このように脳のシグナルで繋がっているペアとして行動を続けていくと、お互いの行動がお互いに影響を与え始めます。刺激を与える発信ラットの次の行動までの時間は長くなり、刺激を受け取る方の受信ラットの行動の感覚は短くなりました。

一つ面白い取り組みをしていて、ブラジルのNatalとアメリカ合衆国のDurhamに一匹ずつラットを用意し、同じ実験を行いました。刺激はインターネットでリアルタイムに送られ、似たような成功率を示しました。

これらの結果より、脳から脳への刺激の伝達が可能なことがわかりました。しかし、その伝達できる情報量は未知であることが書かれています。今回の研究では一次感覚野と一次運動野を用いましたが、もちろん他の脳の部位同士の伝達もできるかどうか検証が必要です。

脳から脳への接続は攻殻機動隊では頻繁に出てきます。無線通信で会話をしたり、相手の電脳の中にダイブしたりします。無線で会話をするだけなら脳に直接情報を伝達しないで、耳の神経に音の情報を伝えてもいいし、実際どうやっているのかも劇中では語られませんが、脳を他人の脳につないで、そのなかに保存されている記憶の情報に入り込み、調査するなんていう離れ業もやってしまうのは、もはやどういう状態なのか、想像もできません。それが技術的に可能なのかどうか、何をしたらそこまで到達できるのか、現代の知識では答えは出ないと思います。

 

以下のような、人で脳と脳の情報をやり取りするような研究もなされています。

 

まとめ

攻殻機動隊の世界がもう間近に迫っている、とは言えないとは思いますが、とても近いことをやっているというのは感じました。基本技術は確立しつつあるし、実際に臨床段階の技術もありました。要はどこまでを求めるか、目的を何に置くかで、必ずしも万人にとって脳に直接情報を送り込む必要があるというわけではないと思います。精度としてどこまで求めるのか。もし、全身を義体化して生活できるまでにするのなら、情報のやり取りのための脳のマッピングと、正確に義体を動かすための感覚器・伝達回路含めたメカニクス、そしてそれらを操るためのトレーニングがものすごい高いレベルで必要です。そこに行きつくには途方もない研究の積み重ねが必要なのだと思います。特にそこまで求めないのであれば、実用化はもう間近です。体に麻痺がある方が脳で直接アームを動かすというのは数年のうちに実用化されそうです。人工皮膚で物に触れた感覚を感じることも、しばらくしたらできるようになると思います。

脳のどの部分がどういった機能を持っているか、脳波をどう処理し、脳にどういった刺激を与えると同じ感覚を得られるのか、脳に画像を見させるにはどうしたらいいか、など興味は尽きません。 

今日も攻殻機動隊の世界を夢見ながら妄想に浸ります。

 

参考にした情報

攻殻機動隊の世界は可能か?

BMIの面白さがわかります。

 

BMIの最新の研究について。

 

→人工皮膚についてその1

 

→人工皮膚についてその2

 

複数BMIで一つのロボットアームを操作する研究