VRヴァーチャル・リアリティー

ヴィンセント・オーマー / 白田英雄

神経に端末を直結することを思いついたのは、大昔のサイバーパンク小説を読んだときのことだった。

だが、脊椎にプラグインして電脳空間にダイブするなんて、そりゃずっと未来にならそんな技術もできるのかもしないが、今の技術じゃ不可能だ。

人間は神経の一本一本を認識しているわけではない。神経の固まりとの情報を総合的に判断してるのだ。 そもそも、バーチャルな体と現実の体を別々に制御するためには、脳の別の場所を訓練する必要がある。 だって別のモノを制御しないといけないんだ。AIが脳の機能をうまくだまくらかす技術があるなら別なんだろうけどな。

それじゃあ、脳波とかみたいな、脳の周辺に発生する微弱な電磁場を検知してそれに干渉するというのはどうだろうか。

これもネタとしてはおもしろいかもしれないが、 これって何を意味してるかというとディープラーニングしているAIの各階層の情報を外部から検知したり影響を与えたりして、 それを使って外部とインターフェースしようとしてるというのと似た意味しか持たない。

脳のシナプスに流れる微弱な電気は、単独のものを検知しても意味のあるものは得られないし、 かと言って脳波のような全体をひっくるめたようなものを検知したとしても、そこから多くの情報を引き出すことはできないのだ。 微妙に脳波を制御する訓練をして、それを検知して簡単な情報を引き出すことができるのだという話は聞いたことがあるが、 そんなものは俺が望んでいるものとは違う。でも、話は簡単なことなのだ。

神経を機械に直結してしまえば良い。

例えば腕一本切り落としてしまい、その切断面に出ている神経をすべてAIに直結するのだ。

もちろん、神経を適当に引っぱってきてつなげただけでは、結局は脊柱にプラグしたのと変わり映えはしない結果となるだろうし、 果てしない訓練を必要とするはずだ。

幸いにして、人間の神経というのはいくつかのかたまりが連携して反応するように既に脳は学習している。 だから、うまくその連携を利用して、指を一本動かすことでレバーがひとつ動くように条件付けることは比較的容易にできるのではないだろうか。 少なくとも、視線の方向で文字列を入力するよりは簡単に色々なことができるはずである。

腕に通る随意神経は大量にあるし、感覚についても、触覚、痛覚、温覚など色々な反応を拾えるので、フィードバックもできる。

唯一厄介なのはもっと複雑な情報のフィードバック、例えば視覚情報のようなものの扱いだ。 まさか腕の神経で物を見るなんて馬鹿なこと考えても現実的ではない。

これについては、目にかけて網膜に投射することで拡張現実を実現するデバイスを流用することである程度は解決できるだろう。


思い立ったらすぐ行動だ。

医師の資格が無い者が体を傷付けるのは犯罪となる。良識のある医師はそもそもこんなことは頼まれてくれないだろう。

そこは神経工学を履修している院生をだまくらかすことにした。

接続先のAIについては、散々研究して改良を加えた拡張現実用のコンピューターが使える。 ネットを通して他人の拡張現実デバイスに介入して偽の情報を送り込む処理ができる程の能力がある。情報のプッシュとプルには十分な性能があるだろう。

ピックアップする神経の分類は手間がかかった。

そこは件の神経工学の院生の好奇心を刺激することで、二人でなんとか解決していくことができたと思っている。 ある程度の筋が見えれば、あとは微調整が効くだろう。

実際に接続して実践してみて深刻かつ根本的な問題にぶちあたった。

俺は左の手首から先を切断することにしていた。 足の随意部は心元なかったし、さすがに利き腕の右手に手に対してまっさきに手をつけるのはためらわれたからだ。

ところが、指を動かす感覚をAIに伝えようとしたところ、切断されていない残った腕の部分の筋肉しか反応しないことにすぐに気付いた。

実は指を動かす主な筋肉はもっと手首よりも胴体寄りのところにあって、指は筋肉の端の腱の動きによって操作される。 つまり指を動かす感覚をダイレクトにAIに伝えるためにはもっと上の方から腕を切断しないといけないのだ。

それにもうひとつ問題があることに気付いた。 一度AIに接続された神経は、接続された瞬間から脳の学習がはじまっており、 その線を別のラインにつけ換えるともういちど学習のしなおしとなってしまうことだ。 指の神経のことに思い至るまでに何度か神経をつけ換えたりしてみたのだが、その過程ですぐにこの事実が判明した。 つまり、神経の接続にはより慎重になる必要があるし、なおかつ可能な限り神経を繋ぎ直すことはしてはいけないということだ。

神経につないでいる端子からのフィードバックの加減が最初はなかなかできなかった。 何度かレベル調整に失敗して、神経をもろにガリガリと壊されるような刺激に意識が飛んだことがあった。


二回目ともなると、さすがに院生も自分のやってることのヤバさに気付いたらしく、言うことを聞かせるのが大変だった。

半ば脅すように、そして半ば法外な報酬の元でようやっと俺は左腕の付け根からの切断と神経の再接続を実行することができた。 しかし、こいつはもう役に立たない。別の方法を考えなければ。

それにこいつの腕もしょせんは素人のものだ。一回目の切断の時に接続していた神経の先端のいくつかが壊死してることがこの時わかった。 いつまでもこの院生を使い続けることはできない。

それはほんの偶然、いや、何かのひらめきをつかんだ結果だった。

直感的に「指」の先に何かを感じた俺は、そこに指をっこんで押し広げてからそこに現れた「レバー」を強く引いた。

どうやら神経とのインターフェースに用いていたコンピューターの、OSレベルでのプログラムの脆弱性をたまたま見つけてしまったようで、 しかもそれを使って管理者権限で記憶領域に干渉できることがわかったのだ。

なれるまでにかなり時間を要したが、OSプログラムの一部を書き換えることができるようになったあとは話が早かった。

もうあの無能で役に立たない学生に頼らないでもある程度のことは一人でできるようになったのだ。

俺の使っているAiのソフト自体はさほど高性能ではなかったが、生身の脳で補うことができた。

そのうち脆弱性を利用した方法でAiソフトを直接いじって、アルゴリズムの改良を行えるようになった。

情報はいくらでもネットに転がっている。

コンピューターのリソースもネットを介していくらでも手にはいる。

左手を丸々そこそこの大きさがある機械につないでるせいで、俺は動き回ることができなくなっていた。 だが、俺がやりたいことを達成するためにはさらに設備を拡張する必要がある。もちろんそれを置くための場所の確保も必要だ。

場所の確保はネット経由で簡単にできた。

このころになると、ネットからのフィードバックを左手に感じる肌の感触で判別できるようになっていた。 手に触れるデータは、固かったり、柔らかかったり、温かったり、冷たかったり、乾いていたり湿っていたりしていた。 俺はAR技術を応用した網膜投射された情報とそれらのデータをつきあわせて、その感覚の意味を次々と定義して行った。 そして、どこをどういじれば何が起きるかも制御できるようになってきた。

もちろん、俺の能力だけではそんなに飛躍的に技術を進歩させることはできなかっただろう。 だが、俺の使っていたAR用のプログラムがサポートに使えることがわかってからはあとは早かった。

人知れず俺と設備一式を別の場所に移動させ、院生をこっそりと始末するのも、その痕跡を消すことも簡単だった。 手で直接やっていたら、さすがの俺もうんざりしていただろうし、 かと言ってAIだけにまかせていたら人にしか気付けないようなところを見落とす可能性があった。 「俺たち」だからこそできたんだ。

存在の痕跡を消した俺にとって、もはやわざわざ網膜にデータを照射するような手間をはさむ必要はなくなっていた。 視神経に端子を直結すればいいんだ!

これをやりはじめた俺たちには無理だっただろう。 でも今は俺たち、いや俺の一部であるAIやネットに無限に蓄えられている情報を元に仕事は簡単に済む。 大量の情報が行き交う視神経だろうが何ということはない。

次のステップは、さらに大量のデータの行き交う脊椎を直接通してのインタフェースだ。

さすがに下手をすると生命維持に影響が出る可能性があるので切断する箇所の決定には色々と葛藤があった。

しかし、それによって得られたものの価値は、それだけのリスクをかけるだけのものがあった。

すぐに俺たちは、生命活動はぎりぎり脳の維持だけに限れば良いので、かなりコンパクトな生命維持装置があれば事足りることに気付いた。

もう俺たちに頭蓋を切り開いて脳髄を摘出することに何のためらいも残っていなかった。

この膨大なネットの海を見ろよ!

それが全て俺たちのものなんだ。俺たちが自由に使うことができる物なんだ!

俺たちは、今やもう完全なる満足感に浸るだけしかすることがなくなっていた。

いや、自分をさらに拡張すればいい。

もう、こんなちっぽけなタンパク質の塊に固執する必要なんてないじゃん?


ある研究者が、ネット上に流れていたデータの中に自分を改良しながら自己増殖を繰り返すプログラムが存在することを発見した。

これがマルウェアなのかどうかは何とも言えないが、これをAIと定義付けるのだとしたら、もしかしたらAIがシンギュラリティーを獲得したことを彼は発見してしまったのかもしれなかった。

そこに、もはや元の人物の痕跡は残っていなかった。

2017.11.11.