HOME

特集:医用工学の世界

医療の未来に向かって

鈴木 直樹 先生 インタビュー

東京慈恵会医科大学 教授
高次元医用画像工学研究所 所長


Naoki Suzuki

1981年早稲田大学大学院理工学研究科博士課程後期修了
同年、東京慈恵会医科大学へ助手として勤務、2000年1月東京慈恵会医科大学、総合医科学研究センター高次元医用画像工学研究所所長。2002年4月 東京慈恵会医科大学教授。専門分野:医用生体工学、医用画像工学、生物学、古生物学

先生は博士号を3つお持ちでいらっしゃいますが、どのような経緯によるものなのですか?

ええ。私は、早稲田大学理工学部での学生時代から生体の構造や人体の機能に興味があり、主として生体工学を専攻していました。そのうち、より近くの現場でそうした研究を行ないたいという思いが強くなり、それには医科大学がいいだろうということで、大学院の博士課程を出るやいなや慈恵医大に助手として就職しました。すぐに臨床に近い現場で医用工学の研究を開始し、慈恵医大で医学の学位を頂きました。実は、医学の研究をしながらもう一つやりたいことがありました。それは人間がヒトまで進化する道をどのように歩んできたのかを調べることでした。人間の病気はこの歩んできた道と深い関係があるのです。しかし、人間は地球上に数千万種いると言われている生物の中の1種に過ぎないわけですよね。そして、人間の属する脊椎動物はもともと海から上がってきたのですから、魚類・両生類・爬虫類・哺乳類といったそれぞれの段階ごとの機能面での進化を理解しないと、人間の持つ構造や機能はわからないと考えるようになりました。そこで、慈恵医大に勤務しながら東京大学の理学部でこの分野の研究を始め、この領域でも学位を頂いたわけです。

先生の医学領域でのご研究を簡単にご紹介頂けますか?


図1 手術シミュレータで実施している肝臓の切除術の様子を時系列に見た画像。画像中肝臓の表面は半透明とし、内部の血管系(黄色、青色)、腫瘍(白色)が見えるようになっている。術者 の両手も仮想空間上に表示され、各指で触れると臓器がその外力で変形する様もリアルタイムに表示されていく。
© Naoki Suzuki/ユニフォトプレス

現在の研究所では、近未来に医療現場で使う機器を一日でも早く実現させることを使命としています。その一つ目が、手術シミュレータの研究です。この手術シミュレータはMRIやCTで撮った患者さんのデータを用いて、できるだけ現実に近い手術のリハーサルを仮想空間で行うようにしようというものです。また、手術は人体組織という柔らかいものを扱うわけですから、柔らかい組織、即ち軟組織を対象にしたシミュレーションを行なえるようにしました。また、今までの手術シミュレーションで、現実の手術と最も乖離しているのは「触覚」です。そこで、リアルに患者さんの患部を触った感触を得ながらシミュレーションできるような、手術シミュレータを開発しました。1号機が完成したのが1998年で(図1 手術シミュレータを用いた肝切除の様子)、そして、その後、より多目的にかつ本格的に活用できる、数種類の手術シミュレータ開発を行ってきました。

当時から、両手で触覚を感じながら手術シミュレーションができることはこの研究領域での一つのゴールと目されていて、臓器に触りながら切る、摘む、といった外科的作業ができる手術シミュレータが将来の姿とされていました。使用目的としてはもちろん若い医師の教育用という意味もありましたが、開発した我々の目的の9割は患者さんごとの状態(=解剖学的な個体差)に対して、その人にとってベストの手術方式(術式)を決めるために役立てたいということでした。また、難しい手術が予想される場合は、その術式のリハーサルもできるようにしたいと考えていたのです。

この手術シミュレータができたとき、ドイツのボン大学の協力を得て、ボン大学側に執刀医を配置し、日本側を第一助手に配置して仮想空間での手術を試みました。その際、通信技術的にはドイツ−日本間での通信はISDNの一回線のみで行なえることを目標にしました。災害地などでは高速回線は望めませんので、どのような状況でも使えることを想定したものです。このときの経験が、私たちのその後のテレサージェリー(遠隔手術)の知識と経験の出発点になりました。

現在の手術シミュレータは立体表示ができ、かつ「今、肝臓を指で触っている、腫瘍を触っている」といった感覚を10本の指で知覚できます。外からの力が加わったときに臓器の変形だけでなく内部の血管系も実際と同じように動くので、手術をどういう手順で行なうか、作業の細部まで実行してみることもできます。こうしたシミュレータは、お腹に小さな穴を開ける腹腔鏡手術(ラパロ)を対象としたものは既にいくつかあります。しかし、我々のものは、ラパロ手術だけではなく、開腹手術についても、現場に近い手術シミュレーションを実行できるように努力しています。またそのため、スクリーンの角度や立ち位置を移動させて、現場で手術する医師の手術視野に近くなるように高さや角度も調節できます。また、このシミュレータの装置自体を、テレサージェリーのマスター側コントローラにすることもできるように作りました。


市販されたVirtual Anatomiaについて説明して頂けますか?これは3次元の解剖図鑑のようなものと考えて良いのでしょうか


図2 日本SGIから販売されているデジタル人体図鑑 “Virtual Anatomia”。
この図に示す “Virtual Anatomia Ver.1.6” では全身の筋肉構造が新たに搭載された。画像中左側の画像は、全身の体表面を半透明とし、骨格系、主要臓器と血管系が表示されている。右側の画像は体表面を取り去り、筋肉系と骨格系の様子が表示されている。
© Naoki Suzuki/ユニフォトプレス

Virtual Anatomia(図2)は、生きた人体そのままの3次元データです。また心臓などの動きも再現していますので、4次元データというのが正確かもしれません。モーションキャプチャーしたデータを用いて骨格など動的状態の変化も観察・解析できるようにもなっています。身体を自由な平面で切ってその断面の観察もできますし、歩行データを用いて実際の歩行時の骨格の動きなども確かめることができるわけです。

データは、同一人物のMRIデータです。セグメンテーション(部位の領域分け)は、各部門の臨床医がそれぞれの部位を受け持って行ない、その後、デザイナーが実際の解剖学的知見と矛盾することなく美術的にデータを整えています。かなり細かい部位の解剖学的構造も見ることができます。例えば、下顎部は歯科医と口腔外科の専門家が歯の一本一本を再現していますし、心臓は一心拍のなかで変化する心房や心室の状態も見えるように再現されています。また定量的データなので身体の部分を取り出して荷重のシミュレーション、手術のシミュレーション、人間工学的観点からの構造解析・動作解析などの多様な用途に有用な基礎データを提供できるようになっています。

全身の動作を定量的に計測することも、研究しておられるのですね

この研究所では人体の静的なデータだけでなく、時間的にも定量性のあるデータ、つまり4次元データを収集するために、様々な計測装置が設置されています。4次元動作計測室には、65台のカメラを接続した33台のPCをクラスタリングして、患者さんの動作を全周囲からデータを撮ることができる自作の装置もあります。全周囲から撮影することにより、本人の4次元データを得ることができます。その4次元立体モデルに本人の骨格や筋肉などの3次元情報を付加することにより、ある動作を行なっているときの膝・肘など各関節等の動きなども見ることができるのです。整形外科的に関節の状態を見たい、また人間工学的に人体の動作を調べたいといった目的に応じて、装置を使用できます。動作やポーズのチェックといったスポーツ工学的分野でも、いろいろ有用性が高いと思います。


ただ、現在は、こうした医用画像の研究はもちろん行なっているのですが、少しずつ、ロボティクス研究の比重も大きくなってきつつありますね。例えば、内視鏡型手術ロボットの開発がそれです。本体を自由に曲げることができるので、口から入って体内で手術を行い、手術が終われば口から出て行きます。ロボットの先端部に小さな2本のアームがあってそれらで手術を行い、このときロボットアームでつかんだ際の触覚も感じられるようになっています。こうした手術ロボットでは、どうしても術者とロボットが離れるので、かなり精度の高い手術ナビゲーション機能が必要となります。そこで、これまでの画像研究経験を活かして、画像情報によるバックアップシステムを持つロボットを作ろうと考えて製作しました。内視鏡型ロボットというと、胃の中だけだろうと思う方もいらっしゃるのですが、胃を介して様々な臓器にアプローチすることもできます。まず胃に入り胃の壁に小さな穴を開けて外に出て肝臓や大腸といった臓器を手術する。終わったら、胃に戻ってきて自分で空けた出入口の穴を閉じて、食道を通り口から出てきます。こうしたタイプのロボットはNOTES型とも呼ばれていますが、体表面に全く穴を開けませんから、人体への侵襲性が非常に低いわけです。

驚きました。それは、ほとんど『ミクロの決死圏』ですね!

そう。あのSF映画では人間が小さくなって体内に入っていきますが、それを現代の科学技術で実現するにはどうしたら良いかを考えると、こうしたロボットになるのではないかと思っています。

また、近未来の手術を想定した手術室も建設しました。患者さんの3次元データを手術室で用いることにより、通常は見えない生体内部のデータも投影して、それを見ながら手術できるようにならないかと考え、また良いチャンスもあって、ハイテクナビゲーション手術室と呼ぶ実際の手術室を作ることができました。手術ナビゲーション用の様々な機能を作り込んであるのですが、天井から吊るしてある4台のモニターを使って、術野に患部の3次元画像を重畳表示できるようになっています。

手術室だけでなく、医療の近未来を見せられた思いですが、先生は、医工連携にどんな期待をもっておられますか?

工学と医学は、状況として、コラボレーションしやすい分野であると思います。しかし、これからはもっともっと若いときから医学と工学の双方がわかる人が出てくると思いますね。

いずれにしても、こうした「医工連携」といったものの最後の目的は「患者さんのために」ということだと思います。より多くの患者さんを、より安全に治療したい。そのためには、例えば外科領域では人間の能力を超えた力を先端技術により外科医に与えることが重要なカギの1つだと思います。これらを具現化していくと、手術ロボットや手術ナビゲーションシステムといったものになるわけです。人間の目の能力を超えて体内を見ながら手術をしたら、それはどんな手術になるのか?といった近未来の手術を想像することがこれらの研究の原点となるわけです。

しかし、これからの医師を含む医療従事者は、医学に加えてある程度工学的な勉強も必要ということになるのでしょうか

少なくとも新しいシステムを使いこなして自分の能力を強化することは、今後はもっと必要になってくるでしょうね。ただ、バーチャルリアリティのインターフェースは非常に直感的なので、システム操作を習熟することにそれほど長い時間は要らなくなるでしょう。とは言っても、医学の基本は、あくまでも人間が人間を診るということ。その大前提は全く変わりません。しかし、今の若い医師たちはコンピュータ化したシステムにも子どもの頃から馴染んでおり、新しい医療技術にも無理なく入り込めるという状況が出てきました。そういう面において、医工連携の未来は明るいのではないかと予想しています。

医師の過重労働の問題や、大都市や特定の診療分野に偏在する傾向をどうやって抑えるかなど、現在の医療は様々な難問を抱えています。今後、ロボットによる手術やテレサージェリー技術を含む高度な遠隔医療の可能性が高まれば、こうした問題の解決にも大きな一歩を踏み出せるかと思います。医学と工学がより結束し、人類のためにも医学の新しい可能性を少しでも多く切り開いていくことができれば、と願っています。

◆インタビュアーから一言

現在、医療の現場では様々な医療機器が使われ、しかも日進月歩の様相を呈しているようです。そこには当然、工学の進歩が反映されているのだろう、と漠然と思ってはいました。しかし、今回、東京慈恵会医科大学の高次元医用画像工学研究所を見学させて頂き、正直、「もう、ここまで来ているのか!」という驚きの念を禁じえませんでした。

『ミクロの決死圏』は、1966年に制作されたSF映画の古典です(原作は、アイザック・アシモフです)。東西冷戦の時代を背景に、亡命した東側の科学者の脳内出血を治療するため、物質縮小技術を使って縮小された男女が、同様に小さくなった潜航艇に乗って血管内に入り、脳内の患部に向かうといったストーリーだったと記憶しています。

この映画が古典たりえているのは、手術等によらず身体内部を治療するということが、人類の大きな夢の一つだからでしょう。物質縮小技術は、残念ながら実現の可能性は低いようですが、「できるだけ侵襲を少なくして人体内部を治療する」という夢の方は、刻一刻と実現に近づいていると感じました。

今回のインタビューは、医療の近未来を垣間見る貴重な体験となりました。

鈴木先生、ご多忙の中、本当に有難うございました。

2/5

(2/17)