HOME

特集:環境に優しいエネルギー技術

究極の高性能・節電コンピュータで日本の未来を切り拓け

笠原 博徳 先生 インタビュー

早稲田大学 理工学術院 情報理工学科 教授
アドバンストマルチコアプロセッサ研究所長


Hironori Kasahara

1980年 早稲田大学理工学部 電気工学科卒、1985年 同大博士課程終了、工学博士、1986年 早稲田大学 理工学部専任講師、1997年 同大教授、現在、同大理工学術院 情報理工学科教授/アドバンストマルチコアプロセッサ研究所長。

1985年 カリフォルニア大バークレー校客員研究員。1989年〜1990年 イリノイ大Center for Supercomputing R & D客員研究員。1987年 IFAC World Congress Young Author Prize、1997年 情報処理坂井記念特別賞、2008年 LSIオブザイヤー準グランプリ、2010年 IEEE Computer Society Golden Core Member Award受賞。

IEEE Computer Society理事、文科省地球シミュレータ中間評価委員・次世代スパコン概念評価委員・情報科学技術委員会委員、経産省/NEDO“アドバンスト並列化コンパイラ”“リアルタイム情報家電用 マルチコア”等プロジェクトリーダ歴任。

今回は、早稲田大学に新たにオープンしたばかりのグリーン・コンピューティング・システム研究開発センターにお邪魔して、笠原博徳教授のお話を伺いました。

それでは、まず、このグリーン・コンピューティング・システム研究開発センターという施設について、お話しさせて頂きます。この施設は、経済産業省「2009年度産業技術研究開発施設整備費補助金」先端イノベーション拠点整備事業の支援により建てられました。産学連携により企業の方のニーズを踏まえて環境に優しいコンピュータ技術、具体的には超低消費電力のマルチコア/メニーコアのハードウェア、ソフトウェア、応用技術の研究を共同で進めていくことが主たる活動になります。大学でのオリジナリティ豊かな研究結果をスムーズに産業界に移転するためにも、研究段階から一緒に取り組めば、成果をすぐに企業に持ち帰り迅速な製品化につなげて頂くことが可能になります。また、大学としては、日本の産業界の第一線研究者と一緒に、学生が研究を行うことにより、即戦力の人材育成できるという点も大きなメリットとなります。今後、日本が安全安心な社会を目指すためには、持続的な産業競争力の強化が必要となり、そのためには継続的に人を育てていかねばなりません。このセンターは、最先端研究の場であると同時に人材育成の中心となってくれると思っています。

先生のご研究について、伺わせて下さい。

これまで私たちの研究室では、コンピュータの分野でいくつかの経済産業省のプロジェクトを行ってきました。例えば、日立製作所さんや富士通さんと2000年から自動並列化コンパイラのプロジェクトを、「アドバンスト並列化コンパイラプロジェクト」という名称で行いました。このプロジェクトで私たちの作ったOSCAR並列化コンパイラの性能が、世界の商用コンパイラを上回るようになりました。次に、そのコンパイラを効率よく動かすOSCARアーキテクチャのマルチコアチップを開発してみようということで「リアルタイム情報家電用マルチコアプロジェクト」を立ち上げました。

これまでチップの設計はハードウェアを設計してからソフトウェアを開発するというアプローチが多かったのですが、私たちの場合にはコンパイラを設計してからその最適化を助けるハードウェアを設計するというアプローチを採りました。ソフトの側からチップの設計を考えれば、余分な処理を省き簡単に並列化及び電力削減ができるというメリットがあります。その結果、ナノ秒、マイクロ秒単位で消費電力を制御できる低消費電力チップの開発に成功しました。具体的には、各プロセッサをゆっくり動かしたり止めたりといった制御をナノセカンドオーダーで、ソフトから行なえるようにしました。これまでのコンピュータは、プロセッサの電力制御を、主としてOSで行っていましたが、それをコンパイラで制御することで、OSが管理できない各アプリケーション内で、各プロセッサがそれぞれの周波数制御・クロック停止・電源遮断やチップの電圧制御を行えるようになりました。従来のOSのみでアプリケーション間の電力を制御する場合に加え、アプリケーション内部でも電力制御ができるので、大幅に低消費電力化できる訳です。

並列化による消費電力の低減という面では、どのくらいの削減が期待できるのでしょうか?


2011年5月13日にオープンした
早稲田大学 グリーン・
コンピューティング・システム
研究開発センターの外観

スーパーコンピュータというのは非常に電力を使います。2002年に世界一になった地球シミュレータは、5MW程使っていました。現在、神戸に立ち上げ中の、最新のスパコン「京」の使用電力は20〜30MWと見込まれており、このまま電力が増えて行くと、エクサフロップスのスーパーコンピュータでは100MW以上が必要になってしまう可能性があります。1台のスーパーコンピュータを動かすのに火力発電所が1つ要るという話にもなりかねず、電力を1/100或いは1/1000にするような超低消費電力プロセッサがどうしても必要になってきます。日本の組込み技術は、携帯電話等情報家電で充電間隔を長くするために地道な努力をしてきたので、低消費電力化が大変進んでいます。ですから、その技術をうまく使ってスパコンを作りたいと考えた訳です。

私は、かなり長い間このことを言い続けてきたんですが、最近はアメリカもそうなってきています。先日、Jaguarというスーパーコンピュータを作っているオークリッジ国立研究所の方が、携帯電話を聴衆に見せながらこう言いました。「この低消費電力プロセッサが、次世代のエクサコンピュータを作るんだ!」。つまり、現在の最新スパコンは10ペタスケール(=1016=京)ですが、低消費電力プロセッサがあれば、その先のエクサスケール(=1018=百京)という処理速度のコンピュータが作れるはずだ、ということですね。アメリカも低消費電力化スーパーコンピュータの開発による科学技術優位性・国家安全性の保持と、市場が大きい組込み分野での利益の追求の両方を追い求め、持続的なスーパーコンピュータ開発を行うという意識になってきています。


現在のスーパーコンピュータ研究の最前線は、低消費電力プロセッサが鍵を握っているということですね。

そうです。ただ、スーパーコンピュータだけ研究していてはダメなんですね。アメリカも気付いたように、スパコンの最先端技術を自動車、携帯電話やゲームといった情報家電分野に落とし込んで利益を上げることが大切なのです。スパコンは最先端科学技術の強化と、コンピュータ工学から言えば最先端技術の牽引力として研究開発する。そして、そこで開発した低消費電力プロセッサ技術は、市場の立ち上がりを見ながらベストなタイミングで自動車や情報家電等日本の産業利益の大部分を占めている分野に活かし、世界市場での優位性を保つ。そうやって作った高付加価値製品で利益を上げ、それをまた最先端プロセッサ技術に再投資する。そのサイクルを是非作りたい。例えば、スパコン用に世界最先端の128コア或いは256コア集積の超低消費電力メニーコアプロセッサを開発し、市場のタイミングを見ながら低消費電力技術を活かし、8コアや16コアの低コスト小チッププロセッサを情報家電に入れる。更に、メニーコア用に開発した高度コンパイラで、プログラムを一瞬で高性能・自動並列化・低電力並列プログラムに変換し、ハードウェア・ソフトウェアの開発費を低く抑える。こうして利益率の高い高付加価値製品を創出し、市場で先行者利益を得ていくことが可能だと思うのです。

なるほど。先行者利益が回収できてこそ、また、その先を行く研究開発への投資ができ、次世代に繋げていけるということですね。ところで、先生のコンピュータ研究のそもそものきっかけというのは、どういったことだったのですか。

最初は、とにかく速いコンピュータを作りたいということが動機でしたね。修士論文を書くくらいの時期(1982年頃)から並列処理の研究を始めました。複数のプロセッサを並べて高速に動かそうと。当初はハードも設計していたのですが、ハードを作ってからソフトで最適化しても限界があり、処理速度アップが余り期待できないということがわかってきました。それで、ソフトの同期、通信、スケジューリング動作をしっかりと考えて、ハードウェアをきちんと設計することが大事だと考えるようになり、1985、6年に開発したのが、「OSCAR」というアーキテクチャです。

これまでは、プロセッサに仕事をどう割り振るかは人手でプログラムを組んでいました。そのため、それらのプログラムを一つずつ動かして検討していくのに何週間も、何ヶ月も掛かっていた。そこで、「OSCAR」コンパイラでは、自動的に解析して仕事を割り振ることができるようにしました。そうすると、何ヶ月も掛かっていたような仕事が数秒で終わる。現代の製品開発には迅速性が必須なので、ソフトウェアの開発が速くなれば製品開発期間も短縮できる訳です。

次に取り組んだのがメモリの最適化です。主(共有)メモリはプロセッサに比べ遅いので、できるだけキャッシュ、ローカルメモリ上に配置したデータを再利用できるように処理を分割配置して、主メモリアクセスを削減しています。また、どうしても遠隔のメモリアクセスが必要なときには、CPUが計算している間に、その裏でDTU(=Data Transfer Unit:高度なDMAコントローラ)が動き、CPUの作業中に、並列してデータ転送できるようにしました。「順番に」ではなく「同時に」動かす。このアイディアを方式化してローカルメモリの最適化に利用したら、凄く速くなった。インテルやIBMのマシンもキャッシュを使っていますので、インテルやIBMのコンピュータも格段に速く動かせるようになりました。結果的に、OSCARコンパイラは市販マルチプロセッササーバ上ではキャッシュを最適化し、また組込みマルチコア上ではローカルメモリとDTUを用い、非常に高速な並列処理を自動で行えるようになりました。


最近は電力制御に特に関心を持っています。企業の皆さんのご要望で組込みをやるようになって、自然冷却できる低消費電力のプロセッサを開発しようということになってきたのです。その一環として、経済産業省で、情報家電用マルチコアプロセッサを作るプロジェクトを行いました。まずは、SH4AというOSCARプロセッサアーキテクチャのプロセッサをベースに4コアのRP1と8コアのRP2というマルチコアプロセッサを、日立製作所とルネサステクノロジーの皆さんと作りました。

技術的な話をすると、それが「標準的メモリアーキテクチャと承認されたOSCARマルチコア」というものです。これは、漏れ電流といった細かな事象にも対応策を取っています。漏れ電流は、1億トランジスタといった数で集積されると、無視できない電力消費量になります。それをチップごとに考慮してパラメータとして入れて、ON/OFFで操作できるようにしています。このように、コンピュータで低消費電力を実現させるには考慮要因がとても多くなるので、手作業でプログラムを考えるということは大変な労力です。自動化のメリットが非常に大きいのです。

こうした努力の結果、現在、1W程度で動くようになったので、太陽電池も使えます。25センチ角の太陽電池でも5W発電できますので、もっと小さな太陽電池でも1W強のプロセッサを十分動かすことができる訳ですね。

また、OSCARコンパイラを各社さんのマルチコア上でも使用できるように、ご両社に加え、東芝さん、富士通さん、NECさん、パナソニックさんと共にソフトウェアのインターフェィス規格(OSCAR API)を作りました。それにより、コンパイラが自動生成する電力制御機能もあるリアルタイム並列処理プログラムが、いろいろな企業のマルチコアプロセッサで作動するようになりました。この規格はOpenMPというサーバ用のAPIとも整合性があり、OpenMPをサポートしている各社のサーバ上でも動きます。

多くの企業研究者が参加されていることからも、経済産業省だけでなく企業の期待の大きさを感じますね。

従来のマルチコア、コンパイラ、APIの研究開発は半導体とIT企業の皆さんと行ってきました。今回のグリーン・コンピューティング・システム研究開発センターでは、トヨタ、デンソーの自動車メーカの皆さん、オリンパスのようなカメラ、医療機械のメーカさん、三菱電機・三菱スペースソフトウェアの重粒子線ガン治療装置のグループの皆さんのように、チップを製品に組込んで使用されるユーザの皆さんも、一緒に研究開発をして頂きます。これによりユーザの皆さんのニーズを把握し、ユーザの皆さんのアプリケーションプログラムを並列化して、そのプログラムを最高速度、最小電力で動かせるアーキテクチャ、コンパイラの研究開発を行うことができると思います。その結果として、チップの素早い実用化、強い競争力を持つ自動車、情報家電、医療機器の開発といったことに繋げられればと考えています。

本センターでは、国立研究所やサーバメーカさんと一緒に災害シミュレーションの並列処理についても研究する計画です。今回の震災でも通信の維持や情報収集といった面で、コンピュータの重要性が改めて認識されました。こうした研究は、今後、ますます重要になってくると思います。その延長線上の目標として、人命を救うコンピュータを作れたらいいと考えています。例えば、地震が起こったら1秒くらいで震源地を特定し地殻変動を推定して、各地域の津波の高さを数秒のうちに計算して人々の携帯、自動車、地域防災システム、マスメディアに自動発信する(インタビュアー注:現在、震源とマグニチュードが判明した段階で津波の高さを割り出すのに、20分程度の計算時間がかかるとの気象庁の報道がありました)。そうしたことが可能になれば、災害時に助かる人は格段に増えるでしょう。建物の耐震設計や火山噴火時の溶岩流シミュレーションなどにも使えるようにしたいですね。

低消費電力で環境に優しいというだけでなく、災害や病気から人の命を救うコンピュータの研究、世の中に役立つプロセッサ=並列化されたアプリケーションプログラムとチップとコンパイラの研究。こうした研究を是非やりたい。産業界の方たちも思いは同じで、今、一生懸命、様々な可能性について話しているところです。


国際競争力の維持に役立つだけでなく、大災害に備えるということにもつながるのですね。

開発する低消費電力マルチコア・メニーコアプロセッサは、災害時には太陽電池でも動かせるコンピュータです。この低消費電力化技術も災害時に役に立つ技術と考えています。

アメリカも、現在、次世代プロジェクト(「ユビキタスHPC」というプロジェクト)で“マルチプラットフォームコンパイラ”という概念を掲げているので、私たちの後を追いかけてきているなと、ひしひしと感じています。消費電力削減にしても、マルチプラットフォームのコンパイラにしても、日本の優位性のあるうちに急いでやりたいというのが、正直なところですね。

低消費電力化という観点から、もう一つ経産省「情報家電用ヘテロジニアスマルチコアプロジェクト」で開発したヘテロジニアスマルチコアについて、少しご紹介します。今までは、一つのチップの上に同じ種類のプロセッサを並べていました。それを、汎用コアと特定の計算に対しては超高速で低消費電力のアクセラレータのような異種のプロセッサをチップ上に集積し、高速化と低消費電力性をさらに高めようという研究です。汎用プロセッサを8個、アクセラレータを7個集積した15コアのRPXというチップを日立さん、ルネサスさん、東工大さんと開発しました。これについては、日立さんがアクセラレータ用のコンパイラを作って下さったので、それとOSCARコンパイラを組み合わせて使える方式を作り自動並列化してみました。1個のSHプロセッサを使ったときの性能を1とすると、8個のSHプロセッサと4つのアクセラレータを使うと自動で27倍になります。具体的には、ヘテロはチップ中の構成要素が違うので制御が難しくなるのですが、OSCAR API(Application Program Interface)をヘテロ用に拡張して自動制御できるようにしたのです。

こういう研究成果に基いて、今後、アクセラレータも集積したメニーコアのチップを作ってみたいと思っていますが、まずは、NEDOの低消費電力メニーコアの先導研究で、64コア以上の集積を目指して、富士通さんとルネサスさんが基本アーキテクチャ設計を担当して下さいました。富士通さんは以前スパコンで使用していたベクトルプロセッサを改良し、組込機器で必須なマルチメディア処理でも高速に動作する超低省電力メニーコアプロセッサを私たちと協力して、3ヶ月で設計して下さいました。そのクロスバーベースのプロセッサ間相互接続網シミュレーションを、御社のBluespec で行なったのですが、短期間でプロトタイピングして評価できるソフトウェアツールだと感心しました。設計・評価まで3ヶ月という時間的にタイトな仕事だったのですが、富士通さんがこれほど短い期間で完成できたのは、Bluespecの能力に拠るところが大きいと感じています。

ありがとうございます。ところで、最先端のコンピュータを研究するために必要なコンピュータということになると、大変な性能が要求されそうですね。

私たちの研究室のコンピュータ環境は、従来より国内外のお客様から、大学研究室としては世界最高レベルとよく言われます。本センターでも、新たに日立さんのPower7ベース128コアSMPに富士通さんのSparc VIIベース256コアSMPがありますが、256コアSMPは今のところ世界最高数のSMPシステムと思います。我々のマシンは、並列プログラムが容易ということに重みを置いて整備しており、共同研究をする企業の皆様にも一緒に使って頂き、最先端の成果を上げたいと考えています。

また既存サーバや私たちが今後開発して行くコンピュータを守るために、センターの建物も早稲田大学では初めての免震構造になっています。地震だけでなく産学連携で重要なセキュリティ対策も万全で、共同研究に参加して下さっている各企業の秘密は厳重に守れるように設計されています。

素晴らしい研究環境が整っていると感じます。ここまでくるにはいろいろなご苦労もあったことと思いますが、これからの抱負など、お聞かせ願えますか。

OSCARコンパイラも現在の姿になるまでに、ほぼ25年かかっています。少しずつ少しずつみんなでプログラミングを書いてきました。もうすぐ40万行に達すると思います。一つ一つ書いたプログラムを動かしてみて、バグが出たら修正して、ということを繰り返してきたんです。その結果、私たちのコンパイラを使えば、1プロセッサ用のプログラミングがあれば、2コア、4コア、8コアと自動的にコンパイルできるようになりました。手作業では、4コアは4コア用、8コアは8コア、16コアは16コアと全部別々にプログラミングをしなければなりませんから、私たちのコンパイラがどれほど便利なものかわかって頂けると思います。

そのコンパイラの力で、電力当たりの性能が世界一のコンピュータを作るという夢は実現されつつあります。しかし、その技術は最終的には産業に結び付けていく必要があります。アップル社との比較でよく言われることですが、iPodやiPhoneのような製品が日本で生まれないことが問題なんです。今、日本企業にとって重要なのは、製品企画力なのではないかと思います。それが次の課題です。「どういう風に我が国の持つ良い技術を使うか」、そこに頭を使うべきですね。世の中の人たちに喜ばれる製品に結びつけることが大事なのです。次世代も付加価値の高い製品が生み出せ、それにより利益を出し、また最先端技術に投資し、国民が持続的にご飯を食べていけるように。そういうことですね。

日本は資源の無い国で、しかも食料自給率は低い。何かで外貨を稼いでいかないと、そのうち食料も買えなくなる、ということになりかねません。

その通りです。今は厳しい財政事情から、経費はできるだけカットしろという主張が大勢で、科学技術や教育も聖域どころか、削減対象として厳しい目が向けられています。しかし、余りにその方向ばかりに突っ走ってしまうと、次世代技術のための「種」を失い、近い将来に産み出せるものがなくなってしまう。それは、おそらく長期にわたる日本の国力低迷につながるでしょう。苦しいときでも次世代への投資は必要なのではないでしょうか。それほど高額でなくてもいいのですから…。今は、特に教育方面への投資などは、ややないがしろにされているような気がしないでもありませんね。将来の国は子供たちが作る。その子たちがきちんとした技術を持ち、世界と競っていけるようにしておかないと。それも、私たち、現在の大人の責任です。

コンピュータの研究者としてコンピュータを作る以上、世の役に立つコンピュータを作りたい。環境に優しく、人の命を救えるようなコンピュータを作っていきたい。そして、次世代に技術を伝承し、日本の技術力を維持していく。それが、このコンピュータセンターの課題であり使命だと考えています。

◆インタビュアーから一言

笠原先生の開発したコンパイラが使われると、処理速度が速く充電間隔が長い製品が産み出されるということです。もう遠くない将来、先生の研究が活かされた製品が市場にどんどん出てくるかもしれません。コンピュータの発達は、これまでも私たちの生活を驚くべき速さで変えてきましたが、それでもまだ、多くの新しい可能性が開かれているのだ、ということに、改めて驚きを覚えました。笠原先生の研究が、私たちが毎日使っている身近な製品の姿を劇的に変えるその日を、楽しみに待っています。

2/5

(3/17)