第134号
トップ  > 科学技術トピック>  第134号 >  脳型知能研究の回顧および展望(その3)

脳型知能研究の回顧および展望(その3)

2017年11月14日

曽 毅:中国科学院自動化研究所脳型知能研究センター、中国科学院脳科学・知能技術卓越創新センター

博士、研究員。主な研究分野は、脳型知能、認知脳計算モデリング、言語理解、知識表現および推論。

劉 成林:中国科学院自動化研究所脳型知能研究センター、中国科学院自動化研究所パターン認識国家重点実験室、中国科学院脳科学・知能技術卓越創新センター

博士、研究員。主な研究分野はパターン認識、脳型情報処理。

譚 鉄牛:中国科学院自動化研究所パターン認識国家重点実験室、中国科学院自動化研究所知的認識・計算研究センター、中国科学院脳科学・知能技術卓越創新センター

博士、研究員。中国科学院院士、英国王立工学アカデミー外国人会員。主な研究分野は人工知能、パターン認識、コンピュータビジョン、バイオメトリック認証、ネットワークデータの理解および安全。

その2よりつづき)

3 脳型知能の研究の現状

 人工知能の研究者は、脳の情報処理メカニズムがもたらすだろう長所を参考にすることをすでに意識している。また、脳科学と神経科学の進展も、人工知能において脳の情報処理メカニズムを参考にする上で必要な基礎を提供している(例えば、さまざまなタイプのニューロンについて電気生理学的検査を行うことによって、その放電活動モデルを採用することがすでに可能になっている。このほか、機能的カルシウム画像技術や核磁気共鳴設備等の発展により、研究者たちはミクロニューロンやメゾスコピック神経回路群、マクロ脳等のさまざまな尺度から脳神経系の画像データを得られるようになった)。脳科学と神経科学の研究者たちも脳の情報処理に関する認識をより広範な科学分野に利用しようと努めている。この分野の発展は情報技術と知能技術により推進されたものだが、逆にいえば脳科学と神経科学も次世代情報技術の変革にインスピレーションをもたらしている。

 このような背景において、学会の提唱と政府の資金援助により、ヨーロッパ、米国、日本等の国々で国家レベルの脳プロジェクトが推進されており、いくつかの重大研究計画においては脳型知能研究を戦略的地位においている。このうち、2013年にスタートしたEUのHuman Brain Projectにおける核心的な研究目標は、スーパーコンピュータにより人間の脳のモデルを構築し、コンピュータシミュレーションの方法によって人間の脳がどのように動作するかを研究した上で、未来のコンピュータシステムとロボット技術にインスピレーションを提供し、その変革を促すことである[9]。また、2013年にスタートした米国の脳計画(BRAIN)では、もともとは人工知能研究との緊密な連携を計画していなかったが、後に米国インテリジェンス高等研究計画活動(IARPA)が2014年にスタートさせた最新の知能機械プロジェクトMICrONS計画(Machine Intelligence from Cortical Networks)において、脳皮質研究によって最新の知能機械にインスピレーションをもたらし、特に伝統的な機械学習に変革をもたらすことを図っている。このプロジェクトは2015年に正式にスタートし、すでに米国の脳計画に組み入れられている。

 具体的な研究の進展に関しては、学術界と工業界のいずれにおいても、2010年以降に脳型知能に関する研究の新たなブームを迎えている。その関連研究は、脳型モデルと脳型情報処理、脳型チップと計算プラットフォームの2つの分野に大きく分類できる。

3.1 脳型モデルと脳型情報処理

 ディープニューラルネットワークの多層構造と階層化抽象メカニズムは人間の脳の情報処理における階層化抽象メカニズムと共通性があり、その関連研究が近年、学術界と工業界でブレイクスルー的な成果を上げている。スタンフォード大学のNgとGoogle社のDeanが共同で主催するGoogle Brainプロジェクトはディープニューラルネットワークを採用し、CPUコア16,000個を利用して構築された大規模な並列計算プラットフォーム上で画像識別分野におけるブレイクスルーを実現した[39]。その後、マイクロソフトリサーチ(MSR)や百度研究院も音声と画像分野の研究においてディープニューラルネットワークを採用し(文献[40]で示されるように、百度の音声認識システムの相対エラー識別率は25%低下した)、視聴覚情報処理分野における識別効果を急速に高めた。

 神経科学者とディープラーニング研究者が共同で設立したDeep Mind社は深層強化学習(Deep Reinforcement Learning)モデルを発表し、これをベースに開発した自律学習能力を持つニューラルネットワークシステムは環境とのインタラクションとたゆみない試行錯誤によって49種類のコンピュータゲームを自力でマスターすることから、人間のゲームプレーヤーに迫るか、あるいは人間を超越している[41]。そのネットワークアーキテクチャの中核は畳み込みニューラルネットワークと強化学習アルゴリズムの融合である。この方法の長所は、重要な特徴を手動で選ぶ必要がなく、大規模画像をディープネットワーク上で訓練させれば良好な自己適応性を示すことができる。しかし、その欠点は、長い目で見た計画が必要なゲームではパフォーマンスが劣ることである。それは、強化学習アルゴリズムでは、動作選択を行う前、主に意識決定の直前の最も近い状態に注目するためである。

 ディープニューラルネットワークは、情報処理の感知において大きなブレイクスルーを実現し、応用の効果も見られたが、現在なお発展上のボトルネックに直面している。その一つ目は訓練効率の問題であり、ほとんどの状況下では大量のサンプルデータで訓練されない限り充分な汎化性能が保証されない。二つ目はネットワークのロバスト性不足であり、あるタイプに明らかに属さないモデルであるのに、非常に自信を持ってそのタイプに属すと判断するおそれがある[42]。これに加え、多くの応用場面においては、データにも問題にも強い時系列性があることが多いが、既存のディープニューラルネットワークは時系列問題の処理を得意としない。一方、再帰型ニューラルネットワーク(Recurrent Neural Network, RNN)はまさに時系列信号に対して設計されたもので、特に長期短期記憶(Long-Short Term Memory, LSTM)に基づく再帰型ニューラルネットワークは、近年、時系列信号分析(例えば音声認識、手書き文字認識)の最も有効なモデルとなっている[43]。しかしながら、その欠点も汎化性能の保証には大量の訓練サンプルが必要なことである。

 カナダ・ウォータールー大学のEliasmith研究チームが開発したSPAUN脳シミュレーションマシンは多くの脳部位による共同計算の分野における代表的な研究である。この研究グループは、以前にニューラルエンジニアリングフレームワーク理論(NEF)を発表したことがあり、機能関数の定義により、かつ、ニューラルネットワークに近い関数を併用するという考え方で神経の情報処理と認知機能の実現との間の連携を構築する[44]。2012年、この研究チームは過去の蓄積と新たに発表したSPAUN(Semantic Pointer Architecture Unified Network)に基づき、250万個のバーチャルニューロンを約10個のモジュール化した脳部位に組織し、かつ、これをベースにワークフロー式の脳部位の計算回路を構築し、筆跡シミュレーションや論理を利用した穴埋め問題の解答、簡単な視覚処理、帰納推論、強化学習等の能力へと発展させ、複数の脳部位の協同に基づいて多くの特定機能を実現できるニューラルネットワークを実現した[45]。しかしながら、このプロジェクトの問題は、さまざまなタスクの実現のために異なるワークフローを人工で構築したために、脳部位モデル間の協同がまったく自己組織化されなかったことである。これでは人間の脳の作業メカニズムとは大きな隔たりがある。つまり、SPAUNによる脳部位の計算回路は本当の意味での自己適応性と汎用性を持たない上に、さまざまなタスクに応じてあらかじめ人工的に組織し、定義する必要がある。

 Hawkinsら[46-47]が発表した階層的時間的記憶(Hierarchical Temporal Memory)モデルでは、脳の情報処理メカニズムをさらに深く参考にしており、それはこのモデルでは脳皮質の6層の組織構造とさまざまな層のニューロンとの間の情報伝達メカニズムや皮質柱の情報処理原理等を参照している点に表れている。このモデルは時系列情報を持つ問題の処理に非常に適しており、物体認識と追跡、交通流量の予測、人間の異常行動の検出等の分野で広く応用されている。

3.2 脳型チップと計算プラットフォーム

 ニューロンの情報処理メカニズムを参考として脳型チップと計算プラットフォームを発展させることは、ハードウェアのレベルで脳型知能のアドバンテージを発揮する上で大きな潮流となっている。現在、欧米諸国でこの分野の幅広い研究が行われている。イギリス・マンチェスター大学のSpiNNakerプロジェクトでは、ARMチップを利用し、かつ、ニューロン放電モデルを参考として脳型計算のハードウェア・プラットフォームを構築した。この研究の特徴は、少ない物理結合で迅速にピークパルスを伝達できることである[48]。このプロジェクトは、すでにEUのヒューマン・ブレイン・プロジェクトの一部となっている。

 脳型チップと計算プラットフォーム研究の動機は、脳神経系の作業原理を参考に、高性能かつ低エネルギー消費の計算システムを実現することにあり、最終的な目標としてはさらに高い知能に達することである。2014年にIBMはTrueNorthチップを発表したが、これはニューロンの作業原理とその情報伝達メカニズムを参考に、ストレージと計算の融合を実現したものである。当該チップは4096個の核と100万個のニューロン、2.56億個のシナプスを含み、エネルギー消費は70ミリワット未満で、超低エネルギー消費による多目的学習任務を実行できる[49]。米国のカリフォルニア大学とニューヨーク州立大学ストーニーブルック校のPreziosoら[50]は、メモリスタに完全に基づくニューラルネットワークチップを開発した。現時点では、このチップで3×3画素の黒白画像が認識・学習できる。クアルコム社もニューラルプロセッサNPUを発表し、かつ、これをスマートフォンの使用行動学習やロボット開発等の分野に応用している。このほか、EUのヒューマン・ブレイン・プロジェクトの中核的構成部分の一つとして、ドイツ・ハイデルベルク大学の発表したBrainScaleSプロジェクトも、脳型メカニズムと高性能計算の面で進展を導いている。その基本的な考え方はウェハー上に超大規模シナプスを集積させ、通信代価を減らすことによって計算性能を高めるというものである[51]。脳型チップと計算システムの国際的進展および現状については、文献[52]でより全体的な説明がなされている。

 中国でのこの分野の研究はまだ萌芽期にある。中国科学院計算技術研究所の陳云霽・研究チームはディープラーニング・チップを開発した[53-54]。このチップでは、ディープラーニングの実現のためにカスタマイズ化という最適化を行っており、このうちDaDianNaoではマルチコアシステム構造を採用し、ディープラーニングのタスクにおいてシングルGPUの450.65倍に達し、64ノードのエネルギー消費を150.31倍低減できる[54]。DianNaoシリーズのチップでは、神経系の作業原理を参考に、エネルギー消費の面で一連のブレイクスルーを実現している。将来、この研究チームもさらに多くの脳の情報処理メカニズムを融合させ、既存のディープラーニング・チップを改善することを計画している。

3.3 脳型知能研究関連の研究機関

 脳科学と神経科学、人工知能、コンピュータ科学の深い融合と互いに参考とすることは、科学研究分野における近年の重要な国際的趨勢となっている。最近では、中国内外の関連研究期間により、脳型知能と密切に関連する一連の学際的科学研究センターが設立されている。

 スイス連邦工科大学ローザンヌ校(EPFL)が設立した脳・心理研究所(Brain Mind Institute)の研究チームには、基礎神経科学、計算論的神経科学、人工知能、ロボット関連の研究者が所属し、スイスのBlue Brain Project(BBP)やEUのヒューマン・ブレイン・プロジェクトの関連研究に共同で従事している。

 米国マサチューセッツ工科大学が設立した脳・心理・機械研究センター(Center for Brain, Mind and Machine, MIT)は、有名な計算論的神経科学者であり、人工知能の専門家であるPoggioが率いている。この研究センターはアメリカ国立科学財団により支援され、コンピュータ科学者や認知科学者、神経科学者を集結させ、彼らの深い協力により知能科学やエンジニアリングの研究を行うことを趣旨としている。現在の主な研究テーマはパーセプトロンによる学習、推論、計算論的神経科学である。スタンフォード大学でも心理・脳・計算研究センター(Stanford Center for Mind, Brain and Computation)が設立され、認知心理学者であり、人工ニューラルネットワークの専門家であるMcClellandが率いている。このセンターでは理論、計算および実験研究の方法を集積し、感知、理解、指向、感受、意思決定に関する脳神経の情報処理メカニズムの研究に力を入れている。

 知能科学および技術研究の全面的向上のために、中国科学院自動化研究所は全研究所の研究力を集約させた脳型知能の研究戦略を提示し、2015年4月に脳型知能研究センターを設立した。このほか、清華大学脳型計算研究センター、北京大学脳科学・脳型研究センター、上海交通大学脳模倣計算・知能機械研究センター、厦門大学・福建省脳模倣知的システム重点実験室も設立されている。最近、中国科学院では中国科学院脳科学・知能技術卓越創新センターが設立された。当センターは神経科学研究所、自動化研究所等の共同建設によるもので、脳科学と神経科学、認知科学、人工知能、コンピュータ科学等のさまざまな分野の研究を高度かつ実質的に融合させ、脳科学の高度な模索と脳型知能のイノベーション・研究を実現する。

その4へつづく)


② The machine intelligence from cortical networks project: http://www.iarpa.gov/index.php/research-programs/microns/microns-baa

③ Hof R D. Neuromorphic Chips. MIT Technology Review, 2014. http://www.technologyreview.com/featuredstory/526506/neuromorphic-chips/

参考文献:

[9]. Markram H, Meier K, et al. The Human Brain Project: A Report to the European Commission. Technical Report, 2012

[39]. Le Q V, Ranzato M, Monga R, et al. Building high-level features using large scale unsupervised learning//Proceedings of the 29th International Conference on Machine Learning (ICML 2012). Edinburgh, UK, 2012: 1-11

[40]. Yu Kai, Jia Lei, Chen Yu-Qiang, Xu Wei. Deep learning: Yesterday, today, and tomorrow. Journal of Computer Research and Development, 2013, 50(9): 1799-1804(in Chinese) (余凱, 賈磊, 陳雨強, 徐偉. 深度学習的昨天、今天和明天. 計算機研究與発展, 2013, 50(9): 1799-1804)

[41]. Mnih V, Kavukcuoglu K, Silver D, et al. Human-level control through deep reinforcement learning. Nature, 2015, 518: 529-533

[42]. Nguyen A, Yosinski J, Clune J. Deep neural networks are easily fooled: High confidence predictions for unrecognizable images//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2015). Boston, USA, 2015: 427-436

[43]. Graves A, Liwicki M, Fernández S, et al. A novel connectionist system for unconstrained handwriting recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(5): 855-868

[44]. Eliasmith C, Anderson C H. Neural Engineering: Computation, Representation, and Dynamics in Neurobiological Systems. Cambridge, USA: The MIT Press, 2003

[45]. Eliasmith C, Stewart T C, Choo X, et al. A large-scale model of the functioning brain. Science, 2012, 338(6111): 1202-1205

[46]. Hawkins J. On Intelligence. New York, USA: Times Books, 2004

[47]. George D, Hawkins J. Towards a mathematical theory of cortical micro-circuits. PLoS Computational Biology, 2009, 5(10): e1000532

[48]. Furber S B, Galluppi F, Temple S, Plana L A. The SpiNNaker project. Proceedings of the IEEE, 2014, 102(5): 652-665

[49]. Merolla P A, Arthur J V, Alvarez-Icaza R, et al. A million spiking-neuron integrated circuit with a scalable communication network and interface. Science, 2014, 345(6197): 668-673

[50]. Prezioso M, Merrikh-Bayat F, Hoskins B D, et al. Training and operation of an integrated neuromorphic network based on metal-oxide memristors. Nature, 2015, 521(7550): 61-64

[51]. Probst D, Petrovici M A, Bytschok I, et al. Probabilistic inference in discrete spaces can be implemented into networks of LIF neurons. Frontiers in Computational Neuroscience, 2015, 9, 13

[52]. Gu Zong-Hua, Pan Gang. Neuromorphic brain-inspired computing research. Communications of the CCF, 2015, 11(10): 10-20(in Chinese) (顧宗華, 潘綱. 神経擬態的類脳計算研究. 計算機学会通訊, 2015, 11(10): 10-20)

[53]. Chen T S, Du Z D, Sun N H, et al. DianNao: A small-footprint high-throughput accelerator for ubiquitous machine-learning// Proceedings of the 19th International Conference on Architectural Support for Programming Languages and Operating Systems. Salt Lake City, USA, 2014: 269-284

[54]. Chen Y J, Luo T, Liu S L, et al. DaDianNao: A machine-learning supercomputer// Proceedings of the 47th Annual IEEE/ACM International Symposium on Microarchitecture (MICRO). Cambridge, UK, 2014: 609-622

※本稿は曽毅,劉成林,譚鉄牛「類脳智能研究的回顧与展望」(『計算機学報』2016年第39巻第1期、pp.212-222)を『計算機学報』編集部の許可を得て日本語訳・転載したものである。記事提供:同方知網(北京)技術有限公司