第133号
トップ  > 科学技術トピック>  第133号 >  ディープラーニングに基づく産業用仕分けロボットの迅速な視覚的識別と位置測定アルゴリズム(その1)

ディープラーニングに基づく産業用仕分けロボットの迅速な視覚的識別と位置測定アルゴリズム(その1)

2017年11月2日

伍 錫如:桂林電子科技大学電子工程与自動化学院准教授、桂林電子科技大学広西自動検出重点実験室、蘇州大学機電工程学院

研究分野は非線形システム制御、ニューラルネットワーク、ロボット制御。

黄 国明:桂林電子科技大学電子工程与自動化学院修士生、桂林電子科技大学広西自動検出重点実験室

研究分野は機械学習、マシンビジョン、ディープラーニング。

孫 立寧:蘇州大学機電工程学院教授

研究分野はナノスケールマイクロドライブおよびマイクロマニピュレータ、産業用ロボット技術、医療ロボット、ヒューマノイドアームおよびロボットの構成と制御。

概要:

 産業用仕分けロボットは、複雑な目標物の識別に時間がかかり、精度が低く、位置測定が正確でないといった問題を抱えている。これらの問題を解決するべく、本稿ではディープラーニングに基づく迅速な識別と位置測定のアルゴリズムを提起した。産業用HDカメラを使って目標物の画像情報を取得し、画像をグレースケール化、フィルタリングし、大津の二値化処理を行った上で、さらに境界画素検出アルゴリズムによる位置測定を行い、目標物の画像を分割した。また、すでにトレーニングされたディープ畳み込みニューラルネットワーク(CNN)を利用して目標物の識別を行い、目標物の位置座標およびその所属カテゴリーを取得し、産業用ロボットによる仕分けを実現した。実験・テストにおいて、複雑な文様を持つ中国将棋の駒を例に位置測定と識別を行った結果、位置測定アルゴリズムの誤差は 0.8 mm未満、識別速度は最速で 0.049 秒/個に達し、実験環境における識別精度は 98% 以上を維持した。これは、このアルゴリズムが良好な精度と安定性を持つことを意味している。

キーワード:ディープラーニング;畳み込みニューラルネットワーク;視覚的識別;位置測定アルゴリズム;産業用仕分けロボット

1 はじめに

 ディープラーニングの概念は、トロント大学の人工知能専門家であるHinton教授が2006年に提起した[1-2]。Hinton教授はディープニューラルネットワークを迅速にトレーニングするアルゴリズムを提起し、人工知能分野においてディープラーニング研究ブームを巻き起こした。ディープラーニングで一般的に用いられる数学モデルには、教師あり学習を採用したディープ畳み込みニューラルネットワークおよび、半教師あり学習を採用したスタックドオートエンコーダ・ネットワークとディープビリーフ・ネットワークがある。ディープラーニングモデルはすでに、Bengio[3]らによって、BP(誤差逆伝播法)ニューラルネットワークやサポートベクターマシン(SVM)などの浅層ネットワークよりも優れた非線形近似能力と汎化能力を持つことが証明されており、複雑なパターン認識(音声認識、複雑な画像認識、複雑な制御システムモデリングなど)において、高い性能を発揮する[4-7]。スタンフォード大学人工知能研究所の呉恩達[8]らはディープラーニングの手法を用いて、コンピュータに「猫」という概念を自ら獲得させた。ニューヨーク大学の LeCun[9]らは畳み込みニューラルネットワークに基づき開発した手書き文字識別システムの商用化に成功している。Googleの人工知能専門チームDeepMindがディープラーニングアルゴリズムに基づいて設計したコンピュータ囲碁プログラムAlphaGoは2016 年 3 月、韓国人プロ囲碁棋士のイ・セドル氏との対局に4:1で勝利し[10]、ディープラーニング技術に対する社会各界からの注目が高まった。

 ロボットは画像の検出・識別技術を通じ、視覚システムによる目標物の迅速な位置測定と識別を実現している[11-14]。従来の検出・識別技術には、分割に基づく手法、特徴分析手法、画像認識・意思決定・分類手法、モデル学習と形状マッチングの手法などがある[13]。これらの手法は、産業分野で幅広く応用されている。王丹[15]らはヒトの視覚システムの処理メカニズムをベースに、 HOG(Histograms of Oriented Gradients)を用いて SVMと組み合わせ、 人間の動きの生体工学的な識別と分類の手法を提起した。実験の結果、同アルゴリズムは違いが比較的大きい動きの識別効果は一般的な手法を上回ることが明らかになったが、似たような動きの識別はまだ改善が待たれる。陳守煜[16]らは相対差関数に基づく可変ファジィ法を利用して、目標物の識別に使われるマルチセンサー情報を融合した可変ファジィ識別モデルを確立した。Schmitt[17]らはロボットの運動戦略および離散コサイン変換に焦点を当て、動的環境に基づく目標物識別アルゴリズムを提起した。実験によると、同アルゴリズムの性能は良好である。聶海濤[18]らは、複雑な背景ではリアルタイムで精確な顔認識ができないという従来の顔認識システムの問題を解決するため、迅速な SIFT(スケール不変特徴変換)アルゴリズムをファジィ制御と結びつけた顔認識手法を提起した。閉ループファジィ制御システムを導入することによってSIFT の特徴ミスマッチングを減らし、顔認識率を高めた。実験の結果、複雑な環境下における顔認識の精度が 10%向上した。

 王紅濤[19]らは、エッジマッチングに基づく目標物の識別手法を提起した。これは、 Canny法を用いて検出したエッジ情報をマッチングの特徴とし、改良されたハウスドルフ距離を画像マッチングの類似度とするというものだ。検索においては、アダプティブジェネレーションギャップのある置換戦略の遺伝アルゴリズムを応用した。実験の結果、同アルゴリズムはマッチングのプロセスを向上させ、並進・遮蔽された、あるいは一部が遮蔽された目標物の識別問題を効果的に解決した。耿慶田およびその研究チーム[20]はカラーモデルに基づく炎の画像の元素分類アルゴリズムを提起した。まずRGB モデルの各チャネルに対して平均値を算出し、新たな画像サンプルを取得する。さらにYCbCr色空間を利用して炎の画像の元素分類モデルを確立する。新たな規則では画像の明るさの変化によって生まれるノイズが弱まり、炎の画素の検出率が高まった。

 しかしながら、既存の研究の多くはシンプルな輪郭を持つ目標物を対象としており、産業用部品の複雑化に伴い、従来の位置測定・識別アルゴリズムは位置測定の誤差が大きい、識別スピードが遅い、精度が低いといった課題に直面するようになった。現在、複雑な目標物の仕分けは依然として手作業の段階にある。産業用ロボットによる複雑な目標物の自動仕分けを実現するため、本稿ではディープラーニングに基づく視覚的識別と位置測定のアルゴリズムを提起する。画像処理技術と組み合わせ、境界画素検出アルゴリズムおよびディープニューラルネットワーク識別トレーニングアルゴリズムを駆使して目標物の精確な位置測定と画像分割を行い、CNN モデルを応用して位置測定識別アルゴリズムを構築した。シミュレーション実験の結果、同アルゴリズムは高い安定性と精度を持つことが分かった。

その2へつづく)

主要参考文献:

[1]. Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.

[2]. Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786):504-507.

[3]. LeCun Y, Bengio Y, Hinton G E. Deep learning[J]. Nature, 2015, 521(7553): 436-444.

[4]. Fukushima K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position[J]. Biological Cybernetics, 1980, 36(4): 193-202.

[5]. Sanchez-Riera J, Hua K L, Hsiao Y S, et al. A comparative study of datafusion for RGB-Dbased visual recognition[J].Pattern Recognition Letters, 2016, 73(10): 1-6.

[6]. Wang A R, Lu J W, Cai J F, et al. Large-margin multi-modal deep learning for RGB-D object recognition[J]. IEEE Transactions on Multimedia, 2015, 17(11): 1887-1898.

[7]. Wu D, Wu J S, Zeng R, et al. Kernel principal component analysis network for image classification[J]. Journal of Southeast University, 2015, 31(4): 469-472.

[8]. Markoff J. How many computers to identify a cat? 16000[N]. New York Times, 2012-06-25.

[9]. LeCunY,BoserB,DenkerJS,etal.Backpropagationappliedto handwrittenzipcoderecognition[J].NeuralComputation, 1989, 1(4): 541-551.

[10]. 田淵棟.阿法狗囲棋系統的簡要分析 [J].自動化学報,2016,42(5):671-675. Tian Y D. A simple analysis of AlphaGo[J]. Acta Automatica Sinica, 2016, 42(5): 671-675.

[11]. 倪鶴鵬,劉亜男,張承瑞,等.基于機器視覚的 Delta 機器人分揀系統算法 [J].機器人,2016,38(1):49-55. Ni H P, Liu Y N, Zhang C R, et al. Sorting system algorithms based on machine vision for Delta robot[J]. Robot, 2016, 38(1):49-55.

[12]. 郝明.機器視覚在機器人雑乱工件分揀中的応用 [D].瀋陽:瀋陽工業大学,2015. Hao M. An application of machine vision on sorting clutter workpiece by robot[D]. Shenyang: Shenyang University of Technology, 2015.

[13]. 王耀南,陳鉄健,賀振東,等.智能制造装備視覚検測控制方法総述 [J].控制理論輿応用,2015,32(3):273-286. Wang Y N, Chen T Z, He Z D, et al. Review on the machine vision measurement and control technology for intelligent manufacturing equipment [J]. Control Theory and Applications, 2015, 32(3): 273-286.

[14]. 王殿君.基于視覚的中国象棋棋子識別定位技術 [J].清華大学学報:自然科学版,2013,53(8):1145-1149. Wang D J. Recognition and positioning technique of Chinese chess based on vision[J]. Journal of Tsinghua University: Science and Technology, 2013, 53(8): 145-1149.

[15]. 王丹,張祥合.基于 HOG 和 SVM 的人体行為倣生識別方法 [J].吉林大学学報:工学版,2013,43(S1):489-492. Wang D, Zhang X H. Biomimetic recognition method of human behavior based on HOG and SVM[J]. Journal of Jilin University: Engineering and Technology Edition, 2013, 43(S1):489-492.

[16]. 陳守煜,胡吉敏.可変模糊方法及其在工件識別中的応用[J].系統工程輿電子技術,2006,28(9):1325-1328. Chen S Y, Hu J M. Variable fuzzy method and its application in parts recognition[J]. Systems Engineering and Electronics, 2006, 28(9): 1325-1328.

[17]. Schmitt R, Cai Y. Recognition of dynamic environments for robotic assembly on moving workpieces[J]. International Journal of Advanced Manufacturing Technology, 2014, 71(5-8):1359-1369.

[18]. 聶海濤,竜科慧,馬軍,等.基于快速 SIFT 算法和模糊控制的人臉識別 [J].吉林大学学報:工学版,2016,46(2):549-555. Nie H T, Long K H, Ma J, et al. Face recognition based on fast scale invariant feature transform algorithm and fuzzy control[J]. Journal of Jilin University: Engineering and Technology Edition, 2016, 46(2): 549-555.

[19]. 王紅濤,傅衛平,康業娜.工件図像識別的辺縁匹配方法研究 [J].儀器儀表学報,2008,29(5):986-991. Wang H T, Fu W P, Kang Y N. Study of edge matching approach to workpiece image recognition[J]. Chinese Journal of Scientific Instrument, 2008, 29(5): 986-991.

[20]. 耿慶田,于繁華,趙宏偉,等.基于顔色特征的火焔検測新算法 [J].吉林大学学報:工学版,2014,44(6):1787-1792. Geng Q T, Yu F H, Zhao H W, et al. New algorithm of flame detection based on color features[J]. Journal of Jilin University: Engineering and Technology Edition, 2014, 44(6): 1787-1792.

※本稿は伍錫如、黄国明、孫立寧「基于深度学習的工業分揀機器人快速視覚識別与定位算法」(『機器人』2016年第38巻第6期、pp.711-719)を『機器人』編集部の許可を得て日本語訳・転載したものである。記事提供:同方知網(北京)技術有限公司