Publications

著書

  1. ロボットテクノロジー, オーム社,ISBN978-4274210723.(共著,5編3章担当)
  2. Albert Causo, Kentaro Takemura, Jun Takamatsu, Tsukasa Ogasawara, Etsuko Ueda, Yoshio Matsumoto: “Predictive Tracking in Vision-based Hand Pose Estimation using Unscented Kalman Filter and Multi-viewpoint Cameras,” in Daisuke Chugo, ed. : Human-Robot Interaction, pp.155-170, I-Tech, 2010.2.
  3. OpenCVプログラミングブック,奈良先端科学技術大学院大学OpenCVプログラミングブック制作チーム,毎日コミュニケーションズ,2007.9.

論文誌

  1. Yuki Uratsuji, Kentaro Takemura, Jun Takamatsu, Tsukasa Ogasawara, “Mobility assistance system for an electric wheelchair using annotated maps,” Advanced Robotics, Vol.29, No.7 pp.481-491, 2015.
  2. Kentaro Takemura, Kenji Takahashi, Jun Takamatsu, Tsukasa Ogasawara, “Estimating 3-D Point-of-Regard in a Real Environment Using a Head-Mounted Eye-Tracking System,” IEEE Transactions on Human-Machine Systems, Vol.44, Issue 4, pp.531-536, 2014.
  3. Kentaro Takemura, Tomohisa Yamakawa, Jun Takamatsu and Tsukasa Ogasawara, “Estimation of a focused object using a corneal surface image for eye-based interaction ,” Journal of eye movement research, 7(3):4, pp.1-9, 2014.
  4. Yutaka Kondo, Kentaro Takemura, Jun Takamatsu and Tsukasa Ogasawara, “Gesture-centric Android System for Multi-party Human-Robot Interaction,” Journal of Human-Robot Interaction,  Vol. 2, No. 1, pp. 133-151, 2013.2.
  5. 近藤豊,竹村憲太郎,高松淳,小笠原司:”データベースとオンラインプラニングを統合した高速応答可能なジェスチャ生成”,日本ロボット学会,Vol.30,No.9, pp.899-906, 2012.11.
  6. 竹村憲太郎,伊藤晃大,高松淳,小笠原司:“常時装着型ロボットインタフェースのためのアクティブ骨導音センシング”, 日本ロボット学会誌, Vol.30, No.8, pp.745-751, 2012.10.
  7. T.Suenaga, K.Takemura, J.Takamatsu, T.Ogasawara: “Data Communication Support for Reusability of RT-Components -Converter Classification and Prototype Supporting Tool-,” Journal of Robotics and Mechatronics, Vol.24, No.1, pp.64-70,2012.2.
  8. 竹村憲太郎,小橋優司,末永剛,高松淳,小笠原司: “頭部自由運動状況下における三次元注視点推定と注視軌跡の可視化手法”,ヒューマンインタフェース学会論文誌,Vol.13,No.1,pp. 83-90,2011.2.
  9. 山本和樹,上田悦子,末永剛,竹村憲太郎,高松淳,小笠原司: “ピアノ演奏における自然な手指動作CGの自動生成”,日本バーチャルリアリティ学会論文誌,Vol.15,No.3,pp.495-502,2010.9.
  10. 荒木天外,竹村憲太郎,怡土順一,松本吉央,高松淳,小笠原司: “汎用三次元環境地図を用いた移動ロボットナビゲーションのための地図生成”,日本ロボット学会誌,Vol.28,No.1,pp.106-111,2010.1.
  11. A. Causo, E. Ueda, K. Takemura, Y. Matsumoto, J. Takamatsu and T. Ogasawara: “User-adaptable Hand Pose Estimation Technique for Human Robot Interaction,” Journal of Robotics and Mechatronics, 21(6), pp. 739-748, 2009.9.
  12. 山城容一朗,怡土順一,竹村憲太郎,松本吉央,高松淳,小笠原司: “ビューシーケンスに基づく照明変化に頑健な屋内外ナビゲーション”,日本ロボット学会誌,Vol.27,No.7,pp.768-773,2009.9.
  13. 松本吉央,怡土順一,竹村憲太郎,小笠原司: “リアルタイム顔・視線計測システムの開発と知的インタフェースへの応用”,情報処理学会論文誌コンピュータビジョンとイメージメディア,Vol.47,No.SIG15(CVIM16),pp.10-21,2006.10.
  14. 竹村憲太郎,松本吉央,小笠原司: “複数人の視線計測に基づく「場の注意」の推定”,ヒューマンインタフェース学会論文誌,Vol.8,No.1,pp.185-194,2006.2.
  15. 竹村憲太郎,松本吉央,小笠原司: “ドライバ行動解析のための非侵襲な注視計測システムの開発”,日本機械学会論文集,C編,Vol.71,No.702,pp.519-524,2005.2.

国際会議

  1. Kenta Yamagishi, and Kentaro Takemura, “A hybrid eye-tracking method using multispectral camera,” Proceedings of 2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC), pp.1529-1534, 2017.
  2. Sara Suda, Kenta Yamagishi, and Kentaro Takemura, “User Calibration-free Method using Corneal Surface Image for Eye Tracking,” Proceedings of the 12th Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications – Volume 6: VISAPP, pp.67-73, 2017.
  3. Nobuhiro Funato, and Kentaro Takemura. “Estimating Contact Force of Fingertip and Providing Tactile Feedback Simultaneously,” Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST2016), pp. 195-196.2016.
  4. Hiroyuki Kato, and Kentaro Takemura, “Hand pose estimation based on active bone-conducted sound sensing.” Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct. ACM,  pp. 109-112, 2016.
  5. Etsuko Ueda, Kenichi Iida, Kentaro Takemura, Takayuki Nakamura, Masanao Koeda “Identification of Gracefulness Feature Parameters for Hand-Over Motion” 18th International Conference, HCI International 2016, pp.115-124, 2016.7.
  6. Lotfi El Hafi, Kentaro Takemura, Jun Takamatsu, Tsukasa Ogasawara, “Model-Based Approach for Gaze Estimation from Corneal Imaging Using a Single Camera”, in Proc. of 2015 IEEE/SICE International Symposium on System Integration (SII2015), pp.88 – 93, 2015.12.
  7. Y. Okawa, and K. Takemura: “Haptic-enabled Active Bone-Conducted Sound Sensing,” Proceedings of the 28th ACM Symposium on User Interface Software and Technology (UIST2015),  pp. 87-88, 2015.11.
  8. Ochiai Yuya, Kentaro Takemura, Atsutoshi Ikeda, Jun Takamatsu, and Tsukasa Ogasawara, “Remote Control System for Multiple Mobile Robots Using Touch Panel Interface and Autonomous Movility,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2014), pp.3272- 3277,  2014.9.
  9. Kentaro Takemura, Shunki Kimura, and Sara Suda,“Estimating point-of-regard using corneal surface image,”  Proceedings of ACM Symposium on Eye-Tracking Research & Applications (ETRA2014), pp.251-254, 2014.3.
  10. Jun Takamatsu, Yutaka Kondo, Kentaro Takemura, Akihiko Yamaguchi, Tsukasa Ogasawara, “Human-Robot Interaction by an Actroid Robot Based on Natural Motion Database”, 2013 Japan-Korea Workshop on Information, Communication and Robotics Technology Innovation for Population Aging, 2013.
  11. Kentaro Takemura, Tomohisa Yamakawa, Jun Takamatsu, Tsukasa Ogasawara, “Estimating Focused Object using Corneal Surface Image for Eye-based Interaction,” Proceedings of the 3rd International Workshop on Pervasive Eye Tracking and Mobile Eye-Based Interaction, 2013.8. [PDF][Slides]
  12. T. Tanaka, T. Tsuduki, E. Ueda, K. Takemura & T. Nakamura, “Modeling of graceful motions: determining characteristics of graceful motions from handover motion,”Proceedings of the 16th International Conference on Computational Methods and Experimental Measurements, pp.453-465, 2013.7.
  13. Akihiko Yamaguchi, Shiori Sato, Kentaro Takemura, Jun Takamatsu, and Tsukasa Ogasawara: Style Translation Filter to Change Attribute of Motion, Proceedings of  the 12th IEEE-RAS International Conference on Humanoid Robots, pp.660-665, 2012.12.
  14. Y. Hieida, T. Suenaga, K. Takemura, J. Takamatsu and T. Ogasawara: “Real-time Scan-Matching Using L0-norm Minimization Under Dynamic Crowded Environment”, Proceedings of the 4th IROS Workshop on Planning, Perception and Navigation for Intelligent Vehicles , 2012.10.
  15. Yutaka Kondo, Kentaro Takemura, Jun Takamatsu, Tsukasa Ogasawara, “Body Gesture Classification based on Bag-of-features in Frequency Domain of Motion,” Proceedings of the 21st IEEE Int. Symp. on Robot and Human Interactive Communication (RO-MAN2012),pp.386 – 391,2012.9.
  16. Emarc Magtanong, Akihiko Yamaguchi, Kentaro Takemura, Jun Takamatsu, and Tsukasa Ogasawara: “Inverse Kinematics Solver for Android Faces with Elastic Skin”, Latest Advances in Robot Kinematics, pp. 181-188, 2012.6.
  17. Yutaka Kondo, Kentaro Takemura, Jun Takamatsu, Tsukasa Ogasawara: “Planning Body Gesture of Android for Multi-person Human-Robot Interaction,” Proceedings of IEEE Int. Conf. of Robotics and Automation (ICRA2012), pp. 3897-3902, 2012.5.
  18. K. Takemura, A. Ito, J. Takamatsu, and T. Ogasawara: “Active Bone-Conducted Sound Sensing for Wearable Interfaces,” Proceedings of the 24th ACM Symposium on User Interface Software and Technology (UIST2011),  pp. 53-54, 2011.10.
  19. S. Asano, T. Suenaga, K. Takemura, Y. Matsumoto, J. Takamatsu, and T. Ogasawara: “6-DOF Head Pose Estimation in Wider Range and Space by Integrating Multi-Camera Observation,” Proceedings of ICRA 2011 Workshop on Measuring and Understanding Human Movements and Emotions, 2011.5.
  20. Y. Kondo, M. Kawamura, K. Takemura, J. Takamatsu, and T. Ogasawara: “Gaze Motion Planning for Android Robot,” Proceedings of the 6th ACM/IEEE International Conference on Human Robot Interaction (HRI2011), pp.171-172, 2011.3.
  21. Y. Kondo, K. Takemura, J. Takamatsu, and T. Ogasawara: “Multi-person Human-Robot Interaction System for Android Robot,” Proceedings of the 2010 IEEE/SICE International Symposium on System Integration (SII2010), pp.176-181, 2010.12.
  22. K. Yamamoto, E. Ueda, T. Suenaga, K. Takemura, J. Takamatsu, and T. Ogasawara: “Generating Natural Hand Motion in Playing a Piano,” Proceedings of 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2010), pp. 3513 – 3518, 2010.10.
  23. T. Suenaga, K. Takemura, J. Takamatsu, and T. Ogasawara: “Data Communication Support for Reusability of RT-Components -Converter Classification and Prototype Supporting Tool -,” Proceedings of International Conference on Advanced Mechatronics 2010 (ICAM 2010), pp.516-521, 2010.10.
  24. Y. Kondo, K. Takemura, J. Takamatsu, and T. Ogasawara: “Smooth Human-Robot Interaction by Interruptible Gesture Planning,” Proceedings of the 2010 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM2010), pp. 213-218, 2010.10.
  25. S. Hirose, T. Suenaga, K. Takemura, R. Kawakami, J. Takamatsu, and T. Ogasawara: “Surface Color Estimation Based on Inter- and Intra-Pixel Relationships in Outdoor Scenes,” Proceedings of 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR2010), pp.271-278, 2010.6.
  26. K. Takemura, A. Araki, J. Ido, Y. Matsumoto, J. Takamatsu, and T. Ogasawara: “Generating Individual Maps from Universal Map for Heterogeneous Mobile Robots,” Proceedings of IEEE International Conference of Robotics and Automation(ICRA2010), pp.3460-3465, 2010.5.
  27. K. Takemura, Y. Kohashi, T. Suenaga, J. Takamatsu, and T. Ogasawara: “Estimating 3D Point-of-regard and Visualizing Gaze Trajectories under Natural Head Movements,” Proceedings of ACM Symposium on Eye-Tracking Research & Applications (ETRA2010), pp.157-160, 2010.3.
  28. Y. Yamagi, J. Ido, K. Takemura, Y. Matsumoto, J. Takamatsu, and T. Ogasawara: “View-Sequence Based Indoor/Outdoor Navigation Robust to Illumination Changes,” Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robotics and Systems (IROS2009), pp. 1229-1234, 2009.10
  29. A. Causo, M. Matsuo, E. Ueda, K. Takemura, Y. Matsumoto, J. Takamatsu and T. Ogasawara: “Hand Pose Estimation using Voxel-based Individualized Hand Model,” Proceedings of the 2009 IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM2009), pp.451-456, 2009.7.
  30. Y. Kurita, J. Kobayashi, T. Suenaga, K. Takemura, Y. Matsumoto, and T. Ogasawara: “Personal Identification and Visualization of Relationships by using Human Trajectories,” Proceedings of IEEE International Conference on Robotics and Biomimetics (ROBIO2009), pp.548-553, 2009.2.
  31. K. Takemura, Y. Matsumoto, and T. Ogasawara: “Estimation of Group Attention for Automated Camerawork”, Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS2008), pp.2317-2322, 2008.9.
  32. K. Takemura, Y. Matsumoto, and T. Ogasawara: “Target Selection for Controlling Home Appliances Based on Gaze Measurement Technology,” Proceedings of the 12th International Conference on Human-Computer-Interaction International (HCII2007), pp.504-508, 2007.7.
  33. K. Mitsui, H. Igaki, M. Nakamura, K. Matsumoto, and K. Takemura, “Exploiting Eye Gaze Information for Operating Services in Home Network System,” Proceedings of  the 2006 International Symposium on Ubiquitous Computing Systems, Vol.LNCS4239, pp.13-27, 2006.9.
  34. K. Takemura, Y. Matsumoto, and T. Ogasawara: “Estimation of Focus of Attention of Multiple People for Video Conferencing,” Presented at CHI 2005’s alt.chi Session (CHI2005), 2005.4.
  35. K. Takemura, H. Minamide, Y. Matsumoto, and T. Ogasawara: “What You Look at Is What You Control:  A Universal Remote Control Based on Gaze Measurement Technology,” Proceedings of the 1st IEEE Technical Exhibition Based Conference on Robotics and Automation (TExCRA2004), 2004.11.
  36. Y. Matsumoto, J. Ido, K. Takemura, M. Koeda, and T. Ogasawara: “Portable Facial Information Measurement System and Its Application to Human Modeling and Human Interfaces,” Proceedings of the  6th IEEE  International Conference on Face and Gesture Recognition (FG2004), pp.475-480, 2004.5.
  37. K. Takemura, J. Ido, Y. Matsumoto, and T. Ogasawara: “Development of Non-Contact Drive Monitoring System for Advanced Safety Vehicle,” Proceedings of  IEEE/ASME International Conference on Advanced Intelligent Mechatronics (AIM2003), pp.1119-1122, 2003.7.
  38. K. Takemura, J. Ido, Y. Matsumoto, and T. Ogasawara: “Drive Monitoring System Based on Non-Contact Measurement System of Driver’s Focus of Visual Attention,” Proceedings of IEEE Intelligent Vehicles Symposium (IV2003), pp.581-586, 2003.6.
  39. J. Ido, K. Takemura, Y. Matsumoto, and T. Ogasawara: “Robotic Receptionist ASKA:  A Research Platform for Human-Robot Interaction,” Proceedings of IEEE International Workshop on Robot and Human Interactive Communication (ROMAN2002), pp.306-311, 2002.6.

 

口頭発表

  1. 舩戸恒宏,竹村憲太郎:”能動的振動入力による把持力推定”,第35回 日本ロボット学会学術講演会,1J3-04,2017年9月12日,(埼玉県・川越市)
  2. 山岸健太,竹村憲太郎:”眼球回旋点の移動を考慮した瞳孔・虹彩同時追跡”,The 23rd Symposium on Sensing via Image Information(SSII2017),IS2-15,2017年6月8日,(神奈川県・横浜市)
  3. 品川慶樹,山岸健太,須田沙良,竹村憲太郎:”3次元眼球モデルを用いたCross-Ratio Methodによる注視点推定”,ロボティクスメカトロニクス講演会2017,2P1-M07,2017年5月12日,(福島県・郡山市)
  4. 畠中亮太,上田悦子,飯田賢一,竹村憲太郎,小枝正直,中村恭之:” 優美さ定量化のための古典舞踊動作における腕軌道と手先動作解析”,ロボティクスメカトロニクス講演会2017,1P2-L01,2017年5月12日,(福島県・郡山市)
  5. 加藤寛之,竹村憲太郎:”能動的振動入力による触覚フィードバック可能な手形状推定”,第17回 計測自動制御学会 システムインテグレーション部門講演会,1A1-2,2016
  6. 中村匠,飯田賢一,竹村憲太郎,小枝 正直,中村 恭之,上田 悦子:”古典舞踊動作の手先軌道に着目した優美さの定量化”,第17回 計測自動制御学会 システムインテグレーション部門講演会,2N2-2,2016
  7. 栗原慎太郎,竹村憲太郎:”ファントムセンセーションが可能な能動的振動入力による関節角度推定”,第17回 計測自動制御学会 システムインテグレーション部門講演会,3B4-2,2016
  8. 竹村 憲太郎,大川 裕也, 加藤 寛之:”アクティブ骨導音センシングを用いた下肢単関節 及び上肢複数関節の角度推定”, 第34回 日本ロボット学会学術講演会,2W2-02,2016年9月8日,(山形県・山形市)
  9. 中村匠,飯田賢一,竹村憲太郎,小枝正直,中村恭之,上田悦子:観客視点を考慮した古典舞踊動作における手先軌道の解析”,ロボティクスメカトロニクス講演会2016,2P1-12a4,2016年6月10日,(神奈川県・横浜市)
  10. 高瀬悠太,加藤寛之,竹村憲太郎:”能動的な振動入力による把持物体推定”,ロボティクスメカトロニクス講演会2016,1A2-12a6,2016年6月9日,(神奈川県・横浜市)
  11. 山岸健太,竹村憲太郎:”2CCDカメラを用いた瞳孔・虹彩同時追跡 ”,ロボティクスメカトロニクス講演会2016,1A2-12b5,2016年6月9日,(神奈川県・横浜市)
  12. 舩戸恒宏,竹村憲太郎:”アクティブ骨導音センシングを用いた指先接触力推定 ”,ロボティクスメカトロニクス講演会2016,1P1-13a6,2016年6月9日,(神奈川県・横浜市)
  13. 大川裕也,竹村憲太郎:”触覚フィードバックが可能な振動による関節角度推定”,第23回インタラクティブシステムとソフトウェアに関するワークショップ(WISS2015)招待デモ,2-R02,2015年12月3日,(大分県)
  14. 町田貴紀,須田沙良,竹村憲太郎:”角膜表面反射画像を用いた頭部・眼球運動推定”,第16回計測自動制御学会システムインテグレーション部門講演会,1E2-5,2015.
  15. 上田 悦子,中村 恭之,飯田 賢一,小枝 正直,竹村 憲太郎:”アジア古典舞踊動作におけ る表現の差異”,第1 6回計測自動制御学会 システムインテグレーション部門講演会,2A2-6,2015.
  16. 須田沙良,町田貴紀,竹村憲太郎:”両眼モデルを用いた角膜表面反射画像の展開”,ヒューマンインタフェースシンポジウム2015,1511P,2015年9月2日,(北海道・函館市)
  17. 大川裕也,竹村憲太郎:”アクティブ骨導音センシングによる把持制御と把持状態フィードバック”,ロボティクスメカトロニクス講演会2015,1P1-l01,2015年5月18日,(京都府・京都市)
  18. 須田沙良,竹村憲太郎:”視軸を考慮した角膜 表面反射画像展開”,第15回 計測自動制御学会 システムインテグレーション部門講演会, 3G3-4,2014.
  19. 竹村憲太郎,須田沙良:”日常生活における角膜表面反射画像を用いた視 野映像の生成”,第32回日本ロボット学会学術講演会,1C3-03,2014.
  20. 島田健史,池田篤俊,竹村憲太郎,高松淳,小笠原司,”一人称視点を用いた調理作業記録システムの構築“,第32回日本ロボット学会学術講演会,1C3-05,2014.
  21. 加藤寛之,竹村憲太郎,アクティブ骨導音センシングを用いた手形状推定,第32回日本ロボット学会学術講演会,3E2-03, 2014年9月6日, (九州・福岡市)
  22. 大川裕也,竹村憲太郎:”触覚フィードバックが可能なアクティブ骨導音センシング”,ロボティクスメカトロニクス講演会2014,3P1-N01,2014年5月28日,(富山県・富山市)
  23. 木村孝広,吉川雅博,竹村憲太郎,高松淳,小笠原司:”環境の形状情報を付加した人間の動作分類に基づく3次元セマンティックマップの生成”, ロボティクスメカトロニクス講演会2014, 3P1-I02, 2014.
  24. 田辺雅人,吉川雅博,竹村憲太郎,高松淳,小笠原司: “インターバル 3次元形状計測からの環境変化の識別”,ロボティクスメカトロニクス講演会2014, 3P1-I02, 2014.
  25. 竹村憲太郎:“虹彩のモデルベース追跡による角膜表面反射画像展開”,第14回計測自動制御学会システムインテグレーション部門講演会,2A2-1, 2013.
  26. 田辺雅人,竹村憲太郎,吉川雅博,高松淳,小笠原司:“インターバル3次元計測からの環境変化の検出”,第14回計測自動制御学会システムインテグレーション部門講演会,2K3-4, 2013.
  27. 竹村憲太郎:“角膜表面反射画像と環境画像を併用したキャリブレーションフリー視線計測手法”,第31回日本ロボット学会学術講演会,1E1-04, 2013.
  28. 高松淳,竹村憲太郎,小笠原司,工藤由貴子,斎藤悦子:“QoL向上のための人・ロボット協調とマネージメントの可能性”,第31回日本ロボット学会学術講演会,1N1-06, 2013.
  29. 浦辻勇輝,竹村憲太郎,高松淳,小笠原司:“QoL向上のためのアノテーション付き地図を利用したモビリティ支援”,第31回日本ロボット学会学術講演会,1N1-07, 2013.
  30. 落合佑哉,竹村憲太郎,高松淳,小笠原司:“タッチ入力と自律移動を利用した複数移動ロボットの同時遠隔操作システム”,第31回日本ロボット学会学術講演会,3H2-06, 2013.
  31. 竹村憲太郎,小笠原司:“常時装着型角膜表面反射画像撮像装置の開発”,ロボティクスメカトロニクス講演会2013,2A2-G04,2013.
  32. 木村 孝広, 勝山 貴史, 竹村 憲太郎, 高松 淳, 小笠原 司: “移動ロボットを用いたユーザの姿勢情報分類及びマッピング”, ロボティクスメカトロニクス講演会2013, 1P1-H06, 2013.
  33. 竹村憲太郎,山川智久,高松淳,小笠原司:”角膜表面反射画像を用いた注視対象推定”,第13回計測自動制 御学会システムインテグレーション部門講演会(SI2012), 3F3-5, pp.2235-2236, 2012.
  34. 田辺雅人, 木村孝広, 馬場浩平, 大下将宗, 吉山友明, 勝山貴史, 田中康之, 竹村憲太郎, 小笠原司:”屋外動的環境下における注視対象推定 色付き三次元点群を用いた移動物体検出”, 第13回計測自動制 御学会システムインテグレーション部門講演会(SI2012), 3F1-2, pp.2178-2179, 2012.
  35. 竹村憲太郎, 小笠原司: “アクティブ骨導音センシングによるMP関節角度推定”, 第30回日本ロボット学会学術講演会, RSJ2012AC3D1-6, 2012年9月19日, (北海道・札幌市)
  36. 山川智久, 竹村憲太郎, 高松淳, 小笠原司: “角膜表面反射画像を用いた特定物体認識”, 第30回日本ロボット学会学術講演会, RSJ2012AC2J1-3, 2012.
  37. 勝山貴史, 竹村憲太郎, 高松淳, 小笠原司: “人間の動作により意味付けされた3次元セマンティックマップの生成”, 第30回日本ロボット学会学術講演会, RSJ2012AC2N3-6, 2012.
  38. 浦辻 勇輝, 竹村 憲太郎, 高松 淳, 小笠原 司: “電動車椅子のための関心度マップを用いたDynamic Shared Control”, 第30回日本ロボット学会学術講演会,RSJ2012AC1K2-7, 2012.
  39. 田中康之, 竹村憲太郎, 高松淳, 小笠原司: “ポイントクラウドを対象としたBag-of-featuresによる空間識別”, 第30回日本ロボット学会学術講演会, RSJ2012AC1B2-2, 2012.
  40. 落合 佑哉, 竹村 憲太郎, 高松 淳, 小笠原 司: “移動ロボットに搭載したLIDARを用いた未知環境における移動障害物の追跡”, ロボティクスメカトロニクス講演会2012(ROBOMEC2012), 1A1-M03, 2012.
  41. 近藤豊, 竹村憲太郎, 高松淳, 小笠原司: “動作の周波数領域表現に着目したBag-of-featuresに基づく概念的な類似ジェスチャ検索”, 第17回ロボティクスシンポジア, pp. 541-547, 2012.
  42. 桑原 潤一郎,竹村 憲太郎,末永 剛,高松 淳,小笠原 司:  “再利用可能な RT ミドルウエアコンポーネントを利用した異種ロボット間での 相互位置推定”, 第12回計測自動制御学会システムインテグレーション部門講演会 (SI2011),1K4-2, 2011.
  43. 山川智久,竹村憲太郎,高松淳,小笠原司: “頭部装着型視線計測装置のための3次元環境を考慮した注視点推定法”, ヒューマンインタフェース学会シンポジウム,1211L,2011.
  44. Emarc Magtanong, Akihiko Yamaguchi, Kentaro Takemura, Jun Takamatsu, and Tsukasa Ogasawara: Inverse Kinematics Solver for an Android Face using Neural Network, in Proceedings of the 29th Annual Conference of the Robotics Society of Japan, 1Q3-1, 2011.
  45. 佐藤 志保理,山口 明彦,竹村 憲太郎,高松 淳,小笠原 司: “動作の性別属性を変換する男女双方向スタイル変換フィルタ”,第29回日本ロボット学会学術講演会,1N2-5, 2011.
  46. 福間 健太,竹村 憲太郎,高松 淳,小笠原 司:“特徴点のクラスタリングを用いた動的環境に頑健なカメラ位置姿勢推定”,第29回日本ロボット学会学術講演会,3I2-4, 2011.
  47. 近藤豊, 竹村憲太郎, 高松淳, 小笠原司, “ジェスチャデータベース構築のための連続ウェーブレット変換に基づく類似動作分類,” 第29回日本ロボット学会学術講演会, 1F3-4, 2011.
  48. 桑原 潤一路,竹村 憲太郎,末永 剛,高松 淳,小笠原 司:“RTミドルウエアを利用した異種ロボット間での粒子群最適化を用いた相互位置推定”,第29回日本ロボット学会学術講演会,1B3-7,2011.
  49. 伊藤 晃大,竹村 憲太郎,高松 淳,小笠原 司:“ウェアラブルインターフェースのためのアクティブ骨導音センシング”,第29回日本ロボット学会学術講演会,1B3-7,2011.
  50. 佐藤志保理,山口明彦,竹村憲太郎,高松淳,小笠原司: “任意の動作を女性らしく変化させるスタイル変換フィルタ”,ロボティクスメカトロニクス講演会2011,1A1-O11,2011.
  51. 森太一,竹村憲太郎,高松淳,小笠原司: “Bag-of-Featuresを用いた環境変化に頑健なビューシーケンスナビゲーション”,ロボティクスメカトロニクス講演会2011,1A1-M03,2011.
  52. 桑原潤一郎,竹村憲太郎,末永剛,高松淳,小笠原司: “移動ロボットの ネットワーク化と制御用RTコンポーネント”,第11回計測自動制御学会システ ムインテグレーション部門講演会(SI2010),2B2-3,pp.1068-1069,2010.
  53. 日永田佑介,末永剛,竹村憲太郎,高松淳,小笠原司:  “L0ノルム最小化 による動的環境化に適用可能なSLAM”,第11回計測自動制御学会システムイン テグレーション部門講演会(SI2010),2O1-3,pp.1648-1651,2010.
  54. 高橋健治,竹村憲太郎,末永剛,高松淳,小笠原司: “移動ロボットによるSIFTを用いた三次元特徴点地図の生成”,第28回日本ロボット学会学術講演会予稿集,RSJ2010AC1Q3-2,2010.
  55. 桑原潤一郎,竹村憲太郎,末永剛,高松淳,小笠原司: “ユニバーサルマップを利用した異種ロボットにおける位置情報共有”,第28回日本ロボット学会学術講演会予稿集, RSJ2010AC1Q1-5,2010.
  56. 伊藤晃大,竹村憲太郎,末永剛,高松淳,小笠原司: “前腕骨を伝達経路とする骨導音を利用した常時装着インタフェース”,第28回日本ロボット学会学術講演会予稿集, RSJ2010AC1C3-1,2010.
  57. 近藤豊,竹村憲太郎,高松淳,小笠原司: “多人数環境を考慮したコミュニケーションのためのボディジェスチャー生成”,第28回日本ロボット学会学術講演会,RSJ2010AC3B2-2,2010.
  58. 廣瀬駿,末永剛,竹村憲太郎,川上玲,高松淳,小笠原司: “空間的依存性を用いた屋外光源下における物体表面色の推定”,第13回画像の認識・理解シンポジウム(MIRU2010),OS9-1,2010.
  59. 桑原潤一郎,伊藤晃大,日永田佑介,竹村憲太郎,末永剛,高松淳,小笠原司: “RTミドルウェアを利用した異種ロボット間での位置情報共有”,ロボティクスメカトロニクス講演会2010,2A2-C05,2010
  60. 日永田佑介,竹村憲太郎,伊藤晃大,桑原潤一郎,末永剛,高松淳,小笠原司: “RTミドルウェアを用いた汎用移動コンポーネント群設計指針の検討”,ロボティクスメカトロニクス講演会2009,2P1-A20,2010.
  61. 上田悦子,竹村憲太郎,竹内善之,栗田雄一,小笠原司,秋元 加代子: “対話ロボット身振り生成のための古典舞踊動作解析”,第10回計測自動制御学会システムインテグレーション部門講演会,pp. 618-619,2009.
  62. 竹内 善之,山口明彦,竹村憲太郎,高松淳,小笠原司: “モーションキャプチャデータから多様な動作生成を可能にする運動学習プリミティブの合成”,第10回計測自動制御学会システムインテグレーション部門講演会,pp.824-827,2009.
  63. 竹村憲太郎,荒木天外,怡土順一,松本吉央,高松淳,小笠原司: “測域センサ搭載型ロボットのための汎用三次元環境地図の利用”, 第27回日本ロボット学会学術講演会予稿集,1F3-01,2009.
  64. 松永典之,竹村憲太郎,高松淳,小笠原司: “歩行者の軌跡情報を用いた屋外ナビ ゲーション”, 第27回日本ロボット学会学術講演会予稿集,2Q2-02,2009.
  65. 末永剛,竹村憲太郎,松本吉央,高松淳,小笠原司: “動・作業知能のための視覚に基づく ロバストな知能モジュール群の開発 -位置推定と再利用へ向けた通信支援-”, 第27回日本ロボット学会学術講演会予稿集,2D2-02,2009.
  66. 近藤豊,竹村憲太郎,高松淳,小笠原司: “再構成可能な動作データベースに基づく柔軟なインタラクション動作のオンライ ン生成”, 第27回日本ロボット学会学術講演会予稿集,1L3-05,2009
  67. 廣瀬駿,怡土順一,竹村憲太郎,川上玲,高松淳,小笠原司: “画像ノイズを考慮した屋外光源下における物体表面色の推定”,画像の認識・理解シンポジウム 2009,OS9-1, 2009.
  68. 近藤豊,怡土順一,竹村憲太郎,高松淳,小笠原司: “マルチスレッドに対応した動作計画コンポーネント”,ロボティクスメカトロニクス講演会2009,2A2-C14,2009.
  69. 松永典之,山城容一朗,荒木天外,怡土順一, 竹村憲太郎,松本吉央,高松淳,小笠原 司: “照明変化に頑健な天井ビューシーケンスナビゲーション”,ロボティクスメカトロニクス講演会2009,2P1-F20,2009.
  70. 末永剛,竹村憲太郎,高松淳,小笠原司: “RTコンポーネント間の柔軟なデータ通信支援ツール”,ロボティクスメカトロニクス講演会2009,2A2-C02,2009.
  71. 山城容一朗,怡土順一,竹村憲太郎,松本吉央,高松淳,小笠原司: “屋内外環境のためのビューシーケンスナビゲーションの拡張”,第14回ロボティクスシンポジア,2D1,pp.223-228,2009.
  72. 里村卓哉,竹村憲太郎,中村善一: “移動ロボットの遠隔操作における画像提示法の評価”,電子情報通信学会関西支部学生会 第14回学生会研究発表講演会,D8-6,p.123, 2009.
  73. 小橋優司,末永剛,竹村憲太郎,高松淳,小笠原司: “頭部装着型視線計測装置のための自然特徴点を用いた三次元注視点計測”,電子情報通信学会技術研究報告書 ヒューマン情報処理,HIP2009-74,pp.5-10,2009.
  74. 荒木天外,山城容一朗,怡土順一,竹村憲太郎,松本吉央,高松淳,小笠原司: “ユニバーサルマップを利用したビューシーケンスの生成とナビゲーション”,第9回計測自動制御学会システムインテグレーション部門講演会,pp.347-348,2008.
  75. 河村 雅人,怡土順一,竹村憲太郎,松本吉央,高松淳,小笠原司: “視線方向知覚を考慮したアンドロイドの頭部眼球動作”,第9回計測自動制御学会システム インテグレーション部門講演会,pp.1019-1020,2008.
  76. 山本和樹,上田悦子,末永剛,竹村憲太郎,松本吉央,高松淳,小笠原司: “ピアノ演奏における手指動作の自動生成 -MusicXMLを入力とした3DCGアニメー ション-”,第13回日本バーチャルリアリティ学会大会論文集,1A5-5,2008.
  77. 山城容一朗,怡土順一,竹村憲太郎,松本吉央,高松淳,小笠原司: “移動ベクトルによる屋外ビューシーケンスナビゲーション”,第26回日本ロボット学会学術講演会予稿集,1H3-04,2008.
  78. 浅野慧,末永剛,竹村憲太郎,松本吉央,高松淳,小笠原司: “複数カメラの 観測統合による広範囲な顔・視線計測”,第7回情報科学技術フォーラム,pp.485-486,2008.
  79. 荒木天外,怡土順一,竹村憲太郎,栗田雄一,松本吉央,小笠原司: “画像に基づくナビゲーションのための3次元環境地図の構築”,ロボティクスメ カトロニクス講演会2008,2P2-C15,2008.
  80. 小林純也,栗田雄一,末永剛,竹村憲太郎,松本吉央,小笠原司: “位置情報を基にした組織内人物間の親密度の視覚化”,ロボティクスメカトロニ クス講演会2008,1A1-D17,2008.
  81. 吉村崇,竹村憲太郎,松本吉央,小笠原司: “遠隔講義における学習者の筆記行動推定”,情報処理学会関西支部大会,pp.139-142,2007.
  82. 小林純也,末永剛,竹村憲太郎,栗田雄一,松本吉央,小笠原司: “室内における動線情報を用いた個人識別”,情報処理学会関西支部大会,pp.67-70,2007.
  83. 小林純也,末永剛,竹村憲太郎,栗田雄一,松本吉央,小笠原司: “人物の動線情報を用いた個人識別手法”,第25回日本ロボット学会学術講演会予稿集,2O13,2007.
  84. 竹村憲太郎,末永剛,松本修,松本吉央,小笠原司: “移動ロボットに よる屋内ウォークスルー環境の自動構築”,ロボティクスメカトロニクス講演会2007,2A2-B10,2007.
  85. 松本修,末永剛,竹村憲太郎,松本吉央,小笠原司: “環境と強調するサービスロボットの開発-環境カメラとの協調による自己位置推定-”,情報処理学会 関西支部大会 環境知能研究会,pp.153-156,2006.
  86. 井垣宏,三井康平,竹村憲太郎,玉田春昭,中村匡秀,松本健一,松本吉央: “注視情報に基づくネットワーク家電の状態提示システムの構築”,電子情報通信学会技術研究報告,Vol.105,No.628,pp.061-066,2006.
  87. 松本修,末永剛,竹村憲太郎,松本吉央,小笠原司: “環境と協調するサービスロボットの開発”,第7回計測自動制御学会システムインテグレーション 部門講演会, 3N1-5,2006.
  88. 吉村崇,竹村憲太郎,松本吉央,小笠原司: “ビデオ講義における受講者の行動計測・状態推定システムの提案”,ヒューマンインタフェースシンポジウム2006,1342, 2006.
  89. 竹村憲太郎,松本吉央,小笠原司: “ミーティングにおける注意計測システムの構築”,FIT2005 第4回情報科学技術フォーラム,pp.517-518,2005.
  90. 松本吉央,竹村憲太郎,上田悦子,小笠原司: “顔・注視点計測を用いた知的コンピュータインタフェース”,情報処理学会コンピュータビジョンとイメージメディア研究会研究報告 CVIM-150(IPSJ-SIG-CVIM-150),pp.33-38,2005.
  91. 竹村憲太郎,南出隼人,松本吉央,小笠原司: “複数コンピュータ環境における注視行動に基づく操作対象の切り替え”,ヒューマンインタフェースシンポジウム2004, pp.1149-1152,2004.
  92. 末永剛,竹村憲太郎,松本吉央,小笠原司: “視点位置計測を用いた半透明3次元ディスプレイ”,ヒューマンインタフェースシンポジウム2004,pp.939-942,2004.
  93. 竹村憲太郎,松本吉央,小笠原司: “ミーティングにおける複数人の視線計測に基づく共同注意の撮影”,画像認識・理解のシンポジウム(MIRU2004),pp.I-445-450,2004.
  94. 竹村憲太郎,松本吉央,小笠原司: “複数人の視線計測に基づく「場の注意」の推定”, 情報処理学会ヒューマンインタフェース研究会研究報告 HI-110(IPSJ-SIG-HI-110),pp.25-30,2004.
  95. 竹村憲太郎,松本吉央,小笠原司: “非侵襲ドライバ行動計測に関する研究-注視点の計測注視対象の判別-”,ロボティクス・メカトロニクス講演会’03講演論文集,R03426-86,1A1-2F-E4,2003.
  96. 竹村憲太郎,怡土順一,松本吉央,小笠原司: “ドライバ注視点計測システム”,日本ロボット学会創立20周年記念学術講演会予稿集,3C17,2002.
  97. 乗松泰明,竹村憲太郎,中村恭之,小笠原司: “全方位移動ロボットの全方位視覚に基づくナビゲーション”,電気学会システム・制御研究会,SC-01-20~30,pp.25-29,2001.

受賞

  1. 平成28年12月18日 第17回計測自動制御学会システムインテグレーション部門講演会 SI2016優秀講演賞 加藤寛之,竹村憲太郎

 

講演

  1. “角膜表面反射画像を用いた注視点・注視対象推定の研究開発”,ICTイノベーションフォーラム2015,2015.10.7
  2. “Wearable sensing systems for human-computer interaction”, International Workshop on Human Modeling and Enhancement 2013,  2013.6.27.
  3. “Research on Humanoid Robot at NAIST”, Humanoid Robots:State of the Art from Real Platforms, 2008.9.29
  4. 「視線計測技術とヒューマンインタフェースの応用」,2007なら発福祉シーズ開発研究会,2007.11.30

特許

  1. データ中継用RTコンポーネント生成方法及びそのプログラム【特願2009-239548】
  2. 経路探索装置及び移動システム【特願2009-211464】
  3. 経路計画生成装置および該方法ならびにロボット制御装置およびロボットシステム【特願2009-209016】
  4. 画像判別装置,画像特定装置,この画像特定装置を備えた作業工程管理システム,およびプログラム【特願2011-133253】
  5. 自己位置推定装置,自己位置推定方法,自己位置推定プログラム,及び移動体【特願2011-137623】
  6. インタフェースシステム【特願2011-169022】
  7. 角膜表面反射画像を利用した視線計測方法及びその装置【特願2013-270650】

マスメディア

  1. 2014年1月30日 WEBジャーナルOPTRONICS 「東海大,角膜表面反射画像を用いた視線計測装置を開発」
  2. 2014年1月31日 日刊工業新聞 朝刊 「視線計測補正いらず 角膜表面反射画像 カメラ画像と照合 東海大が装置」
  3. 2014年2月7日 日経産業新聞 朝刊 「何をみているか推定 東海大 眼鏡型装置で解析」
  4. 2014年2月14日 化学工業日報 「音や振動で関節角度推定 東海大がセンシング技術 ウェアラブル可能に」