KOMEI SUGIURA

ジャーナル

  1. 奥川雅之, 伊藤暢浩, 岡田浩之, 植村渉, 高橋友一, 杉浦孔明: "ロボカップ西暦2050年を目指して", 知能情報ファジィ学会誌, Vol. 29, No.2, pp. 42-54, 2017.
  2. T. Nose, Y. Arao, T. Kobayashi, K. Sugiura, and Y. Shiga: "Sentence Selection Based on Extended Entropy Using Phonetic and Prosodic Contexts for Statistical Parametric Speech Synthesis", IEEE Transactions on Audio, Speech, and Language Processing, Vol. 25, Issue 5, pp. 1107-1116, 2017.
  3. N. Nishizuka, K. Sugiura, Y. Kubo, M. Den, S. Watari and M. Ishii: "Solar Flare Prediction Model with Three Machine-learning Algothrims using Ultraviolet Brightening and Vector Magnetogram", The Astrophysical Journal, Vol. 835, Issue 2, 156 (10pp), 2017. pdf
  4. S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu: "Spatio-Temporal Pseudo Relevance Feedback for Scientific Data Retrieval," IEEJ Trans., Vol. 12, Issue 1, pp. 124-131, 2017. pdf
  5. K. Lwin, K. Sugiura, and K. Zettsu: "Space-Time Multiple Regression Model for Grid-Based Population Estimation in Urban Areas," International Journal of Geographical Information Science, Vol. 30, No. 8, pp. 1579-1593, 2016.
  6. 杉浦孔明: "模倣学習における確率ロボティクスの新展開", システム制御情報学会誌, Vol. 60, No. 12, pp. 521-527, 2016. pdf
  7. 杉浦孔明: "ロボットによる大規模言語学習に向けて -実世界知識の利活用とクラウドロボティクス基盤の構築-", 計測と制御, Vol. 55, No. 10, pp. 884-889, 2016. pdf
  8. 杉浦孔明: "ビッグデータの利活用によるロボットの音声コミュニケーション基盤構築", 電子情報通信学会誌, Vol. 99, No. 6, pp. 500-504, 2016. pdf
  9. B. T. Ong, K. Sugiura, and K. Zettsu: "Dynamically Pre-trained Deep Recurrent Neural Networks using Environmental Monitoring Data for Predicting PM2.5," Neural Computing and Applications, Vol. 27, Issue 6, pp. 1553–1566, 2016. pdf
  10. 杉浦孔明: "ロボカップ@ホーム: 人と共存するロボットのベンチマークテスト", 人工知能, Vol. 31, No. 2, pp. 230-236, 2016. pdf
  11. L. Iocchi, D. Holz, J. Ruiz-del-Solar, K. Sugiura, and T. van der Zant: "RoboCup@Home: Analysis and Results of Evolving Competitions for Domestic and Service Robots," Artificial Intelligence, Vol. 229, pp. 258-281, 2015.
  12. K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori: "A Cloud Robotics Approach towards Dialogue-Oriented Robot Speech," Advanced Robotics, Vol. 29, Issue 7, pp. 449-456, 2015. pdf
  13. 杉浦孔明, 岩橋直人, 芳賀麻誉美, 堀智織: "観光スポット推薦アプリ「京のおすすめ」を用いた長期実証実験", 観光と情報, Vol. 10, No. 1, pp. 15-24, 2014. pdf
  14. M. Dong, T. Kimata, K. Sugiura and K. Zettsu: "Quality-of-Experience (QoE) in Emerging Mobile Social Networks," IEICE Transactions on Information and Systems, Vol.E97-D, No.10, pp. 2606-2612, 2014. pdf
  15. 稲邑哲也, タンジェフリートゥチュアン, 萩原良信, 杉浦孔明, 長井隆行, 岡田浩之: "大規模長時間のインタラクションを可能にするロボカップ@ホームシミュレーションの構想とその基盤技術", 日本知能情報ファジィ学会誌, Vol.26, No.3, pp. 698-709, 2014. pdf
  16. 杉浦孔明, 長井隆行, "ロボカップ@ホームにおける日用品マニピュレーション", 日本ロボット学会誌, Vol. 31, No. 4, pp. 370-375, 2013. pdf
  17. 杉浦孔明, "ロボット対話 -実世界情報を用いたコミュニケーションの学習-", 人工知能学会誌, Vol. 27 No. 6, pp. 580-586, 2012. pdf
  18. 柏岡秀紀, 翠輝久, 水上悦雄, 杉浦孔明, 岩橋直人, 堀智織, "観光案内への音声対話システムの活用", 情報処理学会デジタルプラクティス, Vol. 3, No. 4, pp. 254-261, 2012. pdf
  19. 杉浦孔明, "ロボカップ道しるべ第8回「ロボカップ@ホームリーグ」", 情報処理, Vol. 53, No. 3, pp. 250-261, 2012. pdf
  20. 中村友昭, アッタミミムハンマド, 杉浦孔明, 長井隆行, 岩橋直人, 戸田智基, 岡田浩之, 大森隆司, "拡張モバイルマニピュレーションのための新規物体の学習", 日本ロボット学会誌, Vol.30, No.2, pp. 213-224, 2012. abstract
    It is convenient for users to teach novel objects to a domestic service robot with a simple procedure. In this paper, we propose a method for learning the images and names of these objects shown by the users. The object images are segmented out from cluttered scenes by using motion attention. Phoneme recognition and voice conversion are used for the speech recognition and synthesis of the object names that are out of vocabulary. In the experiments conducted with 120 everyday objects, we have obtained an accuracy of 91% for object recognition and an accuracy of 82% for word recognition. Furthermore, we have implemented the proposed method on a physical robot, DiGORO, and evaluated its performance by using RoboCup@Home's "Supermarket" task. The results have shown that DiGORO has outperformed the highest score obtained in the RoboCup@Home 2009 competition.
  21. T. Nakamura, K. Sugiura, T. Nagai, N. Iwahashi, T. Toda, H. Okada, T. Omori, "Learning Novel Objects for Extended Mobile Manipulation", Journal of Intelligent and Robotic Systems, Vol. 66, Issue 1-2 , pp 187-204. 2012. pdfabstract
    We propose a method for learning novel objects from audio visual input. The proposed method is based on two techniques: out-of-vocabulary (OOV) word segmentation and foreground object detection in complex environments. A voice conversion technique is also involved in the proposed method so that the robot can pronounce the acquired OOV word intelligibly. We also implemented a robotic system that carries out interactive mobile manipulation tasks, which we call "extended mobile manipulation", using the proposed method. In order to evaluate the robot as a whole, we conducted a task "Supermarket" adopted from the RoboCup@Home league as a standard task for real-world applications. The results reveal that our integrated system works well in real-world applications.
  22. K. Sugiura, N. Iwahashi, H. Kawai, S. Nakamura, "Situated Spoken Dialogue with Robots Using Active Learning", Advanced Robotics, Vol.25, No.17, pp. 2207-2232, 2011. pdfabstract
    In a human-robot spoken dialogue, a robot may misunderstand an ambiguous command from a user, such as ``Place the cup down (on the table),'' potentially resulting in an accident. Although making confirmation questions before all motion execution will decrease the risk of this failure, the user will find it more convenient if confirmation questions are not made under trivial situations. This paper proposes a method for estimating ambiguity in commands by introducing an active learning scheme with Bayesian logistic regression to human-robot spoken dialogue. We conducted physical experiments in which a user and a manipulator-based robot communicated using spoken language to manipulate objects.
  23. T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura: "Modeling Spoken Decision Support Dialogue and Optimization of its Dialogue Strategy", ACM Transactions on Speech and Language Processing, Vol. 7, Issue 3, pp.10:1-10:18, 2011. abstract
    This paper addresses a user model for user simulation in spoken decision-making dialogue systems. When selecting from a set of altermatives, users have various decision criteria for making decision. Users often do not have a definite goal or criteria for selection, and thus they may find not only what kind of information the system can provide but their own preference or factors that they should emphasize. In this paper, we present a user model and dialogue state expression that consider user's knowledge and preferences in spoken decision-making dialogue. In order to estimate the parameters of the user model, we implement a trial sightseeing guidance system and collected dialogue data. Then, we model the dialogue as partially observable Markov decision process (POMDP), and optimize its dialogue strategy so that users can make a better choice.
  24. K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura: "Learning, Generation, and Recognition of Motions by Reference-Point-Dependent Probabilistic Models", Advanced Robotics, Vol. 25, No. 6-7, pp. 825-848, 2011. pdfabstract
    This paper presents a novel method for learning object manipulation such as rotating an object or placing one object on another. In this method, motions are learned using reference-point-dependent probabilistic models, which can be used for the generation and recognition of motions. The method estimates (1) the reference point, (2) the intrinsic coordinate system type, which is the type of coordinate system intrinsic to a motion, and (3) the probabilistic model parameters of the motion that is considered in the intrinsic coordinate system. Motion trajectories are modeled by a hidden Markov model (HMM), and an HMM-based method using static and dynamic features is used for trajectory generation. The method was evaluated in physical experiments in terms of motion generation and recognition. In the experiments, users demonstrated the manipulation of puppets and toys so that the motions could be learned. A recognition accuracy of 90% was obtained for a test set of motions performed by three subjects. Furthermore, the results showed that appropriate motions were generated even if the object placement was changed.
  25. X. Zuo, N. Iwahashi, K. Funakoshi, M. Nakano, R. Taguchi, S. Matsuda, K. Sugiura, and N. Oka: "Detecting Robot-Directed Speech by Situated Understanding in Physical Interaction", Journal of the Japanese Society for Artificial Intelligence, Vol.25, No.6, pp. 670-682, 2010. pdfabstract
    In this paper, we propose a novel method for a robot to detect robot-directed speech: to distinguish speech that users speak to a robot from speech that users speak to other people or to themselves. The originality of this work is the introduction of a multimodal semantic confidence (MSC) measure, which is used for domain classification of input speech based on the decision on whether the speech can be interpreted as a feasible action under the current physical situation in an object manipulation task. This measure is calculated by integrating speech, object, and motion confidence with weightings that are optimized by logistic regression. Then we integrate this measure with gaze tracking and conduct experiments under conditions of natural human-robot interactions. Experimental results show that the proposed method achieves a high performance of 94% and 96% in average recall and precision rates, respectively, for robot-directed speech detection.
  26. 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲: "言語獲得ロボットによる発話理解確率の推定に基づく物体操作対話", 日本ロボット学会誌, Vol. 28, No. 8, pp. 978-988, 2010. pdfabstract
    本論文では,物体操作対話タスクにおいて動作および発話を生成する手法を提 案する.ユーザの発話は,音声・画像・動作などを統計学習の枠組みに統合し た確信度関数を用いて理解される.本手法は,ユーザが曖昧性が少ない発話を 行った場合は,状況に応じて最も適切な動作軌道を隠れマルコフモデルを用い て生成する.また,曖昧性が大きい発話に対しては,自然な確認発話を生成し てユーザに確認を求めることで,不適切な動作を実行前に中止させることが可 能になった.
  27. K. Sugiura, H. Kawakami, and O. Katai: "Simultaneous Design Method of the Sensory Morphology and Controller of Mobile Robots", Electrical Engineering in Japan, Vol. 172, Issue 1, pp 48-57, 2010. abstract
    This paper proposes a method for automatic design of the sensory morphology of a mobile robot. The proposed method employs two types of adaptations, ontogenetic and phylogenetic, to optimize the sensory morphology of the robot. In ontogenetic adaptation, reinforcement learning searches for the optimal policy, which is highly dependent on the sensory morphology. In phylogenetic adaptation, a genetic algorithm is used to select morphologies with which the robot can learn tasks faster. Our proposed method was applied to the design of the sensory morphology of a line-following robot. We performed simulation experiments to compare the design solution with a hand-coded robot. The results of the experiments revealed that our robot outperformed the hand-coded robot in terms of the following accuracy andlearning speed, although our robot had fewer sensors than the hand-coded one. We also built a physical robot using the design solution. The experimental results revealed that this physical robot used its morphology effectively and outperformed the hand-coded robot.
  28. T. Taniguchi, N. Iwahashi, K. Sugiura, and T. Sawaragi: "Constructive Approach to Role-Reversal Imitation Through Unsegmented Interactions", Journal of Robotics and Mechatronics, Vol.20, No.4, pp. 567-577, 2008. abstract
    This paper presents a novelmethod of a robot learning through imitation to acquire a user's key motions automatically. The learning architecture mainly consists of three learning modules: a switching autoregressive model (SARM), a keyword extractor without a dictionary, and a keyword selection filter that references to the tutor's reactions.
  29. 杉浦孔明,川上浩司,片井修: "移動ロボットにおけるセンサ形態と制御系の同時設計法", 電気学会論文誌C, Vol. 128-C, No. 7, pp. 1154-1161, 2008. pdfabstract
    This paper proposes a method that automatically designs the sensory morphology of a mobile robot. The proposed method employs two types of adaptations - ontogenetic and phylogenetic - to optimize the sensory morphology of the robot. In ontogenetic adaptation, reinforcement learning searches for the optimal policy which is highly dependent on the sensory morphology.
  30. K. Sugiura, T. Shiose, H. Kawakami, and O. Katai: "Co-evolution of Sensors and Controllers", IEEJ Trans. EIS, Vol. 124-C, pp. 1938-1943, 2004. abstract
    The paper describes the evolutionary development of embodied agents that evolve the parameters of their controllers and sensors. The experimental results show that the physical characteristics of the agents and the task environment affect the temporal resolution of the sensors.
pagetop

招待講演

  1. 杉浦孔明, "ロボットの音声コミュニケーション技術〜言葉や能力の壁を越えるデータ指向知能に向けて", 音学シンポジウム2017, 2017年6月18日 スライド
  2. 杉浦孔明, "情報学展望2:ロボットとの音声コミュニケーション", 京都大学情報学研究科, 2017年6月12日
  3. 杉浦孔明, "言葉や能力の壁を越えるデータ指向知能ー音声コミュニケーションとロボットー", 第2回エージェントAIと環境知能研究会, 2016年12月1日 スライド
  4. K. Sugiura, "Cloud Robotics for Building Conversational Robots", IROS 2016 Workshop on Machine Learning Methods for High-Level Cognitive Capabilities in Robotics, Oct. 14, 2016. スライド
  5. K. Sugiura, "A New Challenge in RoboCup 2017 Nagoya", IROS 2016 RoboCup Tutorial: Multi-Robot Autonomy in Robot Soccer as an Adversarial Domain, Oct. 10, 2016. スライド
  6. 杉浦孔明, 岡本拓磨, 廣江厚夫, 河井恒, "実世界知識を扱う音声対話技術-言葉と能力の壁を超える技術の実現に向けて-", 第34回日本ロボット学会学術講演会 OS「ロボット聴覚」, 2016年9月7日 pdf
  7. 杉浦孔明, "実世界の意味を扱う理論と機械知能の構築", 早稲田大学, 2016年4月13日 スライド
  8. K. Sugiura, "Statistic Imitation Learning and Human-Robot Communication", The 2nd International Workshop on Cognitive Neuroscience Robotics, Sankei Conference Osaka, Feb. 21, 2016.
  9. K. Sugiura, "Cloud Robotics for Human-Robot Dialogues", Japan-UK Robotics and Artificial Intelligence Seminar 2016, Embassy of Japan in the UK, Feb. 18, 2016.
  10. K. Sugiura, "Data-Driven Robotics", Kyoto University, Jan. 21, 2016.
  11. 杉浦孔明, "RST-Seminar: ロボットの音声コミュニケーション技術-ホームロボットへの応用とデータ指向ロボティクスの展望-", 中部大学, 2015年6月17日
  12. 杉浦孔明, "ロボットによる大規模言語学習に向けて〜クラウドロボティクスとビッグデータの利活用〜", 関係論的システムデザイン研究センター第9回シンポジウム, 同志社大学, 2015年3月26日
  13. 杉浦孔明, "サービスロボットの音声対話技術とクラウドロボティクスの展望", Japan Robot Week 2014 けいはんなロボットフォーラム, 東京ビッグサイト, 2014年10月17日 スライド
  14. 杉浦孔明, "実世界知識を扱う音声対話技術とクラウドロボティクスへの展開", 第39回人工知能学会AIチャレンジ研究会, 京都大学, pp.25-32, 2014年3月18日 pdf
  15. 杉浦孔明, "コミュニケーションを学習するロボットの実現に向けて", 科学のまちの子どもたちロボットフェスティバル, けいはんなプラザ, 2014年2月22日
  16. 杉浦孔明, "人工知能システム 2: Machine Learning in Human-Robot Dialogs", 奈良先端大, 2013年12月13日
  17. 杉浦孔明, "マルチメディア工学特別講義: ロボットによるマルチモーダル対話", 大阪大学, 2013年12月12日
  18. 杉浦孔明, "実世界知識を扱う音声対話技術とサービスロボットへの応用", 第80回ロボット工学セミナー, 東京大学, 2013年10月9日
  19. 杉浦孔明, "実世界にグラウンドした人-ロボット対話", 名古屋地区NLPセミナー, 名古屋大学, 2012年10月31日
  20. 杉浦孔明, "Intelligent System Design 2: Machine Learning in Human-Robot Dialogs", 奈良先端大, 2012年10月16日
  21. 杉浦孔明, "先端領域特論E〜知能コミュニケーション特論〜 第7回ベイズ推論", 奈良先端大, 2012年5月23日
  22. 杉浦孔明, "ロボカップ@ホームにおけるロボット向けベンチマークテスト構築の試み", 2012年電子情報通信学会 総合大会企画セッション クラウドネットワークロボットのワイガヤ実験場の実現に向けて, 岡山大学, 2012年3月21日 pdf
  23. 杉浦孔明, "Intelligent System Design 2: Machine Learning in Human-Robot Dialogs", 奈良先端大, 2011年10月17日
  24. 杉浦孔明, "ロボット対話研究の最前線", 2011年度日本認知科学会サマースクール, 2011年9月5日
  25. K. Sugiura, "A Real-World Dialogue System Using Sensory-Motor Information", The Young Researchers' Roundtable on Spoken Dialog Systems, September 23, 2010.
  26. 杉浦孔明, "ロボット開発の最前線", 同志社大学特別講義, 2010年9月11日
pagetop

国際会議

  1. K. Sugiura and H. Kawai: "Grounded Language Understanding for Manipulation Instructions Using GAN-Based Classification", In Proc. IEEE Automatic Speech Recognition and Understanding Workshop, Okinawa, Japan, to appear.
  2. K. Sugiura and K. Zettsu: "Analysis of Long-Term and Large-Scale Experiments on Robot Dialogues Using a Cloud Robotics Platform", In Proc. ACM/IEEE HRI, Christchurch, New Zealand, pp. 525-526, 2016. pdf
  3. S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu: "Constrained Region Selection Method Based on Configuration Space for Visualization in Scientific Dataset Search," In Proc. IEEE Big Data, vol. 2, pp. 2191-2200, 2015.
  4. K. Sugiura and K. Zettsu: "Rospeex: A Cloud Robotics Platform for Human-Robot Spoken Dialogues", In Proc. IEEE/RSJ IROS, pp. 6155-6160, Hamburg, Germany, Oct 1, 2015.
  5. T. Nose, Y. Arao, T. Kobayashi, K. Sugiura, Y. Shiga, and A. Ito: "Entropy-Based Sentence Selection for Speech Synthesis Using Phonetic and Prosodic Contexts", In Proc. Interspeech, pp. 3491-3495, Dresden, Germany, Sep. 2015.
  6. K. Lwin, K. Zettsu, and K. Sugiura: "Geovisualization and Correlation Analysis between Geotagged Twitter and JMA Rainfall Data: Case of Heavy Rain Disaster in Hiroshima", In Proc. Second IEEE International Conference on Spatial Data Mining and Geographical Knowledge Services, Fuzhou, China, July 2015.
  7. B. T. Ong, K. Sugiura, and K. Zettsu: "Dynamic Pre-training of Deep Recurrent Neural Networks for Predicting Environmental Monitoring Data," In Proc. IEEE BigData 2014, pp. 760-765, Washington DC, USA, Oct 30, 2014.
  8. B. T. Ong, K. Sugiura, and K. Zettsu: "Predicting PM2.5 Concentrations Using Deep Recurrent Neural Networks with Open Data," In Proc. iDB Workshop 2014, Fukuoka, Japan, July 31, 2014.
  9. D. Holz, J. Ruiz-del-Solar, K. Sugiura, S. Wachsmuth: "On RoboCup@Home - Past, Present and Future of a Scientific Competition for Service Robots", In Proc. RoboCup Symposium, pp. 686-697, Joao Pessoa, Brazil, July 25, 2014.
  10. D. Holz, L. Iocchi, J. Ruiz-del-Solar, K. Sugiura, and T. van der Zant: "RoboCup@Home | a competition as a testbed for domestic service robots," In Proc. 1st International Workshop on Intelligent Robot Assistants, Padova, Italy, July 15, 2014.
  11. S. Takeuchi, Y. Akahoshi, B. T. Ong, K. Sugiura, and K. Zettsu: "Spatio-Temporal Pseudo Relevance Feedback for Large-Scale and Heterogeneous Scientific Repositories," In Proc. 2014 IEEE International Congress on Big Data, pp. 669-676, Anchorage, USA, July 1, 2014.
  12. K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori: "Non-Monologue HMM-Based Speech Synthesis for Service Robots: A Cloud Robotics Approach," In Proc. IEEE ICRA, pp.2237-2242. Hong Kong, China, June 3, 2014.
  13. J. Tan, T. Inamura, K. Sugiura, T. Nagai, and H. Okada: "Human-Robot Interaction between Virtual and Real Worlds: Motivation from RoboCup@Home," In Proc. International Conference on Social Robotics, pp.239-248, Bristol, UK, Oct 27, 2013.
  14. T. Inamura, J. Tan, K. Sugiura, T. Nagai, and H. Okada: "Development of RoboCup@Home Simulation towards Long-term Large Scale HRI," In Proc. RoboCup Symposium, Eindhoven, The Netherlands, July 1, 2013.
  15. R. Lee, K. Kim, K. Sugiura, K. Zettsu, Y. Kidawara: "Complementary Integration of Heterogeneous Crowd-sourced Datasets for Enhanced Social Analytics," In Proc. IEEE MDM, vol. 2, pp. 234-243, Milan, Italy, June 3, 2013.
  16. K. Sugiura, R. Lee, H. Kashioka, K. Zettsu, and Y. Kidawara: "Utterance Classification Using Linguistic and Non-Linguistic Information for Network-Based Speech-To-Speech Translation Systems," In Proc. IEEE MDM, vol. 2, pp. 212-216, Milan, Italy, June 3, 2013.
  17. K. Sugiura, Y. Shiga, H. Kawai, T. Misu and C. Hori: "Non-Monologue Speech Synthesis for Service Robots," In Proc. Fifth Workshop on Gaze in HRI, Tokyo, Japan, March 3, 2013.
  18. K. Sugiura, N. Iwahashi and H. Kashioka: "Motion Generation by Reference-Point-Dependent Trajectory HMMs," In Proc. IEEE/RSJ IROS, pp.350-356, San Francisco, USA, September 25-30, 2011.
    【IROS 2011 RoboCup Best Paper Award受賞】
    pdf
  19. T. Misu, K. Sugiura, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura: "Modeling Spoken Decision Making Dialogue and Optimization of its Dialogue Strategy", In Proc. SIGDIAL, pp.221-224, 2011.
  20. T. Misu, K. Sugiura, K. Ohtake, C. Hori, H. Kashioka, H. Kawai and S. Nakamura: "Dialogue Strategy Optimization to Assist User's Decision for Spoken Consulting Dialogue Systems", In Proc. IEEE-SLT, pp.342-347, 2010.
  21. N. Iwahashi, K. Sugiura, R. Taguchi, T. Nagai, and T. Taniguchi: "Robots That Learn to Communicate: A Developmental Approach to Personally and Physically Situated Human-Robot Conversations", In Proc. The 2010 AAAI Fall Symposium on Dialog with Robots, pp. 38-43, Arlington, Virginia, USA, November 11-13, 2010. pdf
  22. K. Sugiura, N. Iwahashi, H. Kawai, and S. Nakamura: "Active Learning for Generating Motion and Utterances in Object Manipulation Dialogue Tasks", In Proc. The 2010 AAAI Fall Symposium on Dialog with Robots, pp. 115-120, Arlington, Virginia, USA, November 11-13, 2010. pdf
  23. K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura: "Active Learning of Confidence Measure Function in Robot Language Acquisition Framework", In Proc. IEEE/RSJ IROS, pp. 1774-1779, Taipei, Taiwan, Oct 18-22, 2010. pdf
  24. X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka: "Detecting Robot-Directed Speech by Situated Understanding in Physical Interaction", In Proc. IEEE RO-MAN, pp. 643-648, 2010.
  25. M. Attamimi, A. Mizutani, T. Nakamura, K. Sugiura, T. Nagai, N. Iwahashi, H. Okada, and T. Omori: "Learning Novel Objects Using Out-of-Vocabulary Word Segmentation and Object Extraction for Home Assistant Robots", In Proc. IEEE ICRA, pp. 745-750, Anchorage, Alaska, USA, May 3-8, 2010.
    【2011年 ロボカップ研究賞受賞(ロボカップ日本委員会)】
    pdfabstract
    This paper presents a method for learning novel objects from audio-visual input. Objects are learned using out-of-vocabulary word segmentation and object extraction. The latter half of this paper is devoted to evaluations. We propose the use of a task adopted from the RoboCup@Home league as a standard evaluation for real world applications. We have implemented proposed method on a real humanoid robot and evaluated it through a task called ''Supermarket''. The results reveal that our integrated system works well in the real application. In fact, our robot outperformed the maximum score obtained in RoboCup@Home 2009 competitions.
  26. X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka: "Robot-Directed Speech Detection Using Multimodal Semantic Confidence Based on Speech, Image, and Motion", In Proc. IEEE ICASSP, pp. 2458-2461, Dallas, Texas, USA, March 14-19, 2010. abstract
    In this paper, we propose a novel method to detect robotdirected (RD) speech that adopts the Multimodal Semantic Confidence (MSC) measure. The MSC measure is used to decide whether the speech can be interpreted as a feasible action under the current physical situation in an object manipulation task. This measure is calculated by integrating speech, image, and motion confidence measures with weightings that are optimized by logistic regression. Experimental results show that, compared with a baseline method that uses speech confidence only, MSC achieved an absolute increase of 5% for clean speech and 12% for noisy speech in terms of average maximum F-measure.
  27. T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka, and S. Nakamura: "Online Learning of Bayes Risk-Based Optimization of Dialogue Management for Document Retrieval Systems with Speech Interface", In Proc. IWSDS, 2009.
  28. K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura: "Bayesian Learning of Confidence Measure Function for Generation of Utterances and Motions in Object Manipulation Dialogue Task", In Proc. Interspeech, pp. 2483-2486, Brighton, UK, September, 2009. pdfabstract
    This paper proposes a method that generates motions and utterances in an object manipulation dialogue task. The proposed method integrates belief modules for speech, vision, and motions into a probabilistic framework so that a user's utterances can be understood based on multimodal information. Responses to the utterances are optimized based on an integrated confidence measure function for the integrated belief modules. Bayesian logistic regression is used for the learning of the confidence measure function. The experimental results revealed that the proposed method reduced the failure rate from 12% down to 2.6% while the rejection rate was less than 24%.
  29. N. Iwahashi, R. Taguchi, K. Sugiura, K. Funakoshi, and M. Nakano: "Robots that Learn to Converse: Developmental Approach to Situated Language Processing", In Proc. International Symposium on Speech and Language Processing, pp. 532-537, China, August, 2009.
  30. K. Sugiura and N. Iwahashi: "Motion Recognition and Generation by Combining Reference-Point-Dependent Probabilistic Models", In Proc. IEEE/RSJ IROS, pp. 852-857, Nice, France, September, 2008. pdfabstract
    This paper presents a method to recognize and generate sequential motions for object manipulation such as placing one object on another or rotating it. Motions are learned using reference-point-dependent probabilistic models, which are then transformed to the same coordinate system and combined for motion recognition/generation. We conducted physical experiments in which a user demonstrated the manipulation of puppets and toys, and obtained a recognition accuracy of 63% for the sequential motions. Furthermore, the results of motion generation experiments performed with a robot arm are presented.
  31. K. Sugiura and N. Iwahashi: "Learning Object-Manipulation Verbs for Human-Robot Communication", In Proc. Workshop on Multimodal Interfaces in Semantic Interaction, pp. 32-38, Nagoya, Japan, November, 2007. pdfabstract
    This paper proposes a machine learning method for mapping object-manipulation verbs with sensory inputs and motor outputs that are grounded in the real world. The method learns motion concepts demonstrated by a user and generates a sequence of motions, using reference-point-dependent probability models. Here, the motion concepts are learned by using hidden Markov models (HMMs). In the motion generation phase, our method transforms and combines HMMs to generate trajectories.
  32. K. Sugiura, T. Nishikawa, M. Akahane, and O. Katai: "Autonomous Design of a Line-Following Robot by Exploiting Interaction between Sensory Morphology and Learning Controller", In Proc. the 2nd Biomimetics International Conference, Doshisha, pp. 23-24, Kyoto, Japan, December, 2006 abstract
    In this paper, we propose a system that automatically designs the sensory morphology of an adaptive robot. This system designs the sensory morphology in simulation with two kinds of adaptation, ontogenetic adaptation and phylogenetic adaptation, to optimize the learning ability of the robot.
  33. K. Sugiura, D. Matsubara, and O. Katai: "Construction of Robotic Body Schema by Extracting Temporal Information from Sensory Inputs", In Proc. SICE-ICASE, pp. 302-307, Busan, Korea, October, 2006. pdfabstract
    This paper proposes a method that incrementally develops the "body schema" of a robot. The method has three features: 1) estimation of light-sensor positions based on the Time Difference of Arrival (TDOA) of signals and multidimensional scaling (MDS); 2) incremental update of the estimation; and 3) no additional equipment.
  34. K. Sugiura, M. Akahane, T. Shiose, K. Shimohara, and O. Katai: "Exploiting Interaction between Sensory Morphology and Learning", In Proc. IEEE-SMC, Hawaii, USA, pp. 883-888, 2005. pdfabstract
    This paper proposes a system that automatically designs the sensory morphology of a line-following robot. The designed robot outperforms hand-coded designs in learning speed and accuracy.
  35. M. Akahane, K. Sugiura, T. Shiose, H. Kawakami, and O. Katai: "Autonomous Design of Robot Morphology for Learning Behavior Using Evolutionary Computation", In Proc. 2005 Japan-Australia Workshop on Intelligent and Evolutionary Systems, Hakodate, Japan, CD-ROM, 2005.
  36. K. Sugiura, T. Shiose, H. Kawakami, and O. Katai: "Co-evolution of Sensors and Controllers", In Proc. 2003 Asia Pacific Symposium on Intelligent and Evolutionary Systems (IES2003), Kitakyushu, Japan, pp. 145-150, 2003. pdfabstract
    In this paper we investigate the evolutionary development of embodied agents that are allowed to evolve not only control mechanisms but also the sensitivity and temporal resolution of their sensors. The experimental results indicate that the sensors and controller co-evolve in an agents through interacting with the environments
  37. K. Sugiura, H. Suzuki, T. Shiose, H. Kawakami, and O. Katai: "Evolution of Rewriting Rule Sets Using String-Based Tierra", In Proc. ECAL, Dortmund, Germany, pp. 69-77, 2003. pdfabstract
    We have studied a string rewriting system to improve the basic design of an artificial life system named String-based Tierra. The instruction set used in String-based Tierra is converted into a set of rewriting rules using regular expressions.
pagetop

Book Chapters

  1. 人工知能学会(編), 人工知能学大事典, 「模倣学習」, 共立出版, pp. 1039--1041, 2017.
  2. K. Sugiura, S. Behnke, D. Kulic, and K. Yamazaki (eds): "Special Issue on Machine Learning and Data Engineering in Robotics", Advanced Robotics, Vol. 30, Issue 11-12, May 10, 2016. pdf
  3. R. A. C. Bianchi, H. Levent Akin, S. Ramamoorthy, and K. Sugiura (eds): "RoboCup 2014: Robot World Cup XVIII", Lecture Notes in Computer Science 8992 (ISBN 978-3-319-18614-6), Springer, July 15, 2014.
  4. M. Attamimi, T. Nakamura, K. Sugiura, T. Nagai, and N. Iwahashi, "Learning Novel Objects for Domestic Service Robots", The Future of Humanoid Robots: Research and Applications (ISBN 978-953-307-951-6), InTech, pp. 257-276, 2011.
  5. T. Misu, K. Sugiura, T. Kawahara, K. Ohtake, C. Hori, H. Kashioka and S. Nakamura: "Online learning of Bayes Risk-based Optimization of Dialogue Management for Document Retrieval Systems with Speech Interface (Chapter 2)", Spoken Dialogue Systems Technology and Design (ISBN 978-1441979339), Springer, pp. 29-62, 2010.
  6. K. Sugiura, N. Iwahashi, H. Kashioka, and S. Nakamura: "Statistical Imitation Learning in Sequential Object Manipulation Tasks", Advances in Robot Manipulators, Ernest Hall (Ed.), InTech, pp. 589-606, 2010. download
pagetop

国内会議

  1. 杉浦孔明, 河井恒: "Latent Classifier Generative Adversarial Netsによる動詞のない命令文理解", 第35回日本ロボット学会学術講演会, 2I1-02, 2017. pdf
  2. 西塚直人, 久保勇樹, 杉浦孔明, 田光江, 亘慎一: "機械学習を用いたリアルタイム太陽フレア予測", 第13回「宇宙環境シンポジウム」講演論文集, pp. 103-106, 2016. pdf
  3. 杉浦孔明, 河井恒: "ばらまき型センサネット構築のためのマルチコプタの逐次行動計画", 第34回日本ロボット学会学術講演会, 3Z1-02, 2016. pdf
  4. 杉浦孔明: "劣モジュラ性を利用したドローンによるばらまき型センサ配置", 2016年度 人工知能学会全国大会, 1O5-OS-22b-5, 2016. pdf
  5. N. Nishizuka, Y. Kubo, K. Sugiura, M. Den, S. Watari, M. Ishii: "Solar Flare Prediction with Vector Magnetogram and Chromospheric Brightening using Machine-learning", Japan Geoscience Union MEETING, PEM04-03, 2016.
  6. 西塚直人, 久保勇樹, 田光江, 亘慎一, 石井守, 杉浦孔明: "太陽磁場観測による機械学習を用いた太陽フレア予報モデル開発", 日本天文学会 春季年会, 2016.
  7. 長井隆行, 谷口忠大, 尾形哲也, 岩橋直人, 杉浦孔明, 稲邑哲也, 岡田浩之: "記号創発ロボティクスによる人間機械コラボレーション基盤創成", 第19回クラウドネットワークロボット研究会, pp.23-27, 2015.
  8. 杉浦孔明: "ロボカップ@ホームの10年: インテリジェントホームロボティクスにおける標準問題の設計・成果・展望", 第3回インテリジェントホームロボティクス研究会, 2015. スライド
  9. K. Lwin, K. Sugiura and K. Zettsu: "Space-Time Multiple Regression Model for Grid Based Population Estimation: Case of Kobe City Metropolitan Area," CSIS Days, pp. 34, 2015.
  10. S. Takeuchi, K. Sugiura, Y. Akahoshi, and K. Zettsu: "Selective Reranking Considering Spatial Diversity for Scientific Data Search Systems", WebDB Forum 2015.(査読有)
  11. 杉浦孔明, 是津耕司: "Dynamic Pre-trainingを導入したDeep Neural Networkによる関節角時系列の予測", 第33回日本ロボット学会学術講演会, RSJ2015AC1B2-08, 2015. pdf
  12. 杉浦孔明, 是津耕司: "クラウドロボティクス基盤rospeexの長期実証実験と大規模ロボット対話データ の解析", 第33回日本ロボット学会学術講演会, RSJ2015AC3D1-03, 2015. pdf
  13. 能勢隆, 荒生侑介, 小林隆夫, 杉浦孔明, 志賀芳則: "統計的音声合成におけるエントロピーに基づく大規模学習文セット構築の評価", 電子情報通信学会技術研究報告, vol.115, no.184, SP2015-57, pp.39-44, 2015.
  14. 杉浦孔明, Ong Bun Theang, 是津耕司: "Deep Recurrent Neural Networkによる環境モニタリングデータの予測", 2015年度 人工知能学会全国大会, 2C3-OS-06b-3 2015. pdf
  15. 竹内伸一, 杉浦孔明, 赤星祐平, 是津耕司: "大規模異分野データ横断検索における時空間スコア計算法", 2015年度 人工知能学会全国大会, 1G3-OS-08b-4, 2015. pdf
  16. 杉浦孔明, 是津耕司: "日用品操作タスクにおけるRPD-HMMに基づく模倣学習", 第2回インテリジェントホームロボティクス研究会, 2015.
  17. 杉浦孔明, 堀智織, 是津耕司: "ホームロボットにおけるクラウド型音声対話システムの利活用", 第1回インテリジェントホームロボティクス研究会, 2014. pdf
  18. 杉浦孔明, 堀智織, 是津耕司: "音声対話向けクラウドロボティクス基盤rospeexの構築と長期実証実験", 第32回日本ロボット学会学術講演会, RSJ2014AC3I2-05, 2014. pdf
  19. 竹内伸一, 赤星祐平, Ong Bun Theang, 杉浦孔明, 是津耕司: "大規模異分野データ横断検索における時空間情報を用いた疑似適合性フィードバック", 第28回人工知能学会全国大会, 2E5-OS-25b-2, 2014. pdf
  20. 杉浦孔明, 是津耕司: "RPD-HMMに基づく逐次動作生成による物体操作の模倣学習", 第28回人工知能学会全国大会, 1I5-OS-09b-5, 2014. pdf
  21. 木全崇, 杉浦孔明, 董冕雄, 是津耕司: "Service-Controlled Networking: アプリケーション構造やユーザ要求に連動したネットワーク制御技術", 第12回日本データベース学会年次大会, 2014.
  22. 杉浦孔明, 岩橋直人, 芳賀麻誉美, 堀智織: "階層型評価構造に基づく観光スポット推薦システムの構築と長期実証実験", 観光情報学会第8回研究発表会講演論文集, pp. 9-12, 2013. pdf
  23. 杉浦孔明, 堀智織, 是津耕司: "rospeex:クラウド型音声コミュニケーションを実現するROS向けツールキット", 信学技報(CNR2013-10), pp. 7-10, 2013. pdf
  24. 杉浦孔明, 志賀芳則, 河井恒, 翠輝久, 堀智織: "サービスロボットのための非モノローグHMMによる音声合成", 第31回日本ロボット学会学術講演会, 2C1-02, 2013. pdf
  25. 杉浦孔明, 岩橋直人, 柏岡秀紀: "物体操作タスクのためのペナルティ項付き尤度最大化によるHMM軌道生成", 第13回 計測自動制御学会システムインテグレーション部門講演会, pp. 2305-2306, 2012. pdf
  26. 杉浦孔明, 岩橋直人, 柏岡秀紀: "物体操作タスクにおけるマクロパラメータを用いたHMM軌道生成", 第30回日本ロボット学会学術講演会, 3N2-5, 2012. pdf
  27. 山内祐輝, 杉浦孔明, Sakti Sakriani, 戸田智基, 中村哲: "物体操作タスクにおけるHMMを用いた障害物回避動作の生成", 第12回計測自動制御学会 システムインテグレーション部門講演会, pp. 1614-1617, 2011. pdf
  28. 杉浦孔明, 岩橋直人, 柏岡秀紀: "参照点に依存したトラジェクトリHMMによる動作生成", 第29回日本ロボット学会学術講演会, 3P3-6, 2011. pdf
  29. 大森隆司, 岡田浩之, 中村友昭, 長井隆行, 杉浦孔明, 岩橋直人: "RoboCup@home : 生活支援ベンチマークとしてのロボット競技", 第28回日本ロボット学会学術講演会, 3B3-1, 2010. pdf
  30. 杉浦孔明, 岩橋直人, 河井恒, 中村哲: "物体操作対話タスクにおける能動学習に基づく対話戦略最適化", 第28回日本ロボット学会学術講演会, 1I2-3, 2010. pdf
  31. 翠輝久, 杉浦孔明, 大竹清敬, 堀智織, 柏岡秀紀, 河井恒, 中村哲: "意思決定支援を行う音声対話における強化学習を用いた対話戦略の最適化", 日本音響学会2010年秋季研究発表会, 2010.
  32. 翠輝久, 杉浦孔明, 大竹清敬, 堀智織, 柏岡秀紀, 河井恒, 中村哲: "相談型対話のモデル化と対話戦略の最適化", 情報処理学会 音声言語情報処理研究会, 2010.
  33. 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲: "日用品を扱う物体操作の模倣学習による動作の言語化", 第24回人工知能学会全国大会, 1J1-OS13-6, 2010. pdf
  34. 左祥, 岩橋直人, 田口亮, 松田繁樹, 杉浦孔明, 船越孝太郎, 中野幹生, 岡夏樹: "Detection of Robot-Directed Speech by Situated Understanding in Physical Interaction", 第24回人工知能学会全国大会, 1J1-OS13-4, 2010.
  35. 左祥,岩橋直人,田口亮,松田繁樹,杉浦孔明,船越孝太郎,中野幹生,岡 夏樹: "Robot-Directed Speech Detection by Situated Understanding in Physical Interaction", HAIシンポジウム, 2B-3, 2009.
  36. 翠輝久, 杉浦孔明, 河原達也, 大竹清敬, 堀智織, 柏岡秀紀, 中村哲: "ベイズリスクに基づく応答生成の最適化戦略のオンライン学習", 日本音響学会2009年秋季研究発表会, 3-1-4, 2009.
  37. X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, "Robot-Command Utterance Detection Using Multimodal Semantic Confidence Based on Speech, Image, and Motion", 日本音響学会2009年秋季研究発表会, 2-1-14, 2009.
  38. X. Zuo, N. Iwahashi, R. Taguchi, S. Matsuda, K. Sugiura, K. Funakoshi, M. Nakano, and N. Oka, "Robot-Command Utterance Detection in Object Manipulation Task Using Multimodal Semantic Confidence Based on Speech, Image, and Motion", 第27回日本ロボット学会学術講演会, RSJ2009AC3C3-05, 2009.
  39. 杉浦孔明, 岩橋直人, 柏岡秀紀, 中村哲: "言語獲得ロボットにおける応答戦略最適化のための確信度のベイズ学習", 第27回日本ロボット学会学術講演会, RSJ2009AC1L2-07, 2009. pdf
  40. 杉浦孔明, 岩橋直人: "対話戦略最適化としての発話理解確信度の能動学習", 第23回人工知能学会全国大会, 1F2-OS7-9, 2009. pdf
  41. 杉浦孔明, 岩橋直人: "物体操作タスクにおける発話理解確信度の推定に基づく発話と動作の生成", 第36回知能システムシンポジウム, pp. 29-34, 2009. pdf
  42. 杉浦孔明, 水谷了, 中村友昭, 長井隆行, 岩橋直人, 岡田浩之, 大森隆司: "音声からの未登録語切り出しと画像からの物体抽出の統合による新規物体の学習", 第26回日本ロボット学会学術講演会, 1N1-05, 2008. pdf
  43. 杉浦孔明, 岩橋直人: "参照点に依存した確率モデルを用いた連続動作の認識と生成", 第22回人工知能学会全国大会, 3E3-6, 2008. pdf
  44. 岡田浩之, 大森隆司, 岩橋直人, 長井隆行, 杉浦孔明: "ロボカップ@ホームにおける音声対話技術", 第22回人工知能学会全国大会, 3E3-2, 2008.
  45. 杉浦孔明, 岩橋直人: "参照点に依存した確率モデルの結合による動作の生成", 第25回日本ロボット学会学術講演会, 1E32, 2007. pdf
  46. 杉浦孔明, 川上浩司: "移動ロボットのための複数のタスク環境における学習に適した形態の設計法", 2007年 電気学会 電子・情報・システム部門大会, pp. 118-124, 2007.
    【平成19年度 電気学会 電子・情報・システム部門大会奨励賞受賞】
    pdf
  47. 西川徳宏, 杉浦孔明, 塩瀬隆之, 川上浩司, 片井修: "ライントレーサにおける形態と制御系の同時設計", 第19回自律分散システムシンポジウム, pp. 183-188, 2007.
  48. 杉浦孔明,松原大輔,片井修: "影で形を計測する:時間差を利用したロボットセンサの位置推定", 第12回創発システムシンポジウム, pp. 128-131, 2006. pdf
  49. 松原大輔, 杉浦孔明, 下原勝憲, 片井修, 岡田美智男: "自律ロボットによるセンサ情報に基づく可塑的な身体図式の獲得", 第33回知能システムシンポジウム, pp. 179-184, 2006. pdf
  50. 杉浦孔明, 赤羽真, 塩瀬隆之, 下原勝憲, 片井修: "行動に基づく情報獲得に向けたセンサ形態の自律的獲得", 第32回知能システムシンポジウム, pp. 105-110, 2005. pdf
  51. 杉浦孔明, 松原大輔, 塩瀬隆之, 下原勝憲, 片井修: "ロボットにおける感覚運動統合のためのセンサ形態の自律的獲得", 第17回自律分散システムシンポジウム, pp. 41-46, 2005. pdf
  52. 杉浦孔明, 塩瀬隆之, 下原勝憲, 片井修: "ロボットは相互作用を``発見''できるか -- センサ進化を用いた環境からの情報の獲得と利用 --", 第5回AI若手の集い MYCOM2004, pp. 32-38, 2004. pdf
  53. 杉浦孔明, 塩瀬隆之, 川上浩司, 片井修: "身体性を有するエージェントにおけるセンサとコントローラの進化", 第31回知能システムシンポジウム, pp. 151-156, 2004. pdf
  54. 杉浦孔明, 鈴木秀明, 塩瀬隆之, 川上浩司, 片井修: "文字列書き換え系における書き換え規則の進化", 第4回AI若手の集い MYCOM2003, pp. 113-115, 2003. pdf
  55. 杉浦孔明, 鈴木秀明, 塩瀬隆之, 川上浩司, 片井修: "自己複製文字列と書き換え規則の共進化", 第30回知能システムシンポジウム, pp. 37-42, 2003. pdf
pagetop

特許

  1. 杉浦孔明, 河井恒: "命令文推定システムおよび命令文推定方法", 特願2017-172922(2017年9月8日出願)
  2. 杉浦孔明: "配置位置決定方法および配置位置決定システム", 特願2016-101302(2016年5月20日出願)
  3. 杉浦孔明, 是津耕司, "学習装置、予測装置、学習方法、予測方法、およびプログラム", 特願2015-221663(2015年11月11日出願)
  4. 志賀芳則, 大熊英男, 木村法幸, 杉浦孔明, 林輝昭, 水上悦雄, "ローカル言語資源の補強装置及びサービス提供設備装置", 特願2012-191972 (2012年8月31日出願), 特開2014-048507(2014年3月17日公開).
  5. 志賀芳則, 大熊英男, 木村法幸, 杉浦孔明, 林輝昭, 水上悦雄, "単語登録装置及びそのためのコンピュータプログラム", 特願2012-191971 (2012年8月31日出願), 特開2014-048506(2014年3月17日公開), 国内特許第6150268号(2017年6月2日登録).
  6. 杉浦孔明, 大熊英男, 木村法幸, 志賀芳則, 林輝昭, 水上悦雄, "音声処理システム及び端末装置", 特願2012-153941 (2012年7月9日出願), 特開2014-16475(2014年1月30日公開), 国内特許第5967569号(2016年7月15日登録).
  7. 杉浦孔明, 岩橋直人, "観光スポット推薦装置およびプログラム", 特願2010-224630 (2010年10月4日出願), 特開2012-079144(2012年4月19日公開), 国内特許第5565253号(2014年6月27日登録).
  8. 翠輝久, 大竹清敬, 杉浦孔明, 堀智織, 柏岡秀紀, 中村哲, "学習システム、シミュレーション装置、および学習方法", 特願2010-232355, 特開2012-038287(2012年2月23日公開), 国内特許第5545489号(2014年5月23日登録).
  9. 翠輝久, 大竹清敬, 杉浦孔明, 堀智織, 柏岡秀紀, 中村哲, "対話装置、対話方法、およびプログラム", 特願2010-119950 (2010年5月26日出願), 特開2011-248549(2011年12月8日公開).
  10. 杉浦孔明, 岩橋直人, "情報処理装置,情報処理方法,プログラム及び対話システム", 特願2009-204599 (2009年9月4日出願).
  11. 杉浦孔明, 岩橋直人, "軌道探索装置", 特願2007-236561 (2007年9月12日出願), 特開2009-66692 (2009年4月2日公開).
  12. 杉浦孔明, "センサ設計装置,センサ設計方法,センサ設計プログラム", 特願2005-223343 (2005年8月1日出願), 特開2007-41723 (2007年2月15日公開)
pagetop

競争的資金導入実績



  1. 平成29-31年度, "百日咳菌の咳誘発性病原因子の探索と咳誘発機構の解明", 科研費 基盤研究(B), 研究分担者.
  2. 平成28-29年度, "言語・非言語データを解析可能なクラウドロボティクス基盤の構築", NICT研究開発推進ファンド, 研究代表者, 15,200千円.
  3. 平成27-32年度, "記号創発ロボティクスによる人間機械コラボレーション基盤創成", 科学技術振興機構(JST) 戦略的創造研究推進事業(CREST), 主たる共同研究者, 37,000千円.
  4. 平成27-29年度, "クラウドロボティクス基盤を用いた大規模データからの動作と対話の学習", 科研費 若手研究(B), 研究代表者, 3,100千円.
  5. 平成27年度, "サービスロボットのための実世界知識を扱うクラウド型音声対話基盤の構築", 立石科学技術振興財団 研究助成(A), 研究代表者. 2,500千円.
  6. 平成27年度, "クラウド型仮想空間における社会的身体的経験の蓄積に基づく知能ロボット の発達", 国立情報学研究所 共同研究費, 共同研究者.
  7. 平成27年度, "データ工学と人工知能学に基づく実世界ロボット学の構築", 国立情報学研究所 共同研究費, 共同研究者.
  8. 平成26年度, "社会的知能発生シミュレータSIGVerseを用いた実践研究", 国立情報学研究所 共同研究費, 共同研究者.
  9. 平成24-26年度, "確率的模倣学習に基づく動作の言語化", 科研費 若手研究(B) , 研究代表者. 3,400千円.
  10. 平成24-25年度, "動作および視覚概念を教示可能なロボット対話手法の構築", 科研費 新学術領域研究「人ロボット共生学」公募研究, 研究代表者. 8,000千円.
  11. 平成24年度, "SIGVerseの没入型VRインタフェースを用いたサービスロボットの大規模 長時間動作に関する研究", 国立情報学研究所 共同研究費, 共同研究者.
  12. 平成23年度, "SIGVerse を用いた没入型多人数シミュレーション環境におけるサービス ロボットの技術開発と評価", 国立情報学研究所 共同研究費, 共同研究者.
  13. 平成22年度, "SIGverseを用いたサービスロボットのための屋内外シミュレーション環 境の構築とその応用", 国立情報学研究所 共同研究費, 共同研究者.
  14. 平成21年度, "能動的ハンドインタラクションによる実世界言語コミュニケーションの ための動作の言語化技術の研究", 国立情報学研究所 共同研究費, 共同研究者.
  15. 平成20-22年度, "生活支援ロボットの対話と行動のユーザー適応化技術の研究", 科研費 基盤研究(C), 研究分担者. 3,500千円.
  16. 平成20年度, "能動的ハンドインタラクションによる実世界言語コミュニケーションの ための動作の言語化技術の研究", 国立情報学研究所 共同研究費, 共同研究者.
  17. 平成20年度, "人間とロボットの安全なインタラクションのための動作の言語化技術の 研究", (財)立石科学技術振興財団 研究助成, 共同研究者.
  18. 平成19年度, "能動的ハンドインタラクションによる実世界言語コミュニケーションの ための動作の言語化技術の研究", 国立情報学研究所 共同研究費, 共同研究者.
  19. 平成18-19年度, "センサ進化によるロボットの形態と行動の共創的設計", 日本学術振興会 科学研究費補助金(特別研究員奨励費)18・2972, 研究代表者.1,900千円.
  20. 平成17年度, "自律ロボットにおける身体と制御系の調和設計", 21世紀COE「知識社会基盤構築のための情報学研究拠点形成」若手リーダー シップ養成プログラム, 研究代表者.
  21. 平成16年度, "自律ロボットの身体性を利用したセンサ進化に関する研究", 21世紀COE「知識社会基盤構築のための情報学研究拠点形成」若手リーダー シップ養成プログラム, 研究代表者.
pagetop