小林 貴訓(コバヤシ ヨシノリ)
理工学研究科 数理電子情報部門教授
工学部 情報工学科

研究者情報

■ 学位
  • 博士, 東京大学
■ 研究キーワード
  • ヒューマンロボットインタラクション
  • ヒューマンコンピュータインタラクション
  • コンピュータビジョン
■ 研究分野
  • 情報通信, 知能ロボティクス
  • 情報通信, 知覚情報処理
■ 経歴
  • 2020年04月 - 現在, 埼玉大学, 教授
  • 2014年04月 - 2020年03月, 埼玉大学, 准教授
  • 2007年10月 - 2014年03月, 埼玉大学, 助教
  • 2000年04月 - 2004年06月, 三菱電機株式会社
■ 学歴
  • 2007年09月, 東京大学, 情報理工学系研究科
  • 2007年, 東京大学, 情報理工学系研究科, 日本国
  • 2007年, 東京大学
■ 委員歴
  • 2010年10月01日
    電子情報通信学会, 常任査読委員
  • 事業計画委員会, 委員
■ 受賞
  • 2024年03月16日, 奨励賞, 情報処理学会全国大会
  • 2023年11月05日, 研究発表大賞, ジュニアドクター育成塾 サイエンスカンファレンス2023
  • 2021年12月16日, ヒューマンコミュニケーション賞, 電子情報通信学会
  • 2018年06月28日, Best Paper Award, International Conference on Informatics, Electronics & Vision (ICIEV2018)
  • 2018年06月14日, 最優秀学術賞, 画像センシング技術研究会
  • 2015年01月29日, Best Poster Award, Korea-Japan joint Workshop on Frontiers of Computer Vision (FCV2015)
  • 2014年08月05日, Best Paper Award, International Conference on Intelligent Computing (ICIC2014)
  • 2013年03月06日, Best Demonstration Award, 8th ACM/IEEE International Conference on Human-Robot Interaction
  • 2011年03月15日, 学術奨励賞, 電子情報通信学会
  • 2010年05月31日, 情報処理学会論文賞, 情報処理学会

業績情報

■ 論文
  • Pedestrian Tracking Using Ankle-Level 2D-LiDAR Based on ByteTrack
    Md. Mohibullah; Yuhei Hironaka; Yusuke Suda; Ryota Suzuki; Mahmudul Hasan; Yoshinori Kobayashi
    Lecture Notes in Computer Science, 巻:15046, 開始ページ:211, 終了ページ:222, 2025年01月, [査読有り], [最終著者]
    Springer Nature Switzerland, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1007/978-3-031-77392-1_16
    DOI ID:10.1007/978-3-031-77392-1_16, ISSN:0302-9743, eISSN:1611-3349
  • Impression Evaluation of Chat Robot with Bodily Emotional Expression Incorporating Large-Scale Language Models
    Zhong Qiang; Yukiharu Nagai; Hisato Fukuda; Ryota Suzuki; Yoshinori Kobayashi
    Lecture Notes in Computer Science, 巻:14871, 開始ページ:439, 終了ページ:449, 2024年07月, [査読有り], [最終著者]
    Springer Nature Singapore, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1007/978-981-97-5609-4_34
    DOI ID:10.1007/978-981-97-5609-4_34, ISSN:0302-9743, eISSN:1611-3349
  • Multimodal Emotion Recognition through Deep Fusion of Audio-Visual Data               
    T. Sultana, M. Jahan, M.K. Uddin, Y. Kobayashi, M. Hasan
    International Conference on Computer and Information Technology (ICCIT), 開始ページ:1, 終了ページ:5, 2023年
  • Safety Helmet Detection of Workers in Construction Site using YOLOv8               
    S.S. Mahmud, M.A. Islam, K.J. Ritu, M. Hasan, Y. Kobayashi, M. Mohibullah
    International Conference on Computer and Information Technology (ICCIT), 開始ページ:1, 終了ページ:6, 2023年
  • SelfBOT: An Automated Wheel-Chair Control Using Facial Gestures Only               
    K.J. Ritu, K. Ahammad, M. Mohibullah, M. Khatun, M.Z. Uddin, M.K. Uddin, Y. Kobayashi, M. Hasan
    International Conference on Computer and Information Technology (ICCIT), 開始ページ:1, 終了ページ:6, 2023年
  • LiDAR-based Detection, Tracking, and Property Estimation: A Contemporary Review               
    M. Hasan, J. Hanawa, R. Goto, R. Suzuki, H. Fukuda, Y. Kuno, Y. Kobayashi
    Neurocomputing, 巻:506, 号:C, 開始ページ:393, 終了ページ:405, 2022年
  • Enhancing Multimodal Interaction Between Performers and Audience Members During Live Music Performances               
    K. Otsu, J. Yuan, H. Fukuda, Y. Kobayashi, Y. Kuno, K. Yamazaki
    International Conference on Human Factors in Computing Systems (CHI2021) Late-Breaking Work, 開始ページ:1, 終了ページ:6, 2021年05月
    Live performance provides a good example of enthusiastic interaction between people gathered together in a large group and one or more performers. In this research, we focused on elucidating the mechanism of such enthusiastic group interaction (collective effervescence) and how technology can contribute to its enhancement. We propose a support system for co-experience and physical co-actions among participants to enhance enthusiastic interaction between performers and audiences during live performances. This system focuses on a physical synchronization between the performer and the audience as the key that generates enthusiastic interaction during a live performance. Also, it supports enhanced bidirectional communication of the performer's actions and the audience's cheering behaviors. An experiment in an actual live performance environment in which collective effervescence was already occurring demonstrated that the bidirectional communication and visualization of physical movements in the proposed system contributed to the further unification of the group.
    研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/3411763.3451584
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=85105826264&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=85105826264&origin=inward
    DOI ID:10.1145/3411763.3451584, SCOPUS ID:85105826264
  • Person Tracking Using Ankle-Level LiDAR Based on Enhanced DBSCAN and OPTICS               
    M. Hasan, J. Hanawa, R. Goto, H. Fukuda, Y. Kuno, Y. Kobayashi
    IEEJ Transactions on Electrical and Electronic Engineering, 巻:16, 号:5, 開始ページ:778, 終了ページ:786, 2021年05月
    Along with the progress of deep learning techniques, people tracking using video cameras became easy and accurate. However, privacy and security issues are not enough to be concerned with vision-based monitoring. People may not be tolerated surveillance cameras installed everywhere in our daily life. A camera-based system may not work robustly in unusual situations such as smoke, fogs, or darkness. To cope with these problems, we propose a two-dimensional (2D) LiDAR-based people tracking technique based on clustering algorithms. A LiDAR sensor is a prominent approach for tracking people without disclosing their identity, even under challenging conditions. For tracking people, we propose modified density-based spatial clustering of applications with noise (DBSCAN) and ordering points to identify cluster structure (OPTICS) algorithms for clustering 2D LiDAR data. We have confirmed that our approach significantly improves the accuracy and robustness of people tracking through the experiments. © 2021 Institute of Electrical Engineers of Japan. Published by Wiley Periodicals LLC.
    John Wiley and Sons Inc, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1002/tee.23358
    DOI ID:10.1002/tee.23358, ISSN:1931-4981, SCOPUS ID:85103964428
  • Interest Estimation Based on Biological Information and Body Sway               
    Y. Wang, K. Otsu, H. Fukuda, Y. Kobayashi, Y. Kuno
    International Workshop on Frontiers of Computer Vision (IW-FCV), 2021年
  • Fusion in Dissimilarity Space for RGB-D Person Re-identification               
    M.K. Uddin, A. Lam, H. Fukuda, Y. Kobayashi, Y. Kuno
    Array, 巻:12, 開始ページ:1, 終了ページ:13, 2021年
  • エスノメソドロジー的視点に基づく購買支援システムの開発               
    山崎敬一,中西英之,小林貴訓
    サービス学会誌, 巻:7, 号:4, 開始ページ:130, 終了ページ:137, 2021年
  • Person Property Estimation Based on 2D LiDAR Data Using Deep Neural Network               
    M. Hasan, R. Goto, J. Hanawa, H. Fukuda, Y. Kuno, Y. Kobayashi
    International Conference on Intelligent Computing (ICIC2021), 巻:12836, 開始ページ:763, 終了ページ:773, 2021年
    Video-based estimation plays a very significant role in person identification and tracking. The emergence of new technology and increased computational capabilities make the system robust and accurate day by day. Different RGB and dense cameras are used in these applications over time. Video-based analyses are offensive, and individual identity is leaked. As an alternative to visual capturing, now LiDAR shows its credentials with utmost accuracy. Besides privacy issues but critical natural circumstances also can be addressed with LiDAR sensing. Some susceptible scenarios like heavy fog and smoke in the environment are downward performed with typical visual estimation. In this study, we figured out a way of estimating a person's property, i.e., height and age, etc., based on LiDAR data. We placed different 2D LiDARs in ankle levels and captured persons' movements. These distance data are being processed as motion history images. We used deep neural architecture for estimating the properties of a person and achieved significant accuracies. This 2D LiDAR-based estimation can be a new pathway for critical reasoning and circumstances. Furthermore, computational cost and accuracies are very influential over traditional approaches.
    Springer Science and Business Media Deutschland GmbH, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-84522-3_62
    DOI ID:10.1007/978-3-030-84522-3_62, ISSN:1611-3349, SCOPUS ID:85113631215
  • Tracking People Using Ankle-Level 2D LiDAR for Gait Analysis               
    M. Hasan, J. Hanawa, R. Goto, H. Fukuda, Y. Kuno, Y. Kobayashi
    International Conference on Applied Human Factors and Ergonomics (AHFE2020), 巻:1213, 開始ページ:40, 終了ページ:46, 2021年
    People tracking is one of the fundamental goals of human behavior recognition. Development of cameras, tracking algorithms and effective computations make it appropriate. But, when the question is privacy and secrecy, cameras have a great obligation on it. Our fundamental goal of this research is to replace video camera with a device (2D LiDAR) that significantly preserve the privacy of the user, solve the issue of narrow field of view and make the system functional simultaneously. We consider individual movements of every moving objects on the plane and figure out the objects as a person based on ankle orientation and movements. Our approach calculates the number of frames of every moving object and finally create a video based on those frames.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-51328-3_7
    DOI ID:10.1007/978-3-030-51328-3_7, ISSN:2194-5365, SCOPUS ID:85088514721
  • Video Analysis of Wheel Pushing Actions for Wheelchair Basketball Players               
    K. Fukue, H. Fukuda, Y. Kobayashi, Y. Kuno, N. Shida, M. Sugiyama, T. Handa, T. Morita
    Communications in Computer and Information Science, 巻:1405, 開始ページ:233, 終了ページ:241, 2021年
    In wheelchair basketball, the performance of a player is not only determined by his/her physical ability but also depending on the settings of the wheelchair such as the height and/or angle of its seat and the size and/or position of its wheels. However, these wheelchair settings are based on the rules of thumb of players and instructors, and there are no specific guidelines or rules regarding the settings of wheelchair according to the physical characteristics and/or types of disabilities of the athletes. This study, therefore, aims to provide the suggestions to improve the performance of the athletes by analyzing the wheelchair starting actions in comparison to the top players with the highest ability of wheelchair operation. We propose the method to measure the detailed behaviors of players during starting actions from video footages. Through the experimental verification, we successfully retrieved the detailed behaviors of players and wheelchairs. We also confirmed it is possible to measure the difference in the behaviors among multiple participants and different wheelchair settings, respectively.
    研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-81638-4_19
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=85112731078&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=85112731078&origin=inward
    DOI ID:10.1007/978-3-030-81638-4_19, ISSN:1865-0929, eISSN:1865-0937, SCOPUS ID:85112731078
  • Video Analysis of Wheel Rowing Actions for Wheelchair Basketball Players               
    K. Fukue, H. Fukuda, Y. Kobayashi, Y. Kuno, N. Shida, M. Sugiyama, T. Handa, T. Morita
    International Workshop on Frontiers of Computer Vision (IW-FCV), 開始ページ:233, 終了ページ:241, 2021年
    Springer, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-81638-4_19
    DOI ID:10.1007/978-3-030-81638-4_19, DBLP ID:conf/fcv/FukueFKKSSHM21
  • Enhancing Multimodal Interaction Between Performers and Audience Members During Live Music Performances.               
    Kouyou Otsu; Jinglong Yuan; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno; Keiichi Yamazaki
    CHI '21: CHI Conference on Human Factors in Computing Systems, 開始ページ:410, 終了ページ:6, 2021年
    ACM, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/3411763.3451584
    DOI ID:10.1145/3411763.3451584, DBLP ID:conf/chi/OtsuYFKKY21
  • Robust and Fast Heart Rate Monitoring Based on Video Analysis and Its Application               
    K. Otsu, Q. Zhong, D. Keya, H. Fukuda, A. Lam, Y. Kobayashi, Y. Kuno
    International Conference on Applied Human Factors and Ergonomics (AHFE2020), 巻:1213 AISC, 開始ページ:250, 終了ページ:257, 2021年
    Techniques to remotely measure heartbeat information are useful for many applications such as daily health management and emotion estimation. In recent years, some methods to measure heartbeat information using a consumer RGB camera have been proposed. However, it is still a difficult challenge to accurately and quickly measure heart rate from videos with significant body movements. In this study, we propose a video-based heart rate measurement method that enables robust measurement in real-time by improving over previous slower methods that used local regions of the facial skin for measurement. From experiments using public datasets and self-collected videos, it was confirmed that the proposed method enables fast measurements while maintaining the accuracy of conventional methods.
    研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-51328-3_35
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=85088531749&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=85088531749&origin=inward
    DOI ID:10.1007/978-3-030-51328-3_35, ISSN:2194-5357, eISSN:2194-5365, SCOPUS ID:85088531749
  • Person-Following Shopping Support Robot using Kinect Depth Camera based on 3D Skeleton Tracking               
    M.M. Islam, A. Lam, H. Fukuda, Y. Kobayashi, Y. Kuno
    International Conference on Intelligent Computing (ICIC2020), 巻:12465, 開始ページ:28, 終了ページ:37, 2020年
    The lack of caregivers in an aging society is a major social problem. Without assistance, many of the elderly and disabled are unable to perform daily tasks. One important daily activity is shopping in supermarkets. Pushing a shopping cart and moving it from shelf to shelf is tiring and laborious, especially for customers with certain disabilities or the elderly. To alleviate this problem, we develop a person following shopping support robot using a Kinect camera that can recognize customer shopping actions or activities. Our robot can follow within a certain distance behind the customer. Whenever our robot detects the customer performing a “hand in shelf” action in front of a shelf it positions itself beside the customer with a shopping basket so that the customer can easily put his or her product in the basket. Afterwards, the robot again follows the customer from shelf to shelf until he or she is done with shopping. We conduct our experiments in a real supermarket to evaluate its effectiveness.
    Springer Science and Business Media Deutschland GmbH, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-60796-8_3
    DOI ID:10.1007/978-3-030-60796-8_3, ISSN:1611-3349, SCOPUS ID:85093985863
  • Depth Guided Attention for Person Re-identification               
    M.K. Uddin, A. Lam, H. Fukuda, Y. Kobayashi, Y. Kuno
    International Conference on Intelligent Computing (ICIC2020), 巻:12465, 開始ページ:110, 終了ページ:120, 2020年
    Person re-identification is an important video-surveillance task for recognizing people from different non-overlapping camera views. Recently it has gained significant attention upon the introduction of different sensors (i.e. depth cameras) that provide the additional information irrespective of the visual features. Despite recent advances with deep learning models, state-of-the-art re-identification approaches fail to leverage the sensor-based additional information for robust feature representations. Most of these state-of-the-art approaches rely on complex dedicated attention-based architectures for feature fusion and thus become unsuitable for real-time deployment. In this paper, a new deep learning method is proposed for depth guided re-identification. The proposed method takes into account the depth-based additional information in the form of an attention mechanism, unlike state-of-the-art methods of complex architectures. Experimental evaluations on a depth-based benchmark dataset suggest the superiority of our proposed approach over the considered baseline as well as with the state-of-the-art.
    Springer Science and Business Media Deutschland GmbH, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-030-60796-8_10
    DOI ID:10.1007/978-3-030-60796-8_10, ISSN:1611-3349, SCOPUS ID:85093972508
  • Indoor Visual Re-localization using Omni-directional Camera by Incorporating Confidence Indicator               
    T. Takahashi, H. Fukuda, Y. Kobayashi, and Y. Kuno
    International Workshop on Frontiers of Computer Vision (IW-FCV2020), 巻:1212, 開始ページ:192, 終了ページ:205, 2020年
    In this paper, we propose a novel re-localization method with deep learning using monocular image. A data augmentation method with semi-omni-directional image is introduced. Our method aims re-localization to be robust for changes in the surrounding situation. It is achieved by applying the uncertainty measurement obtained from Bayesian Neural Network. We confirm the effectiveness of our proposed method through the experiments.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-981-15-4818-5_15
    DOI ID:10.1007/978-981-15-4818-5_15, ISSN:1865-0937, SCOPUS ID:85090045042
  • An Intelligent Shopping Support Robot: Understanding Shopping Behavior from 2D Skeleton Data using GRU Network               
    M. M. Islam, A. Lam, H. Fukuda, Y. Kobayashi, and Y. Kuno
    Robomech Journal, 巻:6, 号:1, 2019年12月
    In supermarkets or grocery, a shopping cart is a necessary tool for shopping. In this paper, we have developed an intelligent shopping support robot that can carry a shopping cart while following its owners and provide the shopping support by observing the customer’s head orientation, body orientation and recognizing different shopping behaviors. Recognizing shopping behavior or the intensity of such action is important for understanding the best way to support the customer without disturbing him or her. This system also liberates elderly and disabled people from the burden of pushing shopping carts, because our proposed shopping cart is essentially a type of autonomous mobile robots that recognizes its owner and following him or her. The proposed system discretizes the head and body orientation of customer into 8 directions to estimate whether the customer is looking or turning towards a merchandise shelf. From the robot’s video stream, a DNN-based human pose estimator called OpenPose is used to extract the skeleton of 18 joints for each detected body. Using this extracted body joints information, we built a dataset and developed a novel Gated Recurrent Neural Network (GRU) topology to classify different actions that are typically performed in front of shelves: reach to shelf, retract from shelf, hand in shelf, inspect product, inspect shelf. Our GRU network model takes series of 32 frames skeleton data then gives the prediction. Using cross-validation tests, our model achieves an overall accuracy of 82%, which is a significant result. Finally, from the customer’s head orientation, body orientation and shopping behavior recognition we develop a complete system for our shopping support robot.
    Springer Science and Business Media Deutschland GmbH, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1186/s40648-019-0150-1
    DOI ID:10.1186/s40648-019-0150-1, ISSN:2197-4225, SCOPUS ID:85076560888
  • Social Interaction with Visitors: Mobile Guide Robots Capable of Offering a Museum Tour               
    M. A. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki, and A. Yamazaki
    IEEJ Transactions on Electrical and Electronic Engineering, 巻:14, 号:12, 開始ページ:1823, 終了ページ:1835, 2019年12月
    The purpose of this study is to develop a mobile museum guide (MG) robot capable of creating and controlling spatial formations with visitors in different situations. Although much research has already been conducted in the area of nonverbal communication between guide robots and humans, the creation and controlling of spatial formations with multiple visitors is a fundamental function for MG robots that remains unexplored. Drawing upon psychological and sociological studies on the spatial relationships between humans, it is evident that to be effective MG robots should also possess the capability to create and control spatial formations in various situations. A MG robot needs to establish a spatial formation to initiate interaction with the visitors
    a spatial formation is a prerequisite before the robot can begin explaining an exhibit. Moreover, the guide robot must be able to identify interested bystanders and invite them into an ongoing explanation session, necessitating a reconfiguring of the spatial formation. Finally, the robot must be able to do this while continuing to explain multiple exhibits in a cohesive fashion. To devise a system capable of meeting these needs, we began by observing and videotaping scenes of actual museum galleries. Based on analyzing these data, we found that MG creates spatial formation with the visitors in a systematic way. We then developed a mobile robot system able to create and control spatial formations while guiding multiple visitors. A particle filter framework is employed to track the visitors' positions and body orientations and the orientations of their heads. We then evaluated the guide robot system in a series of experiments that focused on different situations where a guide robot creates a spatial formation with visitors. © 2019 Institute of Electrical Engineers of Japan. Published by John Wiley &
    Sons, Inc.
    John Wiley and Sons Inc., 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1002/tee.23009
    DOI ID:10.1002/tee.23009, ISSN:1931-4981, SCOPUS ID:85071768505
  • Companion Following Robotic Wheelchair with Bus Boarding Capabilities               
    S. A. Mamun, S. Ali, H. Fukuda, A. Lam, Y. Kobayashi, and Y. Kuno
    International Conference on Informatics, Electronics & Vision (ICIEV201), 開始ページ:174, 終了ページ:179, 2019年02月
    In the last decade, several robotic wheelchairs possessing user-friendly interfaces and/or autonomous functions for reaching a goal have been proposed to meet the needs in aging societies. Moreover, it is vital to consider for the researchers, how to reduce the companion's load and support their activities like bus boarding and disembarkation. In this paper, we propose an autonomous bus boarding wheelchair system that can give freedom of movement to wheelchair users by following its companion side by side or in front-behind positions and simultaneously scan the environment to move smoothly in outside terrain. Additionally, our bus boarding wheelchair is able to detect buses and bus doors with precise measurements of the doorstep's height and width to board and disembark the bus. Our experiments show the effectiveness and applicability of our system in moving around urban areas in using community bus services.
    Institute of Electrical and Electronics Engineers Inc., 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICIEV.2018.8641059
    DOI ID:10.1109/ICIEV.2018.8641059, SCOPUS ID:85063236160
  • 遠隔買い物支援における複数視点と音声の位置               
    小松由和, 山崎晶子, 山崎敬一, 池田佳子, 歌田夢香, 久野義徳, 小林貴訓, 福田悠人
    情報処理学会論文誌, 巻:60, 号:1, 開始ページ:157, 終了ページ:165, 2019年
  • Robotic Shopping Trolley for Supporting the Elderly               
    Y. Kobayashi, S. Yamazaki, H. Takahashi, H. Fukuda, and Y. Kuno
    International Conference on Applied Human Factors and Ergonomics (AHFE2018), 巻:779, 開始ページ:344, 終了ページ:353, 2019年
    As the advance of an aging society in Japan, along with the lack of caregivers, the elderly care has become a crucial social problem. To cope with this problem, we are focusing on shopping. Shopping is one of the important daily activities and expected to be effective for the elderly rehabilitation because it feels easier than walking rehabilitation and it can give the positive effect for the cognitive functions by memorizing and checking out items to buy. The current shopping rehabilitation is carried out with a caregiver accompanied by the elderly one by one for guiding inside the store, carrying shopping basket, monitoring, etc. Consequently, the caregivers’ load is very high. In this paper, we propose a robotic shopping trolley that can reduce the caregivers’ load in shopping rehabilitation. We evaluate its effectiveness through experiments at an actual supermarket.
    Springer Verlag, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-94373-2_38
    DOI ID:10.1007/978-3-319-94373-2_38, ISSN:2194-5357, SCOPUS ID:85049158408
  • Interacting with Wheelchair Mounted Navigator Robot.               
    Akiko Yamazaki; Keiichi Yamazaki; Yusuke Arano; Yosuke Saito; Emi Iiyama; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Mensch und Computer 2019 - Workshopband, Hamburg, Germany, September 8-11, 2019, 2019年, [査読有り]
    Gesellschaft für Informatik e.V., 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.18420/muc2019-ws-651
    DOI ID:10.18420/muc2019-ws-651, DBLP ID:conf/mc/YamazakiYASIFKK19
  • Exploiting Local Shape Information for Cross-Modal Person Re-identification.               
    Md. Kamal; Uddin; Antony Lam; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 15th International Conference, ICIC 2019, Nanchang, China, August 3-6, 2019, Proceedings, Part III, 巻:LNCS11645, 開始ページ:74, 終了ページ:85, 2019年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-030-26766-7_8
    DOI ID:10.1007/978-3-030-26766-7_8, DBLP ID:conf/icic/UddinLFKK19
  • A Human-Robot Interaction System Based on Calling Hand Gestures.               
    Aye Su Phyo; Hisato Fukuda; Antony Lam; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 15th International Conference, ICIC 2019, Nanchang, China, August 3-6, 2019, Proceedings, Part III, 巻:LNCS11645, 開始ページ:43, 終了ページ:52, 2019年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-030-26766-7_5
    DOI ID:10.1007/978-3-030-26766-7_5, DBLP ID:conf/icic/PhyoFLKK19
  • Smart Wheelchair Maneuvering Among People.               
    Sarwar Ali; Antony Lam; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 15th International Conference, ICIC 2019, Nanchang, China, August 3-6, 2019, Proceedings, Part III, 巻:LNCS11645, 開始ページ:32, 終了ページ:42, 2019年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-030-26766-7_4
    DOI ID:10.1007/978-3-030-26766-7_4, DBLP ID:conf/icic/AliLFKK19
  • A Person-Following Shopping Support Robot Based on Human Pose Skeleton Data and LiDAR Sensor.               
    Md. Matiqul Islam; Antony Lam; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 15th International Conference, ICIC 2019, Nanchang, China, August 3-6, 2019, Proceedings, Part III, 巻:LNCS11645, 開始ページ:9, 終了ページ:19, 2019年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-030-26766-7_2
    DOI ID:10.1007/978-3-030-26766-7_2, DBLP ID:conf/icic/IslamLFKK19
  • Teleoperation of a Robot through Audio-Visual Signal via Video Chat               
    Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:111, 終了ページ:112, 2018年03月, [査読有り]
    Telepresence robots have the potential for improving human-to-human communication when a person cannot be physically present at a given location. One way to achieve this is to construct a system that consists of a robot and video conferencing setup. However, a conventional implementation would involve building a separate server or control path for teleoperation of the robot in addition to the video conferencing system. In this paper, we propose an approach to robot teleoperation via a video call that does not require the use of an additional server or control path. Instead, we propose directly teleoperating the robot via the audio and video signals of the video call itself. We experiment on which signals are most suitable for this task and present our findings.
    IEEE Computer Society, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/3173386.3177037
    DOI ID:10.1145/3173386.3177037, ISSN:2167-2148, DBLP ID:conf/hri/FukudaKK18, SCOPUS ID:85045279327
  • Pedestrian Tracking and Identification by Integrating Multiple Sensor Information               
    F. Endo, H. Fukuda, Y. Kobayashi, and Y. Kuno
    International Workshop on Frontiers of Computer Vision (IW-FCV2019), 2018年
  • A Study on Proactive Methods for Initiating Interaction with Human by Social Robots               
    M. G. Rashed, D. Das, Y. Kobayashi, and Y. Kuno
    Asian Journal of Convergence in Technology, 巻:4, 号:2, 開始ページ:1, 終了ページ:10, 2018年
  • Affinity Live:演者と観客の一体感を増強する双方向ライブ支援システム               
    大津耕陽; 福島史康; 高橋秀和; 平原実留; 福田悠人; 小林貴訓; 久野義徳; 山崎敬一
    情報処理学会論文誌, 巻:59, 号:11, 開始ページ:2019, 終了ページ:2029, 2018年, [査読有り]
    日本語, 研究論文(学術雑誌)
    ISSN:1882-7764, J-Global ID:201902250029525198
  • Autonomous Bus Boarding Robotic Wheelchair Using Bidirectional Sensing Systems.               
    Shamim Al Mamun; Hisato Fukuda; Antony Lam; Yoshinori Kobayashi; Yoshinori Kuno
    Advances in Visual Computing - 13th International Symposium, ISVC 2018, Las Vegas, NV, USA, November 19-21, 2018, Proceedings, 開始ページ:737, 終了ページ:747, 2018年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-030-03801-4_64
    DOI ID:10.1007/978-3-030-03801-4_64, DBLP ID:conf/isvc/MamunFLKK18
  • Enhancing Multiparty Cooperative Movements: A Robotic Wheelchair that Assists in Predicting Next Actions.               
    Hisato Fukuda; Keiichi Yamazaki; Akiko Yamazaki; Yosuke Saito; Emi Iiyama; Seiji Yamazaki; Yoshinori Kobayashi; Yoshinori Kuno; Keiko Ikeda
    Proceedings of the 2018 on International Conference on Multimodal Interaction, ICMI 2018, Boulder, CO, USA, October 16-20, 2018, 開始ページ:409, 終了ページ:417, 2018年, [査読有り]
    ACM, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/3242969.3242983
    DOI ID:10.1145/3242969.3242983, DBLP ID:conf/icmi/FukudaYYSIYKKI18
  • Classification of Emotions from Video Based Cardiac Pulse Estimation.               
    Keya Das; Antony Lam; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 14th International Conference, ICIC 2018, Wuhan, China, August 15-18, 2018, Proceedings, Part III, 巻:LNAI10956, 開始ページ:296, 終了ページ:305, 2018年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-319-95957-3_33
    DOI ID:10.1007/978-3-319-95957-3_33, DBLP ID:conf/icic/DasLFKK18
  • Smart Robotic Wheelchair for Bus Boarding Using CNN Combined with Hough Transforms.               
    Sarwar Ali; Shamim Al Mamun; Hisato Fukuda; Antony Lam; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Methodologies - 14th International Conference, ICIC 2018, Wuhan, China, August 15-18, 2018, Proceedings, Part III, 巻:LNAI10956, 開始ページ:163, 終了ページ:172, 2018年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-319-95957-3_18
    DOI ID:10.1007/978-3-319-95957-3_18, DBLP ID:conf/icic/AliMFLKK18
  • Natural Calling Gesture Recognition in Crowded Environments.               
    Aye Su Phyo; Hisato Fukuda; Antony Lam; Yoshinori Kobayashi; Yoshinori Kuno
    Intelligent Computing Theories and Application - 14th International Conference, ICIC 2018, Wuhan, China, August 15-18, 2018, Proceedings, Part I, 巻:LNCS10954, 開始ページ:8, 終了ページ:14, 2018年, [査読有り]
    Springer
    DOI:https://doi.org/10.1007/978-3-319-95930-6_2
    DOI ID:10.1007/978-3-319-95930-6_2, DBLP ID:conf/icic/PhyoFLKK18
  • Robustly Tracking People with LIDARs in a Crowded Museum for Behavioral Analysis               
    M. G. Rashed, R. Suzuki, T. Yonezawa, A. Lam, Y. Kobayashi, and Y. Kuno
    IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, 巻:E100A, 号:11, 開始ページ:2458, 終了ページ:2469, 2017年11月, [査読有り]
    This introduces a method which uses LIDAR to identify humans and track their positions, body orientation, and movement trajectories in any public space to read their various types of behavioral responses to surroundings. We use a network of LIDAR poles, installed at the shoulder level of typical adults to reduce potential occlusion between persons and/or objects even in large-scale social environments. With this arrangement, a simple but effective human tracking method is proposed that works by combining multiple sensors' data so that large-scale areas can be covered. The effectiveness of this method is evaluated in an art gallery of a real museum. The result revealed good tracking performance and provided valuable behavioral information related to the art gallery.
    Institute of Electronics, Information and Communication, Engineers, IEICE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1587/transfun.E100.A.2458
    DOI ID:10.1587/transfun.E100.A.2458, ISSN:1745-1337, DBLP ID:journals/ieicet/RashedSYLKK17, SCOPUS ID:85033446271
  • Enhanced Concert Experience using Multimodal Feedback from Live Performers               
    K. Otsu, H. Takahashi, H. Fukuda, Y. Kobayashi, and Y. Kuno
    Proc. 10th International Conference on Human System Interaction (HSI2017), 開始ページ:290, 終了ページ:294, 2017年08月, [査読有り]
    In this paper, we aim to enhance the interaction between the performer and the audience in live idol performances. We propose a system for converting the movements of individual members of an idol group into vibrations and their voices into light on handheld devices for the audience. Specifically, for each performer, the system acquires data on movement and voice magnitudes via an acceleration sensor attached to the right wrist and microphone. The obtained data is then converted into motor vibrations and lights from an LED. The receiving devices for the audience members come in the form of a pen light or doll. A prototype system was made to collect acceleration data and voice magnitude data measurements for our experiments with an idol group in Japan to verify whether the performer's movements and singing voice could be correctly measured during real live performance conditions. We developed a program to present the strength of the movements and singing voice corresponding to one of the members as vibrations and lights based on the information of the recorded data. Then, an experiment was conducted for eight subjects that observed the performance. We found that seven out of eight subjects could identify the idol performer with corresponding vibrations and lighting from the device.
    Institute of Electrical and Electronics Engineers Inc., 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HSI.2017.8005047
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=85030224011&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=85030224011&origin=inward
    DOI ID:10.1109/HSI.2017.8005047, DBLP ID:conf/hsi/OtsuTFKK17, SCOPUS ID:85030224011
  • Analysis and Prediction of Real Museum Visitors' Interests and Preferences Based on Their Behaviors               
    Md. Golam Rashed; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    2017 INTERNATIONAL CONFERENCE ON ELECTRICAL, COMPUTER AND COMMUNICATION ENGINEERING (ECCE), 開始ページ:451, 終了ページ:456, 2017年, [査読有り]
    Humans behaviors and experiences in social spaces are believed to be the result of the processes of the mind that are influenced by the different features of these spaces. By observing humans behaviors and experiences, it can be feasible to read their level of interests, preferences in any social environments. However, making manual large scale observation of human behaviors using paper-and-pencil based method is a very difficult and complicated task. In this study, an attractive solution to this complicated task is discussed. Here, we used our network enabled multiple LIDARs pole based human tracking system in supporting to our solution. This system can robustly track humans in any social environments. Our solution provides an easy way to observe humans behaviors from human tracking data to read their interests, preferences inside any social spaces. Finally, we tested our solution using a large set of human tracking data from an art gallery of a real museum to validate its effectiveness.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000403395700080
  • Detecting Inner Emotions from Video Based Heart Rate Sensing               
    K. Das, S. Ali, K. Otsu, H. Fukuda, A. Lam, Y. Kobayashi, and Y. Kuno
    LNAI Intelligent Computing Methodologies (International Conference on Intelligent Computing (ICIC2017)), 巻:10363, 開始ページ:48, 終了ページ:57, 2017年, [査読有り]
    Recognizing human emotion by computer vision is an interesting and challenging problem. In particular, the reading of inner emotions, has received limited attention. In this paper, we use a remote video-based heart rate sensing technique to obtain physiological data that provides an indication of a person’s inner emotions. This method allows for contactless estimates of heart rate data while the subject is watching emotionally stimulating video clips. We also compare against a wearable heart rate sensor to validate the usefulness of the proposed remote heart rate reading framework. We found that the reading of heart rates of a subject effectively detects the inner emotional reactions of human subjects while they were watching funny and horror videos—despite little to no facial expressions at times. These findings are validated from the reading of heart rates for 40 subjects with our vision-based method compared against conventional wearable sensors. We also find that the change in heart rate along with emotionally stimulating content is statistically significant and our remote sensor is well correlated with the wearable contact sensor.
    Springer Verlag, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-63315-2_5
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=85027891783&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=85027891783&origin=inward
    DOI ID:10.1007/978-3-319-63315-2_5, ISSN:1611-3349, eISSN:1611-3349, DBLP ID:conf/icic/DasAOFLKK17, SCOPUS ID:85027891783
  • Single Laser Bidirectional Sensing for Robotic Wheelchair Step Detection and Measurement               
    S. A. Mamun, A. Lam, Y. Kobayashi, and Y. Kuno
    LNAI Intelligent Computing Methodologies (Proc. International Conference on Intelligent Computing (ICIC2017)), 巻:10363, 開始ページ:37, 終了ページ:47, 2017年, [査読有り]
    Research interest in robotic wheelchairs is driven in part by their potential for improving the independence and quality-of-life of persons with disabilities and the elderly. Moreover, smart wheelchair systems aim to reduce the workload of the caregiver. In this paper, we propose a novel technique for 3D sensing of the terrain using a conventional Laser Range Finder (LRF). We mounted this sensing system onto our new six-wheeled robotic step-climbing wheelchair and propose a new step measurement technique using the histogram distribution of the laser data. We successfully measure the height of stair steps in a railway station. Our step measurement technique for the wheelchair also enables the wheelchair to autonomously board a bus. Our experiments show the effectiveness and its applicability to real world robotic wheelchair navigation.
    Springer Verlag, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-63315-2_4
    DOI ID:10.1007/978-3-319-63315-2_4, ISSN:1611-3349, DBLP ID:conf/icic/MamunLKK17, SCOPUS ID:85027877310
  • Maintaining Formation of Multiple Robotic Wheelchairs for Smooth Communication               
    Ryota Suzuki; Yoshinori Kobayashi; Yoshinori Kuno; Taichi Yamada; Keiichi Yamazaki; Akiko Yamazaki
    INTERNATIONAL JOURNAL ON ARTIFICIAL INTELLIGENCE TOOLS, 巻:25, 号:5, 開始ページ:1, 終了ページ:19, 2016年10月, [査読有り]
    To meet the demands of an aging society, research on intelligent/robotic wheelchairs have been receiving a lot of attention. In elderly care facilities, care workers are required to communicate with the elderly in order to maintain both their mental and physical health. While this is regarded as important, having a conversation with someone on a wheelchair while pushing it from behind in a traditional setting would interfere with their smooth and natural conversation. So we are developing a robotic wheelchair system which allows companions and wheelchair users to move in a natural formation. This paper reports on an investigation to learn the patterns of human behavior when the wheelchair users and their companions communicate while walking together. The ethnographic observation reveals a natural formation of positioning for both companions and wheelchair users. Based on this investigation, we propose a multiple robotic wheelchair system which can maintain desirable formations for communication between wheelchairs.
    WORLD SCIENTIFIC PUBL CO PTE LTD, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1142/S0218213016400054
    DOI ID:10.1142/S0218213016400054, ISSN:0218-2130, eISSN:1793-6349, DBLP ID:journals/ijait/SuzukiKKYYY16, Web of Science ID:WOS:000384410200006
  • Object Identification to Service Robots using a Mobile Interface from User’s Perspective               
    Q. Zhong, H. Fukuda, Y. Kobayashi, Y. Kuno
    23th International Workshop on Frontiers of Computer Vision (IW-FCV2017), 2016年
  • Tracking Visitors in a Real Museum for Behavioral Analysis               
    M. G. Rashed, R. Suzuki, T. Yonezawa, A. Lam, Y. Kobayashi, Y. Kuno
    Joint 8th International Conference on Soft Computing and Intelligent Systems and 17th International Symposium on Advanced Intelligent Systems (SCIS-ISIS2016), 開始ページ:80, 終了ページ:85, 2016年, [査読有り]
    This paper introduces a system to track visitors' positions and movement patterns through museum art galleries with the goal of assisting the curators and other Museum Professionals (MPs) in the tedious task of analyzing visitors' activities, behaviors and experiences. We use multiple LIDARs as a primary sensing technology in supporting our proposed system. We also describe how valuable information related to visitor behaviors can be autonomously collected and analyzed using our system. Additionally, we present a solution to visualize the visitors' movement patterns and preferences with respect to the exhibits. Finally, we tested our system in an art gallery of a real museum to validate its effectiveness.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/SCIS&ISIS.2016.209
    DOI ID:10.1109/SCIS&ISIS.2016.209, DBLP ID:conf/scisisis/RashedSYLKK16, Web of Science ID:WOS:000392122900015
  • Analysis of Multi-party Human Interaction towards a Robot Mediator               
    H. Fukuda, Y. Kobayashi, Y. Kuno, A. Yamazaki, K. Ikeda, K. Yamazaki
    International Symposium on Robot and Human Interactive Communication (RO-MAN2016), 開始ページ:17, 終了ページ:21, 2016年, [査読有り]
    In this research, we aim to reveal the difference between robot mediated multi-party human interaction and human mediated multi-party human interaction. We do this by examining and comparing the multi-party participants' interactions towards the robot human mediators in regard to the mediator's questions. From this experiment, we found that the participants engaged in interaction among each other more when the questioner was the robot. This paper suggests a concept and a design of robots, which enhances social interaction among humans because of its intervention.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2016.7745085
    DOI ID:10.1109/ROMAN.2016.7745085, ISSN:1944-9445, DBLP ID:conf/ro-man/FukudaKKYIY16, Web of Science ID:WOS:000390682500001
  • A Hippocampal Model for Episodic Memory using Neurogenesis and Asymmetric STDP               
    Motonobu Hattori; Yoshinori Kobayashi
    2016 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN), 開始ページ:5189, 終了ページ:5193, 2016年, [査読有り]
    Our memory is first acquired as memory of a personal event (episodic memory). Then, its temporal context is removed and the resultant memory is used in higher-order information processing, such as thinking, reasoning and so on. Therefore, episodic memory is the basis of our memories. In this paper, we propose an episodic memory model which adopts the physiological findings of the hippocampus. Episodic memory can be regarded as a temporal sequence of patterns. In general, such a sequence may have some patterns which appear several times in it, or plural temporal sequences may share some same patterns with each other. That is, it is indispensable for the episodic memory model to handle one-to-many association and context. In the proposed model, the neurogenesis in dentate gyrus (DG) contributes to build different representations in CA3 for the same input patterns, and facilitates one-to-many association. Moreover, the asymmetric spike timing dependent synaptic plasticity introduced to the learning of recurrent collateral in CA3 enables memory of context. Computer simulation results show that the proposed model can deal with complex temporal sequences.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IJCNN.2016.7727885
    DOI ID:10.1109/IJCNN.2016.7727885, ISSN:2161-4393, DBLP ID:conf/ijcnn/HattoriK16, Web of Science ID:WOS:000399925505055
  • Remote Monitoring and Communication System with a Doll-like Robot for the Elderly               
    K. Otsu, H. Fukuda, Y. Kobayashi, Y. Kuno,
    42nd Annual Conference of IEEE Industrial Electronics Society (IECON2016), 開始ページ:5941, 終了ページ:5946, 2016年, [査読有り]
    In this paper, we propose a remote monitoring and communication system for elderly care. We aim to detect emergencies concerning elderly people living alone and send alerts to his/her family from a remote location. For this reason, the system has two modules: the monitoring module and the video chat module. When the monitoring module of the system detects any unusual events concerning the elderly, the system sends an alert message to their family's smart phone. Then, their family can monitor the current situation via the video chat module. The elderly and his/her family member can also easily use the video chat function for day-to-day communication without requiring any complex actions for the users. For the video chat display at the elderly side, we use a television set, which all elderly would be expected to have in their rooms. This gives our system a familiar appearance so the elderly can use it without feeling aversion towards the system. The monitoring system for detecting emergencies is a doll-like robot. Besides monitoring, the robot can also initiate simple conversations autonomously in normal situations, which can improve the elderly person's sense of familiarity towards the system.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IECON.2016.7793636
    DOI ID:10.1109/IECON.2016.7793636, ISSN:1553-572X, DBLP ID:conf/iecon/OtsuFKK16, Web of Science ID:WOS:000399031206036
  • Terrain Recognition for Smart Wheelchair               
    S. A. Mamun, R. Suzuki, A. Lam, Y. Kobayashi, Y. Kuno
    International Conference on Intelligent Computing (ICIC2016),, 巻:9773, 開始ページ:461, 終了ページ:470, 2016年, [査読有り]
    Research interest in robotic wheelchairs is driven in part by their potential for improving the independence and quality-of-life of persons with disabilities and the elderly. However the large majority of research to date has focused on indoor operations. In this paper, we aim to develop a smart wheelchair robot system that moves independently in outdoor terrain smoothly. To achive this, we propose a robotic wheelchair system that is able to classify the type of outdoor terrain according to their roughness for the comfort of the user and also control the wheelchair movements to avoid drop-off and watery areas on the road. An artificial neural network based classifier is constructed to classify the patterns and features extracted from the Laser Range Sensor (LRS) intensity and distance data. The overall classification accuracy is 97.24 % using extracted features from the intensity and distance data. These classification results can in turn be used to control the motor of the smart wheelchair.
    SPRINGER INT PUBLISHING AG, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-42297-8_43
    DOI ID:10.1007/978-3-319-42297-8_43, ISSN:0302-9743, DBLP ID:conf/icic/MamunSLKK16, Web of Science ID:WOS:000387430500043
  • I'll Be There Next: A Multiplex Care Robot System that Conveys Service Order Using Gaze Gestures               
    K. Yamazaki, A. Yamazaki, K. Ikeda, C. Liu, M. Fukushima, Y. Kobayashi, Y. Kuno
    Transactions on Interactive Intelligent Systems, 巻:5, 号:4, 開始ページ:21:1-21:20, 終了ページ:21:20, 2016年01月, [査読有り]
    In this article, we discuss our findings from an ethnographic study at an elderly care center where we observed the utilization of two different functions of human gaze to convey service order (i.e., "who is served first and who is served next"). In one case, when an elderly person requested assistance, the gaze of the care worker communicated that he/she would serve that client next in turn. In the other case, the gaze conveyed a request to the service seeker to wait until the care worker finished attending the current client. Each gaze function depended on the care worker's current engagement and other behaviors. We sought to integrate these findings into the development of a robot that might function more effectively in multiple human-robot party settings.We focused on the multiple functions of gaze and bodily actions, implementing those functions into our robot. We conducted three experiments to gauge a combination of gestures and gazes performed by our robot. This article demonstrates that the employment of gaze is an important consideration when developing robots that can interact effectively in multiple human-robot party settings.
    Association for Computing Machinery, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1145/2844542
    DOI ID:10.1145/2844542, ISSN:2160-6463, DBLP ID:journals/tiis/YamazakiYILFKK16, SCOPUS ID:84999635119
  • Supporting Human-Robot Interaction Based on the Level of Visual Focus of Attention               
    D. Das, G. Rashed, Y. Kobayashi, Y. Kuno
    Transactions on Human-Machine Systems, 巻:45, 号:6, 開始ページ:664, 終了ページ:675, 2015年12月, [査読有り]
    We propose a human-robot interaction approach for social robots that attracts and controls the attention of a target person depending on her/his current visual focus of attention. The system detects the person's current task (attention) and estimates the level by using the "task-related contextual cues" and "gaze pattern." The attention level is used to determine the suitable time to attract the target person's attention toward the robot. The robot detects the interest or willingness of the target person to interact with it. Then, depending on the level of interest of the target person, the robot generates awareness and establishes a communication channel with her/him. To evaluate the performance, we conducted an experiment using our static robot to attract the target human's attention when she/he is involved in four different tasks: reading, writing, browsing, and viewing paintings. The proposed robot determines the level of attention of the current task and considers the situation of the target person. Questionnaire measures confirmed that the proposed robot outperforms a simple attention control robot in attracting participants' attention in an acceptable way. It also causes less disturbance and establishes effective eye contact. We implemented the system into a commercial robotic platform (Robovie-R3) to initiate interaction between visitors and the robot in a museum scenario. The robot determined the visitors' gaze points and established a successful interaction with a success rate of 91.7%.
    IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1109/THMS.2015.2445856
    DOI ID:10.1109/THMS.2015.2445856, ISSN:2168-2291, eISSN:2168-2305, DBLP ID:journals/thms/DasRKK15, Web of Science ID:WOS:000366893700002
  • Museum Guide Robot by Considering Static and Dynamic Gaze Expressions to Communicate with Visitors               
    Kaname Sano; Keisuke Murata; Ryota Suzuki; Yoshinori Kuno; Daijiro Itagaki; Yoshinori Kobayashi
    ACM/IEEE International Conference on Human-Robot Interaction, 巻:02-05-, 開始ページ:125, 終了ページ:126, 2015年03月, [査読有り]
    Human eyes not only serve the function of enabling us "to see" something, but also perform the vital role of allowing us "to show" our gaze for non-verbal communication. We have investigated the static design and dynamic behaviors of robot heads for suitable gaze communication with humans while giving a friendly impression. In this paper, we focus on how the robot's impression is affected by its eye blink and eyeball movement synchronized with head turning. Through experiments with human participants, we found that robot head turning with eye blinks give a friendly impression while robot head turning without eye blinks is suitable for making people shift their attention towards the robot's gaze direction. These findings are very important for communication robots such as museum guide robots. Therefore to demonstrate our approach, we developed a museum guide robot system employing suitable facial design and gaze behavior based on all of our findings.
    IEEE Computer Society, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2701973.2702011
    DOI ID:10.1145/2701973.2702011, ISSN:2167-2148, DBLP ID:conf/hri/SanoMSKIK15, SCOPUS ID:84969263617
  • Toward Museum Guide Robots Proactively Initiating Interaction with Humans               
    M. Golam Rashed; R. Suzuki; A. Lam; Y. Kobayashi; Y. Kuno
    ACM/IEEE International Conference on Human-Robot Interaction, 巻:02-05-, 開始ページ:1, 終了ページ:2, 2015年03月, [査読有り]
    This paper describes current work toward the design of a guide robot system. We present a method to recognize people's interest and intention from their walking trajectories in indoor environments, which enables a service robot to proactively approach people to provide services to them. We conducted observational experiments in a museum as a target test environment where participants were asked to visit that museum. From these experiments, we have found mainly three kinds of walking trajectory patterns of the participants inside the museum that depend on their interest in the exhibits. Based on these findings, we developed a method to identify participants that may need guidance.We confirm the effectiveness of our method by experiments.
    IEEE Computer Society, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2701973.2701974
    DOI ID:10.1145/2701973.2701974, ISSN:2167-2148, DBLP ID:conf/hri/RashedSLKK15, SCOPUS ID:84969174987
  • An Empirical Robotic Framework for Initiating Interaction with the Target Human in Multiparty Settings               
    Mohammed Moshiul Hoque; Quazi Delwar Hossian; Kaushik Deb; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    JOURNAL OF CIRCUITS SYSTEMS AND COMPUTERS, 巻:24, 号:2, 2015年02月, [査読有り]
    Currently work in robotics is expanding from industrial robots to robots that are employed in the living environment. For robots to be accepted into the real world, they must be capable to behave in such a way that humans do with other humans, and initiate interaction in the same way. This paper focuses on designing a robotic framework that is able to perform an important social function such as, initiating interaction with the target human in multiparty setting in a natural and social ways. However, it is not easy task for the robot to initiate an interaction process with a particular human, especially when the robot and the human are not facing each other or the intended target human is intensely engaged his/her work. In order to initiate an interaction process, we propose a framework that consists of two parts: capturing attention and ensuring attention capture. Evaluation experiments reveal the effectiveness of the proposed system in four viewing situations namely, central field of view (CFOV), near peripheral field of view (NPFOV), far peripheral field of view (FPFOV), and out of field of view (OFOV) respectively.
    WORLD SCIENTIFIC PUBL CO PTE LTD, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1142/S0218126615400034
    DOI ID:10.1142/S0218126615400034, ISSN:0218-1266, eISSN:1793-6454, DBLP ID:journals/jcsc/HoqueHDDKK15, Web of Science ID:WOS:000350770800004
  • A Vision Based Guide Robot System: Initiating Proactive Social Human Robot Interaction in Museum Scenarios               
    G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi, Y. Kuno
    International Conference on Computer & Information Engineering(ICCIE2015), 2015年
  • Toward a Robot System Supporting Communication between People with Dementia and Their Relatives               
    Y. Kuno, S. Goto, Y. Matsuda, T. Kikugawa, A. Lam, Y. Kobayashi
    International Conference on Intelligent Robots and Systems(IROS2015), 2015年
  • Understanding Spetial Knowledge: An ontology-Based Representatioan for Object Identification               
    L. Cao, A. Lam, Y. Kobayashi, Y. Kuno, D. Kaji
    Transactions on Image Electronics and Visual Computing, 巻:3, 号:2, 開始ページ:150, 終了ページ:163, 2015年
  • Formations for Facilitating Communication among Robotic Wheelchair Users and Companions               
    Y. Kobayashi, R. Suzuki, T. Yamada, Y. Kuno, K. Yamazaki, A. Yamazaki
    International Conference on Social Robotics(ICSR2015), 巻:9388, 開始ページ:370, 終了ページ:379, 2015年, [査読有り]
    To meet the demands of an aging society, researches for intelligent/robotic wheelchairs have been receiving a lot of attention. In elderly care facilities, care workers are required to have a communication with the elderly in order to maintain their both mental and physical health. While this is regarded as important, a conversation with someone on a wheelchair while pushing it from his/her behind in a traditional setting would interfere with their smooth and natural conversation. Based on these concerns we are developing a robotic wheelchair which allows companions and wheelchair users move in a natural formation. This paper reports on an investigation how human behaves when the wheelchair users and their companions communicate while moving together.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-25554-5_37
    DOI ID:10.1007/978-3-319-25554-5_37, ISSN:0302-9743, DBLP ID:conf/socrob/KobayashiSYKYY15, Web of Science ID:WOS:000367711000037
  • Remote Communication Support System as Communication Catalyst for Dementia Care               
    S. Goto, Y. Matsuda, T. Kikugawa, Y. Kobayashi, and Y. Kuno
    Proc. IECON2015, 開始ページ:4465, 終了ページ:4470, 2015年, [査読有り]
    In this paper we describe a prototype remote communication support system to be used as a communication catalyst for dementia care. The system aims to delay the progression of dementia and helps caregivers by facilitating the social interaction of dementia patients. In the system framework, a video telecommunication system was installed in order to enable communication between patients and caregivers. Next, a system control board was designed to maintain robust operation so that users could connect with each other anytime. In the system, we also implemented a reminiscence based therapy application to prevent the progression of dementia. The application can show old photos to dementia patients during a typical video chat. From the caregivers' point of view, our system is also an important form of assistance for repeating announcements and instructions to dementia patients with poor memory. Accordingly, we also made a video replay application which can be set to replay video at a fixed time everyday. Finally, we made aesthetically pleasing robots that serve to make interaction with the system more natural for dementia patients.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IECON.2015.7392795
    DOI ID:10.1109/IECON.2015.7392795, ISSN:1553-572X, DBLP ID:conf/iecon/GotoMKKK15, Web of Science ID:WOS:000382950704074
  • Facial Expression Recognition Based on Hybrid Approach               
    A. Mannan, A. Lam, Y. Kobayashi, Y. Kuno
    Lecture Notes in Computer Science, 巻:9227, 開始ページ:304, 終了ページ:310, 2015年, [査読有り]
    This paper proposes an automatic system for facial expression recognition using a hybrid approach in the feature extraction phase (appearance and geometric). Appearance features are extracted as Local Directional Number (LDN) descriptors while facial landmark points and their displacements are considered as geometric features. Expression recognition is performed using multiple SVMs and decision level fusion. The proposed method was tested on the Extended Cohn-Kanade (CK+) database and obtained an overall 96.36 % recognition rate which outperformed the other state-of-the-art methods for facial expression recognition.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-22053-6_33
    DOI ID:10.1007/978-3-319-22053-6_33, ISSN:0302-9743, DBLP ID:conf/icic/MannanLKK15, Web of Science ID:WOS:000364716700033
  • Network Guide Robot System Proactively Initiating Interaction with Humans Based on Their Local and Global Behaviors               
    G. Rashed, R. Suzuki, T. Kikugawa, A. Lam, Y. Kobayashi, Y. Kuno
    Lecture Notes in Computer Science, 巻:9226, 開始ページ:283, 終了ページ:294, 2015年, [査読有り]
    In this paper, we present a Human Robot Interaction (HRI) system which can determine people’s interests and intentions concerning exhibits in a museum, then proactively approach people that may want guidance or commentary about the exhibits. To do that, we first conducted observational experiments in a museum with participants. From these experiments, we have found, mainly three kinds of walking trajectory patterns that characterize global behavior, and visual attentional information that indicates the local behavior of the people. These behaviors ultimately indicate whether certain people are interested in the exhibits and could benefit from the robot system providing additional details about the exhibits. Based on our findings, we then designed and implemented a network enabled guide robot system for the museum. Finally, we demonstrated the viability of our proposed system by experimenting with a set of Desktop Robots as guide robots. Our experiments revealed that the proposed HRI system is effective for the network enabled Desktop Robots to proactively provide guidance.
    Springer Verlag, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-22186-1_28
    DOI ID:10.1007/978-3-319-22186-1_28, ISSN:1611-3349, DBLP ID:conf/icic/RashedSKLKK15, SCOPUS ID:84944754957
  • Object Pose Estimation Using Category Information from a Single Image               
    Shunsuke Shimizu; Hiroshi Koyasu; Yoshinori Kobayashi; Yoshinori Kuno
    2015 21ST KOREA-JAPAN JOINT WORKSHOP ON FRONTIERS OF COMPUTER VISION, 開始ページ:1, 終了ページ:4, 2015年, [査読有り]
    3D object pose estimation is one of the most important challenges in the field of computer vision. A huge amount of image resources such as images on the web or photos taken before can be utilized if the system can estimate the 3D pose from a single image. On the other hand, the object's category and position on the image can be estimated by using state of the techniques in the general object recognition. We propose a method for 3D pose estimation from a single image on the basis of the known object category and position. We employ Regression Forests as the machine learning algorithm and HOG features as the input vectors. The regression function is created based on HOG features which express the differences in shapes depending on the viewing directions and corresponding poses. We evaluate the accuracy of pose estimation by using multiple objects with different categories.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/FCV.2015.7103728
    DOI ID:10.1109/FCV.2015.7103728, ISSN:2165-1051, DBLP ID:conf/fcv/ShimizuKKK15, Web of Science ID:WOS:000380375500031
  • A framework for controlling wheelchair motion by using gaze information               
    R. Tomari, Y. Kobayashi and Y. Kuno
    International Journal of Integrated Engineering, 巻:5, 号:3, 開始ページ:40, 終了ページ:45, 2014年
  • A Proactive Approach of Robotic Framework for Making Eye Contact with Humans               
    M. Moque, Y. Kobayashi, Y. Kuno
    Advances in Human-Computer Interaction, 巻:2014, 号:694046, 開始ページ:1, 終了ページ:19, 2014年, [査読有り]
    Making eye contact is a most important prerequisite function of humans to initiate a conversation with others. However, it is not an easy task for a robot to make eye contact with a human if they are not facing each other initially or the human is intensely engaged his/her task. If the robot would like to start communication with a particular person, it should turn its gaze to that person and make eye contact with him/her. However, such a turning action alone is not enough to set up an eye contact phenomenon in all cases. Therefore, the robot should perform some stronger actions in some situations so that it can attract the target person before meeting his/her gaze. In this paper, we proposed a conceptual model of eye contact for social robots consisting of two phases: capturing attention and ensuring the attention capture. Evaluation experiments with human participants reveal the effectiveness of the proposed model in four viewing situations, namely, central field of view, near peripheral field of view, far peripheral field of view, and out of field of view.
    Hindawi Limited, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1155/2014/694046
    DOI ID:10.1155/2014/694046, ISSN:1687-5907, SCOPUS ID:84934995536
  • Enhancing wheelchair’s control operation of a severe impairment user               
    R. Tomari, Y. Kobayashi and Y. Kuno
    Lecture Notes in Electrical Engineering, 巻:291, 開始ページ:65, 終了ページ:72, 2014年, [査読有り]
    Users with severe motor ability are unable to control their wheelchair using standard joystick and hence an alternative control input is preferred. However, using such an input, undoubtedly the navigation burden for the user is significantly increased. In this paper a method on how to reduce such a burden with the help of smart navigation platform is proposed. Initially, user information is inferred using an IMU sensor and a bite-like switch. Then information from the environment is obtained using combination of laser and Kinect sensors. Eventually, both information from the environment and the user is analyzed to decide the final control operation that according to the user intention, safe and comfortable to the people in the surrounding. Experimental results demonstrate the feasibility of the proposed approach.
    SPRINGER, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-981-4585-42-2_8
    DOI ID:10.1007/978-981-4585-42-2_8, ISSN:1876-1100, Web of Science ID:WOS:000337307100008
  • A Robotic Framework for Shifting the Target Human's Attention in Multi-Party Setting               
    Mohammed Moshiul Hoque; Yoshinori Kobayashi; Yoshinori Kuno
    2014 INTERNATIONAL CONFERENCE ON INFORMATICS, ELECTRONICS & VISION (ICIEV), 2014年, [査読有り]
    It is a major challenge in HRI to design a robotic agent that is able to direct its partner's attention from his/her existing attentional focus towards an intended direction. For this purpose, the agent may first turn its gaze to him/her in order to set up eye contact. However, such a turning action of the agent may not in itself be sufficient to establish eye contact with its partner in all cases, especially when the agent and the its partner are not facing each other or the partner is intensely engaged in a task. This paper focuses on designing a robotic framework to shift the target human's attentional focus toward the robot's intended direction from multiple humans. For this purpose, we proposed a conceptual framework with three phases: capturing attention, making eye contact, and shifting attention. We conducted an experiment to validate our model in HRI scenarios in which two participant interacted in a session at a time. One of them interacted as a target and other as a non-target. Experimental results with twenty participants shows the effectiveness of the proposed framework.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000346137900107
  • Analysis of Socially Acceptable Smart Wheelchair Navigation Based on Head Cue Information               
    Razali Tomari; Yoshinori Kobayashi; Yoshinori Kuno
    MEDICAL AND REHABILITATION ROBOTICS AND INSTRUMENTATION (MRRI2013), 巻:42, 開始ページ:198, 終了ページ:205, 2014年, [査読有り]
    Smart wheelchair can be defined as a standard power electrical wheelchair that equipped with a mobile robotic technology to assist the user in a number of situations. Most of the smart wheelchair work focusing on safety issue and less work considers a socially acceptable issue. Since wheelchairs are normally used in human-shared environment, it is important to ensure the assistive motion generated from the wheelchair is safe and comfortable to the human in the surrounding. Here the framework for catering such an issue is proposed. The system initially infers human's state from head cue information. Next, the information is interpreted for modeling human's comfort zone (CZ) based on rules rooted from Proxemics concept. Finally, the wheelchair's motion is generated by avoiding both, the CZ and the in place obstacle. Experimental results demonstrate the feasibility of the proposed framework (C) 2014 The Authors. Published by Elsevier B.V.
    ELSEVIER SCIENCE BV, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1016/j.procs.2014.11.052
    DOI ID:10.1016/j.procs.2014.11.052, ISSN:1877-0509, Web of Science ID:WOS:000373732400027
  • Automatic Face Parts Extraction and Facial Expression Recognition               
    Dipankar Das; M. Moshiul Hoque; Jannatul Ferdousi Ara; Mirza A. F. M. Rashidul Hasan; Yoshinori Kobayashi; Yoshinori Kuno
    2014 9TH INTERNATIONAL FORUM ON STRATEGIC TECHNOLOGY (IFOST), 開始ページ:128, 終了ページ:131, 2014年, [査読有り]
    Real-time facial expression analysis is an important yet challenging task in human computer interaction. This paper proposes a real-time person independent facial expression recognition system using a geometrical feature-based approach. The face geometry is extracted using the modified active shape model. Each part of the face geometry is effectively represented by the Census Transformation (CT) based feature histogram. The facial expression is classified by the SVM classifier with exponential. 2 weighted merging kernel. The proposed method was evaluated on the JAFFE database and in real-world environment. The experimental results show that the approach yields a high recognition rate and is applicable in real-time facial expression analysis.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000392872100030
  • Robotic Wheelchair Moving with Multiple Companions               
    M. Arai, Y. Sato, R. Suzuki, Y. Kobayashi, Y. Kuno, S. Miyazawa, M. Fukushima, K. Yamazaki, A. Yamazaki
    Internatiol Symposium on Robot and Human Interactive Communication (Ro-Man2014), 開始ページ:513, 終了ページ:518, 2014年, [査読有り]
    We have been conducting research on ways to contribute to reducing the workload of caregivers. We developed a wheelchair capable of following a single accompanying caregiver in a parallel position. However, observations in actual care facilities revealed that people often move as a group: for instance, two caregivers each pushed a wheelchair together. Therefore, we now aim to develop a robotic wheelchair system that allows multiple wheelchairs and accompanying caregivers to coordinate their movement together. However, such a situation necessitates a complex system. Making such a system practical represents an enormous challenge. Therefore, as a first step we decided to break down this complex "multiple-multiple" situation by isolating particular instances with multiple wheelchairs and/or multiple caregivers. In this paper, we focus on the "single-multiple" situation; i.e., a situation where a single wheelchair user is accompanied by multiple accompanies. We propose a robotic wheelchair system that facilitates coordinated movement between the wheelchair and the caregivers. In other words, the wheelchair system will track multiple people in the vicinity using GPGPU, and distinguish the accompanying caregivers from among other passersby based on the trajectory of the individuals' movement.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2014.6926304
    DOI ID:10.1109/ROMAN.2014.6926304, ISSN:1944-9445, DBLP ID:conf/ro-man/AraiSSKKMFYY14, Web of Science ID:WOS:000366603200084
  • Multiple Robotic Wheelchair System Considering Group Communication               
    R. Suzuki, T. Yamada, M. Arai, Y. Sato, Y. Kobayashi, Y. Kuno
    Lecture Notes in Computer Science, 巻:8887, 開始ページ:805, 終了ページ:814, 2014年, [査読有り]
    In recent years, there has been an increasing demand for elderly care in Japan due to the problems posed by a declining birthrate and an aging population. To deal with the problem, we aim to develop a multiple wheelchair robot system that moves with multiple companions collaboratively. In actual care, we noticed that for a group of four people, which included wheelchair users and their companions they tended to break up into two sets of two (1 wheelchair user and 1 caregiver) to move around or communicate with each other. Based on this observation, we propose a robotic wheelchair system that facilitates coordinated movement between the wheelchairs and the companions while maintaining suitable formations for communication among the group.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-14249-4_77
    DOI ID:10.1007/978-3-319-14249-4_77, ISSN:0302-9743, DBLP ID:conf/isvc/SuzukiYASKK14, Web of Science ID:WOS:000354694000077
  • Object Recognition Based on Human Description Ontology for Service Robots               
    H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno, D. Kachi
    Annual Conference of the IEEE Industrial Electronics Society (IECON2014), 開始ページ:4051, 終了ページ:4056, 2014年, [査読有り]
    We are developing a helper robot able to fetch objects requested by users. This robot tries to recognize objects through verbal interaction with the user concerning the objects that it cannot detect autonomously. We have shown that the system can recognize objects based on an ontology for interaction. In this paper, we extend a human description ontology to link a "human description" to "attributes of objects" for our interactive object recognition framework. We develop an interactive object recognition system based on this ontology. Experimental results confirmed that the system could efficiently recognize objects by utilizing this ontology.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IECON.2014.7049109
    DOI ID:10.1109/IECON.2014.7049109, ISSN:1553-572X, DBLP ID:conf/iecon/FukudaMKKK14, Web of Science ID:WOS:000389471603132
  • Designing Robot Eyes and Head and Their Motions for Gaze Communication               
    T. Onuki, K. Ida, T. Ezure, T. Ishinoda, K. Sano, Y. Kobayashi, Y. Kuno
    International Conference on Intelligent Computing (ICIC2014), 巻:8588, 開始ページ:607, 終了ページ:618, 2014年, [査読有り]
    Human eyes not only serve the function of enabling us "to see" something, but also perform the vital role of allowing us "to show" our gaze for non-verbal communication. The gaze of service robots should therefore also perform this function of "showing" in order to facilitate communication with humans. We have already examined which shape of robot eyes is most suitable for gaze reading while giving the friendliest impression, through carrying out experiments where we altered the shape and iris size of robot eyes. However, we need to consider more factors for effective gaze communication. Eyes are facial parts on the head and move with it. Thus, we examine how the robot should move its head when it turns to look at something. Then, we investigate which shape of robot head is suitable for gaze communication. In addition, we consider how the robot move its eyes and head while not attending to any particular object. We also consider the coordination of head and eye motions and the effect of blinking while turning its head. We propose appropriate head and eye design and their motions and confirm their effectiveness through experiments using human participants.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-319-09333-8_66
    DOI ID:10.1007/978-3-319-09333-8_66, ISSN:0302-9743, DBLP ID:conf/icic/OnukiIEISKK14, Web of Science ID:WOS:000345518700066
  • Recognizing Groups of Visitors for a Robot Museum Guide Tour               
    A. Kanda, M. Arai, R. suzuki, Y. Kobayashi, Y. kuno
    International Conference on Human System Interaction (HSI2014), 開始ページ:123, 終了ページ:128, 2014年, [査読有り]
    In this paper, we propose a robot system able to take visitors on guided tours in a museum. When developing a robot capable of giving a tour of an actual museum, it is necessary to implement a robot system able to measure the location and orientation of the visitors using bearing sensors installed in a specific environment. Furthermore, the robot needs information pertaining to both tour attendees and other visitors in the vicinity, in order to effectively lead a tour for the attendees. Therefore, we propose a new robot system consisting of simple elements such as a laser range finder attached to a pole. By merely placing the sensor poles, we can track the location and orientation of visitors. We employ a group detection method to distinguish tour attendees from other people around the robot. In contrast to previous group detection methods our method can recognize a group of people even when they are not walking. In experiments our system successfully tracked and grouped visitors in the vicinity even when they were just standing.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HSI.2014.6860460
    DOI ID:10.1109/HSI.2014.6860460, ISSN:2158-2246, DBLP ID:conf/hsi/KandaA0KK14, Web of Science ID:WOS:000345791900019
  • Multiple robotic wheelchair system able to move with a companion using map information               
    Yoshihisa Sato; Ryota Suzuki; Masaya Arai; Yoshinori Kobayashi; Yoshinori Kuno; Mihoko Fukushima; Keiichi Yamazaki; Akiko Yamazaki
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:286, 終了ページ:287, 2014年, [査読有り]
    In order to reduce the burden of caregivers facing an increased demand for care, particularly for the elderly, we developed a system whereby multiple robotic wheelchairs can automatically move alongside a companion. This enables a small number of people to assist a substantially larger number of wheelchair users effectively. This system utilizes an environmental map and an estimation of position to accurately identify the positional relations among the caregiver (or a companion) and each wheelchair. The wheelchairs are consequently able to follow along even if the caregiver cannot be directly recognized. Moreover, the system is able to establish and maintain appropriate positional relations.
    IEEE Computer Society, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2559636.2563694
    DOI ID:10.1145/2559636.2563694, ISSN:2167-2148, DBLP ID:conf/hri/SatoSAKKFYY14, SCOPUS ID:84896991756
  • Recognizing gaze pattern for human robot interaction               
    Dipankar Das; Md. Golam Rashed; Yoshinori Kobayashi; Yoshinori Kuno
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:142, 終了ページ:143, 2014年, [査読有り]
    In this paper, we propose a human-robot interaction system in which the robot detects and classifies the target human's gaze pattern into either spontaneous looking or scenerelevant looking. If the gaze pattern is detected as the spontaneous looking, the robot waits for the target human without disturbing his/her attention. However, if the gaze pattern is detected as the scene-relevant looking, the robot establishes a communication channel with him/her in order to explain about the scene. We have implemented the proposed system into a robot, Robovie-R3 as a museum guide robot and tested the system to confirm its effectiveness.
    IEEE Computer Society, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2559636.2559818
    DOI ID:10.1145/2559636.2559818, ISSN:2167-2148, DBLP ID:conf/hri/DasRKK14, SCOPUS ID:84896969426
  • Effect of Robot's Gaze Behaviors for Attracting and Controlling Human Attention               
    M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno
    International Journal of Advanced Robotics, 巻:27, 号:11, 開始ページ:813, 終了ページ:829, 2013年08月, [査読有り]
    Controlling someone's attention can be defined as shifting his/her attention from the existing direction to another. To shift someone's attention, gaining attention and meeting gaze are two most important prerequisites. If a robot would like to communicate a particular person, it should turn its gaze to him/her for eye contact. However, it is not an easy task for the robot to make eye contact because such a turning action alone may not be effective in all situations, especially when the robot and the human are not facing each other or the human is intensely attending to his/her task. Therefore, the robot should perform some actions so that it can attract the target person and make him/her respond to the robot to meet gaze. In this paper, we present a robot that can attract a target person's attention by moving its head, make eye contact through showing gaze awareness by blinking its eyes, and directs his/her attention by repeating its eyes and head turns from the person to the target object. Experiments using 20 human participants confirm the effectiveness of the robot actions to control human attention.
    TAYLOR & FRANCIS LTD, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1080/01691864.2013.791654
    DOI ID:10.1080/01691864.2013.791654, ISSN:0169-1864, eISSN:1568-5535, DBLP ID:journals/ar/HoqueOKK13, Web of Science ID:WOS:000320579100001
  • Robotic Wheelchair Easy to Move and Communicate with Companions               
    Yoshinori Kobayashi; Yoshinori Kuno; Akiko Yamazaki; Ryota Suzuki; Yoshihisa Sato; Masaya Arai; Keiichi Yamazaki
    Conference on Human Factors in Computing Systems - Proceedings, 巻:2013-, 開始ページ:3079, 終了ページ:3082, 2013年04月, [査読有り]
    Although it is desirable for wheelchair users to go out alone by operating wheelchairs on their own, they are often accompanied by caregivers or companions. In designing robotic wheelchairs, therefore, it is important to consider not only how to assist the wheelchair user but also how to reduce companions' load and support their activities. We specially focus on the communications among wheelchair users and companions because the face-to-face communication is known to be effective to ameliorate elderly mental health. Hence, we proposed a robotic wheelchair able to move alongside a companion. We demonstrate our robotic wheelchair. All attendees can try to ride and control our robotic wheelchair.
    Association for Computing Machinery, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2468356.2479615
    DOI ID:10.1145/2468356.2479615, DBLP ID:conf/chi/KobayashiSSAKYY13, SCOPUS ID:84955311117
  • Enhancing Wheelchair Maneuverability for Severe Impairment Users               
    R. Tomari, Y. Kobayashi and Y. Kuno
    International Journal of Advanced Robotic Systems, 巻:10, 開始ページ:1, 終了ページ:13, 2013年02月, [査読有り]
    A significant number of individuals with severe motor impairments are unable to control their wheelchair using a standard joystick. Even when they can facilitate the control input, navigation in a confined space or crowded environments is still a great challenge. Here we propose a wheelchair framework that enables the user to issue the command via a multi-input hands free interface (HFI), which subsequently assists him/her to overcome difficult circumstances using a multimodal control strategy. Initially the HFI inputs are analysed to infer the desired control mode and the user command. Then environmental information is perceived using a combination of laser and Kinect sensors for determining all possible obstacle locations and outputting a safety map around the wheelchair's vicinity. Eventually, the user's command is validated with the safety map to moderate the final motion, which is collision free and the best for the user's preference. The proposed method can reduce the burden of severe impairment users when controlling wheelchairs by continuously monitoring the surroundings and can make them move easily according to the users' intention.
    INTECH -OPEN ACCESS PUBLISHER, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.5772/55477
    DOI ID:10.5772/55477, ISSN:1729-8806, Web of Science ID:WOS:000318846200002
  • 物体形状オントロジーに基づく指示形状物体の認識               
    森 智史; 福田 悠人; 小林 貴訓; 久野 義徳; 加地 大介
    画像電子学会誌, 巻:42, 号:4, 開始ページ:477, 終了ページ:485, 2013年
    頼まれたものを取ってきてくれるようなサービスロボットを実現するためには,物体認識の能力が必要である.物体認識の技術は進歩しているが,まだ複雑な環境で自動で確実に物体の認識を行うことは難しい.そこで,自動で認識できない場合には,ユーザから対象物の属性についての情報を対話を通じて与えてもらい認識を行う対話物体認識を検討している.しかし,人間の表現は多様であり,同じものに対して様々な表現を用いたり,同じ表現でも状況により違った物体を指すことがある.そこで,そのような多様な表現を整理して,それに対応したシステムを実現するために,対話物体認識用のオントロジーを検討した.今回は,表現の多様性が特に顕著な形状属性について実際にオントロジーを構築し,対話による形状認識の実験システムを実現した.様々な日常品を用いた実験によりオントロジーに基づく認識の有効性を確認した.
    The Institute of Image Electronics Engineers of Japan, 日本語
    DOI:https://doi.org/10.11371/iieej.42.477
    DOI ID:10.11371/iieej.42.477, ISSN:0285-9831, CiNii Articles ID:130005108141, CiNii Books ID:AA12563298
  • Designing Robot Eyes for Communicating Gaze               
    T. Onuki, T. Ishinoda, E. Tsuburaya, Y. Miyata, Y. Kobayashi, Y. Kuno
    Interaction Studies, 巻:14, 号:3, 開始ページ:451, 終了ページ:479, 2013年, [査読有り]
    Human eyes not only serve the function of enabling us "to see" something, but also perform the vital role of allowing us "to show" our gaze for non-verbal communication, such as through establishing eye contact and joint attention. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rear-projected eyes for changing their appearance while simultaneously realizing the showing of gaze by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes. © 2013 John Benjamins Publishing Company.
    John Benjamins Publishing Company, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1075/is.14.3.07onu
    DOI ID:10.1075/is.14.3.07onu, ISSN:1572-0381, SCOPUS ID:84902243637
  • An intelligent human-robot interaction framework to control the human attention               
    Mohammed Moshiul Hoque; Kaushik Deb; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    2013 International Conference on Informatics, Electronics and Vision, ICIEV 2013, 2013年, [査読有り]
    Attention control can be defined as shifting someone's attention from his/her existing attentional focus to another. However, it is not an easy task for the robot to control a human's attention toward its intended direction, especially when the robot and the human are not facing each other, or the human is intensely attending his/her task. The robot should convey some communicative intention through appropriate actions according to the human's situation. In this paper, we propose a robotic framework to control the human attention in terms of three phases: attracting attention, making eye contact, and shifting attention. Results show that the robot can attract a person's attention by three actions: head turning, head shaking, and uttering reference terms corresponding to three viewing situations in which the human vision senses the robot (near peripheral filed of view, far peripheral field of view, and out of field of view). After gaining attention, the robot makes eye contact through showing gaze awareness by blinking its eyes, and directs the human attention by the combination of eye and head turning behavior to share an object. Experiments using sixteen participants confirm the effectiveness of the propose framework to control human attention. © 2013 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICIEV.2013.6572539
    DOI ID:10.1109/ICIEV.2013.6572539, SCOPUS ID:84883358061
  • Question strategy and interculturality in human-robot interaction               
    Mihoko Fukushima; Rio Fujita; Miyuki Kurihara; Tomoyuki Suzuki; Keiichi Yamazaki; Akiko Yamazaki; Keiko Ikeda; Yoshinori Kuno; Yoshinori Kobayashi; Takaya Ohyama; Eri Yoshida
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:125, 終了ページ:126, 2013年, [査読有り]
    This paper demonstrates the ways in which multi party human participants in 2 language groups, Japanese and English, engage with a quiz robot when they are asked a question. We focus on both speech and bodily conducts where we discovered both universalities and differences. © 2013 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HRI.2013.6483533
    DOI ID:10.1109/HRI.2013.6483533, ISSN:2167-2148, SCOPUS ID:84875746420
  • Design of robot eyes suitable for gaze communication               
    Tomomi Onuki; Takafumi Ishinoda; Yoshinori Kobayashi; Yoshinori Kuno
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:203, 終了ページ:204, 2013年, [査読有り]
    Human eyes not only serve the function of enabling us 'to see' something, but also perform the vital role of allowing us 'to show' our gaze for non-verbal communication. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rear-projected eyes for changing their appearance while simultaneously realizing the sight function by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes. © 2013 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HRI.2013.6483572
    DOI ID:10.1109/HRI.2013.6483572, ISSN:2167-2148, SCOPUS ID:84875716625
  • Object Recognition for Service Robots Based on Human Description of Object Attributes               
    H. Fukuda, S. Mori, K. Sakata, Y. Kobayashi and Y. Kuno
    IEEJ Transactions on Electronics, Information and Systems, 巻:133, 号:1, 開始ページ:18, 終了ページ:27, 2013年, [査読有り]
    In order to be effective, it is essential for service robots to be able to recognize objects in complex environments. However, it is difficult for them to recognize objects autonomously without any mistakes in a real-world environment. Thus, in response to this challenge we conceived of an object recognition system that would utilize information about target objects acquired from the user through simple interaction. In this paper, we propose an interactive object recognition system using multiple attribute information (color, shape, and material), and introduce a robot using this system. Experimental results confirmed that the robot could indeed recognize objects by utilizing multiple attribute information obtained through interaction with the user. © 2013 The Institute of Electrical Engineers of Japan.
    Institute of Electrical Engineers of Japan, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1541/ieejeiss.133.18
    DOI ID:10.1541/ieejeiss.133.18, ISSN:1348-8155, SCOPUS ID:84873823489
  • A Mobile Guide Robot Capable of Establishing Appropriate Spatial Formations               
    M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
    IEEJ Transactions on Electronics, Information and Systems, 巻:133, 号:1, 開始ページ:28, 終了ページ:39, 2013年, [査読有り]
    This paper presents a model for a mobile museum guide robot that can dynamically establish an appropriate spatial relationship with visitors during explanation of an exhibit. We began by observing and videotaping scenes of actual museum galleries where human guides explained exhibits to visitors. Based on the analysis of the video, we developed a mobile robot system able to guide multiple visitors inside the gallery from one exhibit to another. The robot has the capability to establish a type of spatial formation known as the "F-formation" at the beginning of its explanation after arriving near any exhibit, a feature aided by its ability to employ the "pause and restart" strategy at certain moments in its talk to draw the visitors' attention towards itself. The robot is also able to identify and invite any bystanders around itself into its ongoing explanation, thereby reconfiguring the F-formation. The system uses spatial information from a laser range sensor and the heads of visitors are tracked using three USB cameras. A particle filter framework is employed to track the visitors' positions and body orientation, and the orientations of their heads, based on position data and panorama images captured by the laser range sensor and the USB cameras, respectively. The effectiveness of our method was confirmed through experiments. © 2013 The Institute of Electrical Engineers of Japan.
    Institute of Electrical Engineers of Japan, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1541/ieejeiss.133.28
    DOI ID:10.1541/ieejeiss.133.28, ISSN:1348-8155, SCOPUS ID:84873801282
  • An Empirical Robotic Framework for Interacting with Multiple Humans               
    Mohammed Moshiul Hoque; Quazi Delwar Hossian; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno; Kaushik Deb
    2013 INTERNATIONAL CONFERENCE ON ELECTRICAL INFORMATION AND COMMUNICATION TECHNOLOGY (EICT), 2013年, [査読有り]
    currently work in robotics is expanding from industrial robots to robots that are employed in the living environment. For robots to be accepted into the real world, they must be capable to behave in such a way that humans do with other humans. This paper focuses on designing a robotic framework to interact with multiple humans in a natural and social ways. To evaluate the robotic framework, we conducted an experiment to perform an important social function in any conversation such as initiating interaction with the target human in multiparty setting. Results show that the proposed robotic system is functioning to initiate an interaction process in four viewing situations.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000342218600043
  • Interaction Between a Quiz Robot and Multiple Participants               
    A. Yamazaki, K. Yamazaki, K. Ikeda, M. Burdelski, M. Fukushima, T. Suzuki, M. Kurihara, Y. kuno, Y. Kobayashi
    Interaction Studies, 巻:14, 号:3, 開始ページ:366, 終了ページ:389, 2013年, [査読有り]
    This paper reports on a quiz robot experiment in which we explore similarities and differences in human participant speech, gaze, and bodily conduct in responding to a robot's speech, gaze, and bodily conduct across two languages. Our experiment involved three-person groups of Japanese and English-speaking participants who stood facing the robot and a projection screen that displayed pictures related to the robot's questions. The robot was programmed so that its speech was coordinated with its gaze, body position, and gestures in relation to transition relevance places (TRPs), key words, and deictic words and expressions (e. g. this, this picture) in both languages. Contrary to findings on human interaction, we found that the frequency of English speakers' head nodding was higher than that of Japanese speakers in human-robot interaction (HRI). Our findings suggest that the coordination of the robot's verbal and non-verbal actions surrounding TRPs, key words, and deictic words and expressions is important for facilitating HRI irrespective of participants' native language.
    JOHN BENJAMINS PUBLISHING COMPANY, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1075/is.14.3.04yam
    DOI ID:10.1075/is.14.3.04yam, ISSN:1572-0373, eISSN:1572-0381, Web of Science ID:WOS:000338351400005
  • How to move towards visitors: A model for museum guide robots to initiate conversation               
    Mohammad A. Yousuf; Yoshinori Kobayashi; Yoshinori Kuno; Akiko Yamazaki; Keiichi Yamazaki
    Proceedings - IEEE International Workshop on Robot and Human Interactive Communication, 開始ページ:587, 終了ページ:592, 2013年, [査読有り]
    Museum guide robots should observe visitors in order to identify those who may desire a guide, and then initiate conversation with them. This paper presents a model for such robot behavior. Initiation of conversation is an important concern for social service robots such as museum guide robots. When people enter into a social interaction, they tend to situate themselves in a spatial-orientational arrangement such that each is facing inward around a space to which each has immediate access. When this kind of particular spatial formation occurs, they can feel that they are participating in the conversation
    once they perceive their participation, they will subsequently try to maintain this spatial formation. We developed a model that describes the constraints and expected behaviors in initiation of conversation. Experimental results demonstrate that our model significantly improves a robot's performance in initiating conversation. © 2013 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2013.6628543
    DOI ID:10.1109/ROMAN.2013.6628543, DBLP ID:conf/ro-man/YousufKKYY13, SCOPUS ID:84889560323
  • A maneuverable robotic wheelchair able to move adaptively with a caregiver by considering the situation               
    Yoshihisa Sato; Masaya Arai; Ryota Suzuki; Yoshinori Kobayashi; Yoshinori Kuno; Keiichi Yamazaki; Akiko Yamazaki
    Proceedings - IEEE International Workshop on Robot and Human Interactive Communication, 開始ページ:282, 終了ページ:287, 2013年, [査読有り]
    Although it is desirable for wheelchair users to move alone by operating wheelchairs themselves, they are often pushed or accompanied by caregivers, especially in elderly care facilities. In designing robotic wheelchairs, therefore, it is important to consider how to reduce the caregiver's load and support their activities. We particularly focus on communication among wheelchair users and caregivers because face-to-face communication is known to be effective in ameliorating elderly mental health issues. Hence, we propose a maneuverable robotic wheelchair that can move autonomously towards a goal while considering the situation of the accompanying caregiver. Our robotic wheelchair starts to move autonomously towards the goal as soon as the caregiver sets the goal position, such as a bathroom, by utilizing its touch panel interface. While moving towards the goal, the robotic wheelchair autonomously controls its speed and direction of movement to facilitate natural communication between the wheelchair user and the caregiver, by observing the situation of the accompanying caregiver. © 2013 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2013.6628460
    DOI ID:10.1109/ROMAN.2013.6628460, DBLP ID:conf/ro-man/SatoASKKYY13, SCOPUS ID:84889597248
  • Object Recognition for Service Robots through Verbal Interaction Based on Ontology               
    H. Fukuda, S. Mori, Y. Kobayashi, Y. Kuno and D. Kachi
    Lecture Notes in Computer Science, 巻:8033, 開始ページ:395, 終了ページ:406, 2013年, [査読有り]
    We are developing a helper robot able to fetch objects requested by users. This robot tries to recognize objects through verbal interaction with the user concerning objects that it cannot detect autonomously. Since the robot recognizes objects based on verbal interaction with the user, such a robot must by necessity understand human descriptions of said objects. However, humans describe objects in various ways: they may describe attributes of whole objects, those of parts, or those viewable from a certain direction. Moreover, they may use the same descriptions to describe a range of different objects. In this paper, we propose an ontological framework for interactive object recognition to deal with such varied human descriptions. In particular, we consider human descriptions about object attributes, and develop an interactive object recognition system based on this ontology.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-41914-0_39
    DOI ID:10.1007/978-3-642-41914-0_39, ISSN:0302-9743, DBLP ID:conf/isvc/FukudaMKKK13, Web of Science ID:WOS:000335391300039
  • Attracting Attention and Establishing a Communication Channel Based on the Level of Visual Focus of Attention               
    Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    2013 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), 開始ページ:2194, 終了ページ:2201, 2013年, [査読有り]
    Recent research in HRI has emphasized the need to design affective interaction systems equipped with social intelligence. A robot's awareness of its social role encompasses the ability to behave in a socially acceptable manner, the ability to communicate appropriately according to the situation, and the ability to detect the feelings of interactive partners, as humans do with one another. In this paper, we propose an intelligent robotic method of attracting a target person's attention in a way congruent to satisfying these social requirements. If the robot needs to initiate communication urgently, such as in the case of reporting an emergency, it does not need to consider the current situation of the person it is addressing. Otherwise, the robot should observe the person to ascertain who or what s/he is looking at (VFOA), and how attentively s/he is doing so (VFOA level). Moreover, the robot must identify an appropriate time at which to attract the target person's attention so as to not interfere with his/her work. We have realized just such a robotic system by developing computer vision methods to detect a target person's VFOA and its level, and testing the system's effectiveness in a series of experiments.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2013.6696663
    DOI ID:10.1109/IROS.2013.6696663, ISSN:2153-0858, DBLP ID:conf/iros/DasKK13, Web of Science ID:WOS:000331367402053
  • Recognition of Request through Hand Gesture for Mobile Care Robots               
    Tomoya Tabata; Yoshinori Kobayashi; Yoshinori Kuno
    39TH ANNUAL CONFERENCE OF THE IEEE INDUSTRIAL ELECTRONICS SOCIETY (IECON 2013), 開始ページ:8312, 終了ページ:8316, 2013年, [査読有り]
    We are developing a service robot that provides assisted-care, such as serving tea to the elderly in care facilities. From the sociological analysis of human-human interaction in care facilities, we have found that people often use nonverbal behaviors such as raising their hand to make a request to caregivers. In this paper, we propose a request gesture recognition method for our service robot. In day care facilities, many people are moving around. Hence it is a difficult problem to correctly recognize request gestures among various movements. We have solved this problem by exploiting the sociological interaction analysis result. We have found that a person who would like to make a request to a caregiver waits for the moment when the caregiver looks in the direction towards the person, and then shows a request signal such as raising his/her hand. This means that the robot needs to analyze human motions only when it finds a frontal face in the direction of its face. We have developed a robot system to perform such request recognition and confirmed its effectiveness through experiments.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IECON.2013.6700525
    DOI ID:10.1109/IECON.2013.6700525, ISSN:1553-572X, DBLP ID:conf/iecon/TabataKK13, Web of Science ID:WOS:000331149508019
  • Tracking Visitors with Sensor Poles for Robot's Museum Guide Tour               
    Takaya Oyama; Eri Yoshida; Yoshinori Kobayashi; Yoshinori Kuno
    2013 6TH INTERNATIONAL CONFERENCE ON HUMAN SYSTEM INTERACTIONS (HSI), 開始ページ:645, 終了ページ:650, 2013年, [査読有り]
    In this paper, we propose a robot system which can take visitors on guided tours in a museum. When we consider developing a robot capable of giving a tour of an actual museum, we must implement a robot system able to measure the location and orientation of the robot and visitors using bearing sensors installed in a specific environment. Although many previous methods employed markers or tags attached to the robot to obtain positional information through cameras, it is not easy to situate sensors in the environment itself. SLAM is also used to localize the position of the robot. However, its robustness may not be sufficient when the system is deployed in an actual real-life situation since there will be many people moving freely around the robot. On the other hand, the robot needs information pertaining to both tour attendees and other visitors in the vicinity, in order to give a tour for the attendees. Therefore, we propose a new robot system which consists of simple devices such as multiple laser range finders attached to a pole. By just placing the sensor poles, we could track the location and orientation of the robot and visitors at the same time. We then conducted experiments to confirm the effectiveness and accuracy of our system. In addition, we conducted demonstrative experiments that our robot takes three visitors to the guide tour.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HSI.2013.6577893
    DOI ID:10.1109/HSI.2013.6577893, ISSN:2158-2246, DBLP ID:conf/hsi/OhyamaYKK13, Web of Science ID:WOS:000333257400099
  • Design of Robot Eyes Suitable for Gaze Communication               
    Tomomi Onuki; Takafumi Ishinoda; Yoshinori Kobayashi; Yoshinori Kuno
    PROCEEDINGS OF THE 8TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION (HRI 2013), 開始ページ:203, 終了ページ:204, 2013年, [査読有り]
    Human eyes not only serve the function of enabling us "to see" something, but also perform the vital role of allowing us "to show" our gaze for non-verbal communication. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rear-projected eyes for changing their appearance while simultaneously realizing the sight function by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    ISSN:2167-2121, DBLP ID:conf/hri/OnukiIKK13, Web of Science ID:WOS:000320655500078
  • Question Strategy and Interculturality in Human-Robot Interaction               
    Mihoko Fukushima; Rio Fujita; Miyuki Kurihara; Tomoyuki Suzuki; Keiichi Yamazaki; Akiko Yamazaki; Keiko Ikeda; Yoshinori Kuno; Yoshinori Kobayashi; Takaya Ohyama; Eri Yoshida
    PROCEEDINGS OF THE 8TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION (HRI 2013), 開始ページ:125, 終了ページ:+, 2013年, [査読有り]
    This paper demonstrates the ways in which multi party human participants in 2 language groups, Japanese and English, engage with a quiz robot when they are asked a question. We focus on both speech and bodily conducts where we discovered both universalities and differences.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    ISSN:2167-2121, DBLP ID:conf/hri/FukushimaFKSYYIKKOY13, Web of Science ID:WOS:000320655500039
  • Attention control system considering the target person's attention level               
    Dipankar Das; Mohammed Moshiul Hoque; Yoshinori Kobayashi; Yoshinori Kuno
    ACM/IEEE International Conference on Human-Robot Interaction, 開始ページ:111, 終了ページ:112, 2013年, [査読有り]
    In this paper, we propose an attention control system for social robots that attracts and controls the attention of a target person depending on his/her current attentional focus. The system recognizes the current task of the target person and estimates its level of focus by using the 'task related behavior pattern' of the target human. The attention level is used to determine the suitable cues to attract the target person's attention toward the robot. The robot detects the interest or willingness of the target person to interact with it. Then, depending on the level of interest, the robot displays an awareness signal and shifts his/her attention to an intended goal direction. © 2013 IEEE.
    IEEE/ACM, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/HRI.2013.6483526
    DOI ID:10.1109/HRI.2013.6483526, ISSN:2167-2148, DBLP ID:conf/hri/DasHKK13, SCOPUS ID:84875694200
  • Designing Robot Eyes for Gaze Communication               
    Tomomi Onuki; Takafumi Ishinoda; Yoshinori Kobayashi; Yoshinori Kuno
    PROCEEDINGS OF THE 19TH KOREA-JAPAN JOINT WORKSHOP ON FRONTIERS OF COMPUTER VISION (FCV 2013), 開始ページ:97, 終了ページ:102, 2013年, [査読有り]
    Human eyes not only serve the function of enabling us "to see" something, but also perform the vital role of allowing us "to show" our gaze for non-verbal communication, such as through establishing eye contact and joint attention. The eyes of service robots should therefore also perform both of these functions. Moreover, they should be friendly in appearance so that humans may feel comfortable with the robots. Therefore we maintain that it is important to consider gaze communication capability and friendliness in designing the appearance of robot eyes. In this paper, we propose a new robot face with rear-projected eyes for changing their appearance while simultaneously realizing the sight function by incorporating stereo cameras. Additionally, we examine which shape of robot eyes is most suitable for gaze reading and gives the friendliest impression, through experiments where we altered the shape and iris size of robot eyes.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/FCV.2013.6485468
    DOI ID:10.1109/FCV.2013.6485468, ISSN:2165-1051, DBLP ID:conf/fcv/OnukiIKK13, Web of Science ID:WOS:000318404900020
  • Tracking a Robot and Visitors in a Museum Using Sensor Poles               
    Takaya Ohyama; Eri Yoshida; Yoshinori Kobayashi; Yoshinori Kuno
    PROCEEDINGS OF THE 19TH KOREA-JAPAN JOINT WORKSHOP ON FRONTIERS OF COMPUTER VISION (FCV 2013), 開始ページ:36, 終了ページ:41, 2013年, [査読有り]
    In this paper, we propose a robot system which can take visitors on guided tours in a museum. When we consider developing a robot capable of giving a tour of an actual museum, we must implement a robot system able to measure the location and orientation of the robot and visitors using bearing sensors installed in a specific environment. Although many previous methods employed markers or tags attached to the robot to obtain positional information through cameras, it is not easy to situate sensors in the environment itself. SLAM is also used to localize the position of the robot. However, its robustness may not be sufficient when the system is deployed in an actual real-life situation since there will be many people moving freely around the robot. On the other hand, the robot needs information pertaining to both tour attendees and other visitors in the vicinity, in order to give a tour for the attendees. Therefore, we propose a new robot system which consists of simple devices such as multiple laser range finders attached to a pole. By just placing the sensor poles, we could track the location and orientation of the robot and visitors at the same time. We then conducted experiments to confirm the effectiveness and accuracy of our system.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/FCV.2013.6485456
    DOI ID:10.1109/FCV.2013.6485456, ISSN:2165-1051, DBLP ID:conf/fcv/OhyamaYKK13, Web of Science ID:WOS:000318404900008
  • Development of Smart Wheelchair System for a user with Severe Motor Impairment               
    R. Tomari, Y. Kobayashi and Y. Kuno
    Journal of Procedia Engineering, 号:41, 開始ページ:538, 終了ページ:546, 2012年, [査読有り]
    研究論文(学術雑誌)
  • Empirical framework for autonomous wheelchair systems in human-shared environments               
    Razali Tomari; Yoshinori Kobayashi; Yoshinori Kuno
    2012 IEEE International Conference on Mechatronics and Automation, ICMA 2012, 開始ページ:493, 終了ページ:498, 2012年, [査読有り]
    Autonomous robotic wheelchairs are normally used in human-shared environments and hence they need to move in a safe and comfortable way. Here, we propose a framework that enables such motions in real indoor environments. Initially human regions are detected and tracked from head cues information. Next, the tracking attributes is interpreted for modeling human's comfort zone (CZ) based on human interaction rules rooted from Proxemics concept. Finally, the wheelchair's trajectory is generated by respecting the CZ and simultaneously avoiding in place obstacle. Experimental results demonstrate the feasibility of the proposed framework. © 2012 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICMA.2012.6283096
    DOI ID:10.1109/ICMA.2012.6283096, SCOPUS ID:84867607499
  • Design An Intelligent Robotic Head to Interacting with Humans               
    Mohammed Moshiul Hoque; Kaushik Deb; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    2012 15TH INTERNATIONAL CONFERENCE ON COMPUTER AND INFORMATION TECHNOLOGY (ICCIT), 開始ページ:539, 終了ページ:545, 2012年, [査読有り]
    Attracting people attention to initiate an interaction is one of the most fundamental social capabilities both for the human and the robot. If the robot would like to communicate a particular person, it should turn its gaze to that person and make eye contact with him/her. However, only such a turning action is not enough to set up an eye contact phenomenon in all cases specially, when the robot and the target person are in greater distance and they are not facing each other. Therefore, the robot should perform some actions so that it can attract the target person before meeting his/her gaze. In this paper, we propose three actions (head turning, head shaking, and reference terms) for the robot as its attention attraction capabilities corresponding to the three viewing situations (near peripheral field of view, far peripheral field of view, and out of field of view) of human. A preliminary experiment using twelve participants confirms the effectiveness of the robot actions to attract human attention.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    ISSN:2474-9648, Web of Science ID:WOS:000392934600094
  • Robotic Wheelchair with Omni-directional Vision for Moving alongside a Caregiver               
    Yoshinori Kobayashi; Ryota Suzuki; Yoshinori Kuno
    38TH ANNUAL CONFERENCE ON IEEE INDUSTRIAL ELECTRONICS SOCIETY (IECON 2012), 開始ページ:4177, 終了ページ:4182, 2012年, [査読有り]
    Recently, several robotic/intelligent wheelchairs equipped with user-friendly interfaces and/or autonomous functions to fulfill set goals have been proposed. Although wheelchair users may wish to go out alone, caregivers often accompany them. Therefore, it is important to consider how to reduce the caregivers' load while supporting their activities and facilitating communication between the caregiver and wheelchair user. Hence, we have proposed a robotic wheelchair that can move alongside a caregiver by observing his/her behavior, such as body position and orientation. This form of motion enables easy communication between the wheelchair user and the caregiver. However, in our previous system, the caregiver had to set their own initial position by tapping the touchscreen displaying the distance data image captured by a laser range sensor. In this paper, therefore, we introduce a new interface we designed by incorporating an omnidirectional camera so that the accompanying caregiver can easily set the initial position by tapping his/her facial image instead. Moreover, when the system loses the accompanying caregiver due to them making an unexpected motion, it promptly re-identifies the caregiver by using color appearance cues. These functions improve the usefulness of our robotic wheelchair and heighten the possibility of our wheelchair being utilized in our daily life.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    ISSN:1553-572X, Web of Science ID:WOS:000316962904023
  • Robotic Wheelchair Moving with Caregiver Collaboratively               
    Y. Kobayashi, Y. Kinpara, E. Takano, Y. Kuno, K. Yamazaki and A. Yamazaki
    Advanced Intelligent Computng Theories and Applications, 巻:6839, 開始ページ:523, 終了ページ:+, 2012年, [査読有り]
    This paper introduces a robotic wheelchair that can automatically move alongside a caregiver. Because wheelchair users are often accompanied by caregivers, it is vital to consider how to reduce a caregiver's load and support their activities, while simultaneously facilitating communication between the caregiver and the wheelchair user. Moreover, a sociologist pointed out that when a wheelchair user is accompanied by a companion, the latter is inevitably seen by others as a caregiver rather than a friend. In other words, the equality of the relationship is publicly undermined when the wheelchair is pushed by a companion. Hence, we propose a robotic wheelchair able to move alongside a companion, and facilitate easy communication between the companion and the wheelchair user. Laser range sensors are used for tracking the caregiver and observing the environment around the wheelchair. To confirm the effectiveness of the wheelchair in real-world situations, we conducted experiments at an elderly care center in Japan. Results and analyses are also reported in this paper.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-25944-9_68
    DOI ID:10.1007/978-3-642-25944-9_68, ISSN:0302-9743, DBLP ID:conf/icic/KobayashiKTKYY11, Web of Science ID:WOS:000306498200068
  • Vision-based attention control system for socially interactive robots               
    Dipankar Das; Mohammed Moshiul Hoque; Tomomi Onuki; Yoshinori Kobayashi; Yoshinori Kuno
    Proceedings - IEEE International Workshop on Robot and Human Interactive Communication, 開始ページ:496, 終了ページ:502, 2012年, [査読有り]
    A social robot needs to attract the attention of a target human and shift it from his/her current focus to what is sought by the robot. The robot should recognize the current target's attention level to smoothly perform this attention control. In this paper, we propose a vision-based system to detect the level of attention or willingness of the target person towards the robot and to control his/her attention. The system estimates the attention level from rich visual cues of human's face and head. Then, by timing target's attention to determine the appropriate attention level, it generates aware signals and makes eye contact with the target. Finally, the robot shifts the target's attention to an intended direction. The experimental results reveal that the proposed system is effective in controlling the target's attention. © 2012 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2012.6343800
    DOI ID:10.1109/ROMAN.2012.6343800, DBLP ID:conf/ro-man/DasHOKK12, SCOPUS ID:84870837100
  • Model for controlling a target human's attention in multi-party settings               
    Mohammed Moshiul Hoque; Dipankar Das; Tomomi Onuki; Yoshinori Kobayashi; Yoshinori Kuno
    Proceedings - IEEE International Workshop on Robot and Human Interactive Communication, 開始ページ:476, 終了ページ:483, 2012年, [査読有り]
    It is a major challenge in HRI to design a social robot that is able to direct a target human's attention towards an intended direction. For this purpose, the robot may first turn its gaze to him/her in order to establish eye contact. However, such a turning action of the robot may not in itself be sufficient to make eye contact with the target person in all situations, especially when the robot and the person are not facing each other or the human is intensely engaged in a task. In this paper, we propose a conceptual model of attention control with five phases: attention attraction, eye contact, attention avoidance, gaze back, and attention shift. We conducted two experiments to validate our model in human-robot interaction scenarios. © 2012 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2012.6343797
    DOI ID:10.1109/ROMAN.2012.6343797, DBLP ID:conf/ro-man/HoqueDOKK12, SCOPUS ID:84870817840
  • Object Recognition for Service Robots through Verbal Interaction about Multiple Attribute Information               
    Hisato Fukuda; Satoshi Mori; Yoshinori Kobayashi; Yoshinori Kuno
    ADVANCES IN VISUAL COMPUTING, ISVC 2012, PT I, 巻:7431, 開始ページ:620, 終了ページ:631, 2012年, [査読有り]
    In order to be effective, it is essential for service robots to be able to recognize objects in complex environments. However, it is a difficult problem for them to recognize objects autonomously without any mistakes in a real-world environment. Thus, in response to this challenge we conceived of an object recognition system that would utilize information about target objects acquired from the user through simple interaction. In this paper, we propose image processing techniques to consider the shape composition and the material composition of objects in an interactive object recognition framework, and introduce a robot using this interactive object recognition system. Experimental results confirmed that the robot could indeed recognize objects by utilizing multiple attribute information obtained through interaction with the user.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-33179-4_59
    DOI ID:10.1007/978-3-642-33179-4_59, ISSN:0302-9743, DBLP ID:conf/isvc/FukudaMKK12, Web of Science ID:WOS:000363266600059
  • A Spatial-Based Approach for Groups of Objects               
    Lu Cao; Yoshinori Kobayashi; Yoshinori Kuno
    ADVANCES IN VISUAL COMPUTING, ISVC 2012, PT II, 巻:7432, 開始ページ:597, 終了ページ:608, 2012年, [査読有り]
    We introduce a spatial-based feature approach to locating and recognizing objects in cases where several identical or similar objects are accumulated together. With respect to cognition, humans specify such cases with a group-based reference system, which can be considered as an extension of conventional notions of reference systems. On the other hand, a spatial-based feature is straightforward and distinctive, making it more suitable for object recognition tasks. We evaluate this approach by testing it on eight diverse object categories, and thereby provided comprehensive results. The performance exceeds the state of art by high accuracy, less attempts and fast running time.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-33191-6_59
    DOI ID:10.1007/978-3-642-33191-6_59, ISSN:0302-9743, DBLP ID:conf/isvc/CaoKK12, Web of Science ID:WOS:000363265800059
  • Wide Field of View Kinect Undistortion for Social Navigation Implementation               
    Razali Tomari; Yoshinori Kobayashi; Yoshinori Kuno
    ADVANCES IN VISUAL COMPUTING, ISVC 2012, PT II, 巻:7432, 開始ページ:526, 終了ページ:535, 2012年, [査読有り]
    In planning navigation schemes for social robots, distinguishing between humans and other obstacles is crucial for obtaining a safe and comfortable motion. A Kinect camera is capable of fulfilling such a task but unfortunately can only deliver a limited field of view (FOV). Recently a lens that is capable of improving the Kinect's FOV has become commercially available from Nyko. However, this lens causes a distortion in the RGB-D data, including the depth values. To address this issue, we propose a two-staged undistortion strategy. Initially, pixel locations in both RGB and depth images are corrected using an inverse radial distortion model. Next, the depth data is post-filtered using 3D point cloud analysis to diminish the noise as a result of the undistorting process and remove the ground/ceiling information. Finally, the depth values are rectified using a neural network filter based on laser-assisted training. Experimental results demonstrate the feasibility of the proposed approach for fixing distorted RGB-D data.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-33191-6_52
    DOI ID:10.1007/978-3-642-33191-6_52, ISSN:0302-9743, DBLP ID:conf/isvc/TomariKK12, Web of Science ID:WOS:000363265800052
  • An Integrated Approach of Attention Control of Target Human by Nonverbal Behaviors of Robots in Different Viewing Situations               
    Mohammed Moshiul Hoque; Dipankar Das; Tomomi Onuki; Yoshinori Kobayashi; Yoshinori Kuno
    2012 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), 開始ページ:1399, 終了ページ:1406, 2012年, [査読有り]
    A major challenge in HRI is to design a social robot that can attract a target human's attention to control his/her attention toward a particular direction in various social situations. If a robot would like to initiate an interaction with a person, it may turn its gaze to him/her for eye contact. However, it is not an easy task for the robot to make eye contact because such a turning action alone may not be enough to initiate an interaction in all situations, especially when the robot and the human are not facing each other or the human intensely attends to his/her task. In this paper, we propose a conceptual model of attention control with four phases: attention attraction, eye contact, attention avoidance, and attention shift. In order to initiate an attention control process, the robot first tries to gain the target participant's attention toward it through head turning, or head shaking action depending on the three viewing situations where the robot is captured in his/her field of view (central field of view, near peripheral field of view, and far peripheral field of view). After gaining her/his attention, the robot makes eye contact only with the target person through showing gaze awareness by blinking its eyes, and directs her/his attention toward an object by turning its eyes and head cues. Moreover, the robot can show attention to aversion behaviors if non-target persons look at it. We design a robot based on the proposed approach, and it is confirmed as effective to control the target participant's attention in experimental evaluation.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2012.6385480
    DOI ID:10.1109/IROS.2012.6385480, ISSN:2153-0858, DBLP ID:conf/iros/HoqueDOKK12, Web of Science ID:WOS:000317042701144
  • Robotic System Controlling Target Human's Attention               
    Mohammed Moshiul Hoque; Dipankar Das; Tomomi Onuki; Yoshinori Kobayashi; Yoshinori Kuno
    INTELLIGENT COMPUTING THEORIES AND APPLICATIONS, ICIC 2012, 巻:7390, 開始ページ:534, 終了ページ:544, 2012年, [査読有り]
    Attention control can be defined as shifting people's attention from their existing direction toward a goal direction. If a human would like to shift another's attention, s/he may first turn his/her gaze to that human to make eye contact. However, it is not an easy task for a robot when the human is not looking at it initially. In this paper, we propose a model of attention control with four parts: attention attraction, eye contact, attention avoidance, and attention shift. To initiate attention control process, the robot first tries to gain the target person's attention toward it through head turning or head shaking action depending on the three viewing situations where the robot is captured in his/her field of view (central field of view, near peripheral field of view, and far peripheral field of view). After gaining his/her attention, the robot makes eye contact through showing gaze awareness by blinking its eyes, and directs his/her attention to an object by turning both its eyes and head. If a person other than the target seems to be attracted by the robot, the robot turns its head away from that person to avoid his/her attention. Evaluation experiments confirmed that the proposed approach is effective to control the target person's attention.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-31576-3_68
    DOI ID:10.1007/978-3-642-31576-3_68, ISSN:0302-9743, DBLP ID:conf/icic/HoqueDOKK12, Web of Science ID:WOS:000314766200068
  • Development of a mobile museum guide robot that can configure spatial formation with visitors               
    Mohammad Abu Yousuf; Yoshinori Kobayashi; Yoshinori Kuno; Akiko Yamazaki; Keiichi Yamazaki
    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 巻:7389, 開始ページ:423, 終了ページ:432, 2012年, [査読有り]
    Museum guide robot is expected to establish a proper spatial formation known as "F-formation" with the visitors before starting its explanation of any exhibit. This paper presents a model for a mobile museum guide robot that can establish an F-formation appropriately and can employ "pause and restart" depending on the situation. We began by observing and videotaping scenes of actual museum galleries where human guides explain exhibits to visitors. Based on the analysis of the video, we developed a mobile robot system that can guide multiple visitors inside the gallery from one exhibit to another. The robot has the capability to establish the F-formation at the beginning of explanation after arriving near to any exhibit. The robot can also implement "pause and restart" depending on the situation at certain moment in its talk to first elicit the visitor's attention towards the robot. Experimental results suggest the efficacy of our proposed model. © 2012 Springer-Verlag.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-31588-6_55
    DOI ID:10.1007/978-3-642-31588-6_55, ISSN:0302-9743, DBLP ID:conf/icic/YousufKKYY12, SCOPUS ID:84865289839
  • Spatial-Based Feature for Locating Objects               
    Lu Cao; Yoshinori Kobayashi; Yoshinori Kuno
    INTELLIGENT COMPUTING THEORIES AND APPLICATIONS, ICIC 2012, 巻:7390, 開始ページ:128, 終了ページ:137, 2012年, [査読有り]
    In this paper, we discuss how humans locate and detect objects using spatial expressions. Then we propose a spatial-based feature for object localization and recognition tasks. We develop a system that can recognize an object whose positional relation with another object is indicated verbally by a human. Experimental results using two image datasets prepared by the authors confirm the usefulness of the proposed feature.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-31576-3_17
    DOI ID:10.1007/978-3-642-31576-3_17, ISSN:0302-9743, DBLP ID:conf/icic/CaoKK12, Web of Science ID:WOS:000314766200017
  • Implementing Human Questioning Strategies into Quizzing-Robot               
    Takaya Ohyama; Yasutomo Maeda; Chiaki Mori; Yoshinori Kobayashi; Yoshinori Kuno; Rio Fujita; Keiichi Yamazaki; Shun Miyazawa; Akiko Yamazaki; Keiko Ikeda
    HRI'12: PROCEEDINGS OF THE SEVENTH ANNUAL ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION, 開始ページ:423, 終了ページ:423, 2012年, [査読有り]
    ASSOC COMPUTING MACHINERY, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2157689.2157829
    DOI ID:10.1145/2157689.2157829, ISSN:2167-2121, DBLP ID:conf/hri/OhyamaMMKKFYMYI12, Web of Science ID:WOS:000393315300130
  • A Techno-Sociological Solution for Designing a Museum Guide Robot: Regarding Choosing an Appropriate Visitor               
    A.Yamazaki, K.Yamazaki, T.Ohyama, Y.Kobayashi ,Y. Kuno
    International Conference on Human-Robot Interaction(HRI2012), 開始ページ:309, 終了ページ:316, 2012年, [査読有り]
    In this paper, we present our work designing a robot that explains an exhibit to multiple visitors in a museum setting, based on ethnographic analysis of interactions between expert human guides and visitors. During the ethnographic analysis, we discovered that expert human guides employ some identical strategies and practices in their explanations. In particular, one of these is to involve all visitors by posing a question to an appropriate visitor among them, which we call the "creating a puzzle" sequence. This is done in order to draw visitors' attention towards not only the exhibit and but also the guide's explanation. While creating a puzzle, the human guide can monitor visitors' responses and choose an "appropriate" visitor (i.e. one who is likely to provide an answer). Based on these findings, sociologists and engineers together developed a guide robot that coordinates verbal and non-verbal actions in posing a question or "a puzzle" that will draw visitors' attention, and then explain the exhibit for multiple visitors. During the explanation, the robot chooses an "appropriate" visitor. We tested the robot at an actual museum. The results show that our robot increases visitors' engagement and interaction with the guide, as well as interaction and engagement among visitors.
    ASSOC COMPUTING MACHINERY, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2157689.2157800
    DOI ID:10.1145/2157689.2157800, ISSN:2167-2121, DBLP ID:conf/hri/YamazakiYOKK12, Web of Science ID:WOS:000393315300106
  • Establishment of Spatial Formation by a Mobile Guide Robot               
    Mohammad A. Yousuf; Yoshinori Kobayashi; Yoshinori Kuno; Keiichi Yamazaki; Akiko Yamazaki
    HRI'12: PROCEEDINGS OF THE SEVENTH ANNUAL ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION, 開始ページ:281, 終了ページ:282, 2012年, [査読有り]
    A mobile museum guide robot is expected to establish a proper spatial formation with the visitors. After observing the videotaped scenes of human guide-visitors interaction at actual museum galleries, we have developed a mobile robot that can guide multiple visitors inside the gallery from one exhibit to another. The mobile guide robot is capable of establishing spatial formation known as "F-formation" at the beginning of explanation. It can also use a systematic procedure known as "pause and restart" depending on the situation through which a framework of mutual orientation between the speaker (robot) and visitors is achieved. The effectiveness of our method has been confirmed through experiments.
    ASSOC COMPUTING MACHINERY, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2157689.2157794
    DOI ID:10.1145/2157689.2157794, ISSN:2167-2121, DBLP ID:conf/hri/YousufKKYY12, Web of Science ID:WOS:000393315300101
  • Attracting and Controlling Human Attention through Robot's Behaviors Suited to the Situation               
    Mohammed M. Hoque; Tomomi Onuki; Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    HRI'12: PROCEEDINGS OF THE SEVENTH ANNUAL ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION, 開始ページ:149, 終了ページ:150, 2012年, [査読有り]
    A major challenge is to design a robot that can attract and control human attention in various social situations. If a robot would like to communicate a person, it may turn its gaze to him/her for eye contact. However, it is not an easy task for the robot to make eye contact because such a turning action alone may not be enough in all situations, especially when the robot and the human are not facing each other. In this paper, we present an attention control approach through robot's behaviors that can attract a person's attention by three actions: head turning, head shaking, and uttering reference terms corresponding to three viewing situations in which the human vision senses the robot (near peripheral field of view, far peripheral field of view, and out of field of view). After gaining attention, the robot makes eye contact through showing gaze awareness by blinking its eyes, and directs the human attention by eye and head turning behaviors to share an object.
    ASSOC COMPUTING MACHINERY, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2157689.2157729
    DOI ID:10.1145/2157689.2157729, ISSN:2167-2121, DBLP ID:conf/hri/HoqueODKK12, Web of Science ID:WOS:000393315300036
  • Care robot able to show the order of service provision through bodily actions in multi-party settings.               
    Yoshinori Kobayashi; Keiichi Yamazaki; Akiko Yamazaki; Masahiko Gyoda; Tomoya Tabata; Yoshinori Kuno; Yukiko Seki
    CHI Conference on Human Factors in Computing Systems, CHI '12, Extended Abstracts Volume, Austin, TX, USA, May 5-10, 2012, 開始ページ:1889, 終了ページ:1894, 2012年, [査読有り]
    ACM, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/2212776.2223724
    DOI ID:10.1145/2212776.2223724, DBLP ID:conf/chi/KobayashiYYGTKS12
  • Assisted-care robot based on sociological interaction analysis               
    Wenxing Quan; Hitoshi Niwa; Naoto Ishikawa; Yoshinori Kobayashi; Yoshinori Kuno
    COMPUTERS IN HUMAN BEHAVIOR, 巻:27, 号:5, 開始ページ:1527, 終了ページ:1534, 2011年09月, [査読有り]
    This paper presents our on-going work in developing service robots that provide assisted-care to the elderly in multi-party settings. In typical Japanese day-care facilities, multiple caregivers and visitors are co-present in the same room and any caregiver may provide assistance to any visitor. In order to effectively work in such settings, a robot should behave in a way that a person who needs assistance can easily initiate help from the robot. Based on findings from observations at several day-care facilities, we have developed a robot system that displays availability to multiple persons and then displays recipiency to an individual who initiates interaction with the robot. In this paper we detail this robot system and its experimental evaluation. (C) 2010 Elsevier Ltd. All rights reserved.
    PERGAMON-ELSEVIER SCIENCE LTD, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1016/j.chb.2010.10.022
    DOI ID:10.1016/j.chb.2010.10.022, ISSN:0747-5632, eISSN:1873-7692, DBLP ID:journals/chb/QuanNIKK11, Web of Science ID:WOS:000293319500010
  • Sub-category Optimization through Cluster Performance Analysis for Multi-Pose Object Detection               
    D. Das, Y. Kobayashi, Y. Kuno
    IEEJ Transactions on Electronics, Information and Systems, 巻:E94D, 号:7, 開始ページ:1467, 終了ページ:1478, 2011年07月, [査読有り]
    The detection of object categories with large variations in appearance is a fundamental problem in computer vision. The appearance of object categories can change due to intra-class variations, background clutter, and changes in viewpoint and illumination. For object categories with large appearance changes, some kind of sub-categorization based approach is necessary. This paper proposes a sub-category optimization approach that automatically divides an object category into an appropriate number of sub-categories based on appearance variations. Instead of using predefined intra-category sub-categorization based on domain knowledge or validation datasets, we divide the sample space by unsupervised clustering using discriminative image features. We then use a cluster performance analysis (CPA) algorithm to verify the performance of the unsupervised approach. The CPA algorithm uses two performance metrics to determine the optimal number of sub-categories per object category. Furthermore, we employ the optimal sub-category representation as the basis and a supervised multi-category detection system with chi(2) merging kennel function to efficiently detect and localize object categories within an image. Extensive experimental results are shown using a standard and the authors' own databases. The comparison results reveal that our approach outperforms the state-of-the-art methods.
    IEICE-INST ELECTRONICS INFORMATION COMMUNICATIONS ENG, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1587/transinf.E94.D.1467
    DOI ID:10.1587/transinf.E94.D.1467, ISSN:0916-8532, DBLP ID:journals/ieicet/DasKK11, Web of Science ID:WOS:000292619500011
  • 材質を含む属性情報を利用したサービスロボットのための対話物体認識(若葉研究者の集い1,サマーセミナー2011(若葉研究者の集い))               
    福田 悠人; 小林 貴訓; 久野 義徳
    映像情報メディア学会技術報告, 巻:35, 開始ページ:11, 終了ページ:12, 2011年
    サービスロボットは複雑な環境の中から正確に対象物体を認識することが求められる.しかし,雑多なものが多く存在する実環境において,誤ることなく対象物体を識別することは困難であるといえる.そのため我々は,ロボットが人との対話により対象物体の手掛かりを獲得して認識を行う物体認識手法を提案している.本稿では,ロボットが人との対話により対象物体の色,材質,位置関係を獲得し,物体を認識するロボットシステムを構成した.
    一般社団法人 映像情報メディア学会, 日本語
    DOI:https://doi.org/10.11485/itetr.35.33.0_11
    DOI ID:10.11485/itetr.35.33.0_11, CiNii Articles ID:130006088030
  • コミュニケーションを考慮した複数ロボット車椅子システム(若葉研究者の集い3,サマーセミナー2011(若葉研究者の集い))               
    高野 恵利衣; 小林 貴訓; 久野 義徳
    映像情報メディア学会技術報告, 巻:35, 開始ページ:41, 終了ページ:42, 2011年
    近年の急激な少子高齢化の進行に伴い,少ない人材で効率的な介護が行えるように,複数台のロボット車椅子が一人の介護者に協調追従を行うシステムの構築を行った.追随に関しては,介護者と車椅子利用者間のコミュニケーションや,障害物回避を考慮し,介護者と車椅子利用者が話しやすく,両者にとって快適な走行システムの構築を行った.
    一般社団法人 映像情報メディア学会, 日本語
    DOI:https://doi.org/10.11485/itetr.35.33.0_41
    DOI ID:10.11485/itetr.35.33.0_41, CiNii Articles ID:130006088061
  • Mobile care robot accepting requests through nonverbal interaction               
    M. Gyoda, T. Tabata, Y. Kobayashi, Y. Kuno
    FCV2011, 2011年, [査読有り]
    This paper presents our on-going work in developing service robots that provide assisted-care to the elderly in multi-party settings. In typical Japanese day-care facilities, multiple caregivers and visitors are co-present in the same room and any caregiver may provide assistance to any visitor. In order to effectively work in such settings, a robot should behave in a way that a person who needs assistance can easily initiate help from the robot. Based on findings from observations at several day-care facilities, we have developed a mobile robot system that displays availability to multiple persons and then displays recipiency to an individual who initiates interaction with the robot. In this paper we detail this robot system and its experimental result. © 2011 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/FCV.2011.5739723
    DOI ID:10.1109/FCV.2011.5739723, SCOPUS ID:84881128986
  • Object recognition for service robots:where is the fronts?               
    L. Cao , Y. Kobayashi and Y. Kuno
    ICMA2011, 開始ページ:875, 終了ページ:880, 2011年, [査読有り]
    Exactly same objects produce dramatically different images depending on their poses to the camera and result in great ambiguity for spatial recognition. Different poses of same objects also lead to different orientations in the use of intrinsic system. Our current study is focusing on this issue and can be divided into three phases. First, we propose an object pose-estimation model which is capable of recognizing unseen views. We achieve this goal by building a discrete key-pose structure parameterized by an azimuth and using PHOG [20] descriptor to measure the shape correspondence between two images. A large number of instances are learned at the training stage through semi-supervised. Then, we show experimental results on our own dataset. Second, according to the analyzed criteria in the use of intrinsic system, we recognize the frontal orientation of an intrinsic geometry object combining with pose-estimation results (e.g., a LCD screen). Finally, we summarize our integrated model which is able to classify object category, estimate object pose, distinguish intrinsic spatial relations between reference and target objects and locate the target under users' instructions. © 2011 IEEE.
    英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICMA.2011.5985705
    DOI ID:10.1109/ICMA.2011.5985705, SCOPUS ID:81055124268
  • Controlling human attention through robot's gaze behaviors               
    M.M. Hoque , T. Onuki , Y. Kobayashi and Y. Kuno
    HSI2011, 開始ページ:195, 終了ページ:202, 2011年, [査読有り]
    Controlling someone's attention can be defined as shifting his/her attention from the existing direction to another. However, it is not easy task for a robot to shift a particular human's attention if they are not in face-to-face situation. If the robot would like to communicate a particular person, it should turn its gaze to that person and make eye contact to establish mutual gaze. However, only such a turning action is not enough to set up eye contact when the robot and the target person are not facing each other. Therefore, the robot should perform some actions so that it can attract the target person and meet their gaze. In this paper, we present a robot that can attract a target person's attention by moving its head, make eye contact through showing gaze awareness by blinking its eyes, and establish joint attention by repeating its head turns from the person and the target object. Experiments using twenty human participants confirm the effectiveness of the robot actions to control human attention.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    ISSN:2158-2246, Web of Science ID:WOS:000392284600025
  • An empirical framework to control human attention by robot               
    M.M. Hoque, T. Onuki, E. Tsuburaya, Y. Kobayashi, Y. Kuno, T. Sato, S. Kodama
    International Workshop on Gaze Sensing and Interactions, 巻:6468, 開始ページ:430, 終了ページ:439, 2011年, [査読有り]
    Human attention control simply means that the shifting of one's attention from one direction to another. To shift someone's attention, gaining attention and meeting gaze are two most important pre-requisites. If a person would like to communicate with another, the person's gaze should meet the receiver's gaze, and they should make eye contact. However, it is difficult to set up eye contact when the two people are not facing each other in non-linguistic way. Therefore, the sender should perform some actions to capture the receiver's attention so that they can meet face-to-face and establish eye contact. In this paper, we focus on what is the best action for a robot to attract human attention and how human and robot display gazing behavior each other for eye contact. In our system, the robot may direct its gaze toward a particular direction after making eye contact and the human will read the robot's gaze. As a result, s/he will shift his/her attention to the direction indicated by the robot gaze. Experimental results show that the robot's head motions can attract human attention, and the robot's blinking when their gaze meet can make the human feel that s/he makes eye contact with the robot.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-22822-3_43
    DOI ID:10.1007/978-3-642-22822-3_43, ISSN:0302-9743, DBLP ID:conf/accv/HoqueOTKKSK10, Web of Science ID:WOS:000392224200043
  • A considerate care robot able to serve in multi-party setting               
    Y. Kobayashi , M. Gyoda , T. Tabata , Y. Kuno , K. Yamazaki , M. Shibuya , Y. Seki and A. Yamazaki
    Ro-Man2011, 開始ページ:27, 終了ページ:32, 2011年, [査読有り]
    This paper introduces a service robot that provides assisted-care, such as serving tea to the elderly in care facilities. In multi-party settings, a robot is required to be able to deal with requests from multiple individuals simultaneously. In particular, when the service robot is concentrating on taking care of a specific person, other people who want to initiate interaction may feel frustrated with the robot. To a considerable extent this may be caused by the robot's behavior, which does not indicate any response to subsequent requests while preoccupied with the first. Therefore, we developed a robot that can project the order of service in a socially acceptable manner to each person who wishes to initiate interaction. In this paper we focus on the task of tea-serving, and introduce a robot able to bring tea to multiple users while accepting multiple requests. The robot can detect a person raising their hand to make a request, and move around people using its mobile functions while avoiding obstacles. When the robot detects a person's request while already serving tea to another person, it projects that it has received the order by indicating "you are next" through a nonverbal action, such as turning its gaze to the person. Because it can project the order of service and indicate its acknowledgement of their requests socially, people will likely feel more satisfied with the robot even when it cannot immediately address their needs. We confirmed the effectiveness of this capability through an experiment in which the robot distributed snacks to participants. © 2011 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2011.6005286
    DOI ID:10.1109/ROMAN.2011.6005286, DBLP ID:conf/ro-man/KobayashiGTKYSSY11, SCOPUS ID:80052984224
  • 3D Free-Form Object Material Identification by Surface Reflection Analysis with a Time-of-Flight Range Sensor.               
    Md. Abdul Mannan; Lu Cao; Yoshinori Kobayashi; Yoshinori Kuno
    Proceedings of the IAPR Conference on Machine Vision Applications (IAPR MVA 2011), Nara Centennial Hall, Nara, Japan, June 13-15, 2011, 開始ページ:227, 終了ページ:234, 2011年, [査読有り]
    DBLP ID:conf/mva/MannanCKK11, CiNii Articles ID:20000574026
  • Multi-view head detection and tracking with long range capability for social navigation planning               
    T. Razali , Y. Kobayashi and Y. Kuno
    Lecture Notes in Computer Science, 巻:6939, 号:2, 開始ページ:418, 終了ページ:427, 2011年, [査読有り]
    Head pose is one of the important human cues in social navigation planning for robots to coexist with humans. Inferring such information from distant targets using a mobile platform is a challenging task. This paper tackles this issue to propose a method for detecting and tracking head pose with the mentioned constraints using RGBD camera (Kinect, Microsoft). Initially possible human regions are segmented out then validated by using depth and Hu moment features. Next, plausible head regions within the segmented areas are estimated by employing Haar-like features with the Adaboost classifier. Finally, the obtained head regions are post-validated by means of their dimension and their probability of containing skin before refining the pose estimation and tracking by a boosted-based particle filter. Experimental results demonstrate the feasibility of the proposed approach for detecting and tracking head pose from far range targets under spot-light and natural illumination conditions. © 2011 Springer-Verlag.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-24031-7_42
    DOI ID:10.1007/978-3-642-24031-7_42, ISSN:0302-9743, DBLP ID:conf/isvc/TomariKK11, SCOPUS ID:80053379405
  • Material information acquisition using a ToF range sensor for interactive object recognition               
    Md. Abdul Mannan; Hisato Fukuda; Yoshinori Kobayashi; Yoshinori Kuno
    Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 巻:6939, 号:2, 開始ページ:116, 終了ページ:125, 2011年, [査読有り]
    This paper proposes a noncontact active vision technique that analyzes the reflection pattern of infrared light to estimate the object material according to the degree of surface smoothness (or roughness). To obtain the surface micro structural details and the surface orientation information of a free-form 3D object, the system employs only a time-of-flight range camera. It measures reflection intensity patterns with respect to surface orientation for various material objects. Then it classifies these patterns by Random Forest (RF) classifier to identify the candidate of material of reflected surface. We demonstrate the efficiency of the method through experiments by using several household objects under normal illuminating condition. Our main objective is to introduce material information in addition to color, shape and other attributes to recognize target objects more robustly in the interactive object recognition framework. © 2011 Springer-Verlag.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-24031-7_12
    DOI ID:10.1007/978-3-642-24031-7_12, ISSN:0302-9743, DBLP ID:conf/isvc/MannanFKK11, SCOPUS ID:80053358415
  • Japanese Abbreviation Expansion with Query and Clickthrough Logs.
    Kei Uchiumi; Mamoru Komachi; Keigo Machinaga; Toshiyuki Maezawa; Toshinori Satou; Yoshinori Kobayashi
    Fifth International Joint Conference on Natural Language Processing, IJCNLP 2011, Chiang Mai, Thailand, November 8-13, 2011, 開始ページ:410, 終了ページ:419, 2011年, [査読有り]
    The Association for Computer Linguistics
    DBLP ID:conf/ijcnlp/UchiumiKMMSK11
  • Understanding the Meaning of Shape Description for Interactive Object Recognition               
    S. Mori, Y. Kobayashi and Y. Kuno
    Lecture Notes in Computer Science, 巻:6838, 開始ページ:350, 終了ページ:356, 2011年, [査読有り]
    Service robots need to be able to recognize objects located in complex environments. Although there has been recent progress in this area, it remains difficult for autonomous vision systems to recognize objects in natural conditions. Thus we propose an interactive object recognition system, which asks the user to verbally provide information about the objects that it cannot recognize. However, humans may use various expressions to describe objects. Meanwhile, the same verbal expression may indicate different meanings depending on the situation. Thus we have examined human descriptions of object shapes through experiments using human participants. This paper presents the findings from the experiments useful in designing interactive object recognition systems.
    SPRINGER-VERLAG BERLIN, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-24728-6_47
    DOI ID:10.1007/978-3-642-24728-6_47, ISSN:0302-9743, DBLP ID:conf/icic/MoriKK11, Web of Science ID:WOS:000307317300047
  • A Wheelchair Which Can Automatically Move Alongside a Caregiver               
    Yoshinori Kobayashi; Yuki Kinpara; Erii Takano; Yoshinori Kuno; Keiichi Yamazaki; Akiko Yamazaki
    PROCEEDINGS OF THE 6TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTIONS (HRI 2011), 開始ページ:407, 終了ページ:407, 2011年, [査読有り]
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1957656.1957805
    DOI ID:10.1145/1957656.1957805, ISSN:2167-2121, DBLP ID:conf/hri/KobayashiKTKYY11, Web of Science ID:WOS:000393313200137
  • Assisted-Care Robot Dealing with Multiple Requests in Multi-party Settings               
    Yoshinori Kobayashi; Masahiko Gyoda; Tomoya Tabata; Yoshinori Kuno; Keiichi Yamazaki; Momoyo Shibuya; Yukiko Seki
    PROCEEDINGS OF THE 6TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTIONS (HRI 2011), 開始ページ:167, 終了ページ:168, 2011年, [査読有り]
    This paper presents our ongoing work developing service robots that provide assisted-care, such as serving tea to the elderly in care facilities. In multi-party settings, a robot is required to be able to deal with requests from multiple individuals simultaneously. In particular, when the service robot is concentrating on taking care of a specific person, other people who want to initiate interaction may feel frustrated with the robot. To a considerable extent this may be caused by the robot's behavior, which does not indicate any response to subsequent requests while preoccupied with the first. Therefore, we developed a robot that can display acknowledgement, in a socially acceptable manner, to each person who wants to initiate interaction. In this paper we focus on the task of tea-serving, and introduce a robot able to bring tea to multiple users while accepting multiple requests. The robot can detect a person's request (raising their hand) and move around people using its localization system. When the robot detects a person's request while serving tea to another person, it displays its acknowledgement by indicating "Please wait" through a nonverbal action. Because it can indicate its acknowledgement of their requests socially, people will likely feel more satisfied with the robot even when it cannot immediately address their needs.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1957656.1957714
    DOI ID:10.1145/1957656.1957714, ISSN:2167-2121, DBLP ID:conf/hri/KobayashiGTKYSS11, Web of Science ID:WOS:000393313200051
  • Robotic wheelchair moving with caregiver collaboratively depending on circumstances               
    Y. Kobayashi, Y. Kinpara, E. Takano, Y. Kuno, K. Yamazaki and A. Yamazaki
    ACM SIGCHI CHI2010 Extended Abstracts, 開始ページ:2239, 終了ページ:2244, 2011年, [査読有り]
    This paper introduces a robotic wheelchair that can automatically move alongside a caregiver. Because wheelchair users are often accompanied by caregivers, it is vital to consider how to reduce a caregiver's load and support their activities, while simultaneously facilitating communication between the caregiver and the wheelchair user. Moreover, it has been pointed out that when a wheelchair user is accompanied by a companion, the latter is inevitably seen by others as a caregiver rather than a friend. To address this situation, we devised a robotic wheelchair able to move alongside a caregiver or companion, and facilitate easy communication between them and the wheelchair user. To confirm the effectiveness of the wheelchair in real-world situations, we conducted experiments at an elderly care center in Japan.
    ACM, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1979742.1979894
    DOI ID:10.1145/1979742.1979894, DBLP ID:conf/chi/KobayashiKTKYY11, SCOPUS ID:79957964463
  • 人の顔と頭の追跡技術               
    小林 貴訓
    映像情報メディア学会誌 : 映像情報メディア = The journal of the Institute of Image Information and Television Engineers, 巻:64, 号:4, 開始ページ:463, 終了ページ:467, 2010年04月
    一般社団法人映像情報メディア学会, 日本語
    DOI:https://doi.org/10.3169/itej.64.463
    DOI ID:10.3169/itej.64.463, ISSN:1342-6907, CiNii Articles ID:110009669365, CiNii Books ID:AN10588970
  • Decomposition and detection of multiple object categories through automatic topic optimization               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    16th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2010), 開始ページ:481, 終了ページ:485, 2010年02月, [査読有り]
    FCV2010 Committee
  • Object detection in cluttered range images using edgel geometry               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    IEEJ Trans. EIS, 巻:130, 号:9, 開始ページ:10, 終了ページ:1580, 2010年, [査読有り]
    In this paper, we present an object detection technique that uses scale invariant local edgel structures and their properties to locate multiple object categories within a range image in the presence of partial occlusion, cluttered background, and significant scale changes. The fragmented local edgels (key-edgel, eκ) are efficiently extracted from a 3D edge map by separating them at their corner points. The 3D edge maps are reliably constructed by combining both boundary and fold edges of 3D range images. Each key-edgel is described using our scale invariant descriptors that encode local geometric configuration by joining the edgel to adjacent edgels at its start and end points. Using key-edgels and their descriptors, our model generates promising hypothetical locations in the image. These hypotheses are then verified using more discriminative features. The discriminative feature consists of a bag-of-words histogram constructed by key-edgels and their descriptors, and a pyramid histogram of orientation gradients. To find the similarities between different feature types in a discriminative stage, we use an exponential χ2 merging kernel function. Our merging kernel outperforms the conventional rbf kernel of the SVM classifier. The approach is evaluated based on ten diverse object categories in a real-world environment. © 2010 The Institute of Electrical Engineers of Japan.
    電気学会, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1541/ieejeiss.130.1572
    DOI ID:10.1541/ieejeiss.130.1572, ISSN:1348-8155, SCOPUS ID:78049415111
  • People tracking using integrated sensors for human robot interaction               
    Yoshinori Kobayashi, Yoshinori Kuno
    ICIT2010(IEEE International Conference on Industrial Technology), 開始ページ:1617, 終了ページ:1622, 2010年, [査読有り]
    In human-human interaction, position and orientation of participants' bodies and faces play an important role. Thus, robots need to be able to detect and track human bodies and faces, and obtain human positions and orientations to achieve effective human-robot interaction. It is difficult, however, to robustly obtain such information from video cameras alone in complex environments. Hence, we propose to use integrated sensors that are composed of a laser range sensor and an omni-directional camera. A Rao-Blackwellized particle filter framework is employed to track the position and orientation of both bodies and heads of people based on the distance data and panorama images captured from the laser range sensor and the omni-directional camera. In addition to the tracking techniques, we present two applications of our integrated sensor system. One is a robotic wheelchair moving with a caregiver
    the sensor system detects and tracks the caregiver and the wheelchair moves with the caregiver based on the tracking results. The other is a museum guide robot that explains exhibits to multiple visitors
    the position and orientation data of visitors' bodies and faces enable the robot to distribute its gaze to each of multiple visitors to keep their attention while talking. ©2010 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICIT.2010.5472444
    DOI ID:10.1109/ICIT.2010.5472444, SCOPUS ID:77954397137
  • I will ask you: Choosing answerers by observing gaze responses using integrated sensors for museum guide robots               
    Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno, M. Okada, K. Yamazaki
    Ro-MAN2010, 開始ページ:652, 終了ページ:657, 2010年, [査読有り]
    This paper presents a method in a museum guide robot to choose an appropriate answerer among multiple visitors. First, we observed and videotaped scenes of gallery talk when human guides ask visitors questions. Based on an analysis of this video, we have found that the guides selects an answerer by distributing his or her gaze towards multiple visitors and observing the visitors' gaze responses during the question. Then, we performed experiments on a robot that distributes its gaze towards multiple visitors, and analyzed visitors' responses. From these experiments, we found that visitors who are asked questions by the robot felt embarrassed when he or she had no prior knowledge about the questions, and that visitor gaze during the questions plays an important role in avoiding being asked questions. Based on these findings, we have developed a function in a guide robot that observes visitor gaze response and selects an appropriate answerer based on these responses. Gaze responses are tracked and recognized using an omnidirectional camera and a laser range sensor. The effectiveness of our method was confirmed through experiments.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2010.5598721
    DOI ID:10.1109/ROMAN.2010.5598721, DBLP ID:conf/ro-man/KobayashiSHKOY10, Web of Science ID:WOS:000300610200112
  • Object material classification by surface reflection analysis with a time-of-flight range sensor               
    Md. Abdul Mannan, Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    International Symposium on Visual Computing, 巻:6454, 開始ページ:439, 終了ページ:448, 2010年, [査読有り]
    The main objective of this work is to analyze the reflectance properties of real object surfaces and investigate the degree of roughness. Our non-contact active vision technique utilizes the local surface geometry of objects and the longer wavelength scattering light reflected from their surface. After investigating the properties of microstructure of the material surface, the system classifies various household objects into several material categories according to the characteristic of the micro particles that belong to the surface of each object.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-17274-8_43
    DOI ID:10.1007/978-3-642-17274-8_43, ISSN:0302-9743, DBLP ID:conf/isvc/MannanDKK10, Web of Science ID:WOS:000290547200043
  • Spatial resolution for robot to detect objects               
    Lu Cao, Yoshinori Kobayashi, Yoshinori Kuno
    International Conference on Intelligent Robots and Systems (IROS 2010), 開始ページ:4548, 終了ページ:4553, 2010年, [査読有り]
    In this paper, we report on our development of a robotic system that assists people in accomplishing simple tasks in daily life (e. g., retrieving objects for handicapped and elderly people). These tasks, inevitably involve detecting various kinds of objects. In particular, here, we present an interactive method to detect objects using spatial information. Our experimental results confirm the usefulness and efficiency of our system. We also show how the approach can be improved and highlight necessary directions for future research.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2010.5651340
    DOI ID:10.1109/IROS.2010.5651340, ISSN:2153-0858, DBLP ID:conf/iros/CaoKK10, Web of Science ID:WOS:000287672005099
  • Sub-category optimization for multi-view multi-pose object detection               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    IAPR International Conference on Pattern Recognition, 開始ページ:1405, 終了ページ:1408, 2010年, [査読有り]
    Object category detection with large appearance variation is a fundamental problem in computer vision. The appearance of object categories can change due to intra-class variability, viewpoint, and illumination. For object categories with large appearance change a sub-categorization based approach is necessary. This paper proposes a sub-category optimization approach that automatically divides an object category into an appropriate number of sub-categories based on appearance variation. Instead of using a predefined intra-category sub-categorization based on domain knowledge or validation datasets, we divide the sample space by unsupervised clustering based on discriminative image features. Then the clustering performance is verified using a sub-category discriminant analysis. Based on the clustering performance of the unsupervised approach and sub-category discriminant analysis results we determine an optimal number of sub-categories per object category. Extensive experimental results are shown using two standard and the authors' own databases. The comparison results show that our approach outperforms the state-of-the-art methods. © 2010 IEEE.
    IAPR, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICPR.2010.347
    DOI ID:10.1109/ICPR.2010.347, ISSN:1051-4651, DBLP ID:conf/icpr/DasKK10, SCOPUS ID:78149474616
  • Smart wheelchair navigation based on user's gaze on destination               
    Razali Tomari, Rong Zhu, Yoshinori Kobayashi, Yoshinori Kuno
    International Conference on Intelligent Computing (ICIC 2010), 巻:93, 号:21, 開始ページ:387, 終了ページ:394, 2010年, [査読有り]
    Designing intelligent navigation systems is a challenging task because environmental uncertainty may prevent mission accomplishment. This paper presents a smart wheelchair navigation system using information from the goal position indicated by the user's gaze. The system tracks the user's head with a web camera to determine the direction where the gaze is fixed. Then, it detects the area that the user gazed at, in the panoramic image obtained from an omni-directional camera and sets the area as the destination. Once the destination is fixed, navigation starts by rotating the wheelchair heading to the destination by visual servoing with SURF descriptors around the destination area. During maneuver, a laser range sensor scans critical wheelchair's area for obstacles. If detected, their distribution is analyzed to generate steering commands for avoiding them and eventually ensuring the wheelchair's pose towards the goal. Experimental operation in indoor environments has shown the feasibility of the proposed system.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-14831-6_52
    DOI ID:10.1007/978-3-642-14831-6_52, ISSN:1865-0929, DBLP ID:conf/icic/RazaliZKK10, Web of Science ID:WOS:000289495000052
  • Choosing Answerers by Observing Gaze Responses for Museum Guide Robots               
    Yoshinori Kobayashi; Takashi Shibata; Yosuke Hoshi; Yoshinori Kuno; Mai Okada; Keiichi Yamazaki
    PROCEEDINGS OF THE 5TH ACM/IEEE INTERNATIONAL CONFERENCE ON HUMAN-ROBOT INTERACTION (HRI 2010), 開始ページ:109, 終了ページ:110, 2010年, [査読有り]
    This paper presents a method of selecting the answerer from audiences for a museum guide robot. We performed the preliminary experiments that a robot distributed its gaze towards visitors to select an answerer and analyzed visitors' responses. From these experiments, we have found that the visitors who are asked questions by the robot feel embarrassed when they have no prior knowledge about the question and the visitor's gaze during the question plays an important role to avoid being asked question. Based on these findings we developed functions for a guide robot to select the answerer by observing behaviors of multiple visitors. Multiple visitors' head motions are tracked and recognized by using an omni-directional camera and a laser range sensor. The robot detects the visitors' positive and negative responses by observing their head motions while asking questions. We confirmed the effectiveness of our method by experiments.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1734454.1734496
    DOI ID:10.1145/1734454.1734496, ISSN:2167-2121, DBLP ID:conf/hri/KobayashiSHKOY10, Web of Science ID:WOS:000394675400031
  • Selective function of speaker gaze before and during questions - Towards developing museum guide robots               
    Y. Kobayashi, T. Shibata, Y. Hoshi, Y. Kuno
    CHI2010 Extended Abstracts, 開始ページ:4201, 終了ページ:4206, 2010年, [査読有り]
    This paper presents a method of selecting the answerer from audiences for a museum guide robot. First, we observed and videotaped scenes when a human guide asks visitors questions in a gallery talk to engage visitors. Based on the interaction analysis, we have found that the human guide selects the appropriate answerer by distributing his/her gaze towards visitors and observing visitors' gaze responses during the pre-question phase. Then, we performed the experiments that a robot distributed its gaze towards visitors to select an answerer and analyzed visitors' responses. From the experiments, we have found that the visitors who are asked questions by the robot feel embarrassed when they have no prior knowledge about the questions and the visitor's gaze before and during the question play an important role to avoid being asked questions. Based on these findings we have developed a function for a guide robot to select the answerer by observing visitors' gaze responses. © 2010 Copyright is held by the author/owner(s).
    ACM SIGCHI, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1753846.1754126
    DOI ID:10.1145/1753846.1754126, DBLP ID:conf/chi/KobayashiSHKOY10, SCOPUS ID:77953088364
  • Multiple object category detection and localization using generative and discriminative models               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    IEICE Trans. Information and Systems, 巻:E92D, 号:10, 開始ページ:2112, 終了ページ:2121, 2009年10月, [査読有り]
    This paper proposes an integrated approach to simultaneous detection and localization of multiple object categories using both generative and discriminative models. Our approach consists of first generating a set of hypotheses for each object category using it generative model (pLSA) with it bag of visual words representing each object. Based oil the variation of objects within a category, the pLSA model automatically fits to an optimal number of topics. Then. the discriminative part verifies each hypothesis using a multi-class SVM classifier with merging features that combines spatial shape and appearance of an object. In the post-processing stage, environmental context information along with the probabilistic output of the SVM classifier is used to improve the overall performance of the system. Our integrated approach with merging features and context information allows reliable detection and localization of various object categories in the same image. The performance of the proposed framework is evaluated on the various standards (MIT-CSAIL, UIUC, TUD etc.) and the authors' own datasets. In experiments we achieved superior results to some state of the art methods over a number of standard datasets. An extensive experimental evaluation on up to ten diverse object categories over thousands of images demonstrates that Our system works for detecting and localizing multiple objects within an image in the presence of cluttered background. substantial occlusion, and significant scale change.
    電子情報通信学会, 英語, 研究論文(学術雑誌)
    DOI:https://doi.org/10.1587/transinf.E92.D.2112
    DOI ID:10.1587/transinf.E92.D.2112, ISSN:1745-1361, DBLP ID:journals/ieicet/DasKK09, Web of Science ID:WOS:000272394700034
  • 人間とのコミュニケーションに関するビジョン技術               
    久野 義徳; 小林 貴訓
    日本ロボット学会誌, 巻:27, 号:6, 開始ページ:630, 終了ページ:633, 2009年07月
    The Robotics Society of Japan, 日本語
    DOI:https://doi.org/10.7210/jrsj.27.630
    DOI ID:10.7210/jrsj.27.630, ISSN:0289-1824, CiNii Articles ID:10025113938, CiNii Books ID:AN00141189
  • 複合センサを用いた人物の行動計測に基づく自律移動車椅子               
    小林貴訓、金原悠貴、久野義徳
    第15回画像センシングシンポジウム(SSII09), 2009年06月, [査読有り]
    画像センシング技術研究会
  • Multiple object detection and localization using range and color images for service robots               
    Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    ICCAS-SICE 2009 - ICROS-SICE International Joint Conference 2009, Proceedings, 開始ページ:3485, 終了ページ:3489, 2009年
    In real-world applications, service robots need to locate and identify objects in a scene. A range sensor provides a robust estimate of depth information, which is useful to accurately locate objects in a scene. On the other hand, color information is an important property for object recognition task. The objective of this paper is to detect and localize multiple objects within an image using both range and color features. The proposed method uses 3D shape features to generate promising hypotheses within range images and verifies these hypotheses by using features obtained from both range and color images. © 2009 SICE.
    英語, 研究論文(国際会議プロシーディングス)
    SCOPUS ID:77951114006
  • 不審行動検知による万引き防止策の一提案               
    大野宏; 中嶋信生; 佐藤洋一; 小林貴訓; 杉村大輔; 加納梢
    日本セキュリティ・マネジメント学会論文誌, 巻:Vol.23, 号:No.1, 開始ページ:26, 終了ページ:38, 2009年, [査読有り]
    日本セキュリティ・マネジメント学会, 日本語
    ISSN:1343-6619, CiNii Articles ID:40016671211, CiNii Books ID:AA11592621
  • A Hybrid Model for Multiple Object Category Detection and Localization.
    Dipankar Das; Yoshinori Kobayashi; Yoshinori Kuno
    Proceedings of the IAPR Conference on Machine Vision Applications (IAPR MVA 2009), Keio University, Yokohama, Japan, May 20-22, 2009, 開始ページ:431, 終了ページ:434, 2009年, [査読有り]
    DBLP ID:conf/mva/DasKK09
  • Object detection and localization in clutter range images using edge features               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    International Symposium on Visual Computing (ISVC2009), 巻:5876, 開始ページ:172, 終了ページ:183, 2009年, [査読有り]
    We present an object detection technique that uses local edgels and their geometry to locate multiple objects in a range image in the presence of partial occlusion, background clutter, and depth changes. The fragmented local edgels (key-edgels) are efficiently extracted from a 3D edge map by separating them at their corner points. Each key-edgel is described using our scale invariant; descriptor that encodes local geometric configuration by joining the edgel at their start and end points adjacent edgels. Using key-edgels and their descriptors, our model generates promising hypothetical locations in the image. These hypotheses are then verified using more discriminative features. The approach is evaluated on ten diverse object categories in a real-world environment.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-10520-3_16
    DOI ID:10.1007/978-3-642-10520-3_16, ISSN:0302-9743, DBLP ID:conf/isvc/DasKK09a, Web of Science ID:WOS:000279247100016
  • Efficient hypothesis generation through sub-categorization for multiple object detection               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    International Symposium on Visual Computing (ISVC2009), 巻:5876, 開始ページ:160, 終了ページ:171, 2009年, [査読有り]
    Hypothesis generation and verification technic:pie has recently attracted much attention in the research on multiple object category detection and localization in images. However, the performance of this strategy greatly depends on the accuracy of generated hypotheses. This paper proposes a method of multiple category object detection adopting the hypothesis generation and verification strategy that can solve the accurate hypothesis generation problem by sub-categorization. Our generative learning algorithm automatically sub-categorizes images of each category into one or more different groups depending on the object's appearance changes. Based on these sub-categories, efficient hypotheses are generated for each object category within an image in the recognition stage. These hypotheses are then verified to determine the appropriate object categories with their locations using the discriminative classifier. We compare our approach with previous related methods oil various standards and the authors' own datasets. The results show that our approach outperforms the state-of-the-art methods.
    Springer, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1007/978-3-642-10520-3_15
    DOI ID:10.1007/978-3-642-10520-3_15, ISSN:0302-9743, DBLP ID:conf/isvc/DasKK09, Web of Science ID:WOS:000279247100015
  • The Surface Walker: a Hemispherical Mobile Robot with Rolling Contact Constraints               
    Masato Ishikawa; Yoshinori Kobayashi; Ryohei Kitayoshi; Toshiharu Sugie
    2009 IEEE-RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, 開始ページ:2446, 終了ページ:2451, 2009年, [査読有り]
    In this paper, we propose a new example of non-holonomic mobile robot, which we call the surface walker. This robot is composed of a hemisphere-shaped shell and a 2-d.o.f. mass-control device (pendulum) inside it, and undergoes the rolling contact constraint between the hemispherical surface of the robot and the ground. Unlike a lot of non-holonomic robots which have ever been researched, the drift term exists in the system of the hemisphere robot. first, we show basic concepts which the hemisphere robot has, and construct the kinetic model of this robot. Then we realize the locomotion control of the robot by periodically oscillating the internal pendulum and show its effectiveness by control experiments.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2009.5354113
    DOI ID:10.1109/IROS.2009.5354113, DBLP ID:conf/iros/IshikawaKKS09, Web of Science ID:WOS:000285372901091
  • Robotic wheelchair based on observations of people using integrated sensors               
    Yoshinori Kobayashi, Yuki Kinpara, Takashi Shibusawa, Yoshinori Kuno
    IROS2009, 開始ページ:2013, 終了ページ:2018, 2009年, [査読有り]
    Recently, several robotic/intelligent wheelchairs have been proposed that employ user-friendly interfaces or autonomous functions. Although it is often desirable for user to operate wheelchairs on their own, they are often accompanied by a caregiver or companion. In designing wheelchairs, it is important to reduce the caregiver load. In this paper we propose a robotic wheelchair that can move with a caregiver side by side. In contrast to a front-behind position, in a side-by-side position it is more difficult for wheelchairs to adjust when the caregiver makes a turn. To cope with this problem we present visual-laser tracking technique. In this technique, a laser range sensor and an omni-directional camera are integrated to observe the caregiver. A Rao-Blackwellized particle filter framework is employed to track the caregiver's position and orientation of both body and head based on the distance data and panorama images captured from the laser range sensor and the omni-directional camera. After presenting this technique, lye introduce an application of the wheelchair for museum visit use.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2009.5353933
    DOI ID:10.1109/IROS.2009.5353933, DBLP ID:conf/iros/KobayashiKSK09, Web of Science ID:WOS:000285372901024
  • Object recognition in service robots: Conducting verbal interaction on color and spatial relationship               
    Yoshinori Kuno, Katsutoshi Sakata, Yoshinori Kobayashi
    IEEE 12th ICCV Workshops (Human-Computer Interaction), 開始ページ:2025, 終了ページ:2031, 2009年, [査読有り]
    Service robots need to be able to recognize objects located in complex environments. Although there has been recent progress in this area, it remains difficult for autonomous vision systems to recognize objects in natural conditions. In this paper, we propose an interactive object recognition system. In this system, the robot asks the user to verbally provide information about an object that it cannot detect. In particular, it asks the user questions regarding color and spatial relationship between objects depending on the situation. Experimental results confirm the usefulness and efficiency of our interaction system. ©2009 IEEE.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ICCVW.2009.5457530
    DOI ID:10.1109/ICCVW.2009.5457530, DBLP ID:conf/iccvw/KunoSK09, SCOPUS ID:77953195109
  • Assisted-care robot initiation communication in multiparty settings               
    Yoshinori Kobayashi, Yoshinori Kuno, Hitoshi Niwa, Naonori Akiya, Mai Okada, Keiichi Yamazaki, Akiko Yamazaki
    CHI2009 Extended Abstracts, 開始ページ:3583, 終了ページ:3588, 2009年, [査読有り]
    This paper presents on-going work in developing service robots that provide assisted-care to the elderly in multi-party settings. In typical Japanese day-care facilities, multiple caregivers and visitors are co-present in the same room and any caregiver may provide assistance to any visitor. In order to effectively work in such settings, a robot should behave in a way that a person who has a request can easily initiate communication with the robot. Based on findings from observations at several day-care facilities, we have developed a robot system that displays availability to multiple persons and then displays recipiency to an individual person who wants to initiate interaction. Our robot system and its experimental evaluation are detailed in this paper.
    ACM SIGCHI, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1520340.1520538
    DOI ID:10.1145/1520340.1520538, DBLP ID:conf/chi/KobayashiKNAOYY09, SCOPUS ID:70349189183
  • Revealing Gauguin: Engaging visitors in robot guide's explanation in an art museum               
    Keiichi Yamazaki, Akiko Yamazaki, Mai Okada,Yoshinori Kuno, Yoshinori Kobayashi, Yosuke Hoshi, Karola Pitsch, Paul Luff, Dirk vom Lehn, Christian Heath
    CHI2009 Conference Proceedings, 開始ページ:1437, 終了ページ:1446, 2009年, [査読有り]
    Designing technologies that support the explanation of museum exhibits is a challenging domain. In this paper we develop an innovative approach - providing a robot guide with resources to engage visitors in an interaction about an art exhibit. We draw upon ethnographical fieldwork in an art museum, focusing on how tour guides interrelate talk and visual conduct, specifically how they ask questions of different kinds to engage and involve visitors in lengthy explanations of an exhibit. From this analysis we have developed a robot guide that can coordinate its utterances and body movement to monitor the responses of visitors to these. Detailed analysis of the interaction between the robot and visitors in an art museum suggests that such simple devices derived from the study of human interaction might be useful in engaging visitors in explanations of complex artifacts.
    ACM SIGCHI, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/1518701.1518919
    DOI ID:10.1145/1518701.1518919, DBLP ID:conf/chi/YamazakiYOKKHPLLH09, Web of Science ID:WOS:000265679301030
  • Robotic Wheelchair for Museum Visit               
    Tomoo Shibusawa; Yoshinori Kobayashi; Yoshinori Kuno
    2008 PROCEEDINGS OF SICE ANNUAL CONFERENCE, VOLS 1-7, 開始ページ:2711, 終了ページ:2714, 2008年, [査読有り]
    Recently, several robotic/intelligent wheelchairs have been proposed. Their main research topics are autonomous functions such as moving toward some goal while avoiding obstacles, and user-friendly interfaces. Although it is desirable for wheelchair users to go out alone, caregivers often accompany them. Thus we must consider reducing caregivers' load in addition to autonomous functions and user interfaces. This paper presents the wheelchair that takes appropriate actions depending on the situation. The wheelchair user and the caregiver move together side by side while chatting. When the caregiver stops close to some exhibit, the wheelchair detects the exhibit by its vision system and moves to a position where the user can look at it well. The wheelchair may turn toward the caregiver if the caregiver turns toward the user to talk about the exhibit.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000263966702059
  • Interactively Instructing a Guide Robot through a Network               
    Yosuke Hoshi; Yoshinori Kobayashi; Tomoki Kasuya; Masato Fueki; Yoshinori Kuno
    2008 INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND SYSTEMS, VOLS 1-4, 開始ページ:1565, 終了ページ:1569, 2008年, [査読有り]
    In this paper, we propose a remote-interactive mode for a museum guide robot. In this mode, the remote operator can interact with the robot by using voice and gestures through a network. The operator can instruct the robot what to do using nonverbal behaviors such as touching an object on the display screen while saying an instruction. For example, the operator can ask the robot, "Bring this brochure to him," while first touching the brochure and then the person on the display. The brochure is detected and tracked using the SIFT feature matching between video camera images. After the robot takes the brochure, the robot detects and tracks the person, and then hands it to him to the person.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000266771501062
  • Incorporating long-term observations of human actions for stable 3D people tracking               
    Daisuke Sugimura; Yoshinori Kobayashi; Yoichi Sato; Akihiro Sugimoto
    2008 IEEE WORKSHOP ON MOTION AND VIDEO COMPUTING, 開始ページ:30, 終了ページ:+, 2008年, [査読有り]
    We propose a method for enhancing the stability of tracking people by incorporating long-term observations of human actions in a scene. Basic human actions, such as walking or standing still, are frequently observed at particular locations in an observation scene. By observing human actions for a long period of time, we can identify regions that are more likely to be occupied by a person. These regions have a high probability of a person existing compared with others. The key idea of our approach is to incorporate this probability as a bias in generating samples under the framework of a particle filter for tracking people. We call this bias the environmental existence map (EEM). The EEM is iteratively updated at every frame by using the tracking results from our tracker which leads to more stable tracking of people. Our experimental results demonstrate the effectiveness of our method.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    Web of Science ID:WOS:000259022200005
  • Human Robot Interaction through Simple Expressions for Object Recognition               
    Al Mansur; Katsutoshi Sakata; Tajin Rukhsana; Yoshinori Kobayashi; Yoshinori Kuno
    2008 17TH IEEE INTERNATIONAL SYMPOSIUM ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION, VOLS 1 AND 2, 開始ページ:647, 終了ページ:652, 2008年, [査読有り]
    Service robots need to be able to recognize and identify objects located within complex backgrounds. Since no single method may work in every situation, several methods need to be combined. However, there are several cases when autonomous recognition methods fail. We propose an interactive recognition method in these cases. To develop a natural Human Robot Interaction (HRI), it is necessary that the robot should unambiguously perceive the description of an object given by human. This paper reports on our experiment in which we examined the expressions humans use in describing ordinary objects. The results show that humans typically describe objects using one of multiple colors. The color is usually either that of the object background or that of the largest object portion. Based on these results, we describe our development of a robot vision system that can recognize objects when a user adopts simple expressions to describe the objects. This research suggests the importance of connecting 'symbolic expressions' with the 'real world' in human-robot interaction.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/ROMAN.2008.4600740
    DOI ID:10.1109/ROMAN.2008.4600740, DBLP ID:conf/ro-man/MansurSRKK08, Web of Science ID:WOS:000261700900108
  • Museum Guide Robot with Three Communication Modes               
    Yoshinori Kobayashi; Yosuke Hoshi; Goh Hoshino; Tomoki Kasuya; Masato Fueki; Yoshinori Kuno
    2008 IEEE/RSJ INTERNATIONAL CONFERENCE ON ROBOTS AND INTELLIGENT SYSTEMS, VOLS 1-3, CONFERENCE PROCEEDINGS, 開始ページ:3224, 終了ページ:3229, 2008年, [査読有り]
    Nonverbal behavior plays an important role in human communication. In this paper, we propose a novel museum guide robot that has three different types of communication modes (autonomous, remote-control, and remote-interactive), which are integrated to interact with visitors through nonverbal behavior. First, the autonomous mode is an autonomously controlled mode in which the robot can directly interact with visitors through nonverbal behaviors such as head movements or arm gestures. Second, when a visitor begins to ask the robot questions, the communication is changed into a remote-control mode. In this mode, a remote operator controls the robot with gestures to interact with visitors. Third, in the remote-interactive mode, a remote operator can also interact with the robot with voice and gestures through a network. In particular, the remote operator can ask the robot to do something with nonverbal behaviors such as pointing while saying, "Bring this brochure to him." These three communication modes are switched seamlessly depending on the situation.
    IEEE, 英語, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1109/IROS.2008.4651131
    DOI ID:10.1109/IROS.2008.4651131, DBLP ID:conf/iros/KobayashiHHKFK08, Web of Science ID:WOS:000259998202070
  • Learning motion patterns and anomaly detection by Human trajectory analysis.               
    Naohiko Suzuki; Kosuke Hirasawa; Kenichi Tanaka; Yoshinori Kobayashi; Yoichi Sato; Yozo Fujino
    Proceedings of the IEEE International Conference on Systems, Man and Cybernetics, Montréal, Canada, 7-10 October 2007, 開始ページ:498, 終了ページ:503, 2007年, [査読有り]
    IEEE
    DOI ID:10.1109/ICSMC.2007.4413596, DBLP ID:conf/smc/SuzukiHTKSF07, CiNii Articles ID:10024790294
  • 3D Head Tracking using the Particle Filter with Cascaded Classifiers.               
    Yoshinori Kobayashi; Daisuke Sugimura; Yoichi Sato; Kousuke Hirasawa; Naohiko Suzuki; Hiroshi Kage; Akihiro Sugimoto
    Proceedings of the British Machine Vision Conference 2006, Edinburgh, UK, September 4-7, 2006, 開始ページ:37, 終了ページ:46, 2006年, [査読有り]
    British Machine Vision Association, 研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.5244/C.20.5
    DOI ID:10.5244/C.20.5, DBLP ID:conf/bmvc/KobayashiSSHSKS06
  • Interactive textbook and interactive venn diagram: Natural and intuitive interfaces on augmented desk system               
    Hideki Koike; Yoichi Sato; Yoshinori Kobayashi; Hiroaki Tobita; Motoki Kobayashi
    Conference on Human Factors in Computing Systems - Proceedings, 開始ページ:121, 終了ページ:128, 2000年, [査読有り]
    This paper describes two interface prototypes which we have developed on our augmented desk interface system, EnhancedDesk. The first application is Interactive Textbook, which is aimed at providing an effective learning environment. When a student opens a page which describes experiments or simulations, Interactive Textbook automatically retrieves digital contents from its database and projects them onto the desk. Interactive Textbook also allows the student hands-on ability to interact with the digital contents. The second application is the Interactive Venn Diagram, which is aimed at supporting effective information retrieval. Instead of keywords, the system uses real objects such as books or CDs as keys for retrieval. The system projects a circle around each book; data corresponding the book are then retrieved and projected inside the circle. By moving two or more circles so that the circles intersect each other, the user can compose a Venn diagram interactively on the desk. We also describe the new technologies introduced in EnhancedDesk which enable us to implement these applications. Copyright ACM 2000.
    研究論文(国際会議プロシーディングス)
    DOI:https://doi.org/10.1145/332040.332415
    Scopus:https://www.scopus.com/inward/record.uri?partnerID=HzOxMe3b&scp=0033701502&origin=inward
    Scopus Citedby:https://www.scopus.com/inward/citedby.uri?partnerID=HzOxMe3b&scp=0033701502&origin=inward
    DOI ID:10.1145/332040.332415, SCOPUS ID:0033701502
  • Fast Tracking of Hands and Fingertips in Infrared Images for Augmented Desk Interface.               
    Yoichi Sato; Yoshinori Kobayashi; Hideki Koike
    4th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2000), 26-30 March 2000, Grenoble, France, 開始ページ:462, 終了ページ:467, 2000年, [査読有り]
    IEEE Computer Society
    DOI ID:10.1109/AFGR.2000.840675, DBLP ID:conf/fgr/SatoKK00, CiNii Articles ID:10010143175
■ MISC
  • 2D-LiDARによる足元計測に基づくByteTrackを用いた歩行者追跡               
    廣中優平; 鈴木亮太; 小林貴訓
    画像センシングシンポジウム講演資料集(Web), 巻:30th, 2024年
    J-Global ID:202402245966445819
  • 収穫支援ロボットのための自動追従・運搬機能の開発               
    青木一航; 鈴木亮太; 小林貴訓
    日本機械学会ロボティクス・メカトロニクス講演会講演論文集(CD-ROM), 巻:2024, 2024年
    ISSN:2424-3124, J-Global ID:202502287615624313
  • 対話的に工場案内する自律移動ロボット               
    篠昂征; 鈴木亮太; 小林貴訓
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2023, 2023年
    ISSN:1349-144X, J-Global ID:202302221595663447
  • 2D-LiDARによる足元計測に基づく全身骨格推定               
    須田悠介; 鈴木亮太; 小林貴訓
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2023, 2023年
    ISSN:1349-144X, J-Global ID:202302224059627328
  • 対話ロボットのためのユーザの発話内容に基づく画像提示               
    福田悠人; 鈴木亮太; 小林貴訓
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2023, 2023年
    ISSN:1349-144X, J-Global ID:202302267372270806
  • 車椅子バスケットボールの競技力向上に向けた情報提示               
    土屋直紀; 鈴木亮太; 小林貴訓; 久野義徳; 福田悠人; 信太奈美; 杉山真理; 半田隆志; 森田智之
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2023, 2023年
    ISSN:1349-144X, J-Global ID:202302251028724064
  • ペンライトを振るとアイドルの衣装が光り、動きが持つ手に伝わる               
    2021年08月
    雑誌記事
  • 遠隔学習の動機づけを支援するインタラクティブデバイス               
    柿本涼太; 大津耕陽; 福田悠人; 小林貴訓
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2021, 2021年
    ISSN:1349-144X, J-Global ID:202102244133930886
  • 高齢者の買い物を支援するロボット買い物カート               
    2020年07月
    雑誌記事
  • マルチモーダル情報に基づくユーザの興味度推定               
    YANJING Wang; 大津耕陽; 福田悠人; 小林貴訓; 久野義徳
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2020, 2020年
    ISSN:1349-144X, J-Global ID:202002247430572601
  • メディカル 映像解析に基づく頑健・高速な心拍数計測手法               
    大津 耕陽; 福田 悠人; 小林 貴訓; Lam Antony; 久野 義徳
    画像ラボ, 巻:30, 号:6, 開始ページ:20, 終了ページ:26, 2019年06月
    日本工業出版, 日本語
    ISSN:0915-6755, CiNii Articles ID:40021936398, CiNii Books ID:AN10164169
  • 映像解析に基づく頑健・高速な心拍数計測手法               
    大津耕陽; 福田悠人; 小林貴訓; LAM Antony; 久野義徳
    画像ラボ, 巻:30, 号:6, 2019年
    ISSN:0915-6755, J-Global ID:201902260327151463
  • 視覚効果によるパーソナルモビリティの誘導               
    泉田駿; 鈴木亮太; 福田悠人; 小林貴訓; 久野義徳
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2018, 2018年
    ISSN:1349-144X, J-Global ID:201802231511171152
  • ロボットシステムを高齢者支援において使用する際の視点に関する社会学的工学的分析 (ヒューマンコミュニケーション基礎)               
    小松 由和; 山崎 晶子; 山崎 敬一; 小林 貴訓; 福田 悠人; 森田 有希野; 図子 智紀; 清水 美和
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報, 巻:116, 号:524, 開始ページ:85, 終了ページ:88, 2017年03月15日
    電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:40021162766, CiNii Books ID:AN10487226
  • スマートフォン搭載センサを用いた歩行者同定               
    遠藤文人; 鈴木亮太; 福田悠人; 小林貴訓; 久野義徳
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2017, 2017年
    ISSN:1349-144X, J-Global ID:201702222834204786
  • 位置情報に基づくサービスを提供する自律移動ショッピングカート               
    山崎誠治; 高橋秀和; 鈴木亮太; 山田大地; 福田悠人; 小林貴訓; 久野義徳
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2017, 2017年
    ISSN:1349-144X, J-Global ID:201702291183886299
  • ポスター講演 BLE対応スマートフォンを持った同伴者と協調移動するロボット車椅子 (ヒューマンコミュニケーション基礎)               
    関根 凌太; 高橋 秀和; 鈴木 亮太; 福田 悠人; 小林 貴訓; 久野 義徳; 山崎 敬一; 山崎 晶子
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報, 巻:116, 号:217, 開始ページ:11, 終了ページ:15, 2016年09月14日
    電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:40020961001, CiNii Books ID:AN10487226
  • ポスター講演 ロボットが誘発する多人数相互行為の分析 (ヒューマンコミュニケーション基礎)               
    楊 澤坤; 福田 悠人; 山崎 敬一; 山崎 晶子; 小林 貴訓; 久野 義徳
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報, 巻:116, 号:217, 開始ページ:1, 終了ページ:4, 2016年09月14日
    電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:40020960954, CiNii Books ID:AN10487226
  • D-12-79 美術館来訪者の興味度の推定に向けた移動行動の分析(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    米澤 拓也; 鈴木 亮太; Rashed Md. Golam; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2016, 号:2, 開始ページ:148, 終了ページ:148, 2016年03月01日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110010036453, CiNii Books ID:AN10471452
  • D-12-86 慣性計測センサを用いたロボット車椅子ユーザの暴れと立ち上がり検知(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    横倉 拓朗; 鈴木 亮太; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2016, 号:2, 開始ページ:155, 終了ページ:155, 2016年03月01日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110010036460, CiNii Books ID:AN10471452
  • D-22-11 テレビ電話を介した視聴覚情報によるロボットの遠隔操作(D-22.クラウドネットワークロボット,一般セッション)               
    水村 育美; 鈴木 亮太; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2016, 号:2, 開始ページ:235, 終了ページ:235, 2016年03月01日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110010036540, CiNii Books ID:AN10471452
  • D-22-10 対話状況の観察に基づく高齢者遠隔見守りシステム(D-22.クラウドネットワークロボット,一般セッション)               
    大津 耕陽; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2016, 号:2, 開始ページ:234, 終了ページ:234, 2016年03月01日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110010036539, CiNii Books ID:AN10471452
  • ジャパンエクスポ2015の参加報告と遠隔ファン支援実験               
    山崎 敬一; 小林 貴訓
    情報処理学会論文誌デジタルコンテンツ(DCON), 巻:4, 号:1, 開始ページ:iv, 終了ページ:vi, 2016年02月18日
    日本語
    ISSN:2187-8897, CiNii Articles ID:170000147841, CiNii Books ID:AA12628054
  • Material Information Acquisition for Interactive Object Recognition by Service Robots               
    MANNAN Md. Abdul; LAM Antony; KOBAYASHI Yoshinori; KUNO Yoshinori
    IIEEJ transactions on image electronics and visual computing, 巻:4, 号:1, 開始ページ:20, 終了ページ:31, 2016年
    The Institute of Image Electronics Engineers of Japan, 英語
    ISSN:2188-191X, CiNii Articles ID:40020920587, CiNii Books ID:AA12661628
  • 対話状況の観察に基づく高齢者遠隔見守りシステム               
    大津耕陽; 小林貴訓; 久野義徳
    電子情報通信学会大会講演論文集(CD-ROM), 巻:2016, 2016年
    ISSN:1349-144X, J-Global ID:201602219587580712
  • D-22-4 ロボットを用いた遠隔コミュニケーションシステム(D-22.クラウドネットワークロボット,一般セッション)               
    菊川 俊樹; 松田 成; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2015, 号:2, 開始ページ:194, 終了ページ:194, 2015年02月24日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009946772, CiNii Books ID:AN10471452
  • D-22-3 レーザ測域センサを用いた環境情報を考慮した人物追跡(D-22.クラウドネットワークロボット,一般セッション)               
    板垣 大二朗; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2015, 号:2, 開始ページ:193, 終了ページ:193, 2015年02月24日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009946771, CiNii Books ID:AN10471452
  • D-22-2 一緒に移動する同伴者を自動認識するロボット車椅子(D-22.クラウドネットワークロボット,一般セッション)               
    横倉 拓朗; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2015, 号:2, 開始ページ:192, 終了ページ:192, 2015年02月24日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009946770, CiNii Books ID:AN10471452
  • 複数同伴者とのグループコミュニケーションを考慮した複数ロボット車椅子システム               
    鈴木亮太; 新井雅也; 佐藤慶尚; 山田大地; 小林貴訓; 小林貴訓; 久野義徳; 宮澤怜; 福島三穂子; 山崎敬一; 山崎晶子
    電子情報通信学会論文誌 A(Web), 巻:J98-A, 号:1, 2015年
    ISSN:1881-0195, J-Global ID:201502280860970300
  • 複数同伴者とのグループコミュニケーションを考慮した複数ロボット車椅子システム
    鈴木 亮太; 新井 雅也; 佐藤 慶尚; 山田 大地; 小林 貴訓; 久野 義徳; 宮澤 怜; 福島 三穂子; 山崎 敬一; 山崎 晶子
    電子情報通信学会論文誌. A. 基礎・境界, 巻:98, 号:1, 開始ページ:51, 終了ページ:62, 2015年01月
    copyright©2015 IEICEhttp://www.ieice.org/jpn/index.html車椅子の潜在的需要の増加にともない,多くのロポット車椅子が研究されている.高齢者介護施設では,「話しかけ」が心身の健康維持に重要であることから,施設利用者とのコミュニケーションを重要視している.一方で,高齢者介護施設では人手不足により一人の介護士が複数の車椅子を移動させざるを得ない状況がある.そこで,本論文では,複数のロポット車椅子と複数の同伴者がグループで移動する場合に着目し,グループコミュニケーションに配慮したフォーメーションを維持して移動する複数ロボット車椅子システムを提案する.コミュニケーションに適切なフォーメーションは,社会学のエスノメソドロジーの手法を用いて,グループ内コミュニケーションを観察・分析した結果から導く.車椅子に設置したレーザ測域センサにより,複数の同伴者の位置と姿勢を実時間で追跡する.また,あらかじめ作成した環境地図を用いて各車椅子の位置と姿勢の推定を行う.得られた情報を地図上で統合・共有することにより,任意のフォーメーションを維持して各車椅子が協調移動する.実際の高齢者介護施設にて,介護士及び施設利用者に利用頂き,提案の有効性を確認した.
    電子情報通信学会, 日本語
    ISSN:0913-5707, CiNii Articles ID:120005575549
  • 高齢者の状態センシングに基づく遠隔見守りシステム               
    大津耕陽; 小林貴訓; 久野義徳
    パターン計測シンポジウム講演論文集(CD-ROM), 巻:20th, 2015年
    J-Global ID:201602210691014233
  • ロボット(NAO)の質問に対する日英の参加者の反応の比較 (ヒューマンコミュニケーション基礎)               
    長谷川 紫穂; 福島 三穂子; 山崎 晶子; 池田 佳子; 胡 思楊; 山崎 敬一; 福田 悠人; 小林 貴訓; 久野 義徳
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報, 巻:114, 号:67, 開始ページ:259, 終了ページ:264, 2014年05月29日
    本報告は,多人数に対する説明や解説を想定したガイドロボットを用いた人間とロボットのコミュニケーション研究の一環である.ここではイギリスと日本で行なった異なる言語下での実験から,ロボットによる質問に対する複数の参加者の反応について相互行為分析の手法を用いて分析する.実験においてはキーワードによる知識変化は共通反応としてみられたが,その反応の大きさや他者との相互行為の発生には違いがみられた.本報告では,特にイギリスでの実験の分析を中心に,人間とロボットのコミュニケーション設計における使用言語の違いについて考察する.
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110009903767, CiNii Books ID:AN10487226
  • 人間・NAO・Robovie-R3の質問に対する人間の反応の比較 (ヒューマンコミュニケーション基礎)               
    胡 思楊; 山崎 敬一; 長谷川 紫穂; 福島 三穂子; 山崎 晶子; 池田 佳子; 福田 悠人; 小林 貴訓; 久野 義徳
    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報, 巻:114, 号:67, 開始ページ:253, 終了ページ:258, 2014年05月29日
    この論文では,相互行為分析の手法を使い,複数の人間がクイズを出題する 1)人間,2)Robovie(人間サイズロボット),3)Nao(自律歩行する小型ロボット)とどう相互行為を行うのかを観察し比較する.特に,3つの異なる状況下で,複数のクイズ参加者同士がどう相互行為を行うのかに焦点を当てる複数の人間に対する人間やロボットの説明や質問をそのような状況を対象にすることで,人間やロボットの説明や質問がそれを聞く人間同士のグループコミュニケーションにどういう影響を与えるかを研究する.
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110009903766, CiNii Books ID:AN10487226
  • D-12-81 人の注視を誘導する目と連動したロボットの振り向き動作の検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    佐野 要; 小貫 朋実; 井田 賢人; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2014, 号:2, 開始ページ:156, 終了ページ:156, 2014年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009830136, CiNii Books ID:AN10471452
  • D-12-80 ミュージアムガイドロボットのための移動軌跡に基づく観客グループ判別(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    神田 敦; 新井 雅也; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2014, 号:2, 開始ページ:155, 終了ページ:155, 2014年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009830135, CiNii Books ID:AN10471452
  • 同伴者と協調移動する複数ロボット車椅子システム               
    佐藤慶尚; 鈴木亮太; 山田大地; 小林貴訓; 小林貴訓; 久野義徳
    パターン計測シンポジウム講演論文集(CD-ROM), 巻:19th, 2014年
    J-Global ID:201502256487121804
  • D-12-58 オントロジーに基づく対話を援用した物体認識の検討(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス))               
    福田 悠人; 小林 貴訓; 久野 義徳; 加地 大介
    電子情報通信学会総合大会講演論文集, 巻:2013, 号:2, 開始ページ:151, 終了ページ:151, 2013年03月05日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009711900, CiNii Books ID:AN10471452
  • D-12-47 不可視マーカを用いた複数ロボット車椅子の位置認識(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス))               
    新井 雅也; 山崎 晶子; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2013, 号:2, 開始ページ:140, 終了ページ:140, 2013年03月05日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009711889, CiNii Books ID:AN10471452
  • 知識状態の変化を利用したクイズロボット : 文化的多様性と普遍性 (人工知能と知識処理)               
    藤田 理遠; 福島 三穂子; 山崎 敬一; 山崎 晶子; 池田 佳子; 小林 貴訓; 久野 義徳; 大山 貴也; 吉田 恵梨; 森本 郁代; BURDELSKI Matthew
    電子情報通信学会技術研究報告 : 信学技報, 巻:112, 号:435, 開始ページ:23, 終了ページ:28, 2013年02月18日
    この論文ては、知識状態の変化を示す反応について、日本語話者と英語話者との比較を行った。日本語話者と英語話者それぞれ3名1組に対して、クイスを出題するロボットの実験を行った。ロホットは、適切な仕方で、指差しや視線の移動等の身体行動を行うようにした。また、質問中に、知っていることから知らないことへの変化、またはその逆か生しるようにクスを設定した。人間の反応を分析した結果、元々持つ知識の違いに由来する違いが見られた。異文化コミュニケーションの問題を考えるときには、こうした問題を詳細に分析する必要がある。
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110009728494, CiNii Books ID:AN10013061
  • Robotic Wheelchair Moving Alongside a Companion               
    R. Suzuki, Y. Sato, Y. Kobayashi, Y. Kuno, K. Yamazaki, M. Arai and A. Yamazaki
    International Conference on Human-Robot Interaction (HRI2013) Demonstration, 2013年
    システムのデモンストレーション
  • 同伴者の振舞いの観察に基づいて自動併走するロボット車椅子               
    小林 貴訓; 高野 恵利衣; 金原悠貴; 鈴木 亮太; 久野 義徳; 小池 智哉; 山崎 晶子; 山崎 敬一
    情報処理学会論文誌, 巻:53, 号:7, 開始ページ:1687, 終了ページ:1697, 2012年07月15日, [査読有り]
    高齢化社会の進行にともない,少ない人材で効率的な介護が行えるように,ある程度の自律移動を行う知的車椅子の開発が求められている.本稿では,同伴者と車椅子利用者が並んで移動できることがコミュニケーションの観点から重要であると考え,同伴者とスムーズに併進できるロボット車椅子を提案する.車椅子が同伴者と併進する状況では,同伴者の車椅子側への進路変更を円滑に行うために,同伴者の進みたい方向をすみやかに察知して車椅子を制御する必要がある.そこで,本稿では,レーザ測域センサを用いて同伴者の行動を計測する手法を新たに開発し,計測した同伴者の身体の向きの情報を車椅子の制御に利用することで,同伴者とスムーズに併進できるロボット車椅子を開発した.実際の高齢者施設での実験とアンケート調査により,本システムの有用性を確認した.Recently, several robotic wheelchairs have been proposed that employ user-friendly interfaces or autonomous functions. Although it is desirable for users to operate wheelchairs on their own, they are often accompanied by a companion. In designing wheelchairs, therefore, it is also important to reduce the companion load. In this paper we propose a new robotic wheelchair that can move with a companion side by side to support their communication. In contrast to a front-behind position, in a side-by-side position it is more difficult for wheelchairs to adjust its position when the companion makes a turn. To cope with this problem we present a new people tracking technique using a laser range sensor to observe the companion's bodily behaviors. A particle filter is employed to track the companion's position and orientation of body based on the range data. We confirm that our robotic wheelchair can move smoothly with a companion side by side by using a body orientation of the companion. We conducted the experiments at an actual elderly care facilities to confirm the effectiveness of our robotic wheelchair.
    情報処理学会, 日本語
    ISSN:1882-7764, CiNii Articles ID:110009423537, CiNii Books ID:AN00116647
  • D-12-97 介護者に併走するロボット車椅子のためのタッチパネルインタフェース(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    鈴木 亮太; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2012, 号:2, 開始ページ:191, 終了ページ:191, 2012年03月06日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110009462237, CiNii Books ID:AN10471452
  • 多重的身体行動を用いて複数人からの依頼に対応するケアロボット               
    行田 将彦; 田畠 知弥; 小林 貴訓; 久野 義徳; 山崎 敬一; 佐藤 信吾; 山崎 晶子
    研究報告ヒューマンコンピュータインタラクション(HCI), 巻:2012, 号:12, 開始ページ:1, 終了ページ:8, 2012年01月12日
    我々は,多人数場面に対応するケアロボットを開発している.ロボットが多人数に対応するためには,同時にロボットに要請を行う複数の人々に,誰に今対応するか,また次に誰に対応するかという,順番を身体的に示す必要がある.本稿では,高齢者介護施設のエスノグラフィーによって,多人数場面でケアワーカーの視線が対応する高齢者の順番の整序において,二つの違った意味を持っていることを示した.ある場合には,ケアワーカーの視線はすぐ次に行くことを示し,また別の場合には,今対応している人には対応を続けることを示し,同時に次の人には対応が終わるまで待ってもらうということを示す.それぞれの視線の意味は,ケアワーカーの現在の作業や,他にどのような身体的行動をしているかに依存する.我々はこうした視線や身体行動の持つ多重的な効果に着目し,それをロボットに組み込んだ.そしてそのロボットを用いた 2 つの実験により,ロボットの視線や身体的な行動の多重的な効果を確かめた.Service robots should be designed to show the order of service in multiple party setting. We found from our ethnography on the elderly care center that care worker's gaze and bodily actions can serve this function. We developed a robot system that can show gaze and other bodily actions to examine their effects. Experimental results confirm that the robot can show the order of service by its gaze and bodily actions.
    日本語
    CiNii Articles ID:170000069004, CiNii Books ID:AA1221543X
  • RGB-Dカメラを用いたサービスロボットのための対話物体認識               
    福田 悠人; 小林 貴訓; 久野 義徳
    研究報告コンピュータビジョンとイメージメディア(CVIM), 巻:2012, 号:34, 開始ページ:1, 終了ページ:7, 2012年01月12日
    サービスロボットは実環境などの複雑な環境でも物体を認識することが求められる.しかし,実環境において自動的な物体認識により間違えることなく物体を認識することは困難な問題である.このような背景のもと我々は対話を用いてユーザから対象物体の情報を獲得,利用することで,確実に物体を認識するシステムを提案している.本稿ではそのような物体認識システムにおいて,RGB-Dカメラにより得られる物体の色,形,材質といった属性情報や位置関係を用いて認識を行う手法を提案している.複数の情報を用いることで,ロボットがより効率的に物体を認識することが期待できる.Service robots need to be able to recognize objects located in complex environments. However, it is difficult to recognize objects autonomously without any mistakes in natural conditions. Thus,we have proposed an object recognition system using information about target objects acquired from the user through simple interaction. In this paper,we propose an interactive object recognition system using multiple attribute information such as color, shape and material, and positional information among objects by using an RGB-D camera. Experimental results show that the robot can recognize objects by using multiple information obtained through interaction with the user.
    日本語
    CiNii Articles ID:170000069080, CiNii Books ID:AA11131797
  • RGB-Dカメラを用いたサービスロボットのための対話物体認識               
    福田 悠人; 小林 貴訓; 久野 義徳
    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解, 巻:111, 号:379, 開始ページ:191, 終了ページ:197, 2012年01月12日
    サービスロボットは実環境などの複雑な環境でも物体を認識することが求められる.しかし,実環境において自動的な物体認識により間違えることなく物体を認識することは困難な問題である.このような背景のもと我々は対話を用いてユーザから対象物体の情報を獲得,利用することで,確実に物体を認識するシステムを提案している.本稿ではそのような物体認識システムにおいて,RGB-Dカメラにより得られる物体の色,形,材質といった属性情報や位置関係を用いて認識を行う手法を提案している.複数の情報を用いることで,ロボットがより効率的に物体を認識することが期待できる.
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110009482293, CiNii Books ID:AN10541106
  • RGB-Dカメラを用いたサービスロボットのための対話物体認識               
    福田 悠人; 小林 貴訓; 久野 義徳
    電子情報通信学会技術研究報告. MVE, マルチメディア・仮想環境基礎, 巻:111, 号:380, 開始ページ:191, 終了ページ:197, 2012年01月12日
    サービスロボットは実環境などの複雑な環境でも物体を認識することが求められる.しかし,実環境において自動的な物体認識により間違えることなく物体を認識することは困難な問題である.このような背景のもと我々は対話を用いてユーザから対象物体の情報を獲得,利用することで,確実に物体を認識するシステムを提案している.本稿ではそのような物体認識システムにおいて,RGB-Dカメラにより得られる物体の色,形,材質といった属性情報や位置関係を用いて認識を行う手法を提案している.複数の情報を用いることで,ロボットがより効率的に物体を認識することが期待できる.
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110009482210, CiNii Books ID:AN10476092
  • 同伴者の振舞いの観察に基づいて自動併走するロボット車椅子               
    小林貴訓; 小林貴訓; 高野恵利衣; 金原悠貴; 鈴木亮太; 久野義徳; 小池智哉; 山崎晶子; 山崎敬一
    情報処理学会論文誌ジャーナル(CD-ROM), 巻:53, 号:7, 2012年
    ISSN:1882-7837, J-Global ID:201202247341964167
  • 全方位カメラによる周辺情報を用いたロボット車椅子の開発               
    鈴木亮太; 高野恵利衣; 宗像信聡; 小林貴訓; 小林貴訓; 久野義徳
    画像センシングシンポジウム講演論文集(CD-ROM), 巻:18th, 2012年
    J-Global ID:201402298047673888
  • 多人数場面において受容者の予期を支援するケアサービスロボット               
    小林 貴訓; 行田 将彦; 田畠 知弥; 久野 義徳; 山崎 敬一; 渋谷 百代; 関 由起子; 山崎 晶子
    情報処理学会論文誌, 巻:52, 号:12, 開始ページ:3316, 終了ページ:3327, 2011年12月15日
    介護支援を目的としたサービスロボットへの期待が高まっている.介護施設での食事などの多人数場面では,介護者は複数のユーザから同時にサービスを要求されることがある.このとき,お茶配りなどの同時に複数人に提供できないサービスでは,誰か1人の客(受容者)に対してだけより良く対応しようとすると,他の客(受容者)の不満が高まる場合がある.そこで,本稿では,このお茶配りタスクに着目し,実際の介護施設でのデイケアの場面の分析に基づいて,複数人からの要求に対して,適切な非言語行動を用いて対応することで,ユーザ全体が互いに許容可能なサービスを提供できるケアサービスロボットを提案する.具体的には,ロボットは,複数のユーザの周囲を巡回し,ユーザからのサービス要求があれば,そのユーザに近づく.そして,ロボットは,特定のユーザにサービスを提供している間でも,他のユーザからのサービス要求があれば,顔を向けて,次の順番をサービス要求者と周囲の人々に予期させる.実際にロボットを試作し,ユーザの印象調査実験を行い,この振舞いの有効性を確認した.This paper presents a service robot that provides assisted-care, such as serving tea to the elderly in care facilities. In multi-party settings, a robot is required to be able to deal with requests from multiple individuals simultaneously. In particular, when the service robot is concentrating on taking care of a specific person, other people who want to initiate interaction may feel frustrated with the robot. To a considerable extent this may be caused by the robot's behavior, which does not indicate any response to subsequent requests while preoccupied with the first. Therefore, we developed a robot that can project the order of the service to each person who wants to initiate interaction in a socially acceptable manner. In this paper we focus on the task of tea-serving, and introduce a robot able to bring tea to multiple users while accepting multiple requests. The robot can detect persons' requests indicated by raising their hands and move around people using its mobile functions while avoiding obstacles. When the robot detects a person's request while serving tea to another person, it projects the order of the services by indicating "you are the next" through a nonverbal action such as gazing. Because it can project the order of the services and indicate its acknowledgement of their requests socially, people will likely feel more satisfied with the robot even when it cannot immediately address their needs. We confirm the effectiveness of our robot through the experiment.
    情報処理学会, 日本語
    ISSN:1882-7764, CiNii Articles ID:110008719908, CiNii Books ID:AN00116647
  • D-12-47 自然な動作で人間の注視を獲得するロボット頭部動作の検討(D-12.パターン認識・メディア理解,一般セッション)               
    小貫 朋実; 圓谷 恵美; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2011, 号:2, 開始ページ:150, 終了ページ:150, 2011年02月28日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110008574803, CiNii Books ID:AN10471452
  • D-12-48 複数の人に非言語で対応する介護ロボット(D-12.パターン認識・メディア理解,一般セッション)               
    田畠 知弥; 行田 将彦; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2011, 号:2, 開始ページ:151, 終了ページ:151, 2011年02月28日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110008574804, CiNii Books ID:AN10471452
  • D-12-79 ミュージアムガイドロボットのための詳細な頭部ジェスチャ計測システムの開発(D-12.パターン認識・メディア理解,一般セッション)               
    大山 貴也; 柴田 高志; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2011, 号:2, 開始ページ:182, 終了ページ:182, 2011年02月28日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110008574835, CiNii Books ID:AN10471452
  • グループコミュニケーションを支援する複数ロボット車椅子システム
    小林 貴訓; 久野 義徳
    埼玉大学地域オープンイノベーションセンター紀要, 巻:3, 開始ページ:37, 終了ページ:37, 2011年
    埼玉大学総合研究機構地域オープンイノベーションセンター, 日本語
    CiNii Articles ID:120003088328
  • 人物頭部の追跡技術               
    小林 貴訓
    画像ラボ, 巻:21, 号:12, 開始ページ:9, 終了ページ:14, 2010年12月
    日本工業出版, 日本語
    ISSN:0915-6755, CiNii Articles ID:40018732706, CiNii Books ID:AN10164169
  • 超音波センサーとCCD、赤外線カメラを組み合せた障害物警報システムの開発
    久野 義徳; 小林 貴訓
    埼玉大学地域オープンイノベーションセンター紀要, 巻:2, 開始ページ:74, 終了ページ:74, 2010年07月
    埼玉大学総合研究機構地域オープンイノベーションセンター, 日本語
    ISSN:1883-8278, CiNii Articles ID:120002354129
  • 注視誘導技術の開発
    久野 義徳; 小林 貴訓
    埼玉大学地域オープンイノベーションセンター紀要, 巻:2, 開始ページ:73, 終了ページ:73, 2010年07月
    埼玉大学総合研究機構地域オープンイノベーションセンター, 日本語
    ISSN:1883-8278, CiNii Articles ID:120002354127
  • 介護者の意図と周辺状況の観察に基づくロボット車椅子               
    金原 悠貴; 高野 恵利衣; 小林 貴訓; 久野 義徳
    全国大会講演論文集, 巻:72, 開始ページ:17, 終了ページ:18, 2010年03月08日
    日本語
    CiNii Articles ID:110008138993, CiNii Books ID:AN00349328
  • 移動しながら見回りする介護ロボット               
    石川 直人; 行田 将彦; 浅羽 健太郎; 小林 貴訓; 久野 義徳
    全国大会講演論文集, 巻:72, 開始ページ:15, 終了ページ:16, 2010年03月08日
    日本語
    CiNii Articles ID:110008138992, CiNii Books ID:AN00349328
  • 頭部動作の計測に基づき質問相手を選択するガイドロボット               
    柴田 高志; 星 洋輔; 鴇田 憲; 小林 貴訓; 久野 義徳
    全国大会講演論文集, 巻:72, 開始ページ:21, 終了ページ:22, 2010年03月08日
    日本語
    CiNii Articles ID:110008138995, CiNii Books ID:AN00349328
  • D-12-86 周辺状況を考慮して介護者に追随するロボット車椅子(D-12.パターン認識・メディア理解,一般セッション)               
    高野 恵利衣; 金原 悠貴; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2010, 号:2, 開始ページ:197, 終了ページ:197, 2010年03月02日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007882575, CiNii Books ID:AN10471452
  • 周辺状況を考慮して介護者と協調移動するロボット車椅子               
    小林貴訓
    第16回画像センシングシンポジウム, 2010, 2010年
    CiNii Articles ID:10029484555
  • 人間とのコミュニケーションに関するビジョン技術               
    日本ロボット学会誌, 巻:27, 号:6, 開始ページ:40, 終了ページ:43, 2009年07月
    日本ロボット学会
  • D-12-56 オントロジーに基づくロボットビジョンの提案(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    小林 貴訓; 久野 義徳; 加地 大介
    電子情報通信学会総合大会講演論文集, 巻:2009, 号:2, 開始ページ:165, 終了ページ:165, 2009年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007095934, CiNii Books ID:AN10471452
  • D-12-74 オントロジーに基づく対話物体認識(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    森 智史; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2009, 号:2, 開始ページ:183, 終了ページ:183, 2009年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007095918, CiNii Books ID:AN10471452
  • D-12-129 介護者の状態の観察に基づいたロボット車椅子の制御(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    金原 悠貴; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2009, 号:2, 開始ページ:238, 終了ページ:238, 2009年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007095874, CiNii Books ID:AN10471452
  • D-12-113 複数鑑賞者をガイドするロボットのための頭部ジェスチャ認識(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    柴田 高志; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2009, 号:2, 開始ページ:222, 終了ページ:222, 2009年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007095888, CiNii Books ID:AN10471452
  • D-12-111 移動介護ロボットのための頭部動作に基づく対象者の認識(D-12.パターン認識・メディア理解B(コンピュータビジョンとコンピュータグラフィックス),一般セッション)               
    石川 直人; 藤原 直樹; 全 文星; 小林 貴訓; 久野 義徳
    電子情報通信学会総合大会講演論文集, 巻:2009, 号:2, 開始ページ:220, 終了ページ:220, 2009年03月04日
    一般社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110007095890, CiNii Books ID:AN10471452
  • Assisted-Care Robot Based on Sociological Interaction Analysis               
    W. Quan; N. Ishikawa; Y. Kobayashi; Y. Kuno
    ICIC2009, 2009年
  • 観客を話に引き込むミュージアムガイドロボット:言葉と身体的行動の連携               
    星洋輔; 小林貴訓; 久野義徳; 岡田真依; 山崎敬一; 山崎晶子
    電子情報通信学会論文誌, 巻:92-A, 号:11, 開始ページ:764, 終了ページ:772, 2009年
    電子情報通信学会
  • 高齢者介護施設におけるコミュニケーションチャンネル確立過程の分析と支援システムの提案               
    秋谷直矩; 丹羽仁史; 岡田真依; 山崎敬一; 小林貴訓; 久野義徳; 山崎晶子
    情報処理学会論文誌, 巻:50, 号:1, 開始ページ:302, 終了ページ:313, 2009年
    情報処理学会
  • Spatial relation model for object recognition in human-robot interaction               
    L.u Cao, Yoshinori Kobayashi, Yoshinori Kuno
    ICIC2009(2009 International Conference on Intelligent Computing), 巻:5754, 開始ページ:574, 終了ページ:584, 2009年
    Carrying out user commands entails target object detection for service robots. When the robot system suffers from a limited object detection capability, effective communication between the user and the robot facilitates the reference resolution. We aim to develop a service robot, assisting handicapped and elderly people, where most of the user requests are directly or indirectly linked to some objects in the scene. Objects can be described using features like color, shape, size etc. For simple objects on simple backgrounds, theses attributes can be determined with satisfactory results. For complex scenes, position of an object and spatial relation with other objects in the scene, facilitate target object detection. This paper proposes a spatial relation model for the robot to interpret user's spatial relation descriptions. The robot can detect a target object by asking the user the spatial relationship of the object and some known objects automatically recognized.
    Springer, 英語
    DOI:https://doi.org/10.1007/978-3-642-04070-2_63
    DOI ID:10.1007/978-3-642-04070-2_63, ISSN:0302-9743, Web of Science ID:WOS:000271604900063
  • Assisted-Care Robot Based on Sociological Interaction Analysis               
    Wenxing Quan, Naoto Ishikawa, Yoshinori Kobayashi, Yoshinori Kuno
    ICIC2009(2009 International Conference on Intelligent Computing), 2009年
  • 観客を話に引き込むミュージアムガイドロボット:言葉と身体的行動の連携               
    星洋輔; 小林貴訓; 久野義徳; 岡田真依; 山崎敬一; 山崎晶子
    巻:92-A, 号:11, 開始ページ:764, 終了ページ:772, 2009年
  • 高齢者介護施設におけるコミュニケーションチャンネル確立過程の分析と支援システムの提案               
    秋谷直矩; 丹羽仁史; 岡田真依; 山崎敬一; 小林貴訓; 久野義徳; 山崎晶子
    巻:50, 号:1, 開始ページ:302, 終了ページ:313, 2009年
  • 予期的行為の相互参照を通じた介護場面におけるロボットの依頼理解               
    久野義徳,小林貴訓,山崎晶子,山崎敬一
    情報爆発時代に向けた新しいIT基盤技術の研究 平成20年度研究概要, 開始ページ:72, 2009年01月
  • 分散センサ情報の統合によるエリア内人物追跡と動線推定               
    小林 貴訓; 佐藤洋一
    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM), 巻:2008, 号:36, 開始ページ:231, 終了ページ:246, 2008年05月01日
    本稿では,環境に疎密に分散配置されたセンサ群を用いて,特定エリア全体における人物動線を計測する手法について述べる.まず,公共施設や商業施設などの監視カメラ映像を想定し,視野を共有する複数のカメラを用いて,人物頭部の三次元位置と向きを追跡する手法について述べる.また,店舗などでの複数人物の追跡のため,監視カメラによる追跡にレーザ測域センサを相補的に統合することで,人物の出現や消失の検出,人物相互の遮蔽を扱う.さらに,エリア内全体を通じて,連続した人物動線を計測するため,障害物や人物相互の遮蔽などにより断片化した人物動線や,複数観測領域間における人物動線を対応付け,観測領域外の人物動線を補間する手法について述べる.This paper describes the method of tracking people in an indoor environment by using a sparse network of multiple sensors. 3D position and the orientation of people's heads are tracked by using multiple cameras. To deal with appearance/disappearance of people including occlusions cased by people's interactions, laser range scanners are seamlessly integrated into the vision based tracking framework. The information from a sparse network of multiple sensors is used to estimate people's trajectories in the whole area including unobserved areas. This paper also describes the method for establishing correspondences between trajectories captured by different cameras and estimating trajectories in unobserved areas.
    一般社団法人情報処理学会, 日本語
    ISSN:0919-6072, CiNii Articles ID:110006791943, CiNii Books ID:AA11131797
  • 視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション               
    久野義徳,山崎敬一,小林貴訓,葛岡英明,山崎晶子,山本敏雄,中村明生,川島理恵,MatthewBurdelski,鶴田幸恵,三橋浩次
    総務省戦略的情報通信研究開発推進制度(SCOPE)特定領域重点型研究開発次世代ヒューマンインタフェース・コンテンツ技術 研究成果報告書, 巻:平成17-19年度, 2008年03月
  • 鑑賞行動を支援するロボット車椅子システム               
    渋澤 朋央; 小林 貴訓; 久野 義徳
    電子情報通信学会2008年総合大会 情報・システム講演論文集, 巻:2, 開始ページ:169, 終了ページ:169, 2008年03月
    総務省戦略的情報通信研究開発推進制度(SCOPE)特定領域重点型研究開発 次世代ヒューマンインタフェース・コンテンツ技術視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション(051303007)平成17年度〜平成19年度 総務省戦略的情報通信研究開発推進制度(SCOPE)研究成果報告書(平成20年3月)研究代表者 久野 義徳(埼玉大学大学院理工学研究科 教授)より抜粋
    社団法人電子情報通信学会, 日本語
    CiNii Articles ID:110006868942, CiNii Books ID:AN10471452
  • 行動履歴に基づく人物存在確率の利用による人物三次元追跡の安定化               
    杉村大輔; 小林貴訓; 佐藤洋一; 杉本晃宏
    情報処理学会論文誌, 巻:1, 号:2, 開始ページ:100, 終了ページ:110, 2008年
    情報処理学会
  • 人物動線データ群における逸脱行動人物検出および行動パターン分類               
    鈴木直彦; 平澤宏祐; 田中健一; 小林貴訓; 佐藤洋一; 藤野陽三
    電子情報通信学会論文誌, 巻:91, 号:6, 開始ページ:1550, 終了ページ:1560, 2008年
    電子情報通信学会
  • An Integrated Method for Multiple Object Detection and Localization               
    D. Das, A. Mansur, Y. Kobayashi, Y. Kuno
    International Symposium on Visual Computing, 巻:5359, 開始ページ:133, 終了ページ:144, 2008年
    The objective of this paper is to use computer vision to detect and localize multiple object; within an image in the presence of a cluttered background, substantial Occlusion and significant scale changes. Our approach consists of first generating a set of hypotheses for each object using a generative model (pLSA) with a bag of visual words representing each image. Then, the discriminative part verifies each hypothesis using a multi-class SVM classifier with merging features that combines both spatial shape and color appearance of an object. In the post-processing stage, environmental context information is used to improve the performance of the system. A combination of features and context information are used to investigate the performance on our local database. The best performance is obtained using object-specific weighted merging features and the context information. Our approach overcomes the limitations of some state of the art methods.
    英語
    DOI:https://doi.org/10.1007/978-3-540-89646-3_14
    DOI ID:10.1007/978-3-540-89646-3_14, ISSN:0302-9743, Web of Science ID:WOS:000262709700014
  • 行動履歴に基づく人物存在確率の利用による人物三次元追跡の安定化               
    杉村大輔; 小林貴訓; 佐藤洋一; 杉本晃宏
    巻:1, 号:2, 開始ページ:100, 終了ページ:110, 2008年
  • 人物動線データ群における逸脱行動人物検出および行動パターン分類               
    鈴木直彦; 平澤宏祐; 田中健一; 小林貴訓; 佐藤洋一; 藤野陽三
    巻:91, 号:6, 開始ページ:1550, 終了ページ:1560, 2008年
  • 人物動線データ分析による逸脱行動人物の検出               
    鈴木 直彦; 平澤 宏祐; 田中 健一; 小林 貴訓; 佐藤洋一; 藤野 陽三
    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM), 巻:2007, 号:31, 開始ページ:109, 終了ページ:115, 2007年03月19日
    近年ユビキタスコンピューティングの発展に伴い、様々な空間において画像センサ・GPS・レーザレーダセンサなどのデバイスを用いた移動体位置の連続的検出が可能になっている。そこで本研究では、人物移動経路の時系列データ群(人物動線データ群)の理解を行うため、人物動線データのパターン分類および逸脱行動人物検出手法の開発を目的とする。 (1)過去に得られた人物動線データ群の分類および逸脱行動人物検出(2)学習された人物動線パターンを用いたリアルタイム逸脱行動人物検出の2つの利用シーンに対応した手法を提案している。提案手法の有効性を検証するために実空間で得られた人物位置の時系列データ群による評価実験を行い、有効な結果が得られることが分かった。本研究における提案手法は、店舗におけるマーケティング分析、様々なセキュリティシステムなどへの応用が考えられる。Recently, development of vision sensors, GPS, and laser radar enables continuous detection of human positions in various situations. On the other hand, it is important to understand information of mobility trajectory for development of service on positions data. Therefore, in this research, we propose a new method that classify human movement patterns and detect an abnormal behavior person, so that we understand human movement. The method consists of two phases: (i) classification of past human trajectories and detection of an abnormal behavior person, (ii) detection of an abnormal behavior person in real-time based on learned human trajectories patterns. We show the method can classify human trajectories patterns and detect an abnormal person using observed data in real space. The method aims to be applied to marketing analysis, security system with video, and so on.
    一般社団法人情報処理学会, 日本語
    ISSN:0919-6072, CiNii Articles ID:110006250825, CiNii Books ID:AA11131797
  • Incorporating Environment Models for Improving Vision-Based Tracking of People               
    T. Suzuki, S. Iwasaki, Y. Kobayashi, Y. Sato and A. Sugimoto
    Systems and Computers in Japan, 巻:38, 号:2, 開始ページ:71, 終了ページ:80, 2007年02月
    This paper presents a method for real-time 3D human tracking based on the particle filter by incorporating environment models. We track a human head represented with its 3D position and orientation by integrating the multiple cues from a set of distributed sensors. In particular, the multi-viewpoint color and depth images obtained from distributed stereo camera systems and the 3D shape of an indoor environment measured with a range sensor are used as the cues for 3D human head tracking. The 3D shape of an indoor environment allows us to assume the existing probability of a human head (we call this probability the environment model). While tracking the human head, we consider the environment model to improve the robustness of tracking in addition to the multi-camera's color and depth images. These cues including the environment model are used in the hypothesis evaluation and integrated naturally into the particle filter framework. The effectiveness of our proposed method is verified through experiments in a real environment. © 2007 Wiley Periodicals, Inc.
    英語
    DOI:https://doi.org/10.1002/scj.20612
    DOI ID:10.1002/scj.20612, ISSN:0882-1666, SCOPUS ID:33847187068
  • パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡 人物追跡の頑健化・高精度化に向けて               
    小林貴訓; 佐藤洋一; 杉村大輔; 関真規人; 平澤宏祐; 鈴木直彦; 鹿毛裕史; 杉本晃宏
    画像ラボ, 巻:18, 開始ページ:28, 終了ページ:33, 2007年
  • パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡               
    小林貴訓; 杉村大輔; 平澤宏祐; 鈴木直彦; 鹿毛裕史; 佐藤洋一; 杉本晃宏
    電子情報通信学会論文誌, 巻:90, 開始ページ:2049, 終了ページ:2059, 2007年
  • パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡--人物追跡の頑健化・高精度化に向けて               
    小林 貴訓; 佐藤 洋一; 杉村 大輔
    画像ラボ, 巻:18, 号:12, 開始ページ:28, 終了ページ:33, 2007年
    日本工業出版, 日本語
    ISSN:0915-6755, CiNii Articles ID:40015742660, CiNii Books ID:AN10164169
  • パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡               
    小林貴訓; 杉村大輔; 平澤宏祐; 鈴木直彦; 鹿毛裕史; 佐藤洋一; 杉本晃宏
    巻:90, 開始ページ:2049, 終了ページ:2059, 2007年
  • 行動履歴を反映させた適応的環境属性を伴う三次元人物追跡               
    杉村 大輔; 小林 貴訓; 佐藤洋一; 杉本 晃宏
    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM), 巻:2006, 号:115, 開始ページ:171, 終了ページ:178, 2006年11月10日
    パーティクルフィルタを用いた人物追跡技術は,これまでに様々な手法が提案され その有用性が報告されている.一方で,追跡の安定化に有効な 画像以外の手がかりとして,環境属性情報がある.環境属性情報とは,対象シーン内の人物の存在可能性を意味し,これを追跡に利用することで人物が存在しにくい箇所への仮説の生成を抑制することができる. したがって環境属性情報は 効率的な仮説の生成に役立つと考えられる.この指標には,障害物の配置などの物理的な制約に依るもの,人物の行動履歴に依るものがある.本研究で提案する手法では,特に後者に焦点を当て,環境属性情報の獲得と追跡の枠組みへの統合を行う.具体的には,環境属性情報を混合正規分布で表現し,オンラインEMアルゴリズムにより人物行動履歴を逐次的に学習することで獲得する.さらに,ICONDENSATION の考えに基づき,追跡の枠組みに統合する. 実環境における実験により 本手法の有効性を確認した.Various tracking techniques based on particle filters have been proposed. To enhance the robustness of tracking, it is very significant to consider environmental attributes which represent an existing probability of people in a scene. They can be used for an effective hypothesis generation by considering the area where people are likely to exist. The environmental attributes can be considered in two aspects: the one is based on the physical configuration of objects in a scene and the other is based on the history of people activities. In this paper, we establish the history based environmental attributes that are updated by people tracking result everyframe using the online EM algorithm. Furthermore, we incorporate them into our tracking algorithm by using the ICONDENSATION framework. Our experimental results demonstrate the effectiveness of our method.
    一般社団法人情報処理学会, 日本語
    ISSN:0919-6072, CiNii Articles ID:110005716410, CiNii Books ID:AA11131797
  • Hidden Markov Model を用いた逸脱行動人物検出               
    鈴木 直彦; 平澤 宏祐; 田中 健一; 小林 貴訓; 佐藤 洋一; 藤野 陽三
    電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解, 巻:106, 号:99, 開始ページ:43, 終了ページ:48, 2006年06月08日
    近年画像センサやGPSなどのデバイスの発展により,様々な状況において人物位置を連続的に検出することが可能になりつつある.一方ビル・店舗等の監視システムでは,大量の映像データからの不審人物自動検出や顧客購買行動の自動分析に対するニーズがある.そこで本研究では,人物位置の時系列データ群(人物動線データ群)に基づいた人物行動パターンの自動分類手法および他の人物の行動パターンと異なる逸脱行動人物の検出手法の提案を行う.さらに,実空間で得られた人物位置の時系列データ群による評価実験を行い,提案手法の有用性を示す.
    一般社団法人電子情報通信学会, 日本語
    ISSN:0913-5685, CiNii Articles ID:110004748923, CiNii Books ID:AN10541106
  • カスケード型識別器を用いたパーティクルフィルタによる人物三次元追跡               
    小林貴訓
    MIRU2006予稿集, 開始ページ:222, 終了ページ:228, 2006年
    CiNii Articles ID:10024775135
  • 疎分散カメラ群を用いた人物行動軌跡の推定               
    小林貴訓
    画像の認識 理解シンポジウム (MIRU2006), 2006年
    CiNii Articles ID:10021375625
  • 視野を共有しないカメラ群を用いた人物行動軌跡の推定               
    小林 貴訓; 佐藤洋一; 杉本 晃宏
    情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM), 巻:2005, 号:88, 開始ページ:169, 終了ページ:176, 2005年09月06日
    安全・安心な社会環境の実現のため,監視カメラ映像の解析技術への期待は大きい.しかし,監視カメラの普及が進む一方で,広大な人々の活動空間や,プライバシの問題などにより,人物の行動すべてをカメラで観察することは困難であることが多い.そのため,環境に疎に分散配置された視野を共有しないカメラ群からの情報を統合し,人物の行動を計測する技術が重要となる.環境に疎に分散配置された視野を共有しないカメラ群による人物の行動計測では,複数のカメラで観察される人物の同一性推定や,カメラで観察されない箇所における人物の行動推定などの課題がある.このうち本研究では後者の課題に焦点をあて,環境の知識をシステムに与えることで,屋内における人物の行動軌跡をカメラで観察されない箇所においても良好に推定する手法を提案する.A sparse network of multiple cameras can cover large environment for monitoring object's activity. To track objects successfully by using distributed cameras, we need to estimate objects' trajectory even in unobserved areas, and also need to establish correspondence between objects captured in different cameras. This paper provides a method for estimating trajectories of people by using distributed cameras with non-overlapping views. Trajectories of people are estimated by considering an evaluation function derived from a motion model, an observation model and an environment model.
    一般社団法人情報処理学会, 日本語
    ISSN:0919-6072, CiNii Articles ID:110002702282, CiNii Books ID:AA11131797
  • 環境モデルの導入による人物追跡の安定化               
    鈴木達也; 岩崎慎介; 小林貴訓; 佐藤洋一; 杉本晃宏
    電子情報通信学会論文誌, 巻:88, 開始ページ:1592, 終了ページ:1600, 2005年
  • 環境モデルの導入による人物追跡の安定化               
    鈴木達也; 岩崎慎介; 小林貴訓; 佐藤洋一; 杉本晃宏
    巻:88, 開始ページ:1592, 終了ページ:1600, 2005年
  • 机型実世界指向システムにおける紙と電子情報の統合および手指による実時間インタラクションの実現               
    小池英樹; 小林貴訓; 佐藤洋一
    情報処理学会論文誌, 巻:3, 開始ページ:577, 終了ページ:585, 2001年
  • Integrating Paper and Digital Information on EnhancedDesk: A Method for Realtime Finger Tracking on an Augmented Desk System               
    H. Koike; Y. Sato; Y. Kobayashi
    ACM Trans. Computer-Human Interaction, 巻:8, 開始ページ:307, 終了ページ:322, 2001年
  • 机型実世界指向システムにおける紙と電子情報の統合および手指による実時間インタラクションの実現               
    小池英樹
    情報処理学会論文誌, 巻:3, 号:3, 開始ページ:577, 終了ページ:585, 2001年
    CiNii Articles ID:10011218548
  • Integrating Paper and Digital Information on EnhancedDesk: A Method for Realtime Finger Tracking on an Augmented Desk System               
    H. Koike, Y. Sato, and Y. Kobayashi
    ACM Trans. Computer-Human Interaction, 巻:8, 開始ページ:307, 終了ページ:322, 2001年
  • 複数指先軌跡の実時間計測とHCIへの応用               
    岡 兼司; 小林 貴訓; 佐藤 洋一; 小池 英樹
    情報処理学会研究報告. CVIM, [コンピュータビジョンとイメージメディア], 巻:123, 号:82, 開始ページ:51, 終了ページ:58, 2000年09月14日
    キーボードやマウスなどの従来型インターフェースよりも快適な次世代インターフェースとして, 実世界指向インターフェースに期待が寄せられている.この実現にはユーザの行動を理解することが必要となり, その中でユーザの指先位置を認識する技術は重要な役割を果たす.従来の指先位置認識では, 多くの仮定や制約が存在していたため認識精度が不十分であり, 実時間処理が困難であることも問題であった.本報告では, ユーザの複数の指先位置を安定に実時間で追跡する手法について紹介する.赤外線画像の各フレームで指先位置を検出するのに加え, フレーム間で複数指先位置の対応関係を考慮することにより, 安定かつ高速に複数の指先位置の軌跡を計測する.本稿では、提案手法の内容およびに追跡性能に関する実験結果を報告し, HCIへの応用について述べる.
    一般社団法人情報処理学会, 日本語
    ISSN:0919-6072, CiNii Articles ID:110002674558, CiNii Books ID:AA11131797
  • 赤外線画像を用いた指先実時間追跡による Enhanced Desk の実現               
    小林貴訓
    ヒューマンインタフェースシンポジウム' 99論文集, 1999年
    CiNii Articles ID:80011389301
  • Enhanceddeak のための赤外線画像を用いた実時間指先認識インターフェース               
    小林貴訓
    WISS'99, 開始ページ:49, 終了ページ:54, 1999年
    CiNii Articles ID:20001460191
■ 書籍等出版物
  • 観客と協創する芸術II               
    大津耕陽, 福田悠人, 小林貴訓
    埼玉大学リベラルアーツ叢書, 2022年03月
    総ページ数:306
    ISBN:9784991013942
  • オブジェクト指向言語Java               
    小林貴訓, Htoo Htoo, 大沢裕
    コロナ社, 2016年11月
    総ページ数:232
    ISBN:9784339028652
  • 人と協働するロボット革命最前線               
    小林貴訓, 久野義徳, 山崎敬一, 山崎晶子
    NTS, 2016年05月
    総ページ数:342
    ISBN:9784860434519
■ 講演・口頭発表等
  • 対話的ナビゲーションの高度化に向けたロボット車いす搭乗者の注目領域推定               
    伊藤大登; 鈴木亮太; 小林貴訓
    電子情報通信学会総合大会, 2025年03月
    日本語, 口頭発表(一般)
  • 発話を促す対話ロボットのためのマルチモーダル感情推定               
    池田裕貴; 鈴木亮太; 小林貴訓
    電子情報通信学会総合大会, 2025年03月
    日本語, 口頭発表(一般)
  • コンサート演出への応用に向けた群鑑賞行動認識               
    野呂広人; 鈴木亮太; 小林貴訓
    電子情報通信学会総合大会, 2025年03月
    日本語, 口頭発表(一般)
  • 食事中のロボットの話しかけタイミングの調整のための非接触型咀嚼認識               
    木村俊樹; 鈴木亮太; 小林貴訓
    電子情報通信学会総合大会, 2025年03月
    日本語, 口頭発表(一般)
  • Analysis of Interaction in a Remote Instruction System Based on an Analysis of Elderly Care Facilities               
    A. Yamazaki; K. Yamazkai; Y. Kobayashi
    International Symposium on Ethnomethodological Studies of the Practices of Law and Medical and Health Care, 2025年03月, [招待有り]
    英語, シンポジウム・ワークショップパネル(指名)
  • 没入型VR体験と現実世界を繋ぐエージェントロボット               
    小野寺浩気; 鈴木亮太; 小林貴訓
    インタラクション2025, 2025年03月
    日本語, ポスター発表
  • 人と協働するロボットー自動走行車椅子を中心としてー               
    小林 貴訓
    海上自衛隊次世代技術講習会, 2025年01月, [招待有り]
    日本語, 公開講演,セミナー,チュートリアル,講習,講義等
  • 人物センシングと介護支援システムへの応用               
    小林 貴訓
    第24回医療福祉技術シンポジウム, 2024年10月, [招待有り]
    日本語, 口頭発表(招待・特別)
  • 2D-LiDARによる足元計測に基づくByteTrackを用いた歩行者追跡               
    廣中優平; 鈴木亮太; 小林貴訓
    画像センシングシンポジウム(SSII2024), 2024年06月
    日本語, ポスター発表
  • 人と協働するロボットー自動走行車椅子を中心としてー               
    小林 貴訓
    埼玉大学連続市民講座, 2024年06月, [招待有り]
    日本語, 公開講演,セミナー,チュートリアル,講習,講義等
  • Autonomous Wheelchair Following Traffic Guard's Instruction Based on Action Recognition               
    F. Yang; R. Suzuki; Y. Kobayashi
    Robomech2024, 2024年05月
    英語, ポスター発表
  • 収穫支援ロボットのための自動追従・運搬機能の開発               
    青木一航; 鈴木亮太; 小林貴訓
    Robomech2024, 2024年05月
    日本語, ポスター発表
  • 同伴者追跡技術を援用したRTK-GNSSによる車椅子ナビゲーション               
    韓佳孝, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • 2D-LiDARを用いた没入型VRにおける座位姿勢での疑似歩行インタフェース               
    高橋留以, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • 会話を促進するロボットの身体的感情表現の評価               
    永井之晴, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • 高齢者の外出意欲を増進する対話ロボット付き自律移動車椅子の提案               
    平山清貴, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • 対話における視覚障碍者の空間認知を支援するロボットインターフェース               
    稲田晴文, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • ARとロボットを用いた美術鑑賞体験の時空間的増強               
    長坂有美, 鈴木亮太, 小林貴訓
    2024年03月, [国内会議]
  • モニターテストにおける製品使用時のポジティブ・ネガティブ感情推定               
    瀧建人, 鈴木亮太, 小林貴訓
    2023年06月, [国内会議]
  • 対話的に工場案内する自律移動ロボット               
    篠昂征, 鈴木亮太, 小林貴訓
    2023年03月, [国内会議]
  • 対話性の付与に基づく過去のコンサート映像のライブ感増強               
    中山雅方, 鈴木亮太, 大津耕陽, 福田悠人, 小林貴訓
    2023年03月, [国内会議]
  • インタラクション応用に向けたマスクを用いた呼吸計測               
    塩澤大地, 鈴木亮太, 小林貴訓
    2023年03月, [国内会議]
  • 2D-LiDARによる足元計測に基づく全身骨格推定               
    須田悠介, 鈴木亮太, 小林貴訓
    2023年03月, [国内会議]
  • 車椅子バスケットボールの競技力向上に向けた情報提示               
    土屋直紀, 鈴木亮太, 小林貴訓, 久野義徳, 福田悠人, 信太奈美, 杉山真理, 半田隆志, 森田智之
    2023年03月, [国内会議]
  • 美術館における比較鑑賞へのOmniFlickViewの応用               
    高尾美菜, 鈴木亮太, 小林貴訓, 佐藤智実, 岩田健司
    2023年03月, [国内会議]
  • 対話ロボットのためのユーザの発話内容に基づく画像提示               
    福田悠人, 鈴木亮太, 小林貴訓
    2023年03月, [国内会議]
  • 買い物支援ロボットの開発に向けたユーザの購買行動の分析               
    中野渡駿, 鈴木亮太, 小林貴訓
    2022年11月, [国内会議]
  • ユーザの身体性を考慮した遠隔買い物支援ロボットカート               
    山口洋平, 萩庭大地, 福田悠人, 小林貴訓
    2022年06月, [国内会議]
  • 先行するユーザの歩行軌跡を模倣する移動ロボット               
    加藤淳志,小林貴訓
    2022年03月, [国内会議]
  • 身体配置を考慮した遠隔買い物支援ロボットカート               
    山口洋平,小林貴訓
    2022年03月, [国内会議]
  • 郷土の魅力を発信する高校生向けVRコンテンツの作成               
    石山悠斗,小林貴訓
    2022年03月, [国内会議]
  • 遠隔購買システムにおける複数視点共有の問題               
    神田捷来, 瀧本昇太, 山崎晶子, 山崎敬一, 小林貴訓
    2022年03月, [国内会議]
  • 遠隔購買行為における音声情報処理の問題               
    内田尚紀, 山崎晶子, 山崎敬一, 小林貴訓
    2022年03月, [国内会議]
  • 人型ロボットを用いた発話を促進する会議支援システム               
    須合優,山形良介,小林貴訓
    2022年03月, [国内会議]
  • 内装デザインのための配色検討システム               
    籏町実咲,福田悠人,小林貴訓
    2021年12月, [国内会議]
  • 2D LiDARとIMUセンサを用いた歩容に基づくユーザ同定               
    斉藤亮,福田悠人,小林貴訓
    2021年12月, [国内会議]
  • ユーザとの位置関係と援用した対話型ロボットショッピングカート               
    佐々木知紀,吉原拓海,中根旺浩,福田悠人,久野義徳,小林貴訓
    2021年06月, [国内会議]
  • 車椅子バスケットボール用車椅子における旋回時フレーム挙動の分析と最適化に向けた予備的検討               
    半田隆志, 香西良彦, 都知木邦裕, 信太奈美, 杉山真理, 森田智之, 福江啓太, 小林貴訓, 福田悠人, 久野義徳
    信学技報, 2021年06月, [国内会議]
  • 遠隔学習の動機づけを支援するインタラクティブデバイス               
    柿本涼太,大津耕陽,福田悠人,小林貴訓
    2021年03月, [国内会議]
  • 遠隔対話時の発話を支援するCGエージェント               
    小林弥生,福田悠人,小林貴訓
    2021年03月, [国内会議]
  • 誘導と追従を切り替えながら移動するロボットショッピングカート               
    佐々木知紀,福田悠人,小林貴訓
    2021年03月, [国内会議]
  • 全方位画像を用いた確信度に基づく大域的自己位置推定               
    高橋俊裕,福田悠人,小林貴訓,久野義徳
    2020年06月, [国内会議]
  • 歩容情報計測に向けたLiDARによる歩行者追跡               
    塙潤一,後藤陸,福田悠人,小林貴訓,久野義徳
    2020年06月, [国内会議]
  • 車椅子バスケットボールにおける漕ぎ出し動作の画像解析               
    福江啓太, 福田悠人, 小林貴訓, 久野義徳, 信太奈美, 杉山真理, 半田隆志, 森田智之
    2020年03月, [国内会議]
  • 自律移動台車のための2D-LiDARを用いた歩行者追跡               
    塙潤一, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • マルチモーダル情報に基づくユーザの興味度推定               
    王燕京, 大津耕陽, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • ユーザの注視情報を伝達する遠隔買い物支援システム               
    萩庭大地, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • 遠隔地の気配を共有する繋がり感提示デバイス               
    菊池拓哉, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • 集団的創発を促進する会議支援システム               
    山形良介, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • VR対話環境におけるアバターのふるまいが与える印象の調査               
    並川優衣, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • 移動ロボットの認識状態提示に基づく歩行者との協調移動               
    金井浩亮, 福田悠人, 小林貴訓, 久野義徳
    2020年03月, [国内会議]
  • 人物行動計測とインタラクティブシステムへの応用               
    小林貴訓
    信学技報, 2020年03月, [国内会議]
  • パーソナルモビリティの誘導に向けた視覚刺激の検討               
    泉田駿, 鈴木亮太, 福田悠人, 小林貴訓, 久野義徳
    2019年06月, [国内会議]
  • LiDARで計測した歩容情報を用いたユーザ属性の分類               
    後藤陸, 福田悠人, 小林貴訓, 久野義徳
    2019年06月, [国内会議]
  • メディエータロボットを用いた非同期遠隔共食支援システム               
    板垣立稀, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • 歩行者追跡に基づいて周辺状況を可視化するインタラクティブイルミネーション               
    小澤稔浩, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • 搬送ロボットのための音声入力インタフェースの開発               
    吉原拓海, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • ロボット車椅子のための電磁場変動センサを用いた同伴者位置計測               
    尾形 恵, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • LiDARを用いた歩容情報計測に基づくユーザ属性の推定               
    後藤 陸, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • エンゲージメント推定に基づくビデオ通話支援ロボット               
    傳 思成, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • 搬送ロボットのための遠隔操作システムの開発               
    中根旺浩, 福田悠人, 小林貴訓, 久野義徳
    2019年03月, [国内会議]
  • 一体感を増強する遠隔ライブ参加システム               
    寺内 涼太,福島 史康 ,大津 耕陽,福田 悠人,小林 貴訓,久野 義徳,山崎 敬一
    2019年03月, [国内会議]
  • アイドルとファンを繋ぐ研究               
    小林貴訓
    2018年12月, [国内会議]
  • 全天球カメラを用いた遠隔対話のための視点映像生成               
    歌田夢香, 福田悠人, 小林貴訓, 久野義徳, 山崎敬一
    2018年06月, [国内会議]
  • 映像解析に基づく頑健・高速な心拍数計測手法               
    大津耕陽, Tilottoma Das, 福田悠人, Lam Antony, 小林貴訓, 久野義徳
    2018年06月, [国内会議]
  • 瞬きの引き込み現象を援用した対話エージェント               
    李明輝,福田悠人,小林貴訓,久野義徳
    2018年05月, [国内会議]
  • 視覚効果によるパーソナルモビリティの誘導               
    泉田駿,鈴木亮太,福田悠人,小林貴訓,久野義徳
    2018年03月, [国内会議]
  • 人間の瞬きを再現した会話エージェント               
    李明輝,福田悠人,小林貴訓,久野義徳
    2018年03月, [国内会議]
  • 演者と聴衆の一体感を増強させるインタラクティブペンライト               
    福島史康,大津耕陽,福田悠人,久野義徳,平原実留,山崎敬一,小林貴訓
    2018年03月, [国内会議]
  • 清掃ロボット運用支援のための遠隔画像監視システム               
    川久保公補,福田悠人,小林貴訓,久野義徳,瀧澤秀和
    2018年03月, [国内会議]
  • 全天球カメラを用いた遠隔買い物支援システム               
    歌田夢香,福田悠人,小林貴訓,久野義徳,山崎敬一
    2018年03月, [国内会議]
  • レーザ測域センサの反射強度を用いた物体姿勢追跡               
    後藤宏輔,福田悠人,小林貴訓,久野義徳
    2018年03月, [国内会議]
  • 自律移動車椅子の動作を伝えるエージェントロボットの開発               
    飯山恵美,福田悠人,小林貴訓,久野義徳,山崎敬一
    2018年03月, [国内会議]
  • 多人数動作解析に基づく相互関係の理解               
    李春軒,福田悠人,久野義徳,小林貴訓
    2018年03月, [国内会議]
  • スマートフォンを援用した移動ロボットのための人物同定               
    下舘尚規,福田悠人,小林貴訓,久野義徳
    2018年03月, [国内会議]
  • 発話状況認識に基づく遠隔対話支援エージェント               
    及川開斗,福田悠人,久野義徳,小林貴訓
    2018年03月, [国内会議]
  • Teleoperation of a Robot through Audio-Visual Signal via Video Chat               
    H. Fukuda, Y. Kobayashi, and Y. Kuno
    Proc. 13th ACM/IEEE International Conference on Human-Robot, 2018年03月, [国際会議]
  • Precise Bus Door Detection for Robotic Wheelchair Boarding               
    Jiang Li, Hisato Fukuda, Yoshinori Kobayashi, Yoshinori Kuno
    2017年11月, [国内会議]
  • DNNに基づく感情推定手法の対話ロボットへの応用               
    山本 祐介, 福田 悠人, 小林 貴訓, 久野 義徳
    2017年11月, [国内会議]
  • 環境変化に頑健なビデオ映像による心拍数計測手法               
    大津耕陽, 倉橋知己, Tilottoma Das, 福田悠人, Lam Antony, 小林貴訓, 久野義徳
    第23回画像センシングシンポジウム(SSII2017)予稿集, 2017年06月, [国内会議]
  • 高齢者の買い物を支援するロボットショッピングカート               
    山崎誠治, 高橋秀和, 鈴木亮太, 山田大地, 福田悠人, 小林貴訓, 久野義徳
    第23回画像センシングシンポジウム(SSII2017)予稿集, 2017年06月, [国内会議]
  • スマートフォン搭載センサを用いた歩行者同定               
    遠藤文人,鈴木亮太,福田悠人,小林貴訓,久野義徳
    2017年03月, [国内会議]
  • 位置情報に基づくサ―ビスを提供する 自律移動ショッピングカート               
    山崎 誠治,高橋 秀和,鈴木 亮太,山田 大地,福田 悠人,小林 貴訓,久野 義徳
    2017年03月, [国内会議]
  • ロボットの視線フィードバックを援用した指示物体の同定               
    高田 靖人,福田 悠人,小林 貴訓,久野 義徳
    2017年03月, [国内会議]
  • Blind Area Detection for Safe and Comfortable Navigation of Robotic Wheelchairs               
    J.T. Husna, H. Fukuda, Y. Kobayashi, Y. Kuno
    2017年03月, [国内会議]
  • Robotic Agent to Support Navigation and Communication for Autonomous Wheelchair               
    R. Kumari, H. Fukuda, Y. Kobayashi, Y. Kuno
    2017年03月, [国内会議]
  • 玄関での日常会話を援用した徘徊抑止システムの提案               
    長嶺 洋佑,大津 耕陽,福田 悠人,小林 貴訓,久野 義徳
    2017年03月, [国内会議]
  • “ロボットのための動的観察に基づく物体認識手法の提案               
    三浦 且之,福田 悠人,小林 貴訓,久野 義徳
    2017年03月, [国内会議]
  • ロボットシステムを高齢者支援において使用する際の視点に関する社会学的工学的分析               
    小松由和, 山崎晶子, 山崎敬一, 小林貴訓, 福田悠人, 森田有希野, 図子智紀, 清水美和
    2017年03月, [国内会議]
  • ベクションを用いたパーソナルモビリティの誘導               
    鈴木 亮太,中村 優介,福田 悠人,小林 貴訓,久野 義徳
    インラクション2017予稿集, 2017年03月, [国内会議]
  • 遠隔ビデオ通話機能を備えた自律追従型見守りロボット               
    Sidra Tariq,福田悠人,小林貴訓,久野義徳
    HAIシンポジウム予稿集, 2016年12月, [国内会議]
  • BLE対応スマートフォンを持った同伴者と協調移動するロボット車椅子               
    関根凌太, 高橋秀和, 鈴木亮太, 福田悠人, 小林貴訓, 久野義徳, 山崎敬一, 山崎晶子
    2016年09月, [国内会議]
  • ロボットが誘発する多人数相互行為の分析               
    楊澤坤, 福田悠人, 山崎敬一, 山崎晶子, 小林貴訓, 久野義徳
    2016年09月, [国内会議]
  • 電磁場変動センサを応用したロボット車椅子の試作               
    小玉亮,鈴木亮太,小林貴訓,梶本裕之
    日本機械学会ロボティクス・メカトロニクス講演会予稿集, 2016年06月, [国内会議]
  • テレビ電話と連携した人形型デバイスを用いた高齢者の遠隔見守りシステム               
    大津耕陽,松田 成,福田悠人,小林貴訓
    画像センシングシンポジウム予稿集, 2016年06月, [国内会議]
  • 付加情報を用いた学習済みCNNに基づく物体認識               
    細原大輔, 福田悠人, 小林貴訓, 久野義徳
    画像センシングシンポジウム予稿集, 2016年06月, [国内会議]
  • 人と協調するロボットの画像処理               
    小林貴訓
    2016年05月, [国内会議]
  • 慣性計測センサを用いたロボット車椅子ユーザの暴れと立ち上がり検知               
    横倉拓朗,鈴木亮太,小林貴訓,久野義徳
    電子情報通信学会総合大会, 2016年03月, [国内会議]
  • 美術館来訪者の興味度の推定に向けた移動行動の分析               
    米澤拓也,鈴木亮太,Md. Golam Rashed,小林貴訓,久野義徳
    電子情報通信学会総合大会, 2016年03月, [国内会議]
  • 対話状況の観察に基づく高齢者遠隔見守りシステム               
    大津耕陽,小林貴訓,久野義徳
    電子情報通信学会総合大会, 2016年03月, [国内会議]
  • テレビ電話を介した視聴覚情報によるロボットの遠隔操作               
    水村育美,鈴木亮太,小林貴訓,久野義徳
    電子情報通信学会総合大会, 2016年03月, [国内会議]
  • 陳列状況の変化に頑健な自律移動ショッピングカート               
    高橋秀和,鈴木亮太,小林貴訓,久野義徳
    電子情報通信学会総合大会学生ポスタセッション, 2016年03月, [国内会議]
  • 複数視点間の認識結果の統合に基づく物体認識               
    渡邉真悠,福田悠人,小林貴訓,久野義徳
    電子情報通信学会総合大会学生ポスタセッション, 2016年03月, [国内会議]
  • Object Recognition Using Size Information Based on Pre-trained Convolutional Neural Network               
    D. Hosohara, H. Fukuda, Y. Kobayashi, Y. Kuno
    Korea-Japan joint Workshop on Frontiers of Computer Vision(FCV2016), 2016年02月, [国際会議]
  • 全方位カメラ画像からの継続的な人物追跡手法の提案               
    松藤彰宏,鈴木亮太,本田秀明・山本昇志,小林貴訓
    映像情報メディア学会冬季大会予稿集, 2015年12月, [国内会議]
  • 認知症介護支援のためのキーワード検出に基づく対話システム               
    堀江直人,小林貴訓,久野義徳
    パターン計測シンポジウム, 2015年11月, [国内会議]
  • 高齢者の状態センシングに基づく遠隔見守りシステム               
    大津耕陽,小林貴訓,久野義徳
    パターン計測シンポジウム, 2015年11月, [国内会議]
  • サービスロボットのためのRGB-Dデータの領域分割に基づく時間経過を考慮したシーン理解               
    石川雅貴,小林貴訓,久野義徳
    パターン計測シンポジウム, 2015年11月, [国内会議]
  • 認知症介護を支援する遠隔コミュニケーションシステム               
    松田成,小林貴訓,久野義徳
    画像センシングシンポジウム(SSII2015), 2015年06月, [国内会議]
  • 一緒に移動する同伴者を自動認識するロボット車椅子               
    横倉拓朗, 小林貴訓, 久野義徳
    電子情報通信学会総合大会, 2015年03月, [国内会議]
  • レーザ測域センサを用いた環境情報を考慮した人物追跡               
    板垣大二朗, 小林貴訓, 久野義徳
    電子情報通信学会総合大会, 2015年03月, [国内会議]
  • ロボットを用いた遠隔コミュニケーションシステム               
    菊川俊樹, 小林貴訓, 久野義徳
    電子情報通信学会総合大会, 2015年03月, [国内会議]
  • 相手の集中度を考慮したロボットによる注意獲得               
    山我直史, 小林貴訓, 久野義徳
    電子情報通信学会総合大会学生ポスターセッション, 2015年03月, [国内会議]
  • ロボット車椅子の進路提示手法に関する検討               
    澤田拳, 小林貴訓, 久野義徳
    電子情報通信学会総合大会学生ポスターセッション, 2015年03月, [国内会議]
  • エージェント対話システムのための高速カメラを用いた表情認識               
    秋山俊貴, 小林貴訓, 久野義徳
    電子情報通信学会総合大会学生ポスターセッショ, 2015年03月, [国内会議]
  • Museum Guide Robot by Considering Static and Dynamic Gaze Expressions to Communicate with Visitors               
    K. Sano, K. Murata, R. Suzuki, Y. Kuno, D. Itagaki, Y. Kobayashi
    International Conference on Human-Robot Interaction (HRI2015) Late Breaking Report, 2015年03月, [国際会議]
  • Toward Museum Guide Robots Proactively Initiating Interaction with Humans               
    M.G. Rashed, R. Suzuki, A. Lam, Y. Kobayashi, Y. Kuno
    International Conference on Human-Robot Interaction (HRI2015) Late Breaking Report, 2015年03月, [国際会議]
  • Object Pose Estimation Using Category Information from a Single Image               
    S. Shimizu, H. Koyasu, Y. Kobayashi, Y. Kuno
    Korea-Japan joint Workshop on Frontiers of Computer Vision (FCV2015), 2015年01月, [国際会議]
  • Design of Robot Eyes Suitable for Gaze Communication               
    T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno
    International Conference on Human-Robot Interaction (HRI2013) Late breaking Report, 2013年, [国際会議]
  • Attention Control System Considering the Target Person's Attention Level               
    D. Das, M. Hoque, T. Onuki, Y. Kobayashi and Y. Kuno
    International Conference on Human-Robot Interaction (HRI2013) Late breaking Report, 2013年, [国際会議]
  • Question Strategy and Interculturality in Human-Robot Interaction               
    M. Fukushima, R. Fujita, M. Kurihara, T. Suzuki, K. Yamazaki, A. Yamazaki, K. Ikeda, Y. Kuno, Y. Kobayashi, T. Ohyama and E. Yoshida
    International Conference on Human-Robot Interaction (HRI2013) Late breaking Report, 2013年, [国際会議]
  • Tracking a Robot and Visitors in a Museum Using Sensor Poles               
    T. Ohyama, E. Yoshida, Y. Kobayashi and Y. Kuno
    19th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2013), 2013年, [国際会議]
  • Designing Robot Eyes for Gaze Communication               
    T. Onuki, T. Ishinoda, Y. Kobayashi and Y. Kuno
    19th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2013), 2013年, [国際会議]
  • 同伴者の行動に配慮したロボット車椅子の協調移動に関する検討               
    佐藤慶尚, 小林貴訓, 久野義徳
    電子情報通信学会総合大会学生ポスターセッション, 2013年, [国内会議]
  • 介護支援ロボットのためのユーザリクエスト認識手法の検討               
    田畠知弥, 小林貴訓, 久野義徳
    電子情報通信学会総合大会学生ポスターセッション, 2013年, [国内会議]
  • 不可視マーカを用いた複数ロボット車椅子の位置認識               
    新井雅也, 山崎晶子, 小林貴訓, 久野義徳
    電子情報通信学会総合大会, 2013年, [国内会議]
  • オントロジーに基づく対話を援用した物体認識の検討               
    福田悠人, 小林貴訓, 久野義徳, 加地大介
    電子情報通信学会総合大会, 2013年, [国内会議]
  • Robotic Wheelchair Moving with the Caregiver at the Selected Position According to the Situation               
    X. Xin, Y. Kobayashi, Y. Kuno
    2012年03月
  • 鑑賞者を適切な位置に誘導するガイドロボット               
    望月博康, 小林貴訓, 久野義徳
    2012年03月
  • Attracting and Controlling Human Attention through Robot’s Behaviors Suited to the Situation               
    M.M. Hoque, T. Onuki, D. Das, Y.Kobayashi, Y. Kuno
    2012年03月
  • 介護者に併走するロボット車椅子のためのタッチパネルインタフェース               
    鈴木亮太, 小林貴訓, 久野義徳
    2012年03月
  • Establishment of Spatial Formation by a Mobile Guide Robot               
    M. A. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki, A. Yamazaki
    2012年03月
  • Multiple Robotic Wheelchair System Based on the Observation of Circumstance               
    E.Takano, Y.Kobayashi, Y.Kuno
    2012年02月
  • A Mobile Guide Robot Capable of Formulating Spatial Formations               
    M.A.Yousuf, Y.Kobayashi, A.Yamazaki, K.Yamazaki, Y.Kuno
    2012年02月
  • Interactive Object Recognition Using Attribute Information               
    H.Fukuda, Y.Kobayashi, Y.Kuno
    2012年02月
  • Robotic Wheelchair with Omni-directional Vision for Moving Alongside a Caregiver               
    Y. Kobayashi, R. Suzuki and Y. Kuno
    Annual Conference of the IEEE Industrial Electronics Society (IECON2012), 2012年, [国際会議]
  • Robotic Wheelchair Easy to Move and Communicate with Companions               
    R. Suzuki, E. Takano, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
    IROS2012 Workshop on Progress, Challenges and Future Perspectives in Navigation and Manipulation Assistance for Robotic Wheelchairs, 2012年, [国際会議]
  • A Strategy to Enhance Visitors' Audience Participation towards a Museum Guide Robot               
    K. Ikeda, A. Yamazaki, K. Yamazaki, T. Ohyama, Y. Kobayashi and Y. Kuno
    IROS2012 Workshop on Human-Agent Interaction, 2012年, [国際会議]
  • 視線コミュニケーションを考慮したロボット頭部の開発               
    小貫朋実, 宮田雄規, 小林貴訓, 久野義徳
    画像センシングシンポジウム(SSII2012), 2012年, [国内会議]
  • 全方位カメラによる周辺情報を用いたロボット車椅子の開発               
    鈴木亮太, 高野恵利衣, 宗像信聡, 小林貴訓, 久野義徳
    画像センシングシンポジウム(SSII2012), 2012年, [国内会議]
  • RGB-Dカメラを用いたサービスロボットのための対話物体認識               
    福田悠人, 小林貴訓, 久野義徳
    2012年01月
  • 多重的身体行動を用いて複数人からの依頼に対応するケアロボット               
    行田将彦, 田畠知弥, 小林貴訓, 久野義徳, 山崎敬一, 佐藤信吾, 山崎晶子
    2012年01月
  • Spatial-Based Feature for Locating Objects               
    L. Cao, Y. Kobayashi and Y.Kuno
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • An Integrated Approach of Attention Control of Target Human by Nonverbal Behaviors of Robots in Different Viewing Situations               
    M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno
    International Conference on Intelligent Robots and Systems (IROS2012), 2012年, [国際会議]
  • Development of a Mobile Museum Guide Robot That Can Configure Spatial Formation with Visitors               
    M. Yousuf, Y. Kobayashi, Y. Kuno, A. Yamazaki and K. Yamazaki
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • Model for Controlling a Target Human's Attention in Multi-Party Settings               
    M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno
    International Symposium on Robot and Human Interactive Communication(Ro-Man2012), 2012年, [国際会議]
  • Empirical Framework for Autonomous Wheelchair System in Human-Shared Environments               
    R. Tomari, Y. Kobayashi and Y. Kuno
    International Conference on Mechatronics and Automation(ICMA2012), 2012年, [国際会議]
  • Vision-Based Attention Control System for Socially Interactive Robots               
    Vision-Based Attention Control System for Socially Interactive Robots
    International Symposium on Robot and Human Interactive Communication(Ro-Man2012), 2012年, [国際会議]
  • Wide Field of View Kinect Undistortion for Social Navigation Implementation               
    R. Tomari, Y. Kobayashi and Y. Kuno
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • Robotic System Controlling Target Human's Attention               
    M. Hoque, D. Das, T. Onuki, Y. Kobayashi and Y. Kuno
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • A Spatial-Based Approach for Groups of Objects               
    L. Cao, Y. Kobayashi and Y.Kuno
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • Object Recognition for Service Robots through Verbal Interaction about Multiple Attribute Information               
    H. Fukuda, S. Mori, Y. Kobayashi and Y. Kuno
    Lecture Notes in Computer Science, 2012年, [国際会議]
  • Model of Guide Robot Behavior to Explain Multiple Exhibits to Multiple Visitors               
    M. Yousuf, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
    International Session of 30th Annual Conference of the Robotics Society of Japan (RSJ2012), 2012年, [国内会議]
  • 親しみやすさと視線コミュニケーション機能を考慮したロボットの目のデザイン               
    小貫朋実, 宮田雄規, 小林貴訓, 久野義徳
    2011年12月
  • Implementation of F-Formation and "Pause and Restart" for a Mobile Museum Guide Robot               
    Mohammad Abu Yousuf, Yoshinori Kobayashi, Akiko Yamazaki, Yoshinori Kuno
    2011年12月
  • Controlling Human Attention by Robot's Behavior Depending on his/her Viewing Situations               
    M.M.Hoque, T. Onuki, E. Tsuburaya, Y. Kobayashi. Y. Kuno
    2011年11月
  • コミュニケーションを考慮した複数ロボット車椅子システム               
    高野恵利衣, 小林貴訓, 久野義徳
    2011年08月
  • 材質を含む属性情報を利用したサービスロボットのための対話物体認識               
    福田悠人, 小林貴訓, 久野義徳
    2011年08月
  • 非言語行動で依頼を受け付ける移動介護ロボット               
    行田将彦, 田畠知弥, 小林貴訓, 久野義徳
    画像センシングシンポジウム予稿集, 2011年06月
  • 対話物体認識のための材質情報の獲得               
    福田悠人, 小林貴訓, 久野義徳
    画像センシングシンポジウム予稿集, 2011年06月
  • 複数の人に非言語で対応する介護ロボット               
    田畠知弥、行田将彦、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • 搭乗者の不安を和らげるロボット車椅子の動作提示方法の検討               
    胡少丹、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • 親しみやすさと視線の読みとりやすさを兼ね備えたロボットの目のデザイン               
    圓谷恵美、小貫朋実、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • 自然な動作で人間の注視を獲得するロボット頭部動作の検討               
    小貫朋実、圓谷恵美、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • 視聴覚情報の融合による依頼者認識システムの開発               
    鈴木亮太、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • ミュージアムガイドロボットのための詳細な頭部ジェスチャ計測システムの開発               
    大山貴也、柴田高志、小林貴訓、久野義徳
    電子情報通信学会総合大会予稿集, 2011年, [国内会議]
  • Situation-driven control of a robotic wheelchair to follow a caregiver               
    Yuki Kinpara, Elly Takano, Yoshinori Kobayashi, Yoshinori Kuno
    FCV2011, 2011年, [国際会議]
  • Mobile care robot accepting requests through nonverbal interaction               
    M. Gyoda, T. Tabata, Y. Kobayashi, Y. Kuno
    FCV2011 Proc., 2011年
  • Assisted-care robot dealing with multiple requests in multi-party settings               
    Y. Kobayashi, M. Gyoda, T. Tabata, Y. Kuno, K. Yamazaki, M. Shibuya, Y. Seki
    HRI2011 Late Breaking Report, 2011年, [国際会議]
  • A Wheelchair Which Can Automatically Move Alongside a Caregiver               
    Yoshinori Kobayashi, Yuki Kinpara, Erii Takano, Yoshinori Kuno, Keiichi Yamazaki, Akiko Yamazaki
    HRI2011 Video Session, 2011年, [国際会議]
  • 高齢者を見守る介護ロボットのための自律移動システムの提案               
    行田将彦、小林貴訓、久野義徳
    電子情報通信学会総合大会(学生ポスターセッション), 2010年03月
    学生ポスターセッション
  • 利用者の目的地推定に基づく自律移動車椅子の提案               
    朱エイ、小林貴訓、久野義徳
    電子情報通信学会総合大会, 2010年03月
    学生ポスターセッション
  • 人間行動の社会学的分析に基づく複数人環境での人間とロボットのインタラクション               
    久野義徳、小林貴訓、山崎晶子、島村徹也
    情報爆発時代に向けた新しいIT基盤技術の研究 平成21年度研究概要, 2010年03月
  • Choosing answerers by observing gaze responses for museum guide robots               
    Yoshinori Kobayashi, Takashi Shibata, Yosuke Hoshi, Yoshinori Kuno, Mai Okada, Keiichi Yamazaki
    HRI2010(5th ACM/IEEE International Conference on Human-Robot Interaction), 2010年03月
  • 聞き手の様子を見ながら作品の説明をするミュージアムガイドロボット               
    小林貴訓、柴田高志、星洋輔、鴇田憲、久野義徳
    画像センシングシンポジウム予稿集, 2010年, [国際会議]
  • 状況に応じて形状表現の意味を理解する対話物体認識システム               
    森智史、小林貴訓、久野義徳
    HAIシンポジウム予稿集, 2010年, [国内会議]
  • 周辺状況を考慮して介護者と協調移動するロボット車椅子               
    金原悠貴、高野恵利衣、小林貴訓、久野義徳
    画像センシングシンポジウム予稿集, 2010年, [国際会議]
  • 介護者の意図と周辺状況の観察に基づくロボット車椅子               
    金原悠貴、高野恵利衣、小林貴訓、久野義徳
    情報処理学会全国大会, 2010年
  • 頭部動作の計測に基づき質問相手を選択するガイドロボット               
    柴田高志、星洋輔、鴇田憲、小林貴訓、久野義徳
    情報処理学会全国大会, 2010年
  • 移動しながら見回りする介護ロボット               
    石川直人、行田将彦、浅羽健太郎、小林貴訓、久野義徳
    情報処理学会全国大会, 2010年
  • 周辺状況を考慮して介護者に追随するロボット車椅子               
    高野恵利衣、金原悠貴、小林貴訓、久野義徳
    電子情報通信学会総合大会, 2010年
  • People tracking using integrated sensors for human robot interaction               
    ICIT, 2010年
  • Choosing Answerers by Observing Gaze Responses for Museum Guide Robots               
    HRI2010 LBR, 2010年
  • 介護者の意図と周辺状況の観察に基づくロボット車椅子               
    情報処理学会全国大会, 2010年
  • 頭部動作の計測に基づき質問相手を選択するガイドロボット               
    情報処理学会全国大会, 2010年
  • 移動しながら見回りする介護ロボット               
    情報処理学会全国大会, 2010年
  • 周辺状況を考慮して介護者に追随するロボット車椅子               
    電子情報通信学会総合大会, 2010年
  • People tracking using integrated sensors for human robot interaction               
    ICIT, 2010年
  • Choosing Answerers by Observing Gaze Responses for Museum Guide Robots               
    HRI2010 LBR, 2010年
  • Object detection for service robots using a hybrid autonomous/interactive approach               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    First IEEE Workshop on Computer Vision for Humanoid Robots in Real Environments, 2009年09月
  • Head tracking and gesture recognition in museum guide robots for multiparty settings               
    Yoshinori Kobayashi,Takashi Shibata,Yosuke Hoshi,Yoshinori Kuno,Mai Okada,Keiichi Yamazaki,Akiko Yamazaki
    ECSCW2009 (European Conference on Computer Supported Cooperative Work), 2009年09月
  • Multiple object detection and localization using range and color images for service robots               
    Dipankar Das, Yoshinori Kobayashi, Yoshinori Kuno
    ICROS-SICE International Joint Conference 2009, 2009年08月
  • 介護ロボットのための距離画像を用いた複数人からの依頼理解               
    全文星,小林貴訓,久野義徳
    電子情報通信学会情報・システムソサイエティ総合大会特別号, 2009年03月
  • Spatial Relation Descriptions for Interactive Robot Vision               
    L.. Cao, Y. Kobayashi, Y. Kuno
    電子情報通信学会情報・システムソサイエティ総合大会特別号, 2009年03月
  • 複数鑑賞者に適応的な身体的行動を用いて解説をするミュージアムガイドロボット               
    柴田高志、鴇田憲、星洋輔、小林貴訓、久野義徳
    計測自動制御学会システムインテグレーション部門講演会論文集(SI2009), 2009年
  • Object Detection and Localization in Clutter Range Images Using Edge Features               
    International Symposium on Visual Computing (ISVC2009), 2009年
  • Efficient Hypothesis Generation through Sub-categorization for Multiple Object Detection               
    International Symposium on Visual Computing (ISVC2009), 2009年
  • Multiple object category detection and localization using generative and discriminative models               
    IEICE Trans. Information and Systems, 2009年
  • Robotic Wheelchair Based on Observations of People Using Integrated Sensors               
    International Conference on Intelligent RObots and Systems, 2009年
  • Object recognition in service robots: Conducting verbal interaction on color and spatial relationship               
    ICCV Workshops (Human-Computer Interaction), 2009年
  • Head Tracking and Gesture Recognition in Museum Guide Robots for Multiparty Settings               
    ECSCW2009 Poster, 2009年
  • 人間とのコミュニケーションに関するビジョン技術               
    日本ロボット学会誌, 2009年
  • Multiple Object Detection and Localization using Range and Color Images for Service Robots               
    Proc. ICCAS-SICE International Joint Conference, 2009年
  • 複合センサを用いた人物の行動計測に基づく自律移動車椅子               
    画像センシングシンポジウム, 2009年
  • Assisted-Care Robot Initiation Communication in Multiparty Settings               
    Computer-Human Interaction Extended Abstracts, 2009年
  • Revealing Gauguin: Engaging Visitors in Robot Guide's Explanation in an Art Museum               
    Computer-Human Interaction, 2009年
  • 移動介護ロボットのための頭部動作に基づく対象者の認識               
    石川直人,藤原直樹,全文星,小林貴訓,久野義徳
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • オントロジーに基づく対話物体認識               
    森智史,小林貴訓・久野義
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • オントロジーに基づくロボットビジョンの提案               
    小林貴訓,久野義徳,加地大介
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • 複数鑑賞者をガイドするロボットのための頭部ジェスチャ認識               
    柴田高志,小林貴訓,久野義徳
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • 介護者の状態の観察に基づいたロボット車椅子の制御               
    金原悠貴,小林貴訓,久野義徳
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • Collaborative Robotic Wheelchair Based on Visual and Laser Sensing               
    Workshop on Frontiers of Computer Vision, 2009年
  • 複数鑑賞者に適応的な身体的行動を用いて解説をするミュージアムガイドロボット               
    計測自動制御学会システムインテグレーション部門講演会論文集(SI2009), 2009年
  • Object Detection and Localization in Clutter Range Images Using Edge Features               
    International Symposium on Visual Computing (ISVC2009), 2009年
  • Efficient Hypothesis Generation through Sub-categorization for Multiple Object Detection               
    International Symposium on Visual Computing (ISVC2009), 2009年
  • Multiple object category detection and localization using generative and discriminative models               
    IEICE Trans. Information and Systems, 2009年
  • Robotic Wheelchair Based on Observations of People Using Integrated Sensors               
    International Conference on Intelligent RObots and Systems, 2009年
  • Object recognition in service robots: Conducting verbal interaction on color and spatial relationship               
    ICCV Workshops (Human-Computer Interaction), 2009年
  • Head Tracking and Gesture Recognition in Museum Guide Robots for Multiparty Settings               
    ECSCW2009 Poster, 2009年
  • 人間とのコミュニケーションに関するビジョン技術               
    日本ロボット学会誌, 2009年
  • Multiple Object Detection and Localization using Range and Color Images for Service Robots               
    Proc. ICCAS-SICE International Joint Conference, 2009年
  • 複合センサを用いた人物の行動計測に基づく自律移動車椅子               
    画像センシングシンポジウム, 2009年
  • Assisted-Care Robot Initiation Communication in Multiparty Settings               
    Computer-Human Interaction Extended Abstracts, 2009年
  • Revealing Gauguin: Engaging Visitors in Robot Guide's Explanation in an Art Museum               
    Computer-Human Interaction, 2009年
  • 移動介護ロボットのための頭部動作に基づく対象者の認識               
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • オントロジーに基づく対話物体認識               
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • オントロジーに基づくロボットビジョンの提案               
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • 複数鑑賞者をガイドするロボットのための頭部ジェスチャ認識               
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • 介護者の状態の観察に基づいたロボット車椅子の制御               
    電子情報通信学会2009年総合大会 情報・システム講演論文集, 2009年
  • Collaborative Robotic Wheelchair Based on Visual and Laser Sensing               
    Y. Kobayashi, Y. Kinpara, T. Shibusawa, Y. Kuno
    Workshop on Frontiers of Computer Vision, 2009年
  • ミュージアムガイドロボットへの遠隔対話指示               
    糟谷智樹,小林貴訓,久野義徳
    情報・システムソサイエティ総合大会特別号, 2008年08月
  • 鑑賞行動を支援するロボット車椅子システム               
    渋澤朋央,小林貴訓,久野義徳
    総合大会講演論文集, 2008年03月
  • ミュージアムガイドロボットへの遠隔対話指示               
    糟谷智樹,小林貴訓,久野義徳
    電子情報通信学会2008年総合大会 情報・システムソサイエティ総合大会特別号, 2008年03月
  • 美術館における観客を引き込む解説ロボット               
    岡田真依,星洋輔,山崎敬一,山崎晶子,久野義徳,小林貴訓
    HAIシンポジウム, 2008年
  • Interactively instructing a guide robot through a network               
    International Conference on Control, Automation and Systems, 2008年
  • Museum Guide Robot with Three Communication Modes               
    International Conference on Intelligent RObots and Systems, 2008年
  • Robotic Wheelchair for Museum Visit               
    Proc. SICE2008, 2008年
  • Human robot interaction through simple expressions for object recognition               
    Proc. 17th IEEE RO-MAN, 2008年
  • 3つのコミュニケーションモードを持つネットワークロボット               
    笛木雅人,糟谷智樹,星洋輔,星野豪,小林貴訓,久野義徳
    画像センシングシンポジウム, 2008年
  • Incorporating Long-Term Observations of Human Actions for Stable 3D People Tracking               
    Workshop on Motion and Video Computing, 2008年
  • 美術館における観客を引き込む解説ロボット               
    HAIシンポジウム, 2008年
  • Interactively instructing a guide robot through a network               
    Y. Hoshi, Y. Kobayashi, T. Kasuya, M. Fueki, Y. Kuno
    International Conference on Control, Automation and Systems, 2008年
  • Museum Guide Robot with Three Communication Modes               
    Y. Kobayashi, Y. Hoshi, G. Hoshino, T. Kasuya, M. Fueki and Y. Kuno
    International Conference on Intelligent RObots and Systems, 2008年
  • Robotic Wheelchair for Museum Visit               
    Tomoo Shibusawa, Yoshinori Kobayashi , and Yoshinori Kuno
    Proc. SICE2008, 2008年
  • Human robot interaction through simple expressions for object recognition               
    A. Mansur, K. Sakata, Y. Kobayashi, and Y. Kuno
    Proc. 17th IEEE RO-MAN, 2008年
  • 3つのコミュニケーションモードを持つネットワークロボット               
    画像センシングシンポジウム, 2008年
  • Incorporating Long-Term Observations of Human Actions for Stable 3D People Tracking               
    D. Sugimura D, Y. Kobayashi, Y. Sato and A. Sugimoto
    Workshop on Motion and Video Computing, 2008年
  • 行動履歴に基づいた環境属性の自動構築を伴う三次元人物追跡               
    杉村大輔,小林貴訓,佐藤洋一,杉本晃宏
    画像の認識・理解シンポジウム, 2007年
  • 分散カメラとレーザ測域センサの統合によるエリア内人物追跡               
    小林貴訓,杉村大輔,関真規人,平澤宏祐,鈴木直彦,鹿毛裕史,佐藤洋一,杉本晃宏
    画像の認識・理解シンポジウム, 2007年
    ポスター発表
  • 人物動線データ分析による逸脱行動人物の検出               
    鈴木直彦,平澤宏祐,田中健一,小林貴訓,佐藤洋一,藤野陽三
    コンピュータビジョンとイメージメディア研究会, 2007年
  • Learning Motion Patterns and Anomaly Detection by Human Trajectory Analysis               
    International Conference on Systems, Man and Cybernetics, 2007年
  • 行動履歴に基づいた環境属性の自動構築を伴う三次元人物追跡               
    画像の認識・理解シンポジウム, 2007年
  • 分散カメラとレーザ測域センサの統合によるエリア内人物追跡               
    画像の認識・理解シンポジウム, 2007年
    ポスター発表
  • 人物動線データ分析による逸脱行動人物の検出               
    コンピュータビジョンとイメージメディア研究会, 2007年
  • Learning Motion Patterns and Anomaly Detection by Human Trajectory Analysis               
    N. Suzuki, K. Hirasawa, K. Tanaka, Y. Kobayashi, Y. Sato and Y. Fujino
    International Conference on Systems, Man and Cybernetics, 2007年
  • 行動履歴を反映させた適応的環境属性を伴う三次元人物追跡               
    杉村大輔,小林貴訓,佐藤洋一,杉本晃宏
    コンピュータビジョンとイメージメディア研究会, 2006年
  • カスケード型識別器を用いたパーティクルフィルタによる人物三次元追跡               
    小林貴訓,杉村大輔,平澤宏祐,鈴木直彦,鹿毛裕史,佐藤洋一,杉本晃宏
    画像の認識・理解シンポジウム, 2006年
  • 疎分散カメラ群を用いた人物行動軌跡の推定               
    小林貴訓,佐藤洋一,杉本晃宏
    画像の認識・理解シンポジウム, 2006年
    ポスター発表
  • Hidden Markov Modelを用いた逸脱行動人物検出               
    パターン認識・メディア理解研究会, 2006年
  • 3D Head Tracking using the Particle Filter with Cascaded Classifiers               
    British Machine Vision Conference, 2006年
  • 行動履歴を反映させた適応的環境属性を伴う三次元人物追跡               
    コンピュータビジョンとイメージメディア研究会, 2006年
  • カスケード型識別器を用いたパーティクルフィルタによる人物三次元追跡               
    画像の認識・理解シンポジウム, 2006年
  • 疎分散カメラ群を用いた人物行動軌跡の推定               
    画像の認識・理解シンポジウム, 2006年
    ポスター発表
  • Hidden Markov Modelを用いた逸脱行動人物検出               
    鈴木直彦,平澤宏祐,田中健一,小林貴訓,佐藤洋一,藤野陽三
    パターン認識・メディア理解研究会, 2006年
  • 3D Head Tracking using the Particle Filter with Cascaded Classifiers               
    Y. Kobayashi, D. Sugimura, Y. Sato, H. Hirasawa, N. Suzuki, H. Kage and A. Sugimoto
    British Machine Vision Conference, 2006年
  • 視野を共有しないカメラ群を用いた人物行動軌跡の推定               
    小林貴訓,佐藤洋一,杉本晃宏
    コンピュータビジョンとイメージメディア研究会, 2005年
  • 視野を共有しないカメラ群を用いた人物行動軌跡の推定               
    コンピュータビジョンとイメージメディア研究会, 2005年
  • ソフトウェア部品庫EvoManにおけるツール連携機能               
    田村直樹,川名康仁,山本康夫,小林貴訓
    ソフトウェア工学, 2002年
  • ソフトウェア部品庫EvoManにおけるツール連携機能               
    ソフトウェア工学, 2002年
  • 複数指先軌跡の実時間計測とHCIへの応用               
    岡兼司,小林貴訓,佐藤洋一,小池英樹
    コンピュータビジョンとイメージメディア研究会, 2000年
  • Fast Tracking of Hands and Fingertips in Infrared Images for Augmented Desk Interface               
    Automatic Face and Gesture Recognition, 2000年
  • Interactive Textbook and Interactive Venn Diagram: Natural and Intuitive Interface on Augmented Desk System               
    Human Factors in Computing Systems, 2000年
  • 複数指先軌跡の実時間計測とHCIへの応用               
    コンピュータビジョンとイメージメディア研究会, 2000年
  • Fast Tracking of Hands and Fingertips in Infrared Images for Augmented Desk Interface               
    Y. Sato, Y. Kobayashi and H. Koike
    Automatic Face and Gesture Recognition, 2000年
  • Interactive Textbook and Interactive Venn Diagram: Natural and Intuitive Interface on Augmented Desk System               
    H. Koike, Y. Sato, Y. Kobayashi, H. Tobita and M. Kobayashi
    Human Factors in Computing Systems, 2000年
  • 赤外線画像を用いた指先実時間追跡によるEnhancedDeskの実現               
    小林貴訓,小池英樹,佐藤洋一
    ヒューマンインタフェース学会 ヒューマンインタフェースシンポジウム, 1999年10月
  • EnhancedDeskのための赤外線画像を用いた実時間指先認識インタフェース               
    小林貴訓,佐藤洋一,小池英樹
    インタラクティブシステムとソフトウェア, 1999年
  • EnhancedDeskのための赤外線画像を用いた実時間指先認識インタフェース               
    インタラクティブシステムとソフトウェア, 1999年
  • Towards Detectng the Inner Emotions of Multiple People               
    K. Das, K. Otsu, A. Lam, Y. Kobayashi, and Y. Kuno
    [国内会議]
  • 対話を援用したグラフカットに基づく物体領域抽出               
    光野泰弘,小林貴訓,久野義徳
    2014年電子情報通信学会総合大会, [国内会議]
  • 認知症者の介護を支援する遠隔コミュニケーションシステム               
    松田成,久野義徳,小林貴訓
    2014年電子情報通信学会総合大会, [国内会議]
  • Proactive approach of making eye contact with the target human in multi-party settings               
    M. Hoque, D. Das, Y. Kobayashi, Y. Kuno and K. Deb
    Proc. Computer and Information Technology (ICCIT2013), [国際会議]
  • オントロジーに基づく形状認識               
    森智史, 福田悠人, 小林貴訓, 久野義徳, 加地大介
    画像の認識・理解シンポジウム(MIRU2013), [国内会議]
  • 周辺状況を考慮してコミュニケーションを支援するロボット車椅子               
    新井雅也, 佐藤慶尚, 鈴木亮太, 小林貴訓, 久野義徳
    画像の認識・理解シンポジウム(MIRU2013), [国内会議]
  • 注視を演出するコミュニケーションロボット               
    小貫朋実, 江連智香, 石野田貴文, 小林貴訓, 久野義徳
    画像センシングシンポジウム(SSII2013), [国内会議]
  • Multiple robotic wheelchair system able to move with a companion using map information               
    Y. Sato, R. Suzuki, M. Arai, Y. Kobayashi, Y. Kuno, M. Fukushima, K. Yamazaki and A. Yamazaki
    Proc. International Conference on Human-Robot Interaction (HRI2014) Late breaking Report, [国際会議]
  • Recognizing gaze pattern for human robot interaction               
    D. Das, M. G. Rashed , Y. Kobayashi and Y. Kuno
    Proc. International Conference on Human-Robot Interaction (HRI2014) Late breaking Report, [国際会議]
  • Static and dynamic robot gaze expressions to communicating with humans               
    T. Onuki, T. Ezure, T. Ishinoda, Y. Kobayashi and Y. Kuno
    Proc. Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2014), [国際会議]
  • Observing Human's Face for Robot's Controlling his/her Attention               
    D. Das, Y. Kobayashi and Y. Kuno
    Proc. International Conference on Quality Control by Artificial Vision (QCAV2013), [国際会議]
  • ミュージアムガイドロボットのための移動軌跡に基づく観客グループ判別               
    神田敦,小林貴訓,久野義徳
    2014年電子情報通信学会総合大会, [国内会議]
  • 人の注視を誘導する目と連動したロボットの振り向き動作の検討               
    佐野要,小貫朋実,井田賢人,小林貴訓,久野義徳
    2014年電子情報通信学会総合大会, [国内会議]
  • An intelligent human-robot interaction framework to control the human attention               
    M. M. Hoque , K. Deb, D. Das, Y. Kobayashi and Y. Kuno
    Proc. International Conaference on Informatics, Electronics & Vision (ICIEV), [国際会議]
  • An intelligent human-robot interaction framework to control the human attention               
    M. M. Hoque , K. Deb, D. Das, Y. Kobayashi and Y. Kuno
    Proc. International Conaference on Informatics, Electronics & Vision (ICIEV2013), [国際会議]
  • Attracting Attention and Establishing a Communication Channel Based on the Level of Visual Focus of Attention               
    D. Das, Y. Kobayashi and Y. Kuno
    Proc. International Conference on Intelligent Robots and Systems (IROS2013), [国際会議]
  • A Maneuverable Robotic Wheelchair Able to Move Adaptively with a Caregiver by Considering the Situation               
    Y. Sato, M. Arai, R. Suzuki, Y. Kobayashi, Y. Kuno, K. Yamazaki and A. Yamazaki
    Proc. International Symposium on Robot and Human Interactive Communication(Ro-Man2013), [国際会議]
  • Robotic Wheelchair Easy to Move and Communicate with Companions               
    Y. Kobayashi, R. Suzuki, Y. Sato, M. Arai, Y. Kuno, A. Yamazaki and K. Yamazaki
    Proc. CHI2013 Extended Abstracts, [国際会議]
  • An empirical robotic framework for interacting with multiple humans               
    M. Hoque, Q. Hossian, D. Das, Y. Kobayashi, Y. Kuno and K. Deb
    Electrical Information and Communication Technology (EICT2014), [国際会議]
  • How to Move Towards Visitors: A Model for Museum Guide Robots to Initiate Conversation               
    M. Yousuf, Y. Kobayashi, Y. Kuno, A. Yamazaki and K. Yamazaki
    Proc. International Symposium on Robot and Human Interactive Communication(Ro-Man2013), [国際会議]
  • Tracking Visitors with Sensor Poles for Robot's Museum Guide Tour               
    T. Oyama, E. Yoshida, Y. Kobayashi and Y. Kuno
    Proc. International conference on Human System Interaction (HSI2013), [国際会議]
  • Recognition of Request through Hand Gesture for Mobile Care Robots               
    T. Tabata, Y. Kobayashi and Y. Kuno
    Proc. Annual Conference of the IEEE Industrial Electronics Society (IECON2012), [国際会議]
■ 担当経験のある科目_授業
  • 情報システム工学III, 講義
  • 情報工学総合演習, 演習
  • 工学入門セミナー, 演習
  • 画像応用システム特論, 講義
  • 基本情報技術概論I演習, 演習
  • 基本情報技術概論I, 講義
  • 情報工学総合演習, 演習
  • 工学入門セミナー, 演習
  • 基本情報技術概論I演習, 演習
  • 基本情報技術概論I, 講義
  • 工学入門セミナー, 演習
  • 情報工学総合演習, 演習
  • 応用線形代数演習, 演習
  • 基本情報処理技術概論II演習, 演習
  • 基本情報処理技術概論I演習, 演習
  • 情報工学総合演習, 演習
  • 応用線形代数演習, 演習
  • 基本情報処理技術概論II演習, 演習
  • 工学基礎実験, 実習・実験
  • 基本情報処理技術概論I演習, 演習
■ 所属学協会
  • IEEE
  • ACM
  • 映像情報メディア学会
  • 電情報通信学会
  • 情報処理学会
  • 日本ロボット学会
■ Works_作品等
  • テレビ埼玉ウィークエンド930               
    2012年03月
    開催日:[20120316]開発したロボット車椅子を番組で紹介した.
  • TBS朝ズバ               
    2012年01月
    開催日:[20120123]開発したロボット車椅子を番組で紹介した.
  • コラボさいたま2012               
    2011年11月
    開催日:[20111111]開発したロボット車椅子を展示会で紹介した.
  • 日本テレビ「世界一受けたい授業」               
    2011年08月
    開催日:[20110806]開発したロボット車椅子を番組で紹介した.
  • 埼玉大学地域オープンイノベーションセンター               
    久野義徳、小林貴訓
    2010年11月
  • 同伴者に自動併走するロボット車椅子               
    久野義徳、小林貴訓
    2010年09月
  • 同伴者に自動併走するロボット車椅子               
    久野義徳、小林貴訓
    2010年09月
  • 人と共存するサービスロボット               
    久野義徳、小林貴訓
    2010年07月
  • Remote shopping support system               
    小林貴訓
    Workshop "Technology & Social Interaction"にて遠隔買い物支援システムに関しての発表を行った
  • 人と協働する移動ロボットの研究事例               
    小林貴訓
    人と協働するロボット技術研究会にて移動ロボットの研究事例についての講演を行った。
  • 自動運転車椅子のための進路提示手法の検討               
    金田理史
    科学者の芽育成プログラムの担当学生が埼玉大学の代表としてサイエンスカンファレンス2023で発表した
  • 人と協働するロボットの仕組みとその活用               
    小林貴訓
    人と協働するロボット技術研究会にて移動ロボットについての講演とデモを行った。
  • 人と協働するロボットの仕組みとその活用               
    小林貴訓
    埼玉県経営合理化協会にて移動ロボットについての招待講演とデモを行った。
  • ロボットの親しみやすさは何から生まれるのか?               
    中江嘉奈
    科学者の芽育成プログラムの担当学生が埼玉大学の代表としてサイエンスカンファレンス2022で発表した
  • 画像処理とロボットプログラミング               
    小林貴訓, 鈴木亮太
    wise-pサイエンス体験サマースクールにて画像処理とロボットプログラミングの講習会を行った
  • 人と協働するロボットの仕組みとその活用               
    小林貴訓
    埼玉県中小企業団体中央会研究会にて移動ロボットについての招待講演とデモを行った。
  • インタラクティブイルミネーション               
    小林貴訓
    埼玉大学イルミネーションサークル「埼大イルミ」と協働して,インタラクティブなイルミネーションの展示を行った
  • 未来の買い物とエンターテインメント               
    小林貴訓
    イオン北浦和店にて研究展示・デモを行った
  • インタラクティブイルミネーション               
    小林貴訓
    埼玉大学イルミネーションサークル「最大イルミ」と協働して,インタラクティブなイルミネーションの展示を行った.
  • 未来の買い物支援システム               
    小林貴訓
    イオン北浦和店にて研究展示・デモを行った.
  • 未来の買い物とエンターテインメント               
    小林貴訓
    イオン北浦和店にて研究展示・デモを行った.
  • ロボットって何?               
    小林貴訓
    埼玉県立熊谷女子高等学校にて出張講義を行った.
  • 新しく生まれた買い物カート               
    小林貴訓
    音声で操作できる買い物カートを番組で紹介した.
  • 高齢者を支援するロボット買い物カート               
    小林研究室
    彩の国ビジネスアリーナにてロボット買い物カートの展示を行った.
  • インタラクティブイルミネーション               
    小林研究室
    埼玉大学イルミネーションサークル「最大イルミ」と協働して,インタラクティブなイルミネーションの展示を行った.
  • アイドルと繋がるペンライト               
    小林研究室
    彩の国ビジネスアリーナにてペンライトシステムの展示を行った.
  • ロボットの未来を考える               
    小林貴訓
    NPO法人地域人ネットワークさいたま市民対象プログラミング講師養成講座にて講義を行った.
  • ロボットと仲良くなろう               
    小林貴訓
    田地域ケアプラザ・NTTテクノクロス共催「未来をつくるワークショップ」にて講師を担当した.
  • デジタルカメラはどうやって顔を見つけるのか               
    小林貴訓
    NPO法人地域人ネットワークさいたま市民対象プログラミング講師養成講座にて講義を行った.
  • デジタルカメラはどうやって顔を見つけるのか               
    小林貴訓
    埼玉県立熊谷高等学校にて出張講義を行った.
  • ロボット買い物カート               
    小林研究室
    ヨコスカ×スマートモビリティ・チャレンジにて,研究成果である高齢者の買い物を支援するロボット買い物カートの展示とデモを行った.
  • インタラクティブイルミネーション               
    小林研究室
    埼玉大学イルミネーションサークル「最大イルミ」と協働して,インタラクティブなイルミネーションの展示を行った.
  • Jewel☆Neige 特別ミニライブ               
    開発中のシステムの実験のため,実験型ミニライブを行った.
  • テレビ東京「ワールドビジネスサテライト」               
    開発したシステムを番組で紹介した.
  • テレビ神奈川「NEWS930α」               
    ロボットに関する授業が紹介された.
  • NHK WORLD「great gear」               
    開発したシステムを番組で紹介した.
  • テレビ東京「ワールドビジネスサテライト」               
    開発したシステムを番組で紹介した.
  • ロボットに利用できる実用画像処理               
    小林貴訓
    ロボットで利用できる実用的な画像処理技術について講演を行った.
  • 電動車いすロボット化ユニットの開発               
    小林貴訓
    ロボット買い物カートの展示を行った.
  • 人と協調する移動ロボット技術               
    小林貴訓
  • 電動車いすロボット化ユニットの開発               
    小林貴訓
    JST主催の国内最大規模の産学マッチングイベントにて研究成果の発表と展示を行った.
  • 彩の国ビジネスアリーナ2016               
    ロボット買い物カートの展示
  • 彩の国ビジネスアリーナ2016               
    コミュニケーション支援ロボット,ロボット車椅子の展示
  • 国際ロボット展               
    コミュニケーション支援ロボット,ロボット車椅子の展示
  • 介護予防・認知症予防体験フェア2015 in 浦安               
    システムのデモンストレーション
  • 情報学による未来社会のデザイン               
    システムのデモンストレーション
  • 彩の国ビジネスアリーナ2015               
    システムのデモンストレーション
  • 彩の国ビジネスアリーナ2014               
    システムのデモンストレーション
  • 国際画像機器展               
    小林貴訓
    開発したロボット車椅子を展示会で紹介した.
  • コラボさいたま2013               
    小林貴訓
    開発したロボット車椅子を展示会で紹介した.
  • 情報学による未来社会のデザイン               
    小林貴訓
    開発したロボット車椅子を展示会で紹介した.
■ 共同研究・競争的資金等の研究課題
  • 法と医療・ケアの実践的基盤-身体と規範のエスノメソドロジー・会話分析               
    日本学術振興会, 科学研究費助成事業, 基盤研究(A), 2024年04月01日 - 2028年03月31日
    山崎 敬一; 北村 隆憲; 山崎 晶子; 樫田 美雄; 池谷 のぞみ; 堀田 裕子; 河村 裕樹; 小林 貴訓; 樫村 志郎; 高橋 裕; 中村 賢治; 鈴木 亮太; 中空 萌; 中西 英之; 菅野 昌史; 岡沢 亮; 浦野 茂; 大山 善昭; 山田 恵子; 松永 伸太朗; 小林 亜子; 李 英; 石井 秀樹; 大西 真弘, 埼玉大学
    配分額(総額):47970000, 配分額(直接経費):36900000, 配分額(間接経費):11070000
    課題番号:24H00151
  • 超高齢化社会における医療ケアと日常活動の遠隔技術支援の国際比較研究               
    日本学術振興会, 科学研究費助成事業, 国際共同研究加速基金(海外連携研究), 2023年09月08日 - 2026年03月31日
    山崎 敬一; 山崎 晶子; 小林 貴訓; 中村 賢治; 鈴木 亮太; 岡沢 亮; 小林 亜子, 埼玉大学
    配分額(総額):21060000, 配分額(直接経費):16200000, 配分額(間接経費):4860000
    課題番号:23KK0032
  • 分散型環境における開放性と秘匿性が両立した会議空間の社会学的工学的研究               
    日本学術振興会, 科学研究費助成事業 挑戦的研究(萌芽), 挑戦的研究(萌芽), 2022年06月30日 - 2024年03月31日
    山崎 敬一; 山崎 晶子; 久野 義徳; 秋谷 直矩; 小林 貴訓; 陳 怡禎; 浅尾 高行; 中村 賢治; 中西 英之; 福田 悠人; 一ノ瀬 俊也; 小林 亜子; 梅崎 修; 池田 佳子, 埼玉大学
    配分額(総額):6500000, 配分額(直接経費):5000000, 配分額(間接経費):1500000
    課題番号:22K18548
  • 人間とロボットの共生のための社会学的ロボット学               
    日本学術振興会, 科学研究費助成事業, 基盤研究(B), 2020年04月01日 - 2023年03月31日
    山崎 晶子; 坂本 大介; 大澤 博隆; 小林 貴訓; 中西 英之; 山崎 敬一, 東京工科大学
    配分額(総額):17810000, 配分額(直接経費):13700000, 配分額(間接経費):4110000
    課題番号:20H01585
  • 語り・身体・イメージの連関と変容の学際的研究―エスノメディアロジーの構築               
    日本学術振興会, 科学研究費助成事業, 挑戦的研究(萌芽), 2019年06月28日 - 2023年03月31日
    山崎 敬一; 池田 佳子; 小林 貴訓; 山崎 晶子; 辻 絵理子; 佐藤 雅浩; 一ノ瀬 俊也; 是永 論; 小川 豊武; 中西 英之; 小林 亜子; 久野 義徳, 埼玉大学
    配分額(総額):6370000, 配分額(直接経費):4900000, 配分額(間接経費):1470000
    本研究は、語り・イメージ・身体の関係やそのメディアの変容との関係を研究する歴史学者・社会学者と、メディアテクノロジーやロボットと人間の相互行為との関係に関心をもつ情報工学研究者による共同研究である。
    今年度は、オンライン研究会を開催し、テレビやSNSにおける言説の変遷や特徴について議論を交わした。埼玉大学の佐藤雅浩氏は、「大衆的な精神疾患言説の変容に見る近代日本の精神・身体・社会イメージ」というタイトルで研究報告を行った。立教大学の是永論氏と昭和女子大学の小川豊武氏は、「「つながり孤独」を意味づける――若者とSNSの問題を対話型ネットワークがどのように定式化するか」というタイトルでの報告を行なった。また、埼玉大学の研究支援者である宮崎悠二氏は「いかにしてテレビを批判できるのか――大宅壮一「一億総白痴化」論のテクスト実践の分析」というタイトルで報告を行った。いずれも、社会学やメディア史研究の観点から、語り・イメージ・身体の関係に着目し、歴史と現在を横断しつつ、いかにテクノロジーの発展と人間の相互行為を捉えるかについて、今後に繋がる有益な示唆と知見を得ることができた。


    さらに、メディアを介した多人数の身体的相互行為に関する実験データ分析を収録した書籍『埼玉大学教養学部リベラル・アーツ叢書14 観客と共創する芸術Ⅱ』を出版することができた。また、是永氏と小川氏の共同執筆で、報道番組の分析を国際ジャーナルに投稿した。
    課題番号:19K21718
  • 高齢者や故郷を離れた人々の日常性と共在性を支援するシステムの社会学的工学的研究               
    日本学術振興会, 科学研究費助成事業, 基盤研究(A), 2019年04月01日 - 2023年03月31日
    山崎 敬一; 山崎 晶子; 久野 義徳; 樫田 美雄; 児玉 幸子; 秋谷 直矩; 小林 貴訓; 平本 毅; 陳 怡禎; 樫村 志郎; 西澤 弘行; 中西 英之; 福田 悠人; 浦野 茂; 小林 亜子; 梅崎 修; 池田 佳子; 浅尾 高行; 中村 賢治, 埼玉大学
    配分額(総額):45370000, 配分額(直接経費):34900000, 配分額(間接経費):10470000
    本研究は(1)人々の日常性や共在性の研究(2)高齢者の日常性や共在性の支援の研究(3)遠隔システムを中心とした、人々の日常性や共在性の支援の研究、以上3つ の研究を中心とするものである。本研究では、人々の活動の社会学的分析とその活動を支援する工学的システム開発を、社会学者と工学者の共同研究によって実施するものである。
    (1)人々の日常性や共在性の研究に関しては人々の集団での行動場面、特に街歩きの実験と分析を神戸で行った。また、京都での買い物場面の分析を行った。また、海外(カナダ)で行った街歩きデータの分析を行った。更に、デジタルアートの鑑賞場面の分析を行った。
    (2)高齢者の日常性や共在性の支援の研究に関しては、神戸市の高齢者施設で、地元の野球チームとの交流活動の調査や分析を行った。
    (3)遠隔システムを中心とした、人々の日常性や共在性の支援の研究では①高齢者施設からの地元の野球チームの応援実験② ショッピングセンターでの遠隔買い物支援実験③酒蔵を使っての遠隔での鑑賞実験を行った。①に関しては神戸市の高齢者施設から独立リーグに所属する地元の野球チームに対する遠隔の応援実験を
    行った。②に関しては埼玉県のショッピングセンターで、手持ちのカメラと買い物カートに取り付けた360度カメラを使用しての遠隔からの買い物支援の実験を行った。③に関しては埼玉県内の酒蔵を使用してパフォーマンスアートとデジタルアート「新竹取物語」を遠隔及び現地で鑑賞する実験を実施した。
    課題番号:19H00605
  • 多文化社会状況における多人数相互行為の解明に基づく多文化社会対応システムの構築               
    日本学術振興会, 科学研究費助成事業, 国際共同研究加速基金(国際共同研究強化(B)), 2018年10月09日 - 2023年03月31日
    山崎 敬一; 山崎 晶子; 久野 義徳; 細川 道久; 小林 貴訓; 福島 三穂子; 中西 英之; 福田 悠人; 小林 亜子; 池田 佳子, 埼玉大学
    配分額(総額):17940000, 配分額(直接経費):13800000, 配分額(間接経費):4140000
    今年度もパンデミックの影響で海外との渡航が制限されたため、オンラインベースで海外との交流を中心に研究を実施した。
    1) ドイツ、シンガポール、英国、フランス、スイスの研究者を招聘して、国際ワークショップ”Museum, Multimodality and Embodiment, Sociological Robotics”をオンラインにて開催した。海外研究者10名、日本国内研究者は12名が研究を発表した。シンガポールの共同研究者である南洋理工大学のK.K. Luke教授は、”When is ‘Culture’ Relevant in Interaction? - A Case from Singapore”という題名で研究報告を行い、多文化社会における相互行為や会話について議論した。また、英国の共同研究者であるKing's College London のDirk vom Lehn教授は、”Entering ‘Open-Plan’ Gallery Spaces: The Interactive organisation of museum visits”という題名で発表を行い、ミュージアムにおける観賞とガイドの相互行為について研究報告した。そのほかにも、ドイツのデュースブルクエッセン大学のKarola Pitch教授が、遠隔買い物の場面における会話と相互行為の実践について報告をし、日本側の研究者もミュージアム鑑賞や街歩き実験に基づいたエスノメソドロジーの研究成果を共有した。


    2) 英国King's College LondonのDirk vom Lehn教授とフランス・ルーブル美術館ランス別館研究部のMathias Blanc氏とともに、ミュージアムにおける相互的鑑賞の研究成果を書籍にまとめ、埼玉大学教養学部リベラルアーツ叢書(14)『観客と共創する芸術Ⅱ』として出版した。
    課題番号:18KK0053
  • まばたき、まばたかれるロボットの目:まばたきを通じた情動の表現と認識               
    日本学術振興会, 科学研究費助成事業, 挑戦的研究(萌芽), 2017年06月30日 - 2020年03月31日
    久野 義徳; 小林 貴訓; Lam Antony; 福田 悠人, 埼玉大学
    配分額(総額):6500000, 配分額(直接経費):5000000, 配分額(間接経費):1500000
    まばたきはほとんど無意識のうちに行われているが、コミュニケーションの過程との関連が指摘されている。相手の話を理解して聞いているときは、相手のまばたきに同期して聞き手にまばたきが生じる。そこで、人間と円滑にコミュニケーションできるロボットの実現のために、ロボットのまばたきについて検討した。その結果、ロボットが話し手の場合、聞き手の人間は相手が人間のときと同様にまばたきの同期現象を示した。相手のまばたきをカメラ画像から検出して、それに同期してまばたきのできるロボットを開発した。これを用いて、ロボットが聞き手の場合の効果について実験したが、明確な結果は得られなかった。今後さらに検討が必要である。
    課題番号:17K18850
  • 言語・非言語行動の統合オントロジーに基づくサービスロボット               
    日本学術振興会, 科学研究費助成事業, 基盤研究(A), 2014年04月01日 - 2019年03月31日
    久野 義徳; 小林 貴訓; 加地 大介; 福田 悠人; 山崎 敬一, 埼玉大学
    配分額(総額):41730000, 配分額(直接経費):32100000, 配分額(間接経費):9630000
    研究代表者は介護ロボットの実現に向けて、哲学者と共同でオントロジーを用いて対話を通じて物体を認識する研究と、社会学者と共同で人間とロボットの非言語行動を通じたインタラクションについて研究を行ってきた。本研究課題ではこの2つの研究を進展・統合し、物体を指示する人間の多様な言語表現を認識し、また、特定のジェスチャを決めておかなくても自然な動作でロボットを呼ぶことができるロボットを開発した。そして、実際の介護施設で動作試験を行い有用性を確認した。
    課題番号:26240038
  • 認知症高齢者の能動的感情評価・見守りシステム               
    日本学術振興会, 科学研究費助成事業, 挑戦的萌芽研究, 2014年04月01日 - 2017年03月31日
    久野 義徳; 小林 貴訓, 埼玉大学
    配分額(総額):3510000, 配分額(直接経費):2700000, 配分額(間接経費):810000
    独居の認知症高齢者が積極的にコミュニケーションできるようにすることを支援するシステムについて検討した。高齢者宅にあるテレビにPCを接続し、ボタン一つの操作で家族とテレビ電話のできるシステムを開発した。高齢者側には見守りのためのセンサがあり、異常と思われるときには家族に連絡するようになっている。また、高齢者側には小型のロボットが置かれ、家族が応対できないときなどに高齢者と対話する。高齢者の対話の際の映像から表情の認識と心拍数の計測ができる方法を開発した。実験により、これらの情報から高齢者の感情状況の推定ができる見通しを得た。
    課題番号:26540131
  • 複数観測情報の統合に基づく人物行動計測とグループ行動の理解               
    日本学術振興会, 科学研究費助成事業, 基盤研究(C), 2014年04月01日 - 2017年03月31日
    小林 貴訓; 久野 義徳, 埼玉大学
    配分額(総額):4810000, 配分額(直接経費):3700000, 配分額(間接経費):1110000
    レーザ測域センサを用いた、身体の向きを含めた複数人物の実時間追跡を実現した。人物追跡結果のデータからグループ行動を学習し、追跡中の人物グループの識別を可能とした。実際の美術館で実証実験を行い、得られた人物動線に対して、カーネル密度推定を用いた滞留時間分布の視覚化や、鑑賞行動の分類を行った。さらに、スマートフォンに搭載されたジャイロセンサや加速度センサ、地磁気センサから得られる情報を援用することで、追跡中の人物からスマートフォンユーザの同定を可能とした。
    課題番号:26330186
  • サービスロボットのためのオントロジーに基づく対話を援用した統合物体認識               
    日本学術振興会, 科学研究費助成事業, 基盤研究(B), 2011年04月01日 - 2015年03月31日
    久野 義徳; 小林 貴訓; 加地 大介, 埼玉大学
    配分額(総額):15990000, 配分額(直接経費):12300000, 配分額(間接経費):3690000
    頼んだものを取ってきてくれるような介護ロボットの開発を目指している。その実現のためには頼まれた物体を認識する技術が必要だが、実世界のさまざまな状況で物体を確実に認識するのは、まだ困難な状況である。そこで、自動物体認識に失敗した場合には、ユーザにことばにより物体に関する情報(例えば色や形)を教えてもらい認識を行うという対話物体認識に入る統合物体認識を検討した。自然言語では、物体についての表現と、それの示す物理的な属性が1対1に対応するとは限らず複雑である。この関係をオントロジーにまとめ、人間の言語表現を適切に解釈して認識できる枠組を実現した。
    課題番号:23300065
  • 言語的身体的相互行為の多文化エスノグラフィーに基づく身体テクノロジーのデザイン               
    日本学術振興会, 科学研究費助成事業, 基盤研究(A), 2011年04月01日 - 2015年03月31日
    山崎 敬一; 山崎 晶子; 久野 義徳; 池田 佳子; 今井 倫太; 小野 哲雄; 五十嵐 素子; 樫村 志郎; 小林 亜子; 関 由起子; 森本 郁代; バーデルスキー マシュー; 川島 理恵; 中西 英之; 小林 貴訓, 埼玉大学
    配分額(総額):34060000, 配分額(直接経費):26200000, 配分額(間接経費):7860000
    本研究は、人間の言語的・身体的相互行為とそれを支援する身体化されたテクノロジーのデザインに関心を持つ社会学者とロボット工学者の共同研究である。本研究では多文化に対応する身体化されたテクノロジーを開発するために、海外のミュージアム等で研究を行い、そこでの人間同士の言語的・身体的行為をヴィデオエスノグラフィーの手法で分析した。また、日本語話者と英語話者に対する比較ロボット実験と、日本とハワイを結ぶ遠隔ロボット実験を行った。
    課題番号:23252001
  • 複数観測情報の統合による人物行動計測と応用               
    日本学術振興会, 科学研究費助成事業, 若手研究(B), 2012年04月01日 - 2014年03月31日
    小林 貴訓, 埼玉大学
    配分額(総額):4420000, 配分額(直接経費):3400000, 配分額(間接経費):1020000
    ヒューマンロボットインタラクションなどへの応用を想定し,広範な観測領域における,ユーザの注目方向を含む複数人物追跡システムを開発した.本手法では,全方位カメラとレーザ測域センサを組合せた複合センサ系を用い,広い観測領域で人物の位置と見えを捉える.そして,身体の向きや顔向きの推定を含めた,頑健かつ安定な複数人物の検出と追跡を行う.また,人物相互の遮蔽などにより,人物の追跡が中断,再開された場合でも,誰がどう移動したかを対応づけ,観測領域全体を通して,高精度に人物の行動計測を行う.開発したシステムはミュージアムガイドロボットやロボット車椅子に応用し,有効性を確認した.
    課題番号:24700157
  • コミュニケーションのためのロボットの目:外見と機能の総合的デザイン               
    日本学術振興会, 科学研究費助成事業, 挑戦的萌芽研究, 2011年 - 2013年
    久野 義徳; 小林 貴訓; 児玉 幸子; 山崎 敬一; 山崎 晶子, 埼玉大学
    配分額(総額):3640000, 配分額(直接経費):2800000, 配分額(間接経費):840000
    目はものを見るためにあるが、アイコンタクト等の非言語コミュニケーションのためには他者に見せる機能も重要である。また、人間と共存するロボットとの目としては、人間に親しみやすい感じを与えるものが望まれる。そこで、この2点について、レーザプロジェクタにより種々の目の像を投影表示できるロボット頭部を試作し、どのような目の形状がよいかを被験者を用いた実験により調べた。その結果、人間の目の形状程度から、さらに目を丸く、また瞳も大きい形状が、親しみやすく、また視線がどちらを向いているかが読みとりやすいことが分かった。また、目や頭部の動かし方についても調査し、人間に自然に感じられる動かし方を明らかにした。
    課題番号:23650094
  • 博物館における鑑賞と鑑賞支援における社会学的・工学的ヒューマンインタフェース研究               
    日本学術振興会, 科学研究費助成事業, 基盤研究(B), 2009年 - 2012年
    山崎 晶子; 久野 義徳; 小林 貴訓; 池田 佳子; 小野 哲雄; 山崎 敬一; 山崎 敬一, 東京工科大学
    配分額(総額):18850000, 配分額(直接経費):14500000, 配分額(間接経費):4350000
    ミュージアムにおける鑑賞行為の社会学的分析を行い、その知見をもとにデザイン指針を作成し、ミュージアムガイドロボットによる鑑賞支援を行った。日系の展示を中心として多文化環境におけるガイドと複数人の観客との相互行為の分析を行った。この知見をもとに、鑑賞支援ロボットと日本語話者と英語話者に対して質問を行うロボットの研究を行った。
    課題番号:21300316
  • 人間行動の社会学的分析に基づく複数人環境での人間とロボットのインタラクション               
    日本学術振興会, 科学研究費助成事業, 特定領域研究, 2009年 - 2010年
    久野 義徳; 小林 貴訓; 山崎 晶子, 埼玉大学
    配分額(総額):6100000, 配分額(直接経費):6100000
    人間と共生し、人間を支援してくれるサービスロボットには人間と円滑にインタラクションできる機能が必要である。人間同士のインタラクションでは非言語行動が重要な役割を果たしているといわれている。そこで、社会学の方法により人間同士のインタラクションを非言語行動に注目して分析し、そこで得られた知見に基づきロボットを開発し、そしてそのロボットと人間のインタラクションを社会学の方法で分析して有効性や問題を検討した。これまでの人間とロボットのインタラクション研究では対話の相手が決まっていることが多かったが、ここではあらかじめ相手の決まっていない複数人環境の中で、複数人への対応も含めて検討した。実際には、複数人の人を集めて、それらの人を引き付けて説明のできるミュージアムガイドロボットと、複数人環境でサービスを求める人を見つけて支援を行う介護ロボットを開発した。
    人間のガイドは聞き手を引き付けるために質問をよく用いる。その際質問をしながら聞き手を見回し、うなずいたり自分と目を合わせたりする人を選んで質問を行う。目をそらすような人は答えたくない人と思って質問しない。これと同様に聞き手の様子を観察しながら質問相手を選択できるロボットを開発した。実際にJICA横浜海外移住資料館で実験を行い、適切な相手に質問できることを確認した。
    通所の高齢者介護施設では、担当の介護者が特に決まっていない。そこで、用のある高齢者は適当な介護者を選んで依頼をする。その際、複数の高齢者が近い時間に1人の介護者を呼ぶことがある。そのような場合、介護者はすぐに対応できない相手にも視線を向けたりすることで依頼の要求を理解したことを伝えている。そこで、同様の行動ができるロボットを開発し、被験者を用いた実験を行った。その結果、このような行動を示すことにより要求が伝わったことが分かり、自分の番まで不安なく待てることが分かった。
    課題番号:21013009
  • 人間の物体・空間表現の分析に基づく対話を援用した統合物体認識               
    日本学術振興会, 科学研究費助成事業, 基盤研究(B), 2007年 - 2010年
    久野 義徳; 小林 貴訓; 山崎 敬一; 山崎 敬一, 埼玉大学
    配分額(総額):17550000, 配分額(直接経費):13500000, 配分額(間接経費):4050000
    サービスロボットが作業を行うためには、対象となる物体を複雑な環境の中で認識できなければならない。物体認識の研究は進んできてはいるが、まだ自動で確実に認識することは難しい。そこで、自動で認識できないときには人間に対象物体がどういう物体かを聞く対話物体認識を検討した。このシステムでは物体の色や物体間の位置関係を人間に聞くことで認識を可能にする。実際にシステムを開発し、実験により有効性を確認した。
    課題番号:19300055
  • 複数識別器の時空間的統合利用に基づく人物頭部向きの計測と人物相互関係の理解               
    日本学術振興会, 科学研究費助成事業, 若手研究(B), 2008年 - 2009年
    小林 貴訓, 埼玉大学
    配分額(総額):4290000, 配分額(直接経費):3300000, 配分額(間接経費):990000
    本研究では,カメラとレーザ測域センサと組合せた,頭部向きの計測を含む,人物行動計測手法を確立した.具体的には,レーザ測域センサを人の肩の高さ付近に設置し,人物の位置と身体の向きを計測する.同時に,レーザ測域センサの上部に設置した全方位カメラで人物の頭部の位置と向きの計測を行う.一般にミラー式全方位カメラでは,広範囲を観察できる半面,画像の解像度は低いが,レーザ測域センサと組合せ,身体の向きとの相互関係を考慮することで,低解像度で頭部が観察される場合でも,頭部の追跡や向きの計測が可能となった.開発した手法を美術館で絵の説明をするガイドロボットなどに応用し,その有効性を確認した.
    課題番号:20700152
  • ヒューマンケアにおける相互行為の社会学的分析に基づく支援システムの研究               
    日本学術振興会, 科学研究費助成事業, 基盤研究(A), 2007年 - 2009年
    山崎 敬一; 久野 義徳; 葛岡 英明; 山田 洋子; 五十嵐 素子; 小林 亜子; 山崎 晶子; 井田 靖子; 伊藤 博明; 綿貫 啓一; 行岡 哲男; 川島 理恵; 小林 貴訓; 秋谷 直矩, 埼玉大学
    配分額(総額):29380000, 配分額(直接経費):22600000, 配分額(間接経費):6780000
    この研究は、高齢者施設、保育園、ミュージアムでの鑑賞支援場面等のさまざまなヒューマンケアの場面を、撮影されたビデオデータを用いて、社会学の中で生まれたエスノメソドロジーの手法で分析し、その分析結果からさまざまな人間支援システムの開発を行おうというものである。高齢者施設の研究からは、車いすロボットを、ミュージアムの鑑賞支援場面の研究からは、ミュージアムガイドロボットを開発した。
    課題番号:19203025
  • 予期的行為の相互参照を通じた介護場面におけるロボットの依頼理解               
    日本学術振興会, 科学研究費助成事業, 特定領域研究, 2007年 - 2008年
    久野 義徳; 小林 貴訓; 山崎 晶子; 山崎 敬一, 埼玉大学
    配分額(総額):6800000, 配分額(直接経費):6800000
    高齢化社会をむかえ介護が大きな問題になってきている。介護を受ける高齢者や身体の不自由な方は、IT機器の操作にも困難を覚える場合が多い。機器の操作というのは、基本的には機器にしてもらいたいことを伝える依頼である。一方、介護場面においては介護者に対して、あまり言葉を用いなくても依頼ができているように思われる。これまでの介護施設での観察により、介護場面ではことば以外の行動で意図を伝達する場合が多いことを確認している。ただし、その伝達は介護者が被介護者の行動を見るという一方的なものではなく、介護者と被介護者による協同的なもの、すなわち双方の予期的な調整行為の相互参照によることがわかってきた。本研究では、このような人間同士の円滑な依頼の伝達法を実際の高齢者介護施設における調査により明らかにし、そこで得られた知見をもとにロボットシステムを開発する。そして、このようなロボットに対して人間がどのように反応するか検討し、このような協同的な作業が人間とロボットの間でも有効かどうかを明らかにする。
    昨年度に行った高齢者介護施設での依頼の開始場面の分析から、高齢者から依頼のしやすいロボットを実現するためには、高齢者の非言語行動を認識するとともに、それに応じて非言語行動により対応可能性や受け手性を示さなければならないことがわかった。そこで、これらの行動を示すことのできる基礎実験用ロボットを開発した。そして、被験者を用いた実験で、このような行動を示すロボットが人間に親近感や安心感を与えることを明らかにした。その結果に基づき、実際の高齢者介護施設で評価実験の行えるロボットを設計した。そのロボットについては、現在、製作を進めている途中である。今後、このロボットを完成し、実際の介護施設で実験を行う予定である。
    課題番号:19024013
  • 使用者が自立的に見えるロボット車椅子               
    日本学術振興会, 科学研究費助成事業, 萌芽研究, 2006年 - 2008年
    久野 義徳; 小林 貴訓; 山崎 敬一, 埼玉大学
    配分額(総額):3200000, 配分額(直接経費):3200000
    安全で使いやすい車椅子として知的車椅子/ロボット車椅子といわれるものの研究が盛んになっている。しかし、これまでの研究では、使用者や周囲の人の物理的な負担を減らすことしか考えられていなかった。車椅子としては、このような物理的な負担の低減に加え、使用者と周囲の人の心理的障壁を減らし、身体の不自由な人が積極的に外出したくなるようにすることも重要である。本課題では、この心理的障壁の低減の試みとして、利用者の物理的負担の少ない形で、他人から自立的に行動しているように見える車椅子の実現を目指して研究を行った。
    車椅子使用者と介護者が一緒に出かけるとき、多くの場合は介護者が車椅子の後ろに立つような形になる。しかし、これでは介護者が後ろから見守って介護しているという感じであまり自立的に見えないと思われる。そこで、介護者が車椅子の横にいて、介護者と車椅子使用者が横に並んで話しているような状況を作り出すこと考えた。すなわち、横にいる介護者に自動的に追随する車椅子を開発した。車椅子は介護者の位置と身体の向きをレンジセンサと全方位カメラのデータから求め、介護者が車椅子のいる方向へ曲がる場合の追随も適切に行えるようにした。さらに、美術館などで車椅子使用者が友達と作品を一緒に語り合いながら見て回るという状況を考え、車椅子使用者が細かい操作をすることなく、2人で絵を見るときは絵の見やすい位置に動き、移動するときは介護者の横について動くなどの状況にあった動きのできる車椅子を実現した。
    介護者が車椅子の後ろにいる場合と横にいる場合に2人の関係がどう見えるかを103人にビデオ映像を見せて質問紙法により調べたところ、横にいる方 が話しやすそうで親近感がありそうという結果が得られた。さらに検討は必要だが、提案の車椅子の有望性が確認できた。
    課題番号:18650043
  • -               
    競争的資金
  • -               
    競争的資金
  • グループコミュニケーションの解明に基づく車椅子型移動ロボットシステムの開発               
  • 生活支援ロボットプロジェクト               
  • グループコミュニケーションを支援する複数ロボット車椅子システム               
    研究成果最適展開支援プログラムA-STEP
■ 社会貢献活動
  • WISE-Pサマーセミナー               
    講師, 実演
    埼玉大学, 2025年08月24日
  • WISE-Pラボ訪問               
    講師, 実演
    埼玉大学, 2025年03月20日
  • 人と協働する移動ロボット研究会               
    司会, 企画, 運営参加・支援, 報告書執筆
    埼玉大学, 2025年02月28日
  • JSTさくらハイスクールプログラム               
    司会, 運営参加・支援, 実演
    埼玉大学, JSTさくらハイスクールプログラム, 2024年11月12日
TOP