SUCRA検索
  
     詳細検索
インデックスツリー

詳細



閲覧数:1797
ID KK000460
アイテムタイプ Article
このアイテムを表示する
本文 KK000460.pdf
Type : application/pdf Download
Size : 662.6 KB
Last updated : Jul 25, 2008
Downloads : 457

Total downloads since Jul 24, 2008 : 460
タイトル 視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション[概要・文献リスト]
別タイトル
Human-Robot Communication through Visual Information in Face-to-Face and Network Modes[Summary]
著者
久野, 義徳 (Kuno, Yoshinori)
埼玉大学大学院理工学研究科数理電子情報部門 (Graduate School of Science and Engineering, Saitama University)
[役割]研究代表者
山崎, 敬一 (Yamazaki, Keiichi)
埼玉大学教養学部 (Faculty of Liberal Arts, Saitama University)
[役割]研究分担者
小林, 貴訓 (Kobayashi, Yoshinori)
埼玉大学大学院理工学研究科 (Graduate School of Science and Engineering, Saitama University)
[役割]研究分担者
葛岡, 英明 (Kuzuoka, Hideaki)
筑波大学大学院システム情報工学研究科 (Graduate School of Systems and Information Engineering, University of Tsukuba)
[役割]研究分担者
山崎, 晶子 (Yamazaki, Akiko)
公立はこだて未来大学システム情報科学部 (School of Systems Information Science, Future University-Hakodate)
[役割]研究分担者
山本, 敏雄 (Yamamoto, Toshio)
公立はこだて未来大学システム情報科学部 (School of Systems Information Science, Future University-Hakodate)
[役割]研究協力者
中村, 明生 (Nakamura, Akio)
東京電機大学未来科学部 (School of Science and Technology for Future Life, Tokyo Denki University)
[役割]研究協力者
川島, 理恵 (Kawashima, Michie)
[役割]研究員
Matthew, Burdelski (Burdelski, Matthew)
[役割]研究員
鶴田, 幸恵 (Tsuruta, Sachi)
[役割]研究補助員
三橋, 浩次 (Mitsuhashi, Koji)
[役割]研究補助員
日付
出版年: 2008 - 2008
作成日
更新日
上位タイトル
総務省戦略的情報通信研究開発推進制度(SCOPE)特定領域重点型研究開発次世代ヒューマンインタフェース・コンテンツ技術 研究成果報告書 Vol.平成17-19年度, (2008. 3)
識別番号
その他
SCOPE: 051303007
抄録 対面対話では視覚で互いに相手や周囲の状況がわかっているので、簡単な言葉で意思の伝達ができる。本研究ではロボットにこの機能を持たせることを目指して研究を行った。そのために、社会学の会話分析・相互行為分析の手法により人間の会話内容と視覚情報の関係を明らかにし、コミュニケーションに必要な視覚情報の認識と提示について研究した。さらに、この機能をネットワークを通じてロボットと対話したり、ロボットを通じてその周囲の人と対話する場合にも拡張した。具体的には、以下の3項目について研究開発を行った。
1) 対話を通じて物体を認識する方法。(物体認識)
2) 介護場面で人間が依頼をしやすいように行動した上で、依頼をしたい人を見つけ依頼を受け付ける方法。(介護ロボット)
3) 対面コミュニケーション、ネットワークを通じての遠隔地にいる人間とロボットのコミュニエーション、ロボットを媒介にしてネットワークの両側にいる人間同士のコミュニケーションの3つのコミュニケーションのできるミュージアムガイドロボット。(ガイドロボット)

In most contexts of face-to-face interaction, humans carry out relatively smooth communication because they have the ability to obtain information on actions and situations based on the visual field. The purpose of this research project is to develop a visual system in robots that can facilitate smooth human-robot communication within a variety of contexts. We have engaged in three main lines of research and development. First, we have employed the methods of conversation/interaction analysis to examine the relationship between the visual field and verbal language in human-human interaction. Second, we have analyzed ways that robots can obtain pertinent information from the visual field, and also how they can display proper actions to humans in face-to-face interaction. Third, we have extended these techniques to network robots in order to allow a specialist to communicate with the robot and users. In particular, our research has developed robot systems that have the potential to do the following:
i. Recognize objects through interaction with human users (Object Recognition).
ii. Behave in ways that humans can easily make requests for assistance, and respond to such requests through non-verbal actions (Assisted-Care Robot).
iii. Communicate in three modes (Guide Robot):
1) autonomous: engage in face-to-face interaction with users,
2) remote-control: in cases when a visitor poses a question, the robot switches to remote-control mode in which an off-site specialist answers the visitor's question(s). The robot communicates with the co-present visitors (via the specialist and network) using verbal language, head, and hand motions,
3) remote-interactive: communicate with a specialist who directs the robot what to do in order to facilitate interaction with users in the robot's vicinity through a network.
言語
jpn
eng
資源タイプ text
ジャンル Research Paper
Index
/ Public / 埼玉大学 / 理工学研究科
/ Public / 埼玉大学 / 理工学研究科 / 数理電子情報部門
/ Public / 主題別 / 総合領域 / 情報学 / 知覚情報処理・知能ロボティクス
/ Public / ジャンル別 / 研究報告書 / 埼玉大学 / その他
関連アイテム


メインメニュー
SUCRAについて
リンク
SUCRAログイン
ユーザ名

パスワード