ジャーナル論文

  1. 曽 傑, 中野 有紀子, 坂戸 達陽, 意味内容に基づくインタビュアー応答生成モデルの作成と評価, 人工知能学会論文誌, 2024, 39 巻, 3 号, p. IDS6-A_1-15, 公開日 2024/05/01, Online ISSN 1346-8030, Print ISSN 1346-0714, https://doi.org/10.1527/tjsai.39-3_IDS6-A, https://www.jstage.jst.go.jp/article/tjsai/39/3/39_39-3_IDS6-A/_article/-char/ja
  2. Yukiko I. Nakano, Fumio Nihei, Ryo Ishii, Ryuichiro Higashinaka, Selecting Iconic Gesture Forms Based on Typical Entity Images, Journal of Information Processing, 2024, Volume 32, Pages 196-205, Released on J-STAGE February 15, 2024, Online ISSN 1882-6652, https://doi.org/10.2197/ipsjjip.32.196
  3. Atsushi Ito, Yukiko I. Nakano, Fumio Nihei, Tatsuya Sakato, Ryo Ishii, Atsushi Fukayama, Takao Nakamura, Estimating and Visualizing Persuasiveness of Participants in Group Discussions, Journal of Information Processing, 2023, 31 巻, p. 34-44, 公開日 2023/02/15
  4. Mawalim, C.O., Okada, S., Nakano, Y.I. et al. Personality trait estimation in group discussions using multimodal analysis and speaker embedding. J Multimodal User Interfaces, Volume 17, pages 47–63, 2023. https://doi.org/10.1007/s12193-023-00401-0
  5. 曽 傑, 中野 有紀子, 知識と話題の埋め込み表現に基づく質問生成と対話システムへの適用―料理嗜好インタビューシステムに向けて―, 自然言語処理, 2021, 28 巻, 2 号, p. 598-631, 公開日 2021/06/15, Online ISSN 2185-8314, Print ISSN 1340-7619, https://doi.org/10.5715/jnlp.28.598, https://www.jstage.jst.go.jp/article/jnlp/28/2/28_598/_article/-char/ja
  6. 中野 有紀子, 大山 真央, 二瓶 芙巳雄, 東中 竜一郎, 石井 亮, 性格特性を表現するエージェントジェスチャの生成, ヒューマンインタフェース学会論文誌, 2021, 23 巻, 2 号, p. 153-164, 公開日 2021/05/25, Online ISSN 2186-8271, Print ISSN 1344-7262, https://doi.org/10.11184/his.23.2_153
  7. Candy Olivia Mawalim, Shogo Okada,Yukiko I. Nakano: Task-Independent Recognition of Communication Skills in Group Interaction Using Time-Series Modeling. ACM Transactions on. Multimedia Computing, Communications, and Applications (TOMM), Volume 17, Issue 4, Article No.: 122, November 2021.
  8. 二瓶芙巳雄; 田口和佳奈; 中野有紀子; 深澤伸一; 赤津裕子 多人数遠隔コミュニケーションにおける肯定的感情表出支援の効果と支援適用タイミングの決定. 情報処理学会論文誌,Vol.62, No.2, pp. 761-771, 2021.2.15.
  9. 二瓶 芙巳雄, 中野 有紀子, マルチモーダル情報に基づく重要発言推定モデルを搭載した議論要約ブラウザの有効性の検証, ヒューマンインタフェース学会論文誌, 2020, 22 巻, 2 号, p. 137-150
  10. Nihei, F.; Nakano, Y.I. Exploring Methods for Predicting Important Utterances Contributing to Meeting Summarization. Multimodal Technologies Interact. 2019, 3(3), 50.
  11. 二瓶 芙巳雄,中野 有紀子,高瀬 裕:言語・非言語情報に基づく議論要約のための重要発言推定,電子情報通信学会論文誌 A, J102-A, No.2, pp.35-47, Feb. 2019.
  12. 高瀬 裕,吉野 尭,中野 有紀子:多人数会話における調整・介入機能を有する対話ロボット, 情報処理学会論文誌, 58(5), 967-980, 2017.
  13. 二瓶 芙巳雄,高瀬 裕,中野 有紀子:非言語情報に基づくグループ議論における重要発言の推定-グループ議論の要約生成に向けて-,電子情報通信学会論文誌 A, Vol.J100-A, No.1, Jan. 2017.
  14. 二瓶 芙巳雄,高瀬 裕,中野 有紀子:非言語情報に基づくグループ議論における重要発言の推定-グループ議論の要約生成に向けて-,電子情報通信学会論文誌 A, Vol.J100-A, No.1, Jan. 2017 (採録決定).
  15. 岡田将吾, 松儀良広, 中野有紀子, 林佑樹, 黄宏軒, 高瀬裕, 新田克己:マルチモーダル情報に基づくグループ会話におけるコミュニケーション能力の推定,『人工知能学会設立30周年記念論文特集』人工知能学会創設30周年記念特集論文最優秀賞, Vol.31, No.6, pp.1-12. (Nov. 2016).
  16. Yukiko I. Nakano, Takashi Yoshino, Misato Yatsushiro, and Yutaka Takase. Generating Robot Gaze on the Basis of Participation Roles and Dominance Estimation in Multiparty Interaction. ACM Transactions on Interactive Intelligent Systems. – Regular Articles and Special issue on New Directions in Eye Gaze for Interactive Intelligent Systems (Part 1 of 2), Volume 5 Issue 4, Article No. 22, January 2016. DOI=http://dx.doi.org/10.1145/2743028
  17. 石井亮,小澤史朗,小島明,大塚和弘,林佑樹,中野有紀子:3次元空間を重畳する鏡インタフェースMIOSSの提案と評価, ヒューマンインタフェース学会論文誌, Vol.17, No.3, pp. 255-264, 2015.
  18. 高瀬裕,三武裕玄,長谷川晶一,中野有紀子:環境音の音場操作を用いた方向情報提示:感覚刺激の低減による聴覚ディスプレイ, ヒューマンインタフェース学会論文誌, Vol.17, No.2, pp. 179-190, 2015.
  19. 林 佑樹,二瓶 芙巳雄,中野 有紀子,黄 宏軒,岡田 将吾:グループディスカッションコーパスの構築および性格特性との関連性の分析,情報処理学会論文誌,Vol.56, No.4, pp. 1217-1227, 2015.
  20. 林佑樹,小川裕史,中野有紀子:「協調学習における非言語情報に基づく学習態度の可視化」,情報処理学会論文誌 特集号 『社会活動に協調する技術とネットワークサービス』, Vol.55, No.1, 2014.
  21. 中野有紀子,馬場直哉,黄宏軒,林佑樹:「非言語情報に基づく受話者推定機構を用いた多人数会話システム」,人工知能学会論文誌 特集号『知的対話システム』, Vol.29, No.1, 2014.
  22. 石井亮,小澤史朗,川村春美,小島明,中野 有紀子:「窓越しインタフェースMoPaCoによる指示作業への効果検証」,電子情報通信学会論文誌 D, Vol.J96-D, No.12, pp. 3044-3054, 2013.
  23. Birgit Endrass, Elisabeth André, Matthias Rehm, Yukiko Nakano, Investigating culture-related aspects of behavior for virtual characters, Autonomous Agents and Multi-Agent Systems, September 2013, Volume 27, Issue 2, pp 277-304, 2013.
  24. Ryo Ishii, Yukiko, I. Nakano, Toyoaki Nishida, “Gaze Awareness in Conversational Agents: Estimating User’s Conversational Engagement using Eye-gaze”, The ACM Transactions on Interactive Intelligent System, Special issue on interaction with smart objects, Special section on eye gaze and conversation archive, Volume 3 Issue 2, July 2013.
  25. 馬場直哉,黄宏軒,中野有紀子,人対会話エージェントとの多人数会話における頭部方向と音声情報を用いた受話者推定機構,人工知能学会論文誌, Vol.28, No.2, pp.149-159, 2013.
  26. 石井亮, 小澤史朗, 川村春美, 小島明, 中野有紀子, 映像コミュニケーションにおける窓越しインタフェースMoPaCoによるテレプレゼンスの増強, 電子情報通信学会論文誌 D, Vol.J96-D, No.1, pp.110-119, 2013.
  27. 塚本剛生,中野有紀子,メタバースにおける言語・空間情報に基づくアバタへの道案内ジェスチャの自動付与,日本バーチャルリアリティ学会論文誌 17(2), pp.79-89, 2012.
  28. 石井亮,大古亮太,中野有紀子,西田豊明.視線と頭部動作に基づくユーザの会話参加態度の推定,情報処理学会論文誌, Vol. 52, No. 12, pp.3625-3636, 2011.
  29. Afia Akhter Lipi, Yukiko Nakano and Mathias Rehm., Culture and Social Relationship as Factors of Affecting Communicative Non-verbal Behaviors, 人工知能学会論文誌, Vol.25, No.6, pp.712-722, 2010.
  30. Rehm, M. Nakano, Y. Andre, E. Nishida, T. Bee, N. Endrass, B., Wissner, M. Lip,i A. A., Huang, H.-H., “From observation to simulation: generating culture-specific behavior for interactive systems,” AI & Society, vol. 24, no. 3, pp.267-280 2009.
  31. Huang, H.H., Cerekovic, A., Pandzic, I., Nakano, Y., and Nishida, T.: Toward a Multi-culture Adaptive Virtual Tour Guide Agent with a Modularized Approach, AI & Society Journal of Knowledge, Culture and Communication, Vol. 24, No. 3, pp.225-235, Springer Press, October 2009.
  32. 石井亮,中野有紀子:ユーザの注視行動に基づく会話参加態度の推定-会話エージェントにおける適応的会話制御に向けて-, 情報処理学会論文誌 , Vol.49, No.12, pp.3835-3846, 2008.
  33. 榎本美香,中野有紀子:人-人,人-ヒューマンエージェントの社会的インタラクションにおける言語・非言語行為の配置規則,日本知能情報ファジィ学会誌 , Vol.20, No.4, pp.540-556, 2008.
  34. Hung-Hsuan Huang, Kateryna Tarasenko, Toyoaki Nishida, Aleksandra Cerekovic, Vjekoslav Levacic, Goranka Zoric, Igor S. Pandzic, and Yukiko Nakano, An Agent Based Multicultural Tour Guide System with Nonverbal User Interface, the International Journal on Multimodal Interfaces, Vol.1 No.1, pp.41-48, Springer Press, April 2008.
  35. Huang, H., Cerekovic, A., Tarasenko, K., Levacic, V., Zoric, G., Pandzic, I., Nakano, Y., and Nishida, T.: Integrating Embodied Conversational Agent Components with a Generic Framework, Multiagent and Grid Systems, Vol.4, No.4, pp.371-386, IOS Press, 2008.

国際会議論文

  1. Kalin Stefanov, Yukiko I. Nakano, Chisa Kobayashi, Ibuki Hoshina, Tatsuya Sakato, Fumio Nihei, Chihiro Takayama, Ryo Ishii, and Masatsugu Tsujii. 2024. Participation Role-Driven Engagement Estimation of ASD Individuals in Neurodiverse Group Discussions. In Proceedings of the 26th International Conference on Multimodal Interaction (ICMI ’24). Association for Computing Machinery, New York, NY, USA, 556–564. https://doi.org/10.1145/3678957.3685721
  2. Jie Zeng, Yoshiki Takahashi, Yukiko I. Nakano, Tatsuya Sakato, and Hannes Högni Vilhjálmsson. 2024. Modifying Gesture Style with Impression Words. In Proceedings of the 24th ACM International Conference on Intelligent Virtual Agents (IVA ’24). Association for Computing Machinery, New York, NY, USA, Article 15, 1–9. https://doi.org/10.1145/3652988.3673931
  3. Jie Zeng, Yukiko Nakano, and Tatsuya Sakato. Question Generation to Elicit Users’ Food Preferences by Considering the Semantic Content. In Proceedings of the 24th Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pages 190–196, Prague, Czechia. Association for Computational Linguistics, 2023..
  4. Nihei, F., Ishii, R., Nakano, Y.I., Fukayama, A. and Nakamura, T. 2023. Whether Contribution of Features Differ Between Video-Mediated and In-Person Meetings in Important Utterance Estimation. ICASSP 2023 – 2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (2023), 1–5.
  5. Jie Zeng, Tatsuya Sakato, and Yukiko I. Nakano. Semantic Content Prediction for Generating Interviewing Dialogues to Elicit Users’ Food Preferences. In Proceedings of the Second Workshop on When Creative AI Meets Conversational AI, in the 29th International Conference on Computational Linguistics (COLING2022), pp. 45-58, 2022.10.
  6. Yukiko I. Nakano, Eri Hirose, Tatsuya Sakato, Shogo Okada, and Jean-Claude Martin. 2022. Detecting Change Talk in Motivational Interviewing using Verbal and Facial Information. In Proceedings of the 2022 International Conference on Multimodal Interaction (ICMI ’22). Association for Computing Machinery, New York, NY, USA, 5–14. https://doi.org/10.1145/3536221.3556607 [Best Paper Award Runner-up]
  7. Nihei, F., Ishii, R., Nakano, Y., Nishida, K., Masumura, R., Fukayama, A., Nakamura, T. (2022) Dialogue Acts Aided Important Utterance Detection Based on Multiparty and Multimodal Information. Proc. Interspeech 2022, 1086-1090, doi: 10.21437/Interspeech.2022-324
  8. Atsushi Ito, Yukiko I. Nakano, Fumio Nihei, Tatsuya Sakato, Ryo Ishii, Atsushi Fukayama, and Takao Nakamura. 2022. Predicting Persuasiveness of Participants in Multiparty Conversations. In 27th International Conference on Intelligent User Interfaces (IUI ’22 Companion). Association for Computing Machinery, New York, NY, USA, 85–88. DOI:https://doi.org/10.1145/3490100.3516466
  9. Fumio Nihei and Yukiko I. Nakano. 2021. Web-ECA: A Web-based ECA Platform. Proceedings of the 2021 International Conference on Multimodal Interaction. Association for Computing Machinery, New York, NY, USA, 835–836. DOI:https://doi.org/10.1145/3462244.3481302
  10. Ryosuke Ueno, Yukiko I. Nakano, Jie Zeng, and Fumio Nihei. 2020. Estimating the Intensity of Facial Expressions Accompanying Feedback Responses in Multiparty Video-Mediated Communication. In Proceedings of the 2020 International Conference on Multimodal Interaction (ICMI ’20). Association for Computing Machinery, New York, NY, USA, 144–152. DOI:https://doi.org/10.1145/3382507.3418878
  11. Ryo Ishii, Chaitanya Ahuja, Yukiko I. Nakano, and Louis-Philippe Morency. 2020. Impact of Personality on Nonverbal Behavior Generation. In Proceedings of the 20th ACM International Conference on Intelligent Virtual Agents (IVA ’20). Association for Computing Machinery, New York, NY, USA, Article 29, 1–8. DOI:https://doi.org/10.1145/3383652.3423908
  12. C. Ahuja, D. W. Lee, Y. I. Nakano, and L.-P. Morency, “Style transfer for co-speech gesture animation: A multi-speaker conditional mixture approach,” ECCV, 2020.
  13. Jie Zeng and Yukiko I. Nakano: Exploiting a Large-scale Knowledge Graph for Question Generation in Food Preference Interview Systems, In Proceedings of the 25th International Conference on Intelligent User Interfaces Companion (ACM IUI’20 Companion), March 17–20, 2020, Cagliari, Italy.
  14. Fumio Nihei and Yukiko I. Nakano: A Multimodal Meeting Browser that Implements an Important Utterance Detection Model based on Multimodal Information, In Proceedings of the 25th International Conference on Intelligent User Interfaces Companion (ACM IUI’20 Companion), March 17–20, 2020, Cagliari, Italy.
  15. Fumio Nihei, Yukiko I. Nakano, Ryuichiro Higashinaka, Ryo Ishii: Determining Iconic Gesture Forms based on Entity Image Representation. ICMI 2019: 419-425
  16. Candy Olivia Mawalim, Shogo Okada, Yukiko I. Nakano, Masashi Unoki: Multimodal BigFive Personality Trait Analysis Using Communication Skill Indices and Multiple Discussion Types Dataset. HCI (13) 2019: 370-383
  17. Shinichi Fukasawa, Hiroko Akatsu, Wakana Taguchi, Fumio Nihei, Yukiko I. Nakano: Presenting Low-Accuracy Information of Emotion Recognition Enhances Human Awareness Performance. HCI (4) 2019: 415-424
  18. Wakana Taguchi, Fumio Nihei, Yutaka Takase, Yukiko I. Nakano, Shinichi Fukasawa, and Hiroko Akatsu. 2018. Effects of face and voice deformation on participant emotion in video-mediated communication. In Proceedings of the 20th International Conference on Multimodal Interaction: Adjunct (ICMI ’18). ACM, New York, NY, USA, Article 8, 5 pages, 2018. DOI: https://doi.org/10.1145/3281151.3281159
  19. Fumio Nihei, Yukiko Nakano and Yutaka Takase, Fusing Verbal and Nonverbal Information for Extractive Meeting Summarization, In ICMI2018 Workshops, Workshop on Group Interaction Frontiers in Technology (GIFT 2018), 2018.
  20. Jie Zeng, Yukiko I. Nakano, Takeshi Morita, Ichiro Kobayashi, Takahira Yamaguchi, Eliciting User Food Preferences in terms of Taste and Texture in Spoken Dialogue Systems, In ICMI2018 Workshops, The 3rd International Workshop on Multi-sensorial Approaches to Human-Food Interaction (MHFI 2018), 2018.
  21. Ken Tomiyama, Fumio Nihei, Yukiko Nakano, Yutaka Takase. Identifying Discourse Boundaries in Group Discussions using a Multimodal Embedding Space. In Joint Proceedings of the ACM IUI 2018 Workshops, Symbiotic Interaction and Harmonious Collaboration for Wisdom Computing (SymCollab), 2018.
  22. Ken Tomiyama, Fumio Nihei, Yukiko Nakano, Yutaka Takase. Identifying Discourse Boundaries in Group Discussions using a Multimodal Embedding Space. In Joint Proceedings of the ACM IUI 2018 Workshops, Symbiotic Interaction and Harmonious Collaboration for Wisdom Computing (SymCollab), 2018.
  23. Fumio Nihei, Yukiko I. Nakano, and Yutaka Takase. Predicting meeting extracts in group discussions using multimodal convolutional neural networks. In Proceedings of the 19th ACM International Conference on Multimodal Interaction (ICMI 2017). ACM, New York, NY, USA, pp. 421-425, 2017.
  24. DOI: https://doi.org/10.1145/3136755.3136803
  25. Rurika Shimizu,Yutaka Takase,Yukiko I Nakano: Audio Based Group Conversation Support System, ACM UbiComp2017, extend abstract (2017)
  26. Shogo Okada, Yoshihiko Ohtake, Yukiko I. Nakano, Yuki Hayashi, Hung-Hsuan Huang, Yutaka Takase, and Katsumi Nitta: Estimating Communication Skills using Dialogue Acts and Nonverbal Features in Multiple Discussion Datasets, 18th ACM International Conference on Multimodal Interaction (ICMI2016), pp. 169-176, 2016.
  27. Fumio Nihei, Yukiko I. Nakano, and Yutaka Takase: Meeting Extracts for Discussion Summarization Based on Multimodal Nonverbal Information, 18th ACM International Conference on Multimodal Interaction (ICMI2016), pp. 185-192, 2016.
  28. Vrzakova, H., Bednarik, R., Nakano, Y., Nihei, F.: Speakers’ head and gaze dynamics weakly correlate in group conversation Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications, pp. 77-84, ACM, 2016. http://dx.doi.org/10.1145/2857491.2857522
  29. Toshiki Yamanaka,Yutaka Takase, and Yukiko I. Nakano. Assessing the Communication Attitude of the Elderly using Prosodic Information and Head Motions. In Proceedings of the 11th Annual ACM/IEEE International Conference on Human-Robot Interaction Extended Abstracts (HRI’16 Extended Abstracts). ACM, New York, NY, USA.
  30. Yuki Kadono, Yutaka Takase, and Yukiko I. Nakano. Generating Iconic Gestures based on Graphic Data Analysis and Clustering. In Proceedings of the 11th Annual ACM/IEEE International Conference on Human-Robot Interaction Extended Abstracts (HRI’16 Extended Abstracts). ACM, New York, NY, USA.
  31. Rintaro Manabe, Yutaka Takase, and Yukiko I. Nakano. User Modeling and Reception Interaction by Service Robots. HRI2016 workshop on the challenge (not) to go wild! Challenges and best practices to study HRI in natural interaction settings. March 7, 2016, New Zealand.
  32. Yukiko I. Nakano, Sakiko Nihonyanagi, Yutaka Takase, Yuki Hayashi, and Shogo Okada. Predicting Participation Styles using Co-occurrence Patterns of Nonverbal Behaviors in Collaborative Learning, 17th ACM International Conference on Multimodal Interaction (ICMI2015), pp. 91-98, 2015.
  33. Ryo Ishii, Shiro Ozawa, Akira Kojima, Kazuhiro Otsuka, Yuki Hayashi, Yukiko I. Nakano, “Design and Evaluation of Mirror Interface MIOSS to Overlay Remote 3D Spaces”, The 15th IFIP TC.13 International Conference on Human-Computer Interaction (INTERACT 2015), pp. 319-326, 2015.
  34. Naoko SAITO, Shogo OKADA, Katsumi NITTA, Yukiko I. NAKANO, and Yuki HAYASHI: “Estimating User’s Attitude in Multimodal Conversational System for Elderly People with Dementia”, Turn-Taking and Coordination in Human-Machine Interaction: Papers from the 2015 AAAI Spring Symposium, pp.100-103, Palo Alto, CA, USA. (Mar. 2015)
  35. Takashi Yoshino, Yutaka Takase, and Yukiko I. Nakano. 2015. Controlling Robot’s Gaze according to Participation Roles and Dominance in Multiparty Conversations. In Proceedings of the Tenth Annual ACM/IEEE International Conference on Human-Robot Interaction Extended Abstracts (HRI’15 Extended Abstracts). ACM, New York, NY, USA, 127-128.
  36. DOI=10.1145/2701973.2702012
  37. Kazufumi Tsukada, Yutaka Takase, and Yukiko I. Nakano. 2015. Selecting Popular Topics for Elderly People in Conversation-based Companion Agents. In Proceedings of the Tenth Annual ACM/IEEE International Conference on Human-Robot Interaction Extended Abstracts (HRI’15 Extended Abstracts). ACM, New York, NY, USA, 93-94. DOI=10.1145/2701973.2702015
  38. Reo Suzuki, Yutaka Takase, and Yukiko I. Nakano. Intelligent Shop Window – Producing Dynamic Situated Augmented Reality using a Large See-through Screen- In Proceedings of The Eighth International Conference on Advances in Computer-Human Interactions (ACHI 2015). pp. 92-95, 2015.
  39. Vrzakova, H., Bednarik, R., Nihei, F., Nakano, Y.: Influential statements and gaze for persuasion modeling In the 8th Nordic Conference on Human-Computer Interaction, 2014., pp. 915-918, http://dx.doi.org/10.1145/2639189.2670192
  40. Nihonyanagi, S. Hayashi, Y. and Nakano, Y. I.. Analyzing Co-occurrence Patterns of Nonverbal Behaviors in Collaborative Learning. In Proceedings of the 7th Workshop on Eye Gaze in Intelligent Human Machine Interaction: Eye-Gaze & Multimodality (GazeIn ’14) in ICMI2014. pp. 33-37, 2014.
  41. Nihei, F., Nakano, Y. I., Hayashi, Y., Huang, H., and Okada, S. : Predicting Influential Statements in Group Discussions using Speech and Head Motion Information, 16th ACM International Conference on Multimodal Interaction (ICMI2014), pp. 136-143, 2014.
  42. Yoshino, T., Hayashi, Y., and Nakano, Y. I. : Determining Robot Gaze according to Participation Roles in Multiparty Conversations, 2nd international conference on Human-Agent Interaction (HAI 2014) .
  43. Hayashi, Y., Morita, H., Nakano, Y. I. : Estimating Collaborative Attitudes based on Non-verbal Features in Collaborative Learning Interaction, Proc. of 18th International Conference on Knowledge-Based and Intelligent Information & Engineering Systems (KES2014) .
  44. Yukiko Nakano, Naoya Baba, Hung-Hsuan Huang, Yuki Hayashi:”Implementation and Evaluation of Multimodal Addressee Identification Mechanism for Multiparty Conversation Systems”, Proc. of 15th ACM International Conference on Multimodal Interaction (ICMI2013), pp.35-42. (Dec. 2013)
  45. Misato Yatsushiro, Naoya Ikeda, Yuki Hayashi, Yukiko Nakano:”A Dominance Estimation Mechanism using Eye-gaze and Turn-taking Information”, Proc. of The 6th Workshop on Eye Gaze in Intelligent Human Machine Interaction.(Dec. 2013)
  46. Yuki HAYASHI, Yuji OGAWA, and Yukiko I. NAKANO: “Visualization System for Analyzing Collaborative Learning Interaction”, Proc. of 17th International Conference on Knowledge-Based and Intelligent Information & Engineering Systems (KES2013), pp.603-611. (Sep. 2013)
  47. Yuki HAYASHI, Yuji OGAWA, and Yukiko I. NAKANO: “An Experimental Environment for Analyzing Collaborative Learning Interaction”, Proc. of 15th International Conference on Human-Computer Interaction (HCII2013), Lecture Notes in Computer Science (LNCS), Vol.8018, pp.43-52. (Jul. 2013)
  48. Takashi YAMAUCHI, Yuki HAYASHI, and Yukiko I. NAKANO: “Searching Emotional Scenes in TV Programs based on Twitter Emotion Analysis”, Proc. of 15th International Conference on Human-Computer Interaction (HCII2013), Lecture Notes in Computer Science (LNCS), Vol.8029, pp.432-441. (Jul. 2013)
  49. Yoichi Sakai, Yuuko Nonaka, Kiyoshi Yasuda, Yukiko I. Nakano, Listener agent for elderly people with dementia, Proceedings of the seventh annual ACM/IEEE international conference on Human-Robot Interaction (HRI2012), pp.199-200, 2012.
  50. Yuta Shibasaki, Takahiro Inaba, Yukiko I. Nakano, Referent identification process in human-robot multimodal communication, Proceedings of the seventh annual ACM/IEEE international conference on Human-Robot Interaction (HRI2012), pp.197-198, 2012.
  51. Yukiko I. Nakano, Yuki Fukuhara, Estimating Conversational Dominance in Multiparty Interaction, 14th ACM International Conference on Multimodal Interaction (ICMI2012), pp.77-84, 2012.
  52. Naoya Baba, Hung-Hsuan Huang, Yukiko I. Nakano, Addressee identification for human-human-agent multiparty conversations in different proxemics, Proceedings of the 4th Workshop on Eye Gaze in Intelligent Human Machine Interaction, Article No.6, 2012.
  53. Yuuko Nonaka, Yoichi Sakai, Kiyoshi Yasuda, Yukiko I. Nakano, Towards Assessing the Communication Responsiveness of People with Dementia, IVA 2012, pp.496-498, 2012.
  54. Takashi Yamauchi, Yukiko Nakano, A Scene Explorer for TV Programs based on Twitter Emotion Analysis, Proceedings of the 10th Asia Pacific Conference on Computer Human Interaction (APCHI 2012), 2012.
  55. Afia Akhter Lipi, Yukiko Nakano, How Culture and Social Relationship Affect Performing and Perceiving of Postures, in IEEE International Conference on Granular Computing (GrC 2011) Special Session on Social and Cultural Interaction, 2011.
  56. Afia Akhter Lipi, Fumie Nori, Birgit Endrass, Yukiko Nakano, and Elisabeth Andre, How Culture and Social Relationship Affect the Perception of Agent’s Nonverbal Behaviors?, Workshop on Culturally Motivated Virtual Characters, 2011.
  57. Hung-Hsuan Huang, Naoya Baba, and Yukiko Nakano. Making a Virtual Conversational Agent be Aware of the Addressee of Users’ Utterances in Multi-user Conversation from Nonverbal Information, the 13th International Conference on Multimodal Interaction (ICMI2011), 2011.
  58. Birgit Endrass, Yukiko Nakano, Afia Akhter Lipi, Matthias Rehm, and Elisabeth Andre, Culture-related Topic Selection in Small Talk Conversations across Germany and Japan, Proceedings of the 11th International Conference on Intelligent Virtual Agents (IVA 2011), pp.1-13, 2011.
  59. Naoya Baba, Hung-Hsuan Huang, and Yukiko I. Nakano. Identifying Utterances Addressed to an Agent in Multiparty Human-agent Conversations, the 11th International Conference on Intelligent Virtual Agents (IVA2011), pp.255-261, 2011.
  60. Ryota Ooko1, Ryo Ishii2, and Yukiko I. Nakano. Estimating a User’s Conversational Engagement Based on Head Pose Information, the 11th International Conference on Intelligent Virtual Agents (IVA2011), pp.262-268, 2011.
  61. Fumie Nori, Afia Akhter Lipi, Yukiko Nakano, Cultural Difference in Nonverbal Behaviors in Negotiation Conversations: Towards a Model for Culture-adapted Conversational Agents, in 14th International Conference on Human-Computer Interaction (HCII2011) .
  62. Takeo Tsukamoto, Yumi Muroya, Masashi Okamoto & Yukiko Nakano, Collection and Analysis of Multimodal Interaction in Direction Giving Dialogues: Towards an Automatic Gesture Selection Mechanism for Metaverse Avatars, AAMAS2011 Workshop on the uses of Agents for Education, Games and Simulations, 2011.
  63. Birgit Endrass, Elisabeth Andre, Yukiko Nakano, Matthias Rehm, Afia Akhter Lipi, Culture-related differences in aspects of behavior for virtual characters across Germany and Japan, in the proceedings of the 10th International Conference on Autonomous Agents and Multiagent Systems (AAMAS2011), pp.441-448, 2011.
  64. Yuki Fukuhara and Yukiko Nakano, Gaze and Conversation Domination in Multiparty Interaction, in 2011 International Conference on Intelligent User Interfaces (IUI2011), Workshop on Eye Gaze in Intelligent Human Machine Interaction, Palo Alto, California, 2011.
  65. Ryo Ishii, Yuta Shinohara, Yukiko Nakano, and Toyoaki Nishida, Combining Multiple Types of Eye-gaze Information to Predict User’s Conversational Engagement, in 2011 International Conference on Intelligent User Interfaces (IUI2011), Workshop on Eye Gaze in Intelligent Human Machine Interaction, Palo Alto, California, 2011.
  66. Huang, H.H., Takeda, S., Fukuhara, Y., Baba, N., Shibasaki, Y., Nakano, Y., Nishida, T.: An Empirical Study of Multiparty Conversations with a Virtual Agent in Wizard-of-Oz Setting, the 10th International Conference on Intelligent Virtual Agents (IVA’10), Philadelpha, USA, September 20-22, 2010.
  67. Huang, H.H., Takeda, S., Ono, M., Nakano, Y., Pandzic, I., Nishida, T.: Toward a Proactive Information Providing Agent in Multi-user Collaborative Decision-making Conversation, International Workshop on Interacting with ECAs as Virtual Characters, 9th International Conference on Autonomous Agents and Multiagent Systems (AAMAS’10), pp.46-52, Toronto, Canada, May 10, 2010.
  68. Huang, H.H., Furukawa, T., Ohashi, H., Cerekovic, A., Pandzic, I., Nakano, Y., Nishida, T.: How Multiple Current Users React to a Quiz Agent Attentive to the Dynamics of Their Participation, 9th International Conference on Autonomous Agents and Multiagent Systems (AAMAS’10), pp.1281-1288, Toronto, Canada, May 10-14, 2010.
  69. Afia Akhter Lipi, Yukiko Nakano, and Matthias Rehm. A Socio-Cultural Model Based on Empirical Data of Cultural and Social Relationship. International Workshop on Agents in Cultural Context, 2010.
  70. Nakano, Y.I. and Ishii, R. Estimating User’s Engagement from Eye-gaze Behaviors in Human-Agent Conversations. in 2010 International Conference on Intelligent User Interfaces (IUI2010), pp. 139-148, Hong Kong, 2010.
  71. Ishii, R. and Nakano, Y.I. An Empirical Study of Eye-gaze Behaviors: Towards the Estimation of Conversational Engagement in Human-Agent Communication. in 2010 International Conference on Intelligent User Interfaces (IUI2010), Workshop on Eye Gaze in Intelligent Human Machine Interaction, Hong Kong, 2010.
  72. Rehm, M,. Andre E., and Nakano, Y., “Some Pitfalls for Developing Enculturated Conversational Agents,” in 13th International Conference on Human-Computer Interaction (HCII09), pp.340-348, 2009.
  73. Nakano, Y. and Rehm, M., “Multimodal Corpus Analysis as a Method for Ensuring Cultural Usability of Embodied Conversational Agents,” in 13th International Conference on Human-Computer Interaction (HCII09), pp.521-530, 2009.
  74. Lipi, A. A., Nakano, Y. and Rehm, M., “A Parameter-based Model for Generating Culturally Adaptive Nonverbal Behaviors in Embodied Conversational Agents,” in 13th International Conference on Human-Computer Interaction (HCII09), pp.631-640, 2009.
  75. Huang, H.H., Cerekovic, A., Furukawa, T., Yamaoka, Y., Ohashi, H., Pandzic, I., Nakano, Y., Nishida, T., Communicating with Multiple Users for Embodied Conversational Agents, 10th International Conference on Telecommunications (ConTEL’09), pp.155-162, Zagreb, Croatia, June 8-10, 2009.
  76. Nakano, Y., Yamaoka, Y. Information State based Multimodal Dialogue Management: Estimating Conversational Engagement from Gaze Information, 9th International Conference on Intelligent Virtual Agents(IVA09), pp.531-532, Springer, Berlin, Heidelberg, 2009.
  77. Huang, H., Furukawa, T., Ohashi, H., Cerekovic, A., Yamaoka, Y., Pandzic, I., Nakano, Y., Nishida, T., The Lessons Learned in Developing Multi-user Attentive Quiz Agents, 9th International Conference on Intelligent Virtual Agents(IVA09), pp.166-173, Springer, Berlin, Heidelberg, 2009.
  78. Ishii,R., Nakano, Y.: Estimating User’s Conversational Engagement based on Gaze Behaviors,8th International Conference on Intelligent Virtual Agents(IVA08), pp. 200-207, Springer, Berlin, Heidelberg, 2008.
  79. Matthias Rehm, Yukiko Nakano, Elisabeth Andre, and Toyoaki Nishida. Culture-specific first meeting encounters between virtual agents. 8th International Conference on Intelligent Virtual Agents(IVA08), pp.223-236, Springer, Berlin, Heidelberg, 2008 [Best Paper Award Finalist].
  80. Akhter Lipi Afia, Yuji Yamaoka, Yukiko Nakano, and Matthias Rehm. Enculturating Conversational Agents based on a Comparative Corpus Study. 8th International Conference on Intelligent Virtual Agents (IVA08), pp.465-467, Springer, Berlin, Heidelberg, 2008.
  81. Huang, H., Cerekovic, A., Pandzic, I., Nakano, Y, and Nishida, T.: The Design of a Generic Framework for Integrating ECA Components, The Seventh International Conference of Autonomous Agents and Multiagent Systems (AAMAS08), Estoril, Portugal, 2008.
  82. Rehm, M., Gruneberg, F., Nakano, Y., Lipi, A. A., Yamaoka, Y., Huang, H.: Creating a Standardized Corpus of Multimodal Interactions for Enculturating Conversational Interfaces, Workshop on Enculturating Conversational Interfaces by Socio-cultural Aspects of Communication, 2008 International Conference on Intelligent User Interfaces (IUI2008), Canary Islands, Spain, January 2008.
  83. Endrass, B., Rehm, M., Andre, E., and Nakano, Y.: Talk is silver, silence is golden: A cross-cultural study on the use of pauses in speech, Workshop on Enculturating Conversational Interfaces by Socio-cultural Aspects of Communication, 2008 International Conference on Intelligent User Interfaces (IUI2008), Canary Islands, Spain, January 2008.
  84. Huang, H., Cerekovic, A., Pandzic, I., Nakano, Y, and Nishida, T.: Toward a Culture Adaptive Conversational Agent with a Modularized Approach, Workshop on Enculturating Conversational Interfaces by Socio-cultural Aspects of Communication, 2008 International Conference on Intelligent User Interfaces (IUI2008), Canary Islands, Spain, January 2008.

国内口頭発表

  1. 表 洸希,坂戸 達陽,中野 有紀子,コーチング会話におけるコーチ発話分類モデルの提案.HCGシンポジウム2024, 金沢,2024年12月12日.
  2. 髙橋 芳樹,曽 傑,坂戸 達陽,中野 有紀子.CGアバター動作のスタイル変換によるユーザ印象への影響.2024年度人工知能学会全国大会(第38回)3A1-GS-5-03,2024.5.30.
  3. 曽 傑,中野 有紀子,坂戸 達陽.食に関する嗜好獲得に向けた意味内容に基づくインタビュアー応答生成モデルの評価.2024年度人工知能学会全国大会(第38回)[1G3-GS-6-01],2024.5.28.
  4. 土屋 洋輝,橋本 舜矢,曽 傑,坂戸 達陽,中野 有紀子.大規模言語モデルを利用した動機づけ面接会話エージェント.2024年度人工知能学会全国大会(第38回)[1N3-GS-9-04],2024.5.28.
  5. 小林 千紗,保科 衣吹,坂戸 達陽,二瓶 芙巳雄,石井 亮,深山 篤,辻井 正次,Stefanov Kalin,中野 有紀子.グループ会話における成人ASDのコミュニケーション特性分析.2024年度人工知能学会全国大会(第38回)[3R1-OS-13b-03],2024.5.30.
  6. 田中 智也,坂戸 達陽,中野 有紀子.言語,表情,音声情報を用いた動機づけ面接における発話の分類.2024年度人工知能学会全国大会(第38回)[3R1-OS-13b-04],2024.5.30.
  7. 保科 衣吹,小林 千紗,坂戸 達陽,二瓶 芙巳雄,石井 亮,深山 篤,辻井 正次,Stefanov Kalin,中野 有紀子.グループ会話における成人ASDの対人応答性の推定.2024年度人工知能学会全国大会(第38回)[3R1-OS-13b-05],2024.5.30.
  8. 廣瀬 絵理,曽 傑,坂戸 達陽,中野 有紀子.要約と文生成にもとづく動機づけ面接におけるカウンセラー発話の生成,2023年度人工知能学会全国大会(第36回)4A2-GS-6-02,2023/6/9.
  9. 田中 智也,バブ シャリフ,坂戸 達陽,中野 有紀子.動機付け面接における言語,表情,音声情報を用いたChange Talkの検出,2023年度人工知能学会全国大会(第36回)3Q1-OS-19a-03,2023/6/8.
  10. 伊藤 温志,坂戸 達陽,中野 有紀子,二瓶 芙巳雄,石井 亮,深山 篤,中村 高雄,グループディスカッションにおける説得力の推定とその応用,2023年度人工知能学会全国大会(第36回)4R2-OS-22a-04,2023/6/9.
  11. 坂戸達陽,ZENG Jie,中野有紀子.ガウス混合モデルを用いたHuman-Agent Interactionにおけるユーザの表情分析,第21回情報科学技術フォーラム講演論文集 (FIT),pp 423-426,2022.8.30.
  12. 伊藤温志,坂戸達陽,中野有紀子,二瓶芙巳雄,石井亮,深山篤,中村高雄.グループディスカッションにおける説得力の推定のためのマルチパーティモデル,2022年度人工知能学会全国大会(第36回)3H3-OS-12a-02, 2022/6/14.
  13. 上野諒祐,坂戸達陽,中野有紀子.マルチモーダル情報に基づく相槌的応答と表情強度の推定,2021年度人工知能学会全国大会(第35回)3E2-OS-5b-01,2021/6/8. 【全国大会優秀賞】
  14. 伊藤温志,坂戸達陽,中野有紀子.グループディスカッションにおける説得力の推定,2021年度人工知能学会全国大会(第35回)3E2-OS-5b-02,2021/6/8.
  15. 二瓶 芙巳雄,中野 有紀子,東中 竜一郎,石井 亮.対象物のイメージに基づく図像的ジェスチャの形状推定,第19回情報科学技術フォーラム (FIT2020) (2020年9月1〜3日 オンライン開催).【FIT論文賞】
  16. 曽 傑,中野 有紀子,知識と話題の埋め込みに基づく質問生成機能を有する料理嗜好インタビューシステムの評価,2020年度人工知能学会全国大会(第34回)2H6-GS-9-02,2020/6/10.
  17. 内山 和也,中野 有紀子,マルチモーダル情報に基づく学習者のエンゲージメント推定,2020年度人工知能学会全国大会(第34回)3M5-GS-12-03,2020/6/11.
  18. 二瓶 芙巳雄,中野 有紀子,マルチモーダル情報に基づく重要発言推定モデルを搭載したマルチモーダル議論要約ブラウザの評価,2020年度人工知能学会全国大会(第34回)[4E2-OS-19a-02],2020/6/12.
  19. 上野 諒祐,曽 傑,中野 有紀子,マルチモーダル情報に基づく応答と表情の自動生成,2020年度人工知能学会全国大会(第34回)[4E2-OS-19a-04],2020/6/12.
  20. 田口 和佳奈,中野 有紀子,二瓶 芙巳雄,深澤 伸一,赤津 裕子,音声・表情の非言語シグナルに基づく多人数遠隔コミュニケーション支援方法,2020年度人工知能学会全国大会(第34回)4E2-OS-19a-05,2020/6/12.
  21. 冨山 健, 二瓶 芙巳雄, 高瀬 裕, 中野 有紀子, マルチモーダル特徴量を用いた談話セグメントの検出. 2019年度人工知能学会全国大会(第33回), 4F3-OS-11b-02, 新潟県新潟市, 2019/6/7
  22. 曽 傑, 高瀬 裕, 中野 有紀子, 知識と話題の埋め込み表現に基づく応答生成-料理嗜好インタビューシステムに向けてー, 2019年度人工知能学会全国大会(第33回), 2L3-J-9-01, 新潟県新潟市, 2019/6/5. 【全国大会優秀賞】
  23. 二瓶 芙巳雄 中野 有紀子 高瀬 裕,言語・非言語情報の融合に基づく重要発言の推定,第32回人工知能学会全国大会,3C1-OS-14a-03,2018年6月【全国大会優秀賞】
  24. 曽 傑,高瀬 裕,中野 有紀子,食味表現に着目した料理嗜好対話システム,第32回人工知能学会全国大会,4G1-04,2018年6月
  25. 田口和佳奈 二瓶芙巳雄 深澤伸一 赤津裕子 高瀬 裕 中野有紀子,非言語モダリティのデフォルメーションを通した多人数遠隔コミュニケーションコーパス,信学技報, vol. 117, no. 509, HCS2017-104, pp. 65-70, 2018年3月.
  26. 田口和佳奈 二瓶芙巳雄 深澤伸一 赤津裕子 高瀬 裕 中野有紀子,非言語モダリティのデフォルメーションを通した多人数遠隔コミュニケーションコーパス,信学技報, vol. 117, no. 509, HCS2017-104, pp. 65-70, 2018年3月.
  27. 曽傑 高瀬 裕 中野 有紀子,対話システムによるユーザの料理評価収集,SIG-SLUD,Vol. B5,No. 02,pp. 94-95,早稲田大学,2017年10月,2017.
  28. 清水 瑠璃果 高瀬 裕 中野 有紀子.注視誘導によるアンビエントなコミュニケーション支援システム.HCGシンポジウム2017, 金沢,2017年12月13日. 【特集テーマセッション賞】
  29. 二瓶 芙巳雄 中野 有紀子 高瀬 裕,マルチモーダルCNNを用いた議論要約のための会話の抜粋,信学技報,Vol. 117,No. 177, pp. 55-59,2017年8月.
  30. 曽 傑 高瀬 裕 中野 有紀子 対象物の特徴や機能に関する知識を獲得する対話システム,第31回人工知能学会全国大会,3B2-2,(2017年5月).
  31. 冨山 健 高瀬 裕 中野 有紀子 議論中の言語・非言語情報に基づく発散的/収束的発話の識別,第31回人工知能学会全国大会,2H4-OS-35b-5 (2017年5月).
  32. 清水 瑠璃果,高瀬 裕,中野 有紀子.指向性スピーカーを用いた注視行動誘導による議論支援システム.信学技報,vol. 117,no. 29,HCS2017-31,pp. 199-204,2017年5月.
  33. 二瓶 芙巳雄,中野 有紀子,高瀬 裕 マルチモーダル非言語情報に基づく議論要約のための会話抜粋 HCGシンポジウム2016,A-2-4.
  34. 岡田 将吾,大竹 圭彦,中野 有紀子,林 佑樹,黄 宏軒,高瀬 裕,新田 克己 マルチモーダルモデリングに基づくコミュニケーション能力とグループディスカッションタスクの関連性分析 HCGシンポジウム2016,A-2-5. 優秀インタラクティブ発表賞
  35. 山中 俊貴,高瀬 裕,中野 有紀子,発話の韻律情報と頭部移動情報に基づく会話態度評価値予測モデルの有用性評価,第30回人工知能学会全国大会,4D1-3 (2016年6月).
  36. 二瓶 芙巳雄,高瀬 裕,中野 有紀子,意思決定型議論における非言語情報に基づく重要発言の推定,第30回人工知能学会全国大会,3F4-3.
  37. 高瀬 裕,吉田 友弥,土肥 祥子,中野 有紀子,酒井 伸隆,安田 清,アニメーションエージェントとの同行を通した歩行トレーニングシステムの提案,第30回人工知能学会全国大会,1G3-4in1 (2016年6月).
  38. 門野 友城,高瀬 裕,中野 有紀子,画像データに基づく図像的ジェスチャの自動生成,第30回人工知能学会全国大会,2D4-2 (2016年6月).
  39. 眞鍋 麟太郎,高瀬 裕,西村 良太,中野 有紀子,PRINTEPSにおけるロボット喫茶店の注文時ユーザモデリングの実現,第30回人工知能学会全国大会,4C4-4 (2016年6月).
  40. 山中俊貴,高瀬 裕,中野有紀子,発話の韻律情報と頭部移動情報に基づく高齢者の会話活動評価値の予測,HCGシンポジウム2015/12/17.
  41. 門野 友城,高瀬 裕,中野 有紀子 隠喩的ジェスチャの分析とジェスチャ自動付与に向けた検討,第29回人工知能学会全国大会,3D4-4 (2015年6月1日),函館未来大学.
  42. 田村 吉宏,鶴崎 泰斗,高瀬 裕,中野 有紀子 Wikipediaを用いた質問応答と多肢選択問題による歴史学習,第29回人工知能学会全国大会,1N2-2 (2015年5月30日), 函館未来大学.
  43. 吉野 尭,八城 美里,高瀬 裕,中野 有紀子,会話エージェントによる優位性推定に基づくグループ会話への介入,第29回人工知能学会全国大会,1I4-4 (2015年5月30日),函館未来大学.
  44. 高瀬 裕,桑原 奈央,中野 有紀子,砂遊びを通したインタラクティブな地図記号学習支援システムの提案,第29回人工知能学会全国大会,1N3-3 (2015年5月30日),函館未来大学.
  45. 塚田一史,高瀬 裕,中野有紀子高齢者が好む話題の選択と遷移を行う会話エージェント 情報処理学会 第77回全国大会,5R-01. (2015年3月)
  46. 二瓶芙巳雄,中野有紀子,林 佑樹,黄 宏軒,岡田将吾 発話情報と頭部移動情報に基づく議論における影響力のある発言の予測 情報処理学会 第77回全国大会,2N-01. (2015年3月)
  47. 吉野 尭,高瀬 裕,中野有紀子優位性と参与役割に基づく視線制御モデルのコミュニケーションロボットへの応用 情報処理学会 第77回全国大会,2N-02. (2015年3月)
  48. 田村吉宏,高瀬 裕,中野有紀子Wikipediaを用いた選択肢付き問題の生成手法 情報処理学会 第77回全国大会,2N-07. (2015年3月)
  49. 鈴木伶央,高瀬 裕,中野有紀子 ショーウィンドウ -店内情報に応じた動的な商品情報の提示- 情報処理学会 第77回全国大会,1ZA-06AR. (2015年3月)
  50. 吉野 尭,高瀬 裕,中野有紀子 優位性と参与役割に応じたコミュニケーションロボットの視線制御, 電子情報通信学会ヒューマンコミュニケーション基礎研究会 信学技報, vol. 114, no. 440, HCS2014-77, pp. 25-30, ベイリゾート小豆島, 2015年1月30日.
  51. 塚田一史,高瀬 裕,中野有紀子高齢者が好む話題の選択と遷移を行う会話エージェント 情報処理学会 第76回全国大会,5R-01. (2015年3月)
  52. 二瓶芙巳雄,中野有紀子,林 佑樹,黄 宏軒,岡田将吾 発話情報と頭部移動情報に基づく議論における影響力のある発言の予測 情報処理学会 第76回全国大会,2N-01. (2015年3月)
  53. 吉野 尭,高瀬 裕,中野有紀子優位性と参与役割に基づく視線制御モデルのコミュニケーションロボットへの応用 情報処理学会 第76回全国大会,2N-02. (2015年3月)
  54. 田村吉宏,高瀬 裕,中野有紀子Wikipediaを用いた選択肢付き問題の生成手法 情報処理学会 第76回全国大会,2N-07. (2015年3月)
  55. 鈴木伶央,高瀬 裕,中野有紀子 ショーウィンドウ -店内情報に応じた動的な商品情報の提示- 情報処理学会 第76回全国大会,1ZA-06AR. (2015年3月)
  56. 林 佑樹,大佛 駿介,中野 有紀子:協調学習における韻律特徴を用いた発話タグ推定モデル,第39回教育システム情報学会全国大会,D5-4,pp.441-442. (2014年9月)大会奨励賞
  57. 石井 亮,小澤史朗,小島 明,中野有紀子,林 佑樹,大塚和弘:MIOSS:3次元空間を重畳する鏡インタフェース,第13回情報科学技術フォーラム(FIT2014),RK-003 (2014年9月) 奨励賞
  58. 吉野 尭,林 佑樹,中野有紀子:多人数会話における参与役割を考慮したコミュニケーションロボットの視線制御,第13回情報科学技術フォーラム(FIT2014),J-015 (2014年9月)
  59. 鈴木 伶央,林 佑樹,中野 有紀子: ユーザ視点に基づく透過型拡張現実インタフェース, 第28回人工知能学会全国大会,3E3-2 (2014年5月)
  60. 田村 吉宏,山内 崇資,林 佑樹,中野 有紀子:Wikipedia記事情報に基づく歴史学習問題の自動生成手法, 第28回人工知能学会全国大会,3D4-2 (2014年5月)
  61. 塚田 一史,山内 崇資,林 佑樹,中野 有紀子:ユーザ応答の言語・非言語情報に応じた語りかけエージェントによる対話制御 ,第28回人工知能学会全国大会,2M5-OS-20b-1 (2014年5月)
  62. 二瓶 芙巳雄、林 佑樹、中野 有紀子:グループディスカッションにおける議論状態の変化の検出,第28回人工知能学会全国大会,4B1-2 (2014年5月)【全国大会優秀賞】
  63. 二瓶芙巳雄, 菅野建, 林佑樹, 中野有紀子:「発話の音声的特徴による性格印象の評定-面接支援エージェントを目指して-」, ヒューマンインタフェースシンポジウム2013, 3134L, pp.683-688. (2013年9月)
  64. 林佑樹,小川裕史,中野有紀子: 「協調学習における非言語情報を用いた学習状況可視化システム」, 第27回人工知能学会全国大会, 4J1-OS-23-5. 2013.6 (大会優秀賞)
  65. 齋藤直子,林佑樹,中野有紀子,安田清: 「認知症患者の状態把握支援のための発話内容認識手法」, 第27回人工知能学会全国大会, 2G1-4. 2013.6
  66. 八城美里,林佑樹,中野有紀子: 「会話参加者の優位性を考慮した会話エージェントによる多人数会話への介入」, 第27回人工知能学会全国大会, 1J4-OS-22b-4. 2013.6
  67. 馬場直哉,黄宏軒,林佑樹,中野有紀子, 複数人ユーザに対応可能な情報提供会話エージェント, 情報処理学会 第75回全国大会, 3ZB-8, 4_181-182, 宮城, 2013.3.
  68. 野中裕子,酒井洋一,安田清,林佑樹,中野有紀子, 語りかけエージェントとの会話における韻律情報の分析, 情報処理学会 第75回全国大会, 3ZB-7, 4_179-180, 宮城, 2013.3.
  69. 山内崇資,林佑樹,中野有紀子, 日本語文解析によるTwitterの感情分析とシーンインデキシングへの応用, 情報処理学会 第75回全国大会, 6R-6, 2_315-316, 宮城, 2013.3.
  70. 野中裕子, 酒井洋一, 安田清, 中野有紀子, 高齢者の会話における反応性の定量化と可視化, 第26 回人工知能学会全国大会, 2A1-NFC-6-10, 山口, 2012.6.
  71. 山内崇資, 中野有紀子, Twitterの感情解析に基づくTV番組シーン探索システム, 第26 回人工知能学会全国大会, 1C2-R-5-3, 山口, 2012.6.
  72. 塚本剛生, 中野有紀子, 言語・空間情報に基づくメタバースアバタへのジェスチャ自動付与機構, 第74回情報処理学会全国大会, 4ZC-6, 2012.
  73. 福原佑貴, 中野有紀子, 複数ユーザ対会話エージェントとの多人数インタラクションにおける優位性の自動推定方法, 第74回情報処理学会全国大会, 2ZJ-5, 2012.
  74. 酒井洋一, 野中裕子, 安田清, 中野有紀子, 認知症患者のコミュニケーション特性の評定における会話エージェントの利用, 第74回情報処理学会全国大会, 3ZC-8, 2012.
  75. 馬場直哉, 黄宏軒, 中野有紀子,グループ会話対応型会話エージェントにおける受話者推定システム, HAIシンポジウム2011.
  76. 酒井洋一, 安田清, 中野有紀子. 会話エージェントによる認知症患者への語りかけの効果, 第10回情報科学技術フォーラム(FIT2011), J-023, 2011.9.9, 2011.
  77. 柴崎優太, 上出純平, 福原佑貴, 中野有紀子. ヒューマノイドロボットのジェスチャに対する人の注視行動の分析, 第10回情報科学技術フォーラム(FIT2011), J-026, 2011.9.9, 2011.
  78. 大古 亮太, 石井 亮, 中野 有紀子, 人対エージェントの会話における頭部動作情報に基づくユーザ態度の推定, 電子情報通信学会ヒューマンコミュニケーション基礎研究会(HCS), 2011.8.26, (2011).
  79. 福原佑貴, 上出純平, 中野有紀子, コミュニケーションロボットにおけるジェスチャ表出の有効性, 第25 回人工知能学会全国大会, 2D2-OS5b-3, 2011.
  80. 中野有紀子, 比企野純太, 安田清, 認知症患者のための語りかけエージェント, 第25 回人工知能学会全国大会, 1A2-NFC1b-8, 2011.
  81. 馬場直哉, 黄宏軒, 中野有紀子, グループ会話対応型会話エージェントにおける非言語情報による受話者決定方式,第73回情報処理学会全国大会, 3Q-3, 2011.
  82. 大古亮太, 中野有紀子, ユーザの頭部動作に基づく会話参加態度の推定,第73回 情報処理学会全国大会, 3Q-4, 2011.
  83. 塚本剛生,室谷優実,岡本雅史,中野有紀子, メタバースアバタへのジェスチャ自動付与に向けたマルチモーダルインタラクションの収集と分析, 第73回情報 処理学会全国大会, 3Q-6, 2011.
  84. 比企野純太,中野有紀子,安田清, 会話エージェントを利用した認知症患者のためのコミュニケーション支援, 第73回情報処理学会全国大会, 4ZA-7, 2011.
  85. 福原佑貴,中野有紀子, 注視・相互注視に基づく会話参加者優位性順位の推定に向けた多人数インタラクションの分析, 第73回情報処理学会全国大会, 2ZB-2, 2011.
  86. 法文恵,Afia Lipi,中野有紀子, 合意形成会話における非言語行動の文化比較-文化適応的な会話エージェントの実現を目指して-, 第73回情報処理学会 全国大会, 4ZD-7, 2011.
  87. 塚本剛生,室谷優実,岡本雅史,中野有紀子 道案内対話におけるマル チモーダルインタラクションの収集と分析―メタバースアバタのためのジェスチャ 自動決定にむけて―HAIシンポジウム2009, 1A-2, 2010.
  88. 中野有紀子 会話エージェントによる多人数会話の実現を目指して-複数人ユ ーザの動作データの収集と分析-, 第24 回人工知能学会全国大会, 2J1-OS6-5, 2010.
  89. 黄宏軒 武田信也 小野正貴 中野有紀子 複数人ユーザの協力的意思決定会話 を支援する情報提供エージェント, 第24 回人工知能学会全国大会, 1C1-3, 2010.
  90. 法文恵,中野有紀子 ARを用いた美術館案内エージェント, 第15回電子情報通信学会サイバーワールド研究会,2010.3.10, 成蹊大 , 2010.
  91. 武田信也,中野有紀子 情報提供エージェントとの多人数対話における対話制御方式,第72回情報処理学会全国大会, 5V-2, 2010.
  92. 塚本剛生,中野有紀子 日本語文章へのジェスチャー自動付与による仮想世界アバターの実現, 第72回情報処理学会全国大会, 5V-9, 2010.
  93. 福原佑貴,中野有紀子 複数ユーザ対会話エージェントとの多人数インタラクションの収集と分析 -参与構造の推定に向けて-, 72回情報処理学会全国大会, 2ZN-5, 2010.
  94. 小野 正貴,中野 有紀子 音声認識・言語理解システムを用いた音声対話コーパスの収集とその利用, 第79回情報処理学会音声言語情報処理研究会 (SIG-SLP), 2009.12.22, 東京大学, 2009.
  95. Afia Akhter Lipi,Yukiko Nakano,Mathias Rehm Culture and Social Relationship as factors of affecting communicative non-verbal behaviors HAI シンポジウム2009, 2A-5, 2009.
  96. 黄宏軒,古川拓也,中野有紀子,西田豊明 複数ユーザの盛り上がり状態の変化に応じて発話するクイズエージェント  HAIシンポジウム2009, 2C-5, 2009.
  97. 武田 信也 中野 有紀子Wizard-of-Ozによる情報提供エージェントとの多人数対話における言語・非言語行動の分析, 第23回人工知能学会全国大会, 1A2-1, 2009.
  98. 小野 正貴 本間 健 神田 直之 永松 健司 中野 有紀子. 音声認識・言語理解システムを用いた音声対話コーパスの収集と分析, 第23回人工知能学会全国大会, 1I1-1, 2009.
  99. 山岡 雄治,中野有紀子. 会話エージェントにおけるマルチモーダルコミュニケーションのための対話管理プラットフォームの構築, 第71回情報処理学会全国大会, 4Q-6, 2009.
  100. 中野有紀子,Matthias Rehm,Afia Akhter Lipi. 日独間における非言語行動の比較と特徴記述パラメータの提案, HAIシンポジウム2008, 1A-4, 2008.
  101. 山岡 雄治,Akhter Lipi Afia,Rehm Matthias,中野 有紀子. 会話エージェントにおける非言語行動の異文化適応, 第22回人工知能学会全国大会, 1D2-05, 2008.
  102. 石井亮,中野有紀子. ユーザの注視行動に基づく会話参加態度の推定 -会話エージェントにおける適応的会話制御に向けて-, 第70回情報処理学会全国大会, 2ZL-2 , 2008.

レター論文

  1. Takashi Yamauchi and Yukiko Nakano, A Scene Explorer for TV Programs based on Twitter Emotion Analysis, ICIC Express Letters, ICIC International, Vol.6, No.12, pp.3069-3075, 2012.

解説論文

  1. 中野 有紀子,人工知能によるマルチモーダルインタラクションの理解とその応用,シミュレーション 小特集「人工知能とインタラクション」,Vol.36 No.4 (2017年12月)