人-机器人协同的具身智能
8月22日(星期五)9:00-11:30
地点: 三楼沈阳厅
嘉宾简介 | |
---|---|
![]() 戴国忠 中国科学院 |
简介:
报告题目: 人机交互和人工智能关系
报告摘要: 如题 |
![]() 任磊 北京航空航天大学 |
简介:
报告题目: 工业大模型+具身智能:驱动未来工业世界
报告摘要: 本报告将总结工业互联网与人工智能2.0融合创新的热点技术,并探讨面向人工智能3.0时代的工业具身智能与工业元宇宙理论体系。在此技术上提出工业大模型的定义与内涵,工业大模型的体系架构、构建方法与核心关键技术。围绕工业制造业产品全生命周期应用,讨论工业大模型典型应用场景。并将讨论工业大模型面临的未来挑战,展望未来的技术与产业发展方向。 |
![]() 方斌 北京邮电大学 |
简介:
报告题目: 人机共融假肢灵巧手的交互抓取操作
报告简介: 人机共融假肢灵巧手已成为近些年的研究热点,其中如何提升断肢患者的交互体验是核心关键问题。本研究基于开发的触感灵巧假肢手,提出了多阶段抓取方法和抓握力主动调整策略,首次实现一手多抓及挤牙膏的变形体操作任务。进一步介绍了一种面向物理鼠标操作的软体肌电假肢手系统,首次实现断肢患者自然交互操作鼠标。最后总结并展望了对于复杂工具的交互操作研究。 |
![]() 李健楠 新加坡管理大学 |
简介:
报告题目: 通过视觉模态支持更有效的人-具身智能体交互
报告简介: 随着大语言模型的发展,语言已成为人类与具身智能代理交流的主要接口。在本次报告中,我将讨论语言作为交流媒介存在局限性,即其往往无法准确捕捉具体任务情境。通过两个项目,我将展示视觉模态如何提供语言所缺失的上下文信息,以及语言与视觉模态的互补使用如何促进更高效的人机交互。首先,我将介绍一个名为 ImageInThat 的机器人编程系统(HRI '25),该系统允许用户通过直接操作任务环境图像来编程机器人。实验结果表明,与仅使用语言指令相比,用户使用 ImageInThat 更加高效且准确地完成了室内整理任务。我还将介绍一个实验(CHI '25),该实验验证了“空间高亮”在虚拟环境编辑任务中有助于用户更有效地识别并纠正代理在理解语言指令中的错误。这些研究表明,混合模态的交互方式不仅增强了人类对 AI 代理的精细控制能力,也使得代理能够以更具情境性和有效性的方式与人类交流,从而促进更具生产力的人机协作关系。 |
![]() 聂强 香港科技大学(广州) |
简介:
报告题目: 机器人行为智能:构建人机同频共振的桥梁
报告简介: 人与机器人的协同是一个历久弥新的课题,也是具身智能研究的核心所在。然而,当前的研究主要集中于机器人如何通过语言、视觉等多模态感知能力,在非结构化场景中自主完成人类所描述的任务。这些技术往往依赖于采集机器人数据或人类视频,更多地侧重于对运动轨迹的模仿学习,而缺乏对人机行为本身的深入探索。本报告将从机器人的行为智能出发,探讨机器人在与物体交互中对自身行为的理解,以及在与人类交互中对人类行为的理解。我们将从动作与行为的角度出发,旨在使机器人真正理解其自身的行为及人类的行为。通过在行为智能的基础上实现与人类的同频共振,机器人将能够获得真正意义上的自主行为与智能泛化,从而实现自然的人机交互与协同。 |
![]() 朱利丰 东南大学 |
简介:
报告题目: 力反馈与手术机器人人机协同
报告简介: 力反馈是恢复人-机器人交互中丰富操作手感的重要技术,本报告将介绍近年来报告人围绕人机交互不同需求研发的力反馈技术及力感在线下的手术机器人人机协同与共享智能控制,包括面向通用场景表达数据的力渲染软件技术、基于可形变智能结构的力再现硬件技术,以及面向头颈部手术的机器人辅助牵拉操作人机协同方法,并共同探讨力反馈与机器人具身智能控制与交互。 |