人-机器人协同的具身智能
8月22日(星期五)9:00-11:30
地点: 三楼沈阳厅

嘉宾简介

戴国忠

中国科学院

简介:
       中国科学院软件研究所研究员,中国科学院软件研究所原总工程师。中国计算机学会人机交互专业委员会主任,中国自动化学会计算机图形学和人机交互专业委员会主任,ACM SIGCHI中国分会荣誉主席,国家重点基础研究发展计划(973)信息领域咨询专家组专家。 先后从事软件工程、计算机图形学和人机交互等领域的研究,是我国计算机用户界面领域的开拓者之一。在国内外高水平国际期刊与会议发表学术论文200余篇,著有学术专著《笔式用户界面》。主持和参加了多项国家自然科学基金项目、国家高技术研究发展计划项目(863计划)、国家重点基础研究发展规划项目(973计划),成果卓越,为国家作出了重大贡献。1992年获国务院颁发的政府特殊津贴,获得多项国家科技进步奖、北京市科技进步奖及中国科学院科技进步奖。

 

报告题目: 人机交互和人工智能关系

 

报告摘要: 

       如题

任磊

 北京航空航天大学

简介:
       工业互联网领域首个国家杰出青年基金获得者,国家重点研发计划工业软件专项首席科学家。北航二级教授、蓝天杰出教授,自动化学院和软件学院教授,复杂产品智能制造全国重点实验室专委会副主任。研究领域包括工业互联网与工业软件、工业AI与工业大模型。提出了首个工业大模型理论技术体系,建立了首个工业大模型国家标准体系。主持国家重大科技专项、国家重点研发计划、自然科学基金重大研究计划等国家级和省部级项目30余项,含亿级1项和千万级3项。在IEEE汇刊等国际知名刊物发表论文100余篇,引用万余次。主持或参与制订国际/国家标准15项。获专利及软著70余项,核心技术服务于数十万家企业。获省部级一等奖3项。担任IEEE、CCF、CAAI、CAA等10余个国内外专委会委员,中国仿真学会智能物联专委会副主任、中国指控学会云控制与决策专委会副主任,中国仿真学会常务理事 ,IEEE TNNLS、TMECH等国际期刊编委。担任中国工业互联网产业联盟人才组副主席,在全国高校中率先开设了《工业互联网》课程。担任IEEE系列及国内外学术会议主席数十次,受邀做大会报告百余次。

 

报告题目: 工业大模型+具身智能:驱动未来工业世界

 

报告摘要: 

       本报告将总结工业互联网与人工智能2.0融合创新的热点技术,并探讨面向人工智能3.0时代的工业具身智能与工业元宇宙理论体系。在此技术上提出工业大模型的定义与内涵,工业大模型的体系架构、构建方法与核心关键技术。围绕工业制造业产品全生命周期应用,讨论工业大模型典型应用场景。并将讨论工业大模型面临的未来挑战,展望未来的技术与产业发展方向。

方斌

 北京邮电大学

简介:
       北京邮电大学“拔尖人才”教授,原清华大学计算机系任教,主要研究方向具身智能、灵巧操作及机器人大模型等。入选北京智源学者,兼任中国人工智能学会理事,认知系统与信息处理专委会秘书长,中国人工智能学会杰出会员,中国计算机学会智能机器人专委会常务委员,IEEE 高级会员。发表Nature Communications、IEEE TRO等高水平期刊及ICRA等会议论文上百篇,出版中英文专著各1部,获得国际会议/国际期刊最佳论文奖8项。研制的“触感灵巧手”入选了国家“十三五”科技创新成就展。撰写人形机器人及具身智能的决策咨询信息已被国办采用,并被中央领导人批示。同时荣获得中国自动化学会自然科学奖一等奖、世界机器人大赛“特等奖”等。

 

报告题目: 人机共融假肢灵巧手的交互抓取操作

 

报告简介: 

       人机共融假肢灵巧手已成为近些年的研究热点,其中如何提升断肢患者的交互体验是核心关键问题。本研究基于开发的触感灵巧假肢手,提出了多阶段抓取方法和抓握力主动调整策略,首次实现一手多抓及挤牙膏的变形体操作任务。进一步介绍了一种面向物理鼠标操作的软体肌电假肢手系统,首次实现断肢患者自然交互操作鼠标。最后总结并展望了对于复杂工具的交互操作研究。

李健楠

 新加坡管理大学

简介:
       新加坡管理大学计算与信息系统学院助理教授,研究关注人与智能体交互,包括人-机器人合作,以及通过AI智能体增强个人用户的生产力和学习能力。成果多次发表于CHI, UIST, HRI, CSCW等一流国际会议,并获两次CHI最佳论文提名奖及一次HRI最佳论文奖。于CHI 24及25任Technical Program Committee成员,并参与DIS 26组委会。

 

报告题目: 通过视觉模态支持更有效的人-具身智能体交互

 

报告简介: 

        随着大语言模型的发展,语言已成为人类与具身智能代理交流的主要接口。在本次报告中,我将讨论语言作为交流媒介存在局限性,即其往往无法准确捕捉具体任务情境。通过两个项目,我将展示视觉模态如何提供语言所缺失的上下文信息,以及语言与视觉模态的互补使用如何促进更高效的人机交互。首先,我将介绍一个名为 ImageInThat 的机器人编程系统(HRI '25),该系统允许用户通过直接操作任务环境图像来编程机器人。实验结果表明,与仅使用语言指令相比,用户使用 ImageInThat 更加高效且准确地完成了室内整理任务。我还将介绍一个实验(CHI '25),该实验验证了“空间高亮”在虚拟环境编辑任务中有助于用户更有效地识别并纠正代理在理解语言指令中的错误。这些研究表明,混合模态的交互方式不仅增强了人类对 AI 代理的精细控制能力,也使得代理能够以更具情境性和有效性的方式与人类交流,从而促进更具生产力的人机协作关系。

聂强

 香港科技大学(广州)

简介:
       香港科技大学(广州)机器人与自主系统学域助理教授,博士生导师。其目前专注于AI for Robotics的相关研究,旨在融合AI技术和机器人技术,推动新一代机器人技术的发展。其所领导的机器人智能与学习实验室,已开展多个具身智能方向的研究,包括人形机器人的设计与控制、机器人智能操作、多模态感知、人机交互、生物医疗机器人等。 聂强博士2020年毕业于香港中文大学机械与自动化工程系,之后在香港中文大学的天石机器人研究所和香港物流机器人研究中心做双聘博士后。博后期间参与多个RGC及港府ITF主题研究项目,并联合创立香港Asuka Tech Limited。后以“技术大咖”身份加入腾讯优图实验室,任高级研究员,领导计算机视觉和人工智能的前沿研究。聂强博士在IJCV、TIP、ECCV、CVPR、ICCV、NeurIPS、AAAI、IROS和ICRA等顶级期刊和会议上发表论文近30篇,并多次作为这些顶级会议和期刊的审稿人,拥有丰富的学术和工业界研究经验。个人获授权及在申国内外专利20余项。

 

报告题目: 机器人行为智能:构建人机同频共振的桥梁

 

报告简介: 

        人与机器人的协同是一个历久弥新的课题,也是具身智能研究的核心所在。然而,当前的研究主要集中于机器人如何通过语言、视觉等多模态感知能力,在非结构化场景中自主完成人类所描述的任务。这些技术往往依赖于采集机器人数据或人类视频,更多地侧重于对运动轨迹的模仿学习,而缺乏对人机行为本身的深入探索。本报告将从机器人的行为智能出发,探讨机器人在与物体交互中对自身行为的理解,以及在与人类交互中对人类行为的理解。我们将从动作与行为的角度出发,旨在使机器人真正理解其自身的行为及人类的行为。通过在行为智能的基础上实现与人类的同频共振,机器人将能够获得真正意义上的自主行为与智能泛化,从而实现自然的人机交互与协同。

朱利丰

 东南大学

简介:
       东南大学仪器科学与工程学院教授,博士生导师,院长助理,中国仪器仪表学会力触觉感知与交互专委会副秘书长,江苏省人工智能学会机器人专委会委员,研究方向为手术机器人、虚拟现实与人机交互等。主持并完成国家自然科学基金、国家级重点研发课题等国家、省部级项目多项,先后已第一/通讯作者在IEEE TVCG,IEEE TRO,IEEE ICRA,ACM CHI,ACM UIST等期刊会议上发表学术论文60余篇,授权国家发明专利20余项,曾获教育部科技进步一等奖、江苏省科学技术奖一等奖、江苏省工程师学会科学技术奖一等奖、亚洲图形学大会最佳论文奖等。以第一指导教师身份指导学生获挑战杯大学生课外学术科技作品竞赛主赛道全国特等奖、全国大学生生物医学工程创新设计竞赛二等奖等。

 

报告题目: 力反馈与手术机器人人机协同

 

报告简介: 

        力反馈是恢复人-机器人交互中丰富操作手感的重要技术,本报告将介绍近年来报告人围绕人机交互不同需求研发的力反馈技术及力感在线下的手术机器人人机协同与共享智能控制,包括面向通用场景表达数据的力渲染软件技术、基于可形变智能结构的力再现硬件技术,以及面向头颈部手术的机器人辅助牵拉操作人机协同方法,并共同探讨力反馈与机器人具身智能控制与交互。