当AI加速渗透物理世界与数字孪生,赋予机器感知、理解、交互并行动于三维空间的【空间智能】,已成为驱动下一代智能系统的核心引擎!CSIG图像图形学科前沿讲习班 (IGAL) 第33期——“空间智能基础与进阶”主题盛会,将于2025年6月28-29日在深圳隆重举办!本次讲习班由深圳大学胡瑞珍教授担任学术主任,特邀10位国内该领域的顶尖专家学者,为您带来最前沿的专题讲座。他们将围绕“空间感知”、“空间推理”、“空间想象”到“空间交互”的全链路核心技术,对空间智能的发展脉络与相关前沿工作进行深度剖析与系统梳理,并分享各自团队的最新研究成果、关键技术突破与前瞻性思考!
诚邀相关领域的老师、同学及研究同仁共襄盛举!一同探索空间智能的理论基石与技术前沿,激发创新思维,促进跨学科交流合作,携手塑造更加智能化的未来!
主办单位:中国图象图形学学会(CSIG)
承办单位:深圳大学、广东省图象图形学会
支持单位:中国图象图形学学会智能图形专委会
胡瑞珍,深圳大学特聘教授,博士生导师,国家优秀青年科学基金、广东省杰出青年项目获得者。研究方向为计算机图形学,长期从事智能几何建模与处理方面的研究,发表 ACM SIGGRAPH/TOG 论文三十余篇;入选中科协青年人才托举工程;荣获亚洲图形学协会青年学者奖、全国几何设计与计算青年学者奖;担任期刊IEEE TVCG、IEEE CG&A和Computers & Graphics等国际期刊编委;担任国际会议SGP 2024/CVM 2023/SMI 2020 Technical Paper、SIGGRAPH Asia Technical Communications and Posters以及EG 2024 Short Paper程序委员会主席,连续多年担任SIGGRAPH等大会程序委员会委员;担任中国图象图形学学会智能图形专委会副主任、中国计算机学会计算机辅助设计与图形学专委会常委/副秘书长、计算机图形学与混合现实在线平台(GAMES)执委会主席。
时间:2025年6月28日-29日
地点:广东省·深圳市·达实大厦二楼会议中心(报告厅)
特邀讲者
崔兆鹏
个人简介:崔兆鹏,浙江大学计算机科学与技术学院“百人计划”研究员、博士生导师,国家级青年人才计划入选者。2017年至2020年在瑞士苏黎世联邦理工学院计算机视觉和几何实验室任高级研究员。研究方向为三维计算机视觉,具体包括三维重建、三维理解、SLAM、三维内容生成和三维运动规划等。近年来在计算机视觉、机器人、计算机图形学、机器学习等领域的顶级期刊和会议上发表论文50余篇,曾主持国家自然科学基金青年基金项目、专项项目等。目前担任Pattern Recognition、IEEE RA-L等国际期刊编委,曾担任领域内顶级会议CVPR、ECCV、IJCAI领域主席,SIGGRAPH程序委员会委员,以及ICRA、IROS副编委等。曾获ICRA 2020机器视觉最佳论文提名、IROS 2021安全、安保和救援机器人最佳论文提名、3DV 2024最佳论文荣誉提名。
报告题目:空间智能中的相机位姿估计:从传统几何优化到神经渲染优化
报告摘要:相机位姿估计是空间智能的重要基础,广泛应用于三维重建、导航与路径规划等任务,其核心在于准确计算相机或机器人自身的三维空间姿态。传统方法通?;谙嗷肴阒涞募负卧际?,通过优化求解相机位姿。近年来,随着神经渲染技术的发展,渲染驱动的优化方法逐渐成为新的研究热点。报告将系统介绍相机位姿估计的理论基础,回顾几何优化范式下的经典方法,重点探讨基于神经渲染的位姿估计与同步定位与建图技术的最新进展。
赵恒爽
个人简介:赵恒爽博士,香港大学计算机科学系助理教授,国家优秀青年基金获得者。此前,他曾在麻省理工学院和牛津大学担任博士后研究员。他的研究兴趣涵盖计算机视觉、机器学习和人工智能等广泛领域,特别着重于构建智能视觉系统。他在CVPR、NeurIPS和TPAMI等顶级会议和期刊上发表论文100余篇,研究成果被引约40,000余次,其中单篇一作论文被引超17,000次,五篇一作论文被引超1,000次。他曾获得过多次国际学术竞赛的冠军,世界人工智能大会明日之星奖和青年优秀论文奖,CVPR最佳演示荣誉奖,被AI 2000评为计算机视觉领域最具影响力的学者之一,被斯坦福大学列为世界前2%终身影响力科学家。此外,他曾担任CVPR、ICCV、ECCV、NeurIPS和ICLR等会议的领域主席,以及Pattern Recognition的副编辑和IEEE TCSVT的客座编辑。
报告题目:深度估计
报告摘要:深度估计是计算机视觉中的核心任务,其目标是从二维图像中预测出三维场景的深度信息。这项技术在自动驾驶、机器人导航、增强现实、空间智能和具身智能等多个领域发挥着关键作用。本次报告将探讨深度估计的历史发展,涵盖传统的深度估计框架、基于深度学习的网络架构,以及最新的基于数据驱动的创新算法。报告将详尽分析这些方法的优势与局限,并展示若干实际应用案例。此外,本报告还将探讨深度估计面临的主要挑战,包括如何处理纹理匮乏、遮挡和光照变化等问题,以及如何提升深度估计的精度和鲁棒性。最后,我们将展望深度估计技术的未来发展方向,探讨如何构建具备空间智能的多模态大模型和具身智能体等新的研究趋势。
刘缘
个人简介:刘缘,香港科技大学助理教授。他从香港大学计算机系获得博士学位,师从王文平教授和Taku Komura教授。之后,他在南洋理工大学的刘子纬教授课题组进行了博士后研究。他的研究集中于三维计算机视觉和计算机图形学。他致力于利用人工智能技术实现快速高效精确的三维重建、三维生成、视频生成并服务于下游影视、动画、游戏等任务中。他的工作例如SyncDreamer,NeuS,PVNet等在领域内获得广泛好评,成为领域内的基础算法。他在计算机视觉与图形学顶会顶刊(CVPR, ECCV, ICCV, NeurIPS, SIGGRAPH, ICLR等)上发表论文40余篇。其中一作或者通讯作者论文17篇,总共获得了超过6000的引用量。
报告题目:从神经场表达到生成模型的三维重建算法技术更迭
报告摘要:从单张或多张图像中精准复原目标对象的三维重建技术,作为计算机图形学与视觉领域的核心课题,历经数十年深耕探索。近年来,神经场表示、Gaussian Splatting、DUSt3R 及生成式 AI 模型等前沿技术的涌现,为这一领域注入了全新活力。本报告系统梳理神经场表达 NeRF、NeuS 向 Gaussian Splatting 演进的技术脉络,剖析其在三维重建任务中的迭代路径与未来趋势;同时,聚焦 3R 系列创新技术与生成式模型的发展,探讨这些新技术如何重塑传统三维重建范式,讨论未来三维重建可能的发展方向。
齐晓娟
个人简介:齐晓娟,香港大学电机电子工程系的助理教授。她在香港中文大学获得博士学位,并曾在多伦多大学、牛津大学以及英特尔视觉计算组从事研究与学术交流。她的研究致力于赋予机器在开放环境中感知、理解和重建视觉世界的能力,特别关注具身智能体中的真实世界部署问题。祁博士在计算机视觉、图形学和机器学习等顶级会议(包括 SIGGRAPH Asia、CVPR、ICCV 和 NeurIPS)发表了百余篇论文,其中多篇被选为口头报告。她曾获 SIGGRAPH Asia 最佳论文荣誉提名,并于2024年入选 IEEE AI十大新星。此外,她积极参与学术服务,多次担任 ICCV、CVPR、NeurIPS、ICML 和 AAAI 的领域主席。Webpage:https://xjqi.github.io/
报告题目:三维空间理解:从模型设计到数据设计
报告摘要:人类生活在一个三维世界中,通过感知、理解和与环境互动,不断获取多样的技能并参与各种活动。在本次报告中,我将介绍三维空间理解方面的最新进展,涵盖从模型设计到数据设计,旨在提升三维感知在开放世界场景下的准确性、效率与泛化能力。在模型设计方面,我将介绍三维点云处理中的关键架构演进——从 PointNet、自适应卷积到基于 Transformer 的框架,展示这些构建模块如何在提升模型能力的同时解决计算效率问题。在数据设计方面,我将探讨自监督训练、合成数据的利用以及知识蒸馏等技术在三维模型中的应用,这些方法共同促进了模型在开放世界中的泛化能力提升。
王泰
个人简介:王泰,上海人工智能实验室青年科学家,博士毕业于香港中文大学,研究方向为具身智能和三维视觉,目标构建通用空间智能大脑赋能软硬一体可泛化的具身通用人工智能系统。在 TPAMI, IJCV, CVPR, CoRL 等计算机视觉与机器人学习领域顶级期刊与会议发表论文30余篇,谷歌学术被引约4000次,并多次在国际顶级竞赛中获奖。在通用三维感知点云表征、纯视觉框架设计、具身多模态三维理解等方向的系列代表工作和相关开源平台被产学界广泛使用,GitHub累计获得上万个星标。曾获ECCV最佳论文候选、ICCV研讨会最佳论文、港府奖学金。
报告题目:下一代三维多模态大模型:迈向在线时空理解推理
报告摘要:伴随着多模态大模型的快速发展和在物理世界的应用,其三维空间理解推理能力得到了越来越多的关注,近期在相关的大规模数据、模型、评测进展一定程度上解决了其中部分基础问题。然而,其中的感知与推理??榈慕岷戏妒讲煌诹魇酵评淼拇竽P?,依然依赖离线预训练好的全场景感知模型,因此具备有限的在线时空理解能力和推理速度。
本报告将聚焦上述问题,介绍领域内在线三维感知和推理的基础进展,并由此引出三维多模态大模型发展的新方向:通过面向在线时空理解推理的自动化数据引擎和评测基准,支撑训练统一流式感知和推理的三维多模态大模型,赋能下游时空推理、精确定位、视觉语言导航等核心任务。报告将重点介绍有关最新的基准构建、模型设计和不同下游应用等相关工作,并对尚未解决的挑战作简要讨论。
彭思达
个人简介:彭思达,浙江大学软件学院“百人计划”研究员,博士生导师,研究方向为三维计算机视觉和计算机图形学。至今在TPAMI、CVPR、ICCV等期刊或会议发表六十余篇论文,谷歌学术引用5700余次,其中一篇一作论文获得CVPR最佳论文提名,成果获得GitHub数万次stars和2024年中国CCF图形开源软件奖;入选China3DV 2025年度杰出青年学者、斯坦福2024全球Top 2%科学家榜单、2024年中国计算机学会优博(国内计算机领域评选十人);被苹果公司评为2022 Apple Scholar(亚太地区唯一),被华为公司评为2024启真优秀青年学者。
报告题目:面向自动驾驶仿真的动态街景重建技术导论
报告摘要:动态街景的高精度建模与重渲染可以为自动驾驶系统提供仿真环境,降低训练与测试的成本和时间。本报告首先分析自动驾驶仿真对自动驾驶的价值及其功能模块;然后展示自动驾驶仿真对于动态场景建模技术的需求,包括多模态仿真质量、几何重建质量、场景丰富度;最后,介绍动态街景重建技术的基础与最新进展,并讨论当前仍存在的重要问题。
顾家远
个人简介:顾家远,上??萍即笱畔⒖蒲в爰际跹г褐斫淌?、研究员、博士生导师。顾家远博士毕业于美国加州大学圣迭戈分校,师从苏昊教授。2018年本科毕业于北京大学信息科学技术学院智能科学系。他的研究方向为具身智能,聚焦于可泛化的机器人决策模型和面向具身智能的三维视觉,在计算机视觉、机器学习、机器人等国际顶会(CVPR,NeurIPS,ICLR,CoRL等)上均有发表。他曾在Facebook AI、Google DeepMind等科研机构实习,参与的项目Open X-Embodiment获得了ICRA 2024的Best Paper Award。同时,他也担任相关领域会议的审稿人,并在RSS,ECCV,CVPR等学术会议上组织过相关的研讨会和教程。
报告题目:面向机器人操作的仿真:挑战与前沿进展
报告摘要:机器人操作交互数据的获取是当前模仿学习算法面临的主要瓶颈之一。仿真数据作为一种潜在的解决方案,其构建过程却面临着诸多挑战:如何高效获取真实分布的三维交互场景而非依赖人工构建?如何确保仿真环境以物体及部件为基本单元,满足机器人操作的可交互性需求?
本报告将系统探讨面向机器人操作的仿真技术体系。首先,我们将深入分析机器人操作仿真面临的核心挑战与技术难点。随后,重点介绍主流仿真平台(如IssacLab、ManiSkill、Genesis等)的设计理念与创新实践。最后,从图形学视角出发,分享面向具身智能的仿真素材生成前沿工作,包括CAST等创新方法在三维场景获取与可交互物体建模中的应用。
胡文博
个人简介:胡文博,腾讯ARC Lab高级研究员,博士毕业于香港中文大学。研究方向为生成式的世界模型,包括图像/视频的3D/4D重建,新视角合成,视频生成等。在图形学和视觉国际期刊和会议发表20余篇论文,包括SIGGRAPH (Asia), CVPR, ICCV, ECCV, NeurIPS等。曾获CCF优秀大学生,所做工作Tri-MipRF曾获得ICCV’23 Best Paper Finalist。个人主页:https://wbhu.github.io/
报告题目:基于视频生成模型的场景演变生成最新进展
报告摘要:视频生成模型展现出了强大的内容生成能力,有潜力作为世界模拟器。但是由于其本质是在2D空间上的建模,所以不能保证3D合理性与一致性。精确相机可控是视频生成模型进化为世界模拟器的重要一环,也是实现场景演变生成的关键。本次报告将首先介绍视频生成模型中对相机控制的主流方法,演进路线,及各自特点。然后会分享我们在这个方向上的两个工作。其中ViewCrafter可以从单张图片或者稀疏的多视角图片进行高质量的新视角合成,从而实现静态场景的生成。第二个工作TrajectoryCrafter延续了该思想,拓展到了4D场景生成。它是一个video-to-video模型,可以允许用户使用想要的相机轨迹来重新“拍摄”输入视频,从而实现探索视频背后的4D世界。
李弘扬
个人简介:李弘扬,香港大学助理教授。研究方向为端到端具身智能系统。他主导的端到端自动驾驶项目UniAD,获得IEEE CVPR 2023最佳论文奖。UniAD产生了明显的社会经济效益,包括2024年特斯拉推出的FSD V13。多次担任CVPR、NeurIPS、ICLR、ICCV、ICML、RSS领域主席。他是《自然·通讯》审稿人、期刊《Automotive Innovations》客座编委。IEEE、CCF、CSIG高级会员、IEEE汽车委员会自动驾驶国际标准工作组组长。荣获2024年吴文俊人工智能青年科技奖、主持2023年上海市东方英才计划领军项目。
报告题目:机器人导航:现状与挑战
报告摘要:本次讲座将详细介绍具身智能中的导航任务。导航分为感知、地图构建、决策和动作执行等???。内容将覆盖模拟器、常见数据集与benchmark、任务与评价指标、主流方法介绍??纬套詈蠡够嵊蠬ands-on Demo、当前机器人导航领域面临的挑战。
弋力
个人简介:弋力,博士,现任清华大学交叉信息研究院助理教授,国家优青(海外)。他在斯坦福大学取得博士学位,导师为美国三院院士Leonidas J. Guibas教授,毕业后在谷歌研究院任研究科学家。他近期的研究聚焦于三维视觉与具身智能,他的研究目标是赋予机器人理解并与三维世界交互的能力。他在计算机顶级会议期刊上已发表论文七十余篇,引用数两万余次,代表作品包括ShapeNet Part,SyncSpecCNN,PointNet++等,大大影响了三维深度学习这一领域的出现与发展。此外他还曾担任CVPR、IJCAI、NeurIPS等顶会的领域主席与SIGGRAPH TPC等。
报告题目:从人-物交互中学习通用具身操作技能
报告摘要:赋予机器人像人类手部一样的通用操作能力一直是具身智能领域的重要研究目标。然而,目前的灵巧操作技能通常局限于特定场景、特定对象或特定任务,距离实现真正的通用技能仍有较大差距。为了弥合这一差距,一种具有潜力的解决方案是从人类手与物体交互的运动数据中学习通用的灵巧操作技能。通过捕捉大量人类手物交互的运动数据,我们可以构建一个通用的手物交互运动规划模型,指导机器手在新对象和新任务中实现通用操作。在本次报告中,我将围绕交互捕捉、交互规划和操作控制三方面,分享相关的研究工作,探讨具身操作领域的前沿进展。
1.本期讲习班限报120人,根据缴费先后顺序录取,报满为止。
2.2025年6月26日(含)前注册并缴费:CSIG会员2000元/人,非会员2500元/人(赠送1年CSIG会员);现场缴费:会员、非会员均为3000元/人;CSIG团体会员参加,按CSIG会员标准缴费;同一单位组团(5人及以上)报名,均按CSIG会员标准缴费。
3.注册费包括讲课资料和2天会议期间午餐,其它食宿、交通自理。
4.即日起至2025年6月26日,请登录会议注册网站注册,注册网址:https://meeting.csig.org.cn/cms/IGAL33/
5. 酒店预订
1)深圳汉普斯酒店 (讲习班就餐酒店)
●房型协议价:景观大床房(600元含单早)、豪华景观客房(650元含单早,730元含双早)
预定方式:庄卓怡(13692209264),报“中国图象图形学学会会议”
2)深圳英达仕酒店 (讲习班会场酒店)
●房型协议价:豪华大床房(550元含单早)、商务双床房(600元含双早)
●预定方式:彭健慧Kelly (19376611400),报“中国图象图形学学会会议”
酒店详情、更多房型选择请参见附件:
联系方式
联 系 人:黄老师
联系电话:010-82544754
邮 箱:igal@csig.org.cn
Copyright ? 2025 中国图象图形学学会 京公网安备 11010802035643号 京ICP备12009057号-1
地址:北京市海淀区中关村东路95号 邮编:100190