
当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?日前,FAIC 2026(人工智能基础大会)在上海财经大学举行,会议传递出一个清晰信号:在持续提升模型能力的同时,人工智能研究正围绕机理、效率、稳健性与长期创新展开更深入的探索。

来自北京大学、清华大学、上海财经大学、中国人民大学、上海交通大学、复旦大学、南京大学、浙江大学、香港大学、香港科技大学(广州)等高校、科研机构及企业的400余位不同学科的学者与从业人员参会。围绕“大模型为何有效”“能力如何形成”“训练怎样更高效、更稳健”“如何以扎实研究支撑下一阶段创新”等关键问题,与会专家展开了集中讨论。
主旨报告环节,多位专家从模型结构、数学智能化、大模型机理等角度展开分享,既聚焦基础理论,也回应技术演进中的现实挑战。
北京大学教授林宙辰针对现有等变网络大多集中于旋转、平移等相对简单变换,而难以有效处理仿射与投影变换的难点,介绍了团队利用微分不变量设计实用的仿射与投影等变网络的最新工作。相关研究表明,将更强的几何等变性引入深度网络设计,有助于提升模型在图像识别等任务中的参数效率与鲁棒性,也为复杂视觉场景下的模型结构创新提供了新的思路。
上海财经大学陆品燕教授则将关注点进一步落在“大模型为何有效”这一基础问题上。他指出,尽管大模型能力近年来快速提升,不断刷新学界和业界对人工智能能力边界的认识,但人们对于大模型内在机理的理解仍然相对有限;人工智能发展不仅需要持续推进能力提升,也需要加强对模型行为、能力来源和复杂性机制的基础研究。

当前人工智能研究正从更强调经验驱动的阶段,逐步走向理论探索、方法创新与系统能力协同推进的新阶段。主旨论坛外,平行论坛覆盖大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向,与会者不仅关注如何让大模型训练得更高效、更稳定,也关注模型行为背后的内在规律,以及人工智能与科学研究、复杂场景应用深度结合的可能性。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经难以支撑下一阶段发展,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。
除了报告内容本身,会场内外的互动也十分活跃。主旨报告后的提问直接而具体,茶歇期间的交流延续到走廊和海报展示区,不同研究方向之间的碰撞带来了不少新的交叉视角。自由讨论环节中,与会学者没有停留于单纯的技术细节,而是进一步围绕“基础研究如何支撑实际发展”“模型能力与训练效率如何统筹”“应用需求如何反馈基础研究”等议题展开务实对话。
富豪配资提示:文章来自网络,不代表本站观点。