计算机与信息工程学院冯为嘉教授牵头的空间感知与智能团队针对现有方法在微手势识别中对时空信息被动建模、缺乏不确定性建模的问题,创新性地提出了一种不确定性感知的主动推理框架。研究成果以“Active Inference for Micro-Gesture Recognition: EFE-Guided Temporal Sampling and Adaptive Learning”为题,在The IEEE/CVF Conference on Computer Vision and Pattern Recognition 2026(CVPR 2026)发表。
该方法首先通过期望自由能引导的时间采样机制,动态选择最具判别性的关键帧,从而提升对短时微弱动作的感知能力;其次,通过期望自由能引导的空间选择模块,聚焦于与微手势相关的重要区域,抑制背景噪声干扰;最后,设计了基于预测不确定性的自适应学习策略,通过对样本进行加权与混合,有效缓解标签噪声和分布偏移问题。所提出的基于期望自由能的微动作识别模型架构如图1所示。实验结果表明,所提出的方法在SMG数据集上取得了显著性能提升,在仅使用RGB模态的情况下,识别准确率优于多种主流方法,并显著提升了模型在低样本和噪声环境下的鲁棒性。

图1. 基于期望自由能的微动作识别模型架构
计算机与信息工程学院空间感知与智能团队牵头人冯为嘉教授为该文章第一作者,三亿体育app为第一完成单位。此项研究获得了国家重点研发计划2019YFB2101900,国家自然科学基金项目61602345、62002263,天津市自然科学基金重点项目25JCZDJC00250以及天开高教园企业研发专项23YFZXYC00046的支持。
论文链接:https://doi.org/10.48550/arXiv.2603.07559