中级

陶富祥

个人信息简介

姓名:陶富祥 学历:博士 职称:特聘副研究员,研究生导师 电子邮箱:fuxiang.tao@bnu.edu.cn

教育背景

2019.10-2024.01 英国格拉斯哥大学,计算机专业,工学博士,导师:Alessandro Vinciarelli 教授

2016.09-2019.06 北京师范大学,认知神经科学,理学硕士,导师:秦绍正 教授


工作经历

2025.09-至今 北京师范大学,文理学院心理系,特聘副研究员

2023.12-2025.08 英国谢菲尔德大学计算机学院博士后,导师:Heidi Christensen 教授


研究方向

研究兴趣聚焦于利用情感计算与多模态人工智能,开创用于评估、监测和理解心理与认知健康的下一代工具,旨在将前沿科技转化为能够深刻影响临床实践的解决方案。主要研究方向包括:

•用于重大脑部疾病诊断与监测的数字化表型:核心研究目标是定义并量化与抑郁症和阿尔兹海默症等心理与认知健康相关的数字化行为与生理表型,并专注于发掘并验证具有高灵敏度和特异性的语音生物标志物,旨在将这些客观指标转化为可临床应用的工具,以期改变当前以主观量表为依赖的诊断模式,实现对认知健康轨迹的高效、长期、无创和精准监测。

•多模态情感计算与行为动力学解析:致力于开发能够解码人类复杂情感状态的先进计算模型。通过融合语音声学、面部微表情、生理信号(如心率变异性、皮电反应)等多模态数据流,我的研究不仅旨在实现对基础情绪的精准分类,更着眼于捕捉和量化情感状态的动态变化轨迹、强度以及混合情感的细微表达。这项基础性研究为后续的异常精神状态(如抑郁、焦虑)检测提供了核心的情感生物标志物与理论基础。

•构建可临床转化的智能诊断与预后模型:致力于开发并验证能够融合音频、视频、生理及神经信号的先进机器学习模型,以实现对等心理与认知健康的早期、精准识别。研究不仅追求模型检测性能的卓越,更关注其在真实世界临床环境中的稳健性、可解释性和泛化能力,目标是打造能够辅助临床决策、预测疾病进程并实现个性化干预的智能诊断系统。

•以人为本的数字健康干预与评估系统设计:关注将强大的AI模型无缝融入日常生活的关键环节——人机交互。研究探索用户与智能心理/认知健康诊断系统的最佳互动模式,重点解决可用性、数据隐私、用户依从性及长期参与度等核心问题。最终目标是设计出用户友好、体验绝佳的交互界面,确保前沿的健康评估技术能够被广大用户便捷、可靠地在日常生活中使用,从而最大化其临床与社会价值。


科研项目

1. 北京师范大学珠海校区引进人才工作运行和科研启动项目,2025-2027,20万元,主持;

2.人工智能语音分析在运动神经元病认知筛查中的应用及可行性,英国国家卫生研究院项目(National Institute for Health Research),£855710,2024-2027 ,参与(PI: Heidi Christensen);

3.谢菲尔德大学与阿尔伯塔大学健康与人工智能种子基金,£14000,2025-2026,参与(PI: Eleni Stroulia & Xi Wang);

4.CognoSpeak:一种认知健康评估工具,英国国家卫生研究院项目,£1217615,2021-2024,参与(PI: Heidi Christensen);

5.TinyFaces:视频中小人脸的实时检测和聚类,英国国防部国防与安全加速部门(The UK Defence and Security Accelerator),£282409.65,参与(PI:Tanaya Guha);

6.抑郁症自动检测,意大利Vanvitelli 项目,€325000,参与(Alessandro Vinciarelli & Anna Esposito).


代表论文(#共同第一作者)

1. F. Tao, B. Mirheidari, M. Pahar, S. Young, Y. Xiao, H. Elghazaly, F. Peters, C. Illingworth, D. Braun, R. O'Malley, S. Bell, D. Blackburn, F. Haider, S. Luz, H. Christensen, Early Dementia Detection Using Multiple Spontaneous Speech Prompts: The PROCESS Challenge, ICASSP 2025.

2.F. Tao, X. Ge, W. Ma, A. Esposito, A. Vinciarelli, Cross-Task Hierarchic Attention Mechanisms for Depression Detection: Analyzing the Interplay Between Read and Spontaneous Speech, BIBM 2024.

3.F. Tao, A. Esposito, A. Vinciarelli, The Androids Corpus: A New Publicly Available Benchmark for Speech Based Depression Detection, INTERSPEECH 2023.

4.F. Tao, X. Ge, W. Ma, A. Esposito, A. Vinciarelli, Multi-local attention for speech-based depression detection, ICASSP 2023.

5.Y. Zeng#, F. Tao#, Z. Cui, L. Wu, J. Xu, W. Dong, C. Liu, Z. Yang, and S. Qin, “Dynamic integration and segregation of amygdala subregional functional circuits linking to physiological arousal,” NeuroImage, vol. 238, pp. 118224, 2021.

6.F. Tao, A. Esposito, and A. Vinciarelli, “Spotting the traces of depression in read speech: An approach based on computational paralinguistics and social signal processing,” INTERSPEECH 2020.

7.S. Young, F. Tao*(通讯), B. Mirheidari, M. Pahar, M. Reuber, H. Christensen, Can Speech Accurately Detect Depression in Patients with Comorbid Dementia? An Approach for Mitigating Confounding Effects of Depression and Dementia, INTERSPEECH 2025


社会工作

The Prediction and Recognition of Cognitive Decline through Spontaneous Speech Signal Processing Grand Challenge,ICASSP 2025 Track Chair

IEEE Transactions on Affective Computing,Journal of Affective Disorders等SCI/SSCI审稿人

INTERSPEECH 2025, ICASSP 2025, INTERSPEECH 2024, ICASSP 2024, ICASSP 2023, ICONIP 2023, IMWUT 2023等计算机会议审稿人