管界超

副教授

联系邮箱: guanjch5@mail.sysu.edu.cn

联系地址: 中山大学计算机学院A624

个人主页: https://openreview.net/profile?id=~Jiechao_Guan1

教师简介

管界超,预聘助理教授,博士生导师。在中国人民大学获得数学专业学士学位和计算机专业博士学位,曾在香港科技大学(广州)人工智能学域担任博士后研究员。研究方向是机器学习理论与算法,以第一作者身份在机器学习期刊和会议TPAMI、ICML、NeurIPS、ICLR上发表多篇论文,曾获NeurIPS和ICLR的Spotlight奖。

过往研究

关注元学习(多任务学习)的泛化理论和算法设计。

(1)统计元学习:在不利用额外理论假设情形下,通过新提出的分析技巧获得了首个具有快速收敛速率的PAC-Bayes元学习泛化误差界;利用算法稳定性技术,为基于“support/query划分训练策略”的现代元学习算法提出了收敛速率几乎最优的泛化误差界,揭示了“现代support/query训练策略”相比于“传统经验损失最小化训练策略”的优势和不足。

(2)在线元学习:在损失函数非凸非Lipschitz连续情形,设计出了首个具有渐近后悔界保证(即迭代次数趋于无穷时后悔界趋于0)的在线多任务学习算法,用于单任务在线算法Hedge的超参数动态调整;针对层次贝叶斯老虎机问题,设计出了首个具有对数贝叶斯后悔界的多任务老虎机算法-层次贝叶斯UCB(HierBayesUCB)。

学生招收

欢迎对机器学习理论分析、算法设计、实际应用感兴趣的博士生、硕士生、本科生加入实验室。需具有数学、统计、计算机等相关专业背景,希望联系的同学踏实进取,有志于研究出更加高效、实用、深刻的机器学习理论与算法

实验室目前有2026年/2027年秋季入学的博士与硕士研究生名额,如有意向,欢迎与我邮件联系。

未来方向

关注多智能体强化学习、持续学习、元强化学习的理论、算法、应用。

(1)多智能体强化学习。研究博弈多智能体均衡(最优)策略的高效生成和实际部署,代表性方法包括一阶在线优化、反事实后悔分解、神经网络近似、大语言模型生成,关注算法在游戏(如德扑、斗地主、星际争霸)等竞争型智能体场景的应用。

(2)持续学习。研究持续学习算法的灾难遗忘产生机理与预防机制,代表性方法包括多元回归分析、基于基础模型的低秩微调(LoRA),关注算法在持续回归与分类场景(如机器人自主避障)的应用。

(3)元强化学习。研究面向老虎机算法超参数微调的在线元学习方法,代表性方法包括层次强化学习、先验估计,关注算法在多任务流式老虎机场景(如在线商品推荐)的应用。

教育背景

2018-2023,中国人民大学,计算机应用技术专业,博士

2014-2018,中国人民大学,数学与应用数学专业,学士

工作经历

2025-至今,中山大学计算机学院,副教授

2023-2025,香港科技大学(广州)人工智能学域,博士后

科研项目

国家自然科学基金青年基金项目(C类):基于算法超参数优化的在线多任务学习理论与方法,2026-2028,主持

广东省面上项目:面向持续学习的超参数自适应优化理论与算法研究,2026-2028,主持

代表论文

[NeurIPS] Jiechao Guan, Hui Xiong: Improved Bayes Regret Bounds for Multi-Task Hierarchical Bayesian Bandit Algorithms. Conference on Neural Information Processing Systems, 2024.

[ICLR] Jiechao Guan, Hui Xiong: Improved Regret Bounds for Non-Convex Online-Within-Online Meta Learning. International Conference on Learning Representations, 2024.

[NeurIPS] Jiechao Guan, Yong Liu, Zhiwu Lu: Fine-Grained Analysis of Stability and Generalization for Modern Meta Learning Algorithms. Conference on Neural Information Processing Systems, 2022. (Spotlight, top 5%)

[ICML] Jiechao Guan, Zhiwu Lu: Fast-Rate PAC-Bayesian Generalization Bounds for Meta-Learning.International Conference on Machine Learning, 2022.

[ICLR] Jiechao Guan, Zhiwu Lu: Task Relatedness-Based Generalization Bounds for Meta Learning. International Conference on Learning Representations, 2022. (Spotlight, top 5%)

[TPAMI] Jiechao Guan, Zhiwu Lu, Tao Xiang, Aoxue Li, An Zhao, Ji-Rong Wen: Zero and Few Shot Learning with Semantic Feature Synthesis and Competitive Learning. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021.

[NeurIPS] An Zhao*, Mingyu Ding*, Jiechao Guan*, Zhiwu Lu, Tao Xiang, Ji-Rong Wen: Domain-Invariant Projection Learning for Zero-Shot Recognition. Conference on Neural Information Processing Systems, 2018. (* equal contribution)