教授
www.优德88.cpm 特聘教授
联系方式
电话:0512-65113107
Email: hankai@suda.edu.cn
办公地点: www.优德88.cpm 理工楼449办公室
地址: 江苏省苏州市干将东路333号
个人主页: web.suda.edu.cn/hk/
主要研究方向
.人工智能
研究领域
.机器学习
.数据智能
代表作
.Shuang Cui#, Kai Han*#, Tianshuai Zhu, Jing Tang, Benwei Wu, and He Huang. Randomized Algorithms for Submodular Function Maximization with a k-System Constraint. International Conference on Machine Learning (ICML), 2222-2232, 2021. (CCF A类会议,机器学习领域Top 会议,通讯作者,一作为本人指导的博士生)
.Kai Han*, Shuang Cui, and Benwei Wu. Deterministic approximation for submodular maximization over a matroid in nearly linear time. Advances in Neural Information Processing Systems (NeurIPS), 33: 430-441, 2020. (CCF A类会议,人工智能领域Top会议,一作兼通讯)
.Qing Xiu, Kai Han*, Jing Tang, Shuang Cui, He Huang*. Chromatic Correlation Clustering, Revisited. Advances in Neural Information Processing Systems (NeurIPS), 2022. (CCF A类会议,人工智能领域Top会议,通讯作者,一作为本人指导的硕士生)
. Kai Han*, Benwei Wu, Jing Tang, Shuang Cui, Cigdem Aslay, and Laks VS Lakshmanan. Efficient and effective algorithms for revenue maximization in social advertising. Proceedings of International Conference on Management of Data (SIGMOD), 671-684, 2021. (CCF A类会议,大数据领域Top 会议,一作兼通讯)
. Kai Han*, Fei Gui, Xiaokui Xiao, Jing Tang, Yuntian He, Zongmai Cao, and He Huang. Efficient and effective algorithms for clustering uncertain graphs. Proceedings of the VLDB Endowment (PVLDB), 12(6): 667-680, 2019. (CCF A类会议,大数据领域Top 会议,一作兼通讯)
个人简介
韩恺,www.优德88.cpm 特聘教授,博士生导师。分别于中国科学技术大学少年班和中国科学技术大学计算机科学与技术系获理学学士和工学博士学位;后曾于中国科学技术大学数学系计算数学专业博士后流动站出站;并曾在新加坡南洋理工大学计算机科学与工程学院长期从事访问研究。2015年以海外人才引进方式回国到中国科学技术大学计算机科学与技术学院任博士生导师;2019年于中科大晋升为研究员(正高在编);并于2022年调任www.优德88.cpm 计算机学院任特聘教授。韩恺长期从事人工智能与机器学习、大数据处理等领域的研究,多次受邀担任国际顶级会议如NeurIPS、KDD、WWW、AAAI、WSDM、ICNP、ICDCS等的程序执行委员会委员,并曾承担了国家自然科学基金重点、面上、青年项目、科技部科技创新2030-“新一代人工智能”重大项目等多项国家级重要项目。在论文发表方面,韩恺已在重要SCI/EI刊物上发表或录用论文百余篇,其中有多篇第一作者/通讯作者论文发表在人工智能、数据库、计算机网络等多个领域的世界最顶级会议如ICML、NeurIPS、SIGMOD、VLDB、SIGMETRICS等。自2015年于中国科学技术大学担任博士生导师以来,韩恺已指导博士、硕士、本科生一百余人,所指导的学生毕业后有多人赴美国卡内基梅隆、加州大学伯克利分校、俄亥俄州立大学、香港科技大学等名校深造,或赴华为、字节跳动、百度、网易等国内知名企业工作。