黄倩
职称:副研究员
联系电话:
电子邮箱:huangqian@hhu.edu.cn
教育背景
2003.09-2010.07中国科学院计算技术研究所工学博士
1999.09-2003.07南京大学计算机科学与技术系理学学士
研究领域
领域多媒体计算、领域机器学习
获奖情况
2023.11,水利部黄河水利委员会科技进步奖一等奖,排名10/15
2023.06,河海大学教学成果奖特等奖,排名2/10
2022.12,江苏省信息技术应用学会科技创新奖一等奖,排名1/6
2022.08,中国高等教育博览会“校企合作 双百计划”典型案例,排名2/6
2022.03,二〇二一年江苏省教学成果奖二等奖,排名8/18
2021.06,河海大学优秀共产党员
2021.02,河海大学教学成果奖特等奖,排名6/12
2021.01,2020年度中国人工智能学会优秀学会会员
2020.09,河海大学疫情防控期间线上教学优秀教师
2019.03,河海大学教学成果奖特等奖,排名12/13
学术成果
[1] Y. Wang, Q. Huang*, B. Tang, H. Sun, X. Guo, and Z. Miao, “Temporal context video compression with flow-guided feature prediction,” Expert Syst. Appl., vol. 247, Aug. 2024, DOI: 10.1016/j.eswa.2024.123322 (中科院一区Top)
[2] C. Li, Y. Mao, Q. Huang, X. Zhu and J. Wu, “Scale-aware graph convolutional network with part-level refinement for skeleton-based human action recognition,” IEEE Trans. Circuits Syst. Video Technol., 2024, DOI: 10.1109/TCSVT.2023.3334872 (中科院一区Top)
[3] 黄倩, 崔静雯*, 李畅. 基于骨骼的人体行为识别方法研究综述. 计算机辅助设计与图形学学报, vol. 36, no. 2, Feb. 2024, pp. 173-194. (中国科协T1)
[4] X. Li, Q. Huang*, Z. Wang, T. Yang, Z. Hou, and Z. Miao, “Real-time 3-D human action recognition based on Hyperpoint sequence,” IEEE Trans. Ind. Inf., vol. 19, no. 8, pp. 8933-8942, Aug. 2023. (中科院一区Top)
[5] 柳强, 何明, 刘锦涛, 牛彦杰, 黄倩. 无人机“蜂群”的蜂拥涌现行为识别与抑制机理. 电子学报, vol. 47, no. 2, Feb. 2019, pp. 374-381. (中国科协T1)
[6] Y. Zhang, H. Lv, Y. Liu, H. Wang, X. Wang, Q. Huang, X. Xiang, and Q. Dai, “Light field depth estimation via epipolar plane image analysis and locally linear embedding,” IEEE Trans. Circuits Syst. Video Technol., vol. 27, no. 4, pp. 739-747, Apr. 2017. (中科院一区Top)
[7] Q. Huang, D. Zhao, S. Ma, W. Gao, and H. Sun, “Deinterlacing using hierarchical motion analysis,” IEEE Trans. Circuits Syst. Video Technol., vol. 20, no. 5, pp. 673-686, May 2010. (中科院一区Top)
[8] 孙亮, 黄倩. 《实用机器学习》. 人民邮电出版社, May 2017, ISBN:978-7-115-44646-6 (入选“十三五”国家重点出版物出版规划)
[9] 吕秀锋, 黄倩 译. 《C语言程序设计:现代方法(第2版)》. 人民邮电出版社, Apr. 2010 (被誉为“珍宝级C语言入门经典”,截至2023.12累计销量10万+)
[10] 黄倩, 钱丽艳 译. 《编程珠玑(第2版)》. 人民邮电出版社, Oct. 2008 (51CTO第二届最佳IT技术图书奖,截至2023.12累计销量30万)