一文读懂模型压缩发表时间:2023-03-18 18:16作者:沃恩智慧 根据斯坦福的AI年度报告,从趋势上来讲,整个DL界的模型都在越做越大,不管是CV还是NLP,不管是学界还是业界。随着预训练范式逐渐成为通识,之前的小模型将逐渐被淘汰,模型压缩在业界和学界也越来越受到关注。从就业角度讲,模型的效率要求越高,模型压缩工程师的需求就越大。模型压缩将在接下来的业界逐渐变得重要。 当然,随着深度学习的发展,模型变得越来越复杂,随之而来的模型参数也越来越多,需要训练的模型对于硬件的要求也越来越高。因此,模型压缩技术是通过提高推理速度,降低模型参数量和运算量来解决模型使用成本的问题。现在主流的模型压缩方法包含剪枝和量化。模型的剪枝是为了减少参数量和运算量,而量化是为了压缩数据的占用量。因此,不论是学术的角度还是就业的角度,模型压缩都是值得深入研究和探索的领域。 沃恩智慧导师--QS Top-60高校人工智能科学博士李老师为大家精读关于模型压缩的相关前沿论文,同时分析模型压缩当下前沿热点、研究趋势,带大家寻找论文的创新点及idea。 李老师师从IEEE Fellow,具备极强的学术届和工业界综合背景。目前累计发表包括NeurIPS,CVPR, ECCV,ICLR,AAAI, ICASSP等CCF-A/B类会议论文超15篇,长期担任CVPR, ECCV, NeurIPS, AAAI, ACM MM等顶会审稿人。同时已经指导超30名本硕学生发表SCI高区论文。 因此,在直播中,李老师也将分享自己作为模型压缩er在学界和业界的经历及经验总结,相信对大家一定会有很多启发。 扫码领取模型压缩大咖直播课程 领取深度学习、模型压缩值得一读论文合集 作为CVer,没有人能够忽略顶会论文可以带来的巨大价值,着眼未来,往这方面投入,收益比基金炒股Up Up~于是发顶会就变得越来越难,顶会论文也变得越来越卷…… 而要发论文,踏出做科研的第一步,一些来自前辈或者导师的经验指导其实是必不可少的。怎样上手新手任务,怎样避坑,怎样高效开始科研,这些,其实都需要一些来自大神的指点。 扫码免费听顶会大佬直播课 限前一百名粉丝 (领NLP论文、书籍合集) 想要能够快速发论文有两点至关重要。 一、紧跟风口。 想发文章容易的方法是紧跟风口,顺着领域内的研究趋势确定自己的方向,毕竟在热门领域内,创新和idea远比其他非热门领域多。 二、有一位有经验有能力的前辈指导。 大家都在努力的设计新网络、新策略、新Training算法,只要能够在某一问题上做到一个很好的Performance,论文就水到渠成。而想要快速达到,旁人的指点不可或缺。 沃恩智慧导师--NLP方向大神Druid老师来和大家讲讲自然语言处理如何入门,上手科研~ (悄悄透露,这位老师,已经指导多名学员的论文写作,认真耐心,很多学员经老师指点已经发出高水平论文) 想要快速发论文,想要Get idea的同学,别错过公开课哦~ 扫码获取听课地址+最新论文合集 作为日常为了论文而忙碌的科研人,小编知道大家一定很需要一些资料。因此,小编精心整理了一份超全1T的AI顶会论文大礼包!包含顶会论文、书籍等资料,以及英文论文写作指导保姆级资料,从文献阅读到论文写作,全部帮你整理好~ 扫码免费领课程资料↑ -END- |