技术编号:30223638
提示:您尚未登录,请点 登 陆 后下载,如果您还没有账户请点 注 册 ,登陆完成后,请刷新本页查看技术详细信息。.本发明涉及的是模型压缩技术领域,具体涉及一种多老师监督下的多分支学生网络的知识蒸馏方法。背景技术.通常我们训练出的神经网络模型都比较大,将大模型直接部署到线上的时候计算时长较长,将这些模型部署到例如手机、机器人等移动设备上时比较困难。模型压缩可以将大模型压缩成小模型,压缩后的小模型也能得到和大模型接近甚至更好的性能。模型压缩主要包括几种模型压缩方法:网络裁剪,知识蒸馏,参数量化和模型结构设计。.一般的知识蒸馏方法是先在训练集上从零训练一个大模型作为老师模型,然后使用一个老师模型监督一个学...
注意:该技术已申请专利,请尊重研发人员的辛勤研发付出,在未取得专利权人授权前,仅供技术研究参考不得用于商业用途。
该专利适合技术人员进行技术研发参考以及查看自身技术是否侵权,增加技术思路,做技术知识储备,不适合论文引用。
请注意,此类技术没有源代码,用于学习研究技术思路。