文章
2023-12-25
来自:开发者社区
19ContraBERT:顶会ICSE23 数据增强+对比学习+代码预训练模型,提升NLP模型性能与鲁棒性:处理程序变异(变量重命名)【网安AIGC专题11.15】
写在最前面随着大规模代码的崛起,无监督学习成为了提高代码预训练模型性能的有效手段。这些预训练模型在广泛的下游任务中表现出色,如自然语言处理和程序语言处理。例如,像CodeBERT和GraphCodeBERT这样的模型在预训练阶段通过大规模代码数据学到通用的表示,并在下游任务上进行微调,取得了优于传统监督学习方法的成绩。然而,这些模型在面对代码变异等挑战时,鲁棒性仍然有待提高。该论文关注的问题是:....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
{"cardStyle":"activityCardStyle","productCardInfo":{"productTitle":"","productDescription":"","productContentLink":"","isDisplayProductIcon":true,"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"AI 内容创作","activityDescription":"一站式解决 AI 文案、图片、海报、视频创作难题,为内容创作提供无限可能 ","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock","activityButton1":{"activityButtonText":"查看详情","activityButtonLink":"https://www.aliyun.com/benefit/scene/image"},"activityButton2":{"activityButtonText":"立即体验","activityButtonLink":"https://bailian.console.aliyun.com/?tab=model#/efm/model_experience_center/vision?currentTab=imageGenerate&modelId=qwen-image"},"activityButton3":{"activityButtonText":"立即购买","activityButtonLink":"https://www.aliyun.com/benefit/scene/image#J_2"}}}
AI 内容创作
一站式解决 AI 文案、图片、海报、视频创作难题,为内容创作提供无限可能