英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜
英伟达最近发布了一项名为Star Attention的创新技术,该技术旨在解决基于Transformer的大型语言模型(LLM)在长序列推理过程中面临的计算成本高和速度慢的问题。Star Attention通过引入一种两阶段的块稀疏近似方法,显著提升了计算效率,同时最大限度地减少了通信开销。 在传统的Transformer模型...
CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA
近期,卡内基梅隆大学(CMU)和清华大学的研究人员在人工智能领域取得了一项重要突破,他们成功训练了一个语言大模型(LLM),使其能够像人类数学家一样进行思考和证明。这项研究成果名为LeanSTaR,它通过结合形式化验证和机器学习技术,在数学证明任务上取得了新的SOTA&#...
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。