ServiceNow、Hugging Face和NVIDIA发布全新开放获取LLM,助力开发者运用生成式AI构建企业应用

责任编辑:王鹤迦 2024.02.29 11:07 来源:通信世界全媒体

通信世界网消息(CWW)ServiceNow(NYSE:NOW)、Hugging Face和NVIDIA于今日发布StarCoder2,其为一系列用于代码生成的开放获取大语言模型(LLM),将为性能、透明度和成本效益树立新标准。

StarCoder2的联合开发者BigCode社区是由ServiceNow和Hugging Face共同管理。前者是一家领先的数字工作流公司,致力于为每个人创造更好的工作环境;后者则是最常用的开源平台,机器学习社区在该平台上就模型、数据集和应用程序开展合作。

在619种编程语言上训练而成的StarCoder2,可接受进一步的训练并嵌入到企业应用中,以执行应用源代码生成、工作流生成、文本摘要等特定任务。开发者可以使用它的代码补全、高级代码摘要、代码片段检索等功能,加快创新速度及提高工作效率。

StarCoder2提供三种规模的模型:由ServiceNow训练的30亿参数模型、由Hugging Face训练的70亿参数模型,以及由NVIDIA使用NVIDIA NeMo构建并在NVIDIA加速基础设施上训练的150亿参数模型。规模较小的模型由于参数较少,在推理过程中所需的计算量较少,可在提供强大性能的同时节省计算成本。实际上,新的30亿参数模型在性能上与原有的StarCoder 150亿参数模型不相上下。

ServiceNow的StarCoder2开发团队负责人兼BigCode联合负责人Harm de Vries表示:“StarCoder2证明了将开放式科学协作和负责任的AI实践与道德数据供应链相结合所产生的力量。这一极其先进的开放获取模型将提高已有生成式AI的性能和开发者的生产力,为开发者提供平等的机会,获得代码生成式AI的优势。这使任何规模的企业都能更加轻松地激发其全部业务潜力。”

Hugging Face机器学习工程师兼BigCode联合负责人Leandro von Werra表示:“在Hugging Face、ServiceNow和NVIDIA的共同努力下,这套功能强大的基础模型终于问世。在数据和训练完全透明的情况下,社区能够更加高效地构建各种应用。StarCoder2证明了开源和开放式科学的潜力,我们正在努力实现负责任AI的全民化。”

NVIDIA应用研究副总裁Jonathan Cohen表示:“由于每个软件生态系统都有专门的编程语言,代码LLM可以推动各行业效率和创新方面的突破。NVIDIA与ServiceNow和Hugging Face的合作带来了安全且负责任的模型,让更多人能够用上负责任的生成式AI,我们相信这将使全球社区受益。”

StarCoder2模型为自定义应用开发增添强大助力

StarCoder2模型均使用来自BigCode的先进架构和精心挑选的数据源。为了实现负责任的大规模创新,数据源的透明度和开放治理被放在第一位。

StarCoder2提升了未来由AI驱动的编码应用的潜力,包括各种文本-代码和文本-工作流转换功能。通过更加广泛、深入的编程训练,它可以提供资源库上下文,从而实现准确的上下文感知预测。无论是经验丰富的软件工程师还是业余开发者等,都能利用这些进步提升业务价值和推动数字化转型。

StarCoder2的基础是一个名为Stack v2的新代码数据集,该数据集规模比Stack v1大7倍多。除了先进的数据集之外,新的训练技术也有助于模型理解低资源编程语言(如COBOL等)、数学和程序源代码讨论。

使用特定业务数据对先进功能进行微调

用户可以使用NVIDIA、NeMo或Hugging Face TRL等开源工具,利用特定行业或组织的数据,对开放获取的StarCoder2模型进行微调。可以创建高级聊天机器人来处理更复杂的摘要或分类任务、开发能够快速且轻松地完成编程任务的个性化编码助手、检索相关代码片段,并实现文本-工作流转换功能。

为创建适合自身业务的特定任务功能,各企业已经开始对StarCoder基础模型进行微调。

ServiceNow的文本-代码Now LLM就是在150亿参数StarCoder LLM的专用版本上构建而成的,并针对其工作流模式、用例和流程进行了微调和训练。Hugging Face也使用该模型创建了自己的StarChat助手。

BigCode促进AI领域的开放式科学协作

BigCode是一个由Hugging Face和ServiceNow领导的开放式科学协作社区,致力于负责任的代码LLM开发。

BigCode社区以工作组和特别任务组的形式积极参与StarCoder2项目的技术工作,分别使用ServiceNow的Fast LLM框架来训练30亿参数模型、使用Hugging Face的nanotron框架来训练70亿参数模型,以及NVIDIA NeMo云原生框架和NVIDIA TensorRT-LLM软件来训练和优化150亿参数模型。

BigCode的核心宗旨是促进负责任的创新,其开放的治理、透明的供应链、开源软件的使用,以及让开发者选择数据不用于训练等做法都体现了这一点。StarCoder2是在获得Inria托管的Software Heritage数字共享许可下,使用负责任的数据构建而成的。

Software Heritage总监Roberto Di Cosmo表示:“StarCoder2是首个使用Software Heritage源代码存档开发的代码生成式AI模型,其构建方式符合我们负责任地开发代码模型的政策。ServiceNow、Hugging Face和NVIDIA的这一合作体现了对道德AI开发的共同承诺,引领技术朝着更崇高的利益发展。”


通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容