4月20日,生成人工智能艺术工具Stable Diffusion背后的初创公司Stability AI今天开源了一套文本生成人工智能模型,这是一个类ChatGPT模型,支持文本问答、创意写作、代码生成等功能。旨在与OpenAI的GPT-4等系统正面对决。
官网博客地址:
Stability AI被称为StableLM,在GitHub和Hugging Face(一个托管AI模型和代码的平台)上以“alpha”形式提供,Stabletease AI表示,这些模型可以生成代码和文本,并“演示小型高效模型如何通过适当的培训提供高性能。”
据悉,StableLM推出了30亿、70亿参数两种版本,后续还将推出150亿和650亿,1750亿的大参数也在计划中。该模型允许商业化但必须遵守CCBY-SA-4.0许可的条款。
支持中文。StableLM仅用10个小时github已突破3000颗星,其高性能低资源消耗非常适用于中小型企业和个人开发者,普通笔记本也能运行。
稳定人工智能团队在公司网站上的一篇博客文章中写道:“语言模型将构成我们数字经济的支柱,我们希望每个人都在设计中拥有发言权。”
stability.ai: stability.ai
Github开源地址: github.com/stability-A…
测试地址: huggingface.co/spaces/stab…
Discord公告摘录:
我们非常兴奋地宣布推出StableLM-Alpha;一个漂亮而闪亮的新发布的开源语言模型!开发人员、研究人员和好奇的业余爱好者都可以自由检查、使用和调整我们的StableLM基础模型,用于商业和/或研究目的! 兴奋了吗?
我们来谈谈参数吧!该模型的Alpha版本有30亿和70亿个参数,随后将有150亿至650亿个参数模型。StableLM是在EleutherAI的“The Pile”上构建的新实验数据集(一个825GiB的多样化的开源语言建模数据集,由22个更小、高质量的数据集组合在一起!)尽管StableLM的参数很小,但该数据集的丰富性使StableLM在会话和编码任务中的高性能出人意料。
相关报道:
透明的。我们开源我们的模型,以提高透明度和促进信任。研究人员可以 "查看引擎盖 "以验证性能,研究可解释性技术,识别潜在的风险,并帮助开发保障措施。公共和私营部门的组织可以为他们自己的应用调整("微调")这些开源模型,而不需要分享他们的敏感数据或放弃对其人工智能能力的控制。
可访问性。我们为边缘设计,使日常用户可以在本地设备上运行我们的模型。使用这些模型,开发者可以建立与广泛使用的硬件兼容的独立应用,而不是依赖一两家公司的专有服务。通过这种方式,人工智能的经济利益被广泛的用户和开发者社区所分享。对我们的模型的开放、细粒度的访问允许广泛的研究和学术界开发可解释性和安全技术,而这是封闭模型所无法做到的。
支持性。我们建立模型来支持我们的用户,而不是取代他们。我们专注于高效、专业和实用的人工智能性能--而不是追求神一样的智能。我们开发工具,帮助普通人和普通公司使用人工智能来释放创造力,提高他们的生产力,并开辟新的经济机会。
这些模型是在名为The Pile的数据集上训练的,该数据集混合了来自PubMed、StackExchange和维基百科等网站的互联网刮擦文本样本。但Stability AI声称它创建了一个自定义训练集,将标准桩的大小扩大了3倍。
Stability AI在StableLM的回购协议中写道:“就像任何没有额外微调和强化学习的预训练大型语言模型一样,用户获得的响应质量可能各不相同,并可能包括冒犯性语言和视图。”“预计这将随着规模、更好的数据、社区反馈和优化而得到改善。”