IBM开放自家GraniteAI模型源码,有效降低开发人员使用LLM门槛

逢纪说科技 2024-05-18 03:30:45

近两年来,开放源码促进会(OSI)一直致力于AI兼容之开放源码的定义工作。但所有大型语言模型(LLM)的开源都必须基于Apache 2.0授权条款进行授权,以利用于研究和商业用途。但正是这个“商业”用途,让LLM开源变得很困难。Meta便曾宣称他们已开源了自己的LLM,但其实并没有完成。如今IBM成功做到自家LLM的开源。

IBM通过使用公开可用数据集的预训练数据,成功开源了Granite LLM程序代码,这些数据集包括GitHub无瑕程序代码(Clean Code)、Starcoder数据、公共程序代码库和GitHub issue。这些解码器模型(decoder-only model)接受了116种程序语言的程序代码训练,具备30亿到340亿个参数。这些模型支持开发人员各种应用,包括从复杂的应用程序现代化到设备内存受限等任务。

去年IBM生态系宏观经济理Kate Wooley曾表示,Granite LLM模型并不是要满足所有人的需求,其为经过精心策划调整的模型,并且专门针对IBM希望企业使用的商业使用案例。具体而言,这些模型是用于程序设计的。

任何人皆可通过InstructLab及Ollama使用Granite LLM

IBM已在内部IBM Watsonx Code Assistant(WCA)产品中使用这些LLM,包括用于IT自动化的WCA for Ansible Lightspeed和用于现代化COBOL应用程序的WCA for IBM Z。虽然并不是每个人都能负担得起Watsonx,但现在任何人都可以通过IBM和Red Hat的InstructLab使用Granite LLM。

Red Hat资深副总裁暨首席产品官Ashesh Badani表示,InstructLab将“降低生成式AI在混合云上面临的许多障碍(从有限的数据科学技能到所需的庞大资源)”。其重点是降低开发人员使用LLM的门槛。大约1年前,这些功能还需要搭配高端且相当昂贵的硬件才能使用,如今即使在笔记本上也能顺畅运行。不仅如此,过去LLM训练动輙数亿美元,现在只需几千美元就能搞定。

除了InstructLab之外,开发人员还可以使用Ollama在本地端运行LLM。通过Ollama,开发人员运行LLM所需的一切(模型权重和所有配置)全都打包在Modelfile中。它就好比是LLM的Docker一样。这些模型可以在Hugging Face、GitHub、Watsonx.ai和Red Hat Enterprise Linux (RHEL) AI等平台上获得。

IBM预计,开发人员除了可用Granite LLM写程序代码之外,还可以用来创建测试以及查找/修复错误来节省时间和精力。换言之,开发人员日常工作中许多例行但必要的任务(从生成单元测试到编写设计文件或运行漏洞测试),都可以通过这些模型自动化。

(首图来源:科技新报)

0 阅读:8

逢纪说科技

简介:感谢大家的关注