Ceramic.ai凭借用于基础模型训练的基础设施软件脱颖而出,使企业能够更有效地构建和微调自己的生成式人工智能(GenAI)模型。Ceramic.ai由前谷歌工程副总裁兼梯度风险投资创始人Anna Patterson创立,它提高了人工智能模型训练速度和成本效益,在NVIDIA的加速下,性能比当前最先进的平台提高了2.5倍。

Ceramic.AI的创始人兼首席执行官Anna Patterson表示:“在人工智能采用激增的过程中,由于高昂的成本到有限的基础设施,太多的公司仍然受到规模的阻碍。我们正在使高性能人工智能基础设施的访问民主化,这样公司就可以在不花费数亿美元的研究和工程资源的情况下应对人工智能训练的复杂性。但向企业人工智能的转变不仅仅是为了拥有更好的工具,更是为了改变企业的工作方式。”
解决企业人工智能瓶颈
全球人工智能投资正在经历爆炸式增长,从2023年的160亿美元增长到2027年的估计1430亿美元。尽管支出激增,但74%的公司仍在努力有效地扩展人工智能并实现价值。一个主要的挑战是,构建人工智能基础设施是昂贵、复杂和资源密集型的。尽管科技巨头可以花费数十亿美元开发专有的人工智能基础设施,但大多数企业缺乏优化和扩展自己的人工智能模型的工程资源。
目前的人工智能基础设施可以扩展到10倍,但不是100倍——真正的指数级增长需要完全重新设计。Ceramic.ai通过提供一个企业级平台弥合了这一差距,该平台不仅速度更快,而且从根本上更具可扩展性,可以为下一代人工智能提供动力,大大降低了人工智能模型训练的复杂性和成本。
该软件平台的模型可以在长上下文和任何集群规模下进行训练,使企业能够比传统方法更快地开发、训练和扩展自己的人工智能模型。对于较小的模型,Ceramic.ai在NVIDIA H100 GPU上的速度比当前最先进的平台快2.5倍,对于大型长上下文模型,Ceromic.ai是快速训练的唯一可行选择。

为人工智能发展创造公平的竞争环境
Ceramic.ai开发了一个全面的平台,解决了企业人工智能部署的核心挑战:
速度和效率:Ceramic.ai的训练基础设施的效率比开源堆栈高2.5倍,在降低训练成本的同时提高了模型性能。
独有的长上下文训练能力:Ceramic.ai是唯一一个可以在长上下文数据上训练大型模型的平台,提供无与伦比的质量和性能。该公司在长上下文模型训练方面的表现优于所有报告的基准,即使在70B+参数模型上也保持了高效率。
卓越的推理模型性能:Ceramic训练了一个用于解决问题的推理模型,并实现了精确匹配Pass@1GSM8K的得分为92%,将Meta的Llama70B 3.3基础模型从78%提高到84%,表现优于DeepSeek的R1。
优化数据处理:Ceramic重新订购训练数据,确保每个微批次按主题对齐。目前的方法要么掩盖其他文档,失去更长上下文长度的好处,要么关注无关的文档,学习坏习惯。通过重新排序训练数据,使其出现在64k或128k的上下文中,所有这些都是关于同一主题的,通过增加了注意力可以二次学习的数据点的数量。
Ceramic.ai由大型基础设施专家团队打造,在早期试验中已经帮助企业降低成本并提高模型训练效率。他们正在与Lambda、AWS和其他公司合作进行加速训练。
Lambda的BD副总裁Sam Khosroshai表示:“Ceramic.ai是寻求提高效率和卓越性价比的人工智能开发商和企业的游戏规则改变者。”“综合起来,我们的产品为客户提供了一个加速的全栈解决方案,该解决方案经过基础设施和模型专业知识的验证和支持。这使客户能够实现更快的结果、降低的开发成本和更高质量的解决方案。”

为了支持其快速增长和持续发展,Ceramic.ai从NEA、IBM、Samsung Next、Earthshot Ventures和Alumni Ventures获得了1200万美元的种子资金。这笔资金正在加速产品开发,扩展平台,扩大Ceramic.ai的企业客户群,以满足日益增长的需求。
NEA合伙人兼人工智能战略主管Lila Tretikov表示:“到目前为止,人工智能的飞速发展就像一枚拴在马车上的火箭。”“Anna和她在Ceramic.ai的团队在算法上打破了模型训练的一个关键瓶颈,使其更快、更高效、更可扩展。有了Ceramic,公司可以将已经庞大的人工智能训练工作量扩展100倍,而不会相应地增加成本或复杂性。”
“我们对Ceramic的投资展示了IBM如何推动创新,巩固高度战略性领域的合作伙伴关系,”IBM风险投资全球负责人、副总裁Emily Fontaine说。“我们很高兴与Ceramic合作,以满足降低人工智能计算成本、提高培训效率和可及性的迫切需求。”