谷歌发布Gemma 2轻量级模型,以牵制Meta的开源模型Llama 3

因为无需占用大量内存或处理能力,Gemma 2让开发者能够将AI部署到手机、个人电脑等资源受限的设备上。

蓝鲸新闻6月28日讯(记者 朱俊熹)全球开发者和研究人员在大语言模型上又多了一项高性价比的选择。

当地时间6月27日,谷歌终于发布了一个月前在I/O开发者大会上预告过的Gemma 2大模型。据谷歌介绍,与第一代Gemma模型相比,新模型拥有更优的性能,推理效率也更高。Gemma 2包括9B和27B两种参数大小,官方宣称,其中27B模型在性能上能够与比其大两倍的模型相媲美,9B模型也优于Meta的Llama 3 8B等相似尺寸的开源模型。

根据谷歌官方博客,Gemma 2的突出优势在于其效率上的提升。27B Gemma 2模型支持在单个Google Cloud TPU主机、英伟达的A100 80GB Tensor Core GPU或H100 Tensor Core GPU上以全精度运行推理,这能够极大地降低部署AI模型所需的硬件要求和成本。在成本减少的同时,谷歌称也能确保该模型在游戏笔记本电脑、高端台式机等各种硬件上保持较快的推理速度。

因为无需占用大量内存或处理能力,Gemma 2让开发者能够将AI部署到手机、个人电脑等资源受限的设备上。目前Gemma 2已上线Google AI Studio,开发者还可以通过数据科学社区Kaggle和开源平台Hugging Face Models下载其模型权重。谷歌还面向研究人员推出了Gemma 2学术研究计划,向他们提供Google Cloud额度。

对于Gemma系列模型,谷歌的定义是开放而非开源。谷歌并不会分享Gemma模型的源代码、训练数据等技术细节,在应用层面上,两代模型都要求用户在遵守许可协议的情况下才能进行商业使用和分发。

这也是谷歌为应对AI竞争所采取的策略:依靠Gemini闭源模型对抗OpenAI,再通过Gemma模型牵制Meta的开源模型。Gemma虽然采用了和Gemini同源的技术,但参数规模更为轻量。

今年2月发布的第一代Gemma模型具有7B和2B两种参数规模,谷歌称其在各种服务平台上的下载次数已超过数百万次。以这两个小模型为基础,谷歌还陆续推出了多款变体模型,包括用于代码生成的CodeGemma、支持高效推理的RecurrentGemma,以及在5月先行发布的视觉语言模型PaliGemma,具备图像处理和语言理解的能力。

谷歌表示,计划在未来几个月内推出2.6B参数的Gemma 2模型,这款新模型将会更适用于在智能手机本地运行的场景。