Meta称其LLaMA 语言模型比OpenAI 的 GPT-3更有前景
在OpenAI推出大型语言模型ChatGPT后,竞争对手纷纷迎头赶上。谷歌有 Bard,微软有新必应。现在,Meta也上线了一个新模型LLaMA。目前,该模型只对研究人员开放。
据了解,LLaMA是 Large Language Model Meta AI 的首字母缩写词,比现有的模型更小,因为它是为无法访问大量基础设施的研究社区构建的。LLaMA 有多种尺寸,从70亿个参数到650亿个参数不等。
Meta方面称,尽管 LLaMA-13B 的尺寸较小,而且少了1620亿个参数,但“在大多数基准测试中”表现优于 OpenAI 的GPT-3。
据报道,最大的模型 LLaMA-65B 与 DeepMind 的Chinchilla70B和PaLM-540B等模型可相提并论。
LLaMA 是一个基础模型:它在大量未标记数据上进行训练,这使得研究人员更容易针对特定任务微调模型。由于模型更小,因此更容易针对用例进行再训练。
LLaMA不仅仅是使用英语文本构建的。Meta使用20种使用拉丁语或西里尔语脚本的语言训练其模型。然而,大多数训练数据都是英语,因此模型性能更好。
Meta 的研究人员声称,由于模型的大小,对当前大型语言模型的访问受到限制。
Meta 认为“这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其稳健性和解决已知问题(例如偏见、侮辱和产生错误信息的可能性)的努力”。
除了使模型更小之外,Meta 还试图让 LLaMA 更易于访问,包括在非商业许可下发布它。
对各种 LLaMA 模型的访问权限只会根据具体情况授予学术研究人员,例如隶属于政府、民间组织和学术界的研究人员。
与 ChatGPT 一样,LLaMA 与其他语言模型一样存在生成有偏见或不准确的信息。Meta 的 LLaMA 声明承认了这一点,并表示通过共享模型,研究人员可以“更轻松地测试新方法来限制或消除大型语言模型中的这些问题。”
Meta在去年5月曾推出一款面向研究人员的名为OPT-175B的大型语言模型,去年年底还发布过另一款模型Galactica,但后者被发现经常分享有偏见或不准确的信息,在48小时内被迅速下架。
我来说两句