二月里, 元 在快速发展的人工智能世界中做出了一个不同寻常的举动:它决定放弃其 AI 皇冠上的珠宝。
这家拥有 Facebook、Instagram 和 WhatsApp 的硅谷巨头创建了一个 人工智能技术,称为 LLaMA,可以为在线聊天机器人提供动力。 但是,Meta 并没有将技术保密,而是将系统的底层计算机代码公开发布。 将电子邮件地址提供给 Meta 的学者、政府研究人员和其他人可以在公司对个人进行审查后下载代码。
从本质上讲,Meta 将其 AI 技术作为开源软件——可以自由复制、修改和重复使用的计算机代码——提供给外部人员快速构建自己的聊天机器人所需的一切。
“获胜的平台将是开放平台,”Meta 的首席人工智能科学家 Yann LeCun 在接受采访时说。
作为 引领人工智能的竞赛 随着整个硅谷的升温,Meta 通过采用不同的技术方法从竞争对手中脱颖而出。 在其创始人兼首席执行官的推动下, 马克·扎克伯格Meta 认为,最明智的做法是共享其底层 AI 引擎,以此作为传播其影响力并最终更快地走向未来的一种方式。
它的行为与谷歌和 开放人工智能,这两家公司引领着新的人工智能军备竞赛。 由于担心聊天机器人等人工智能工具会被用来传播虚假信息、仇恨言论和其他有毒内容,这些公司对支撑其人工智能产品的方法和软件越来越保密。
谷歌、OpenAI 和其他公司一直批评 Meta,称不受约束的开源方法是危险的。 人工智能近几个月的迅速崛起已经敲响了对该技术风险的警钟,包括如果部署不当可能会颠覆就业市场。 在 LLaMA 发布后的几天内,该系统就泄露到了 4chan,这是一个以传播虚假和误导性信息而闻名的在线留言板。
帮助监督人工智能工作的谷歌研究副总裁 Zoubin Ghahramani 表示,“我们希望更仔细地考虑放弃人工智能技术的细节或开源代码”。 “这会导致滥用吗?”
谷歌内部的一些人也想知道开源人工智能技术是否会构成竞争威胁。 在本月的一份备忘录中,该备忘录已在在线出版物上泄露 半分析网,一位谷歌工程师警告同事,像 LLaMA 这样的开源软件的兴起可能会导致谷歌和 OpenAI 失去他们在 AI 领域的领先地位
但 Meta 表示,它认为没有理由将其代码保密。 谷歌和 OpenAI 日益保密是一个“巨大的错误”,LeCun 博士说,“对正在发生的事情的看法非常糟糕”。 他认为,除非它不受谷歌和 Meta 等公司的控制,否则消费者和政府将拒绝接受人工智能。
“你想让每个人工智能系统都在几家强大的美国公司的控制之下吗?” 他问。
OpenAI 拒绝置评。
Meta 的 AI 开源方法并不新颖。 技术史上充斥着开源与专有或封闭系统之间的斗争。 一些人囤积了用于构建未来计算平台的最重要的工具,而另一些人则放弃了这些工具。 最近,谷歌开源了 Android 移动操作系统,以取代苹果在智能手机领域的主导地位。
在研究人员的坚持下,许多公司过去曾公开分享他们的人工智能技术。 但由于围绕 AI 的竞争,他们的策略正在发生变化 这种转变始于去年,当时 OpenAI 发布 ChatGPT. 聊天机器人的巨大成功令消费者惊叹不已,并引发了人工智能领域的竞争,谷歌迅速采取行动将更多人工智能融入其产品中, 微软向 OpenAI 投资 130 亿美元.
虽然谷歌、微软和 OpenAI 此后受到了 AI 领域的大部分关注,但 Meta 也在该技术上进行了近十年的投资。 公司拥有 花费数十亿美元构建软件和硬件 需要实现聊天机器人和其他“生成式 AI”,它们可以自行生成文本、图像和其他媒体。
最近几个月,Meta 在幕后疯狂工作,将其多年的 AI 研发融入新产品。 扎克伯格先生专注于使公司成为 AI 领导者,每周与他的执行团队和产品负责人就该主题举行会议。
周四,作为对人工智能的承诺,Meta 表示它已经设计了一种新的计算机芯片,并改进了一种专门用于构建人工智能技术的新型超级计算机。 它还正在设计一个新的计算机数据中心,着眼于创造人工智能
“多年来,我们一直在为 AI 构建先进的基础设施,这项工作反映了长期的努力,这些努力将使这项技术在我们所做的一切事情中取得更大的进步和更好的使用,”扎克伯格先生说。
Meta 最近几个月最大的 AI 举措是发布了 LLaMA,这被称为 大型语言模型或 LLM(LLaMA 代表“大型语言模型元 AI”。)LLM 是通过分析来学习技能的系统 大量的文字,包括书籍、维基百科文章和聊天记录。 ChatGPT 和谷歌的 Bard 聊天机器人也是建立在这样的系统之上的。
法学硕士在他们分析的文本中找出模式,并学习生成自己的文本,包括学期论文、博客文章、诗歌和计算机代码。 他们甚至可以进行复杂的对话。
2 月,Meta 公开发布了 LLaMA,允许学者、政府研究人员和其他提供电子邮件地址的人下载代码并使用它来构建自己的聊天机器人。
但该公司比许多其他开源 AI 项目走得更远。 它允许人们在对从互联网上挑选的大量数字文本进行训练后下载 LLaMA 的一个版本。 研究人员称之为“释放权重”,指的是系统在分析数据时学习到的特定数学值。
这很重要,因为分析所有数据通常需要数百个专用计算机芯片和数千万美元,而大多数公司都没有这些资源。 那些有实力的人可以快速、轻松、廉价地部署软件,花费的成本只是创建如此强大的软件的一小部分。
因此,科技行业的许多人认为 Meta 开创了一个危险的先例。 几天之内,有人将 LLaMA 权重发布到 4chan 上。
在斯坦福大学,研究人员使用 Meta 的新技术构建了他们自己的 AI 系统,该系统已在互联网上发布。 根据《纽约时报》看到的截图,一位名叫穆萨·敦布亚的斯坦福大学研究员很快就用它来生成有问题的文本。 在一个例子中,系统提供了处理尸体而不被抓住的指令。 它还产生了种族主义材料,包括支持阿道夫希特勒观点的评论。
在泰晤士报看到的研究人员之间的私下聊天中,Doumbouya 先生说,向公众分发该技术就像“杂货店里每个人都能买到的手榴弹”。 他没有回应置评请求。
斯坦福立即从互联网上删除了人工智能系统。 该项目的负责人斯坦福大学教授 Tatsunori Hashimoto 表示,该项目旨在为研究人员提供“捕捉尖端人工智能模型行为”的技术。 “随着我们越来越担心研究环境之外的滥用可能性,我们取消了演示。”
LeCun 博士认为,这种技术并不像看起来那么危险。 他说,少数人已经可以制造和传播虚假信息和仇恨言论。 他补充说,有毒材料可能会受到 Facebook 等社交网络的严格限制。
“你不能阻止人们制造无意义的或危险的信息或其他任何东西,”他说。 “但你可以阻止它被传播。”
对于 Meta 来说,更多使用开源软件的人也可以在与 OpenAI、微软和谷歌竞争时创造公平的竞争环境。 如果世界上每个软件开发人员都使用 Meta 的工具构建程序,它可以帮助巩固公司的下一波创新浪潮,避免潜在的无关紧要。
LeCun 博士还通过最近的历史来解释 Meta 致力于开源 AI 技术的原因。 他说,消费者互联网的发展是开放的、共同的标准的结果,这些标准帮助建立了世界上最快、最广泛的知识共享网络。
“当它开放时,进展会更快,”他说。 “你有一个更加充满活力的生态系统,每个人都可以做出贡献。”