Meta AI的首席执行官LeCun:不要从事LLM工作

人工智能
尽管LeCun反对一股脑全部研究LLM,但Transformer训练模型仍在不断发展。AI/ML顾问Dan Hou谈到了GPT-4o,并强调了其训练模型。

出品 | 51CTO技术栈(微信号:blog51cto)

在巴黎举行的初创企业年度技术大会VivaTech上,Meta AI的首席执行官Yann LeCun建议希望在AI生态系统中工作的学生不要从事LLM(大型语言模型)方面的工作。

“如果你是对构建下一代AI系统感兴趣的学生,请不要从事LLM方面的工作。这是大公司的事情,你们无法对此有所贡献,”LeCun在会议上表示。

他还说,人们应该开发能够克服大型语言模型局限性的下一代AI系统。

1.远离LLM

有趣的是,关于LLM(大型语言模型)替代品的讨论已经持续了一段时间。最近,Devika的年轻创始人Mufeed VH(Devika是Devin的替代品)谈到了人们应该如何远离Transformer模型并开始构建新的架构。

“每个人都在做同样的事情,但如果我们专注于不同的架构,比如RMKV(一种RNN架构),那将是非常好的,”Mufeed说,他接着解释了这种特定架构的无限上下文窗口和推理能力。

他还认为,通过这种方法,甚至有可能构建出与GPT-4一样令人印象深刻的东西。

图片图片

2.但是,LLM 仍在不断进步

尽管LeCun反对一股脑全部研究LLM,但Transformer训练模型仍在不断发展。AI/ML顾问Dan Hou谈到了GPT-4o,并强调了其训练模型。

当文本被认为是所有复杂模型的基础时,GPT-4o被设计用来原生地理解视频和音频。这影响了未来版本可以训练的数据量。

“AI能变得多聪明?有了原生的多模态架构,我猜测答案是非常、非常好,”Hou说。

此外,Sam Altman在最近的一次采访中也谈到了数据将不再是问题,从而解决了训练LLM的担忧。可以试想,如果数据问题能够得以解决,LLM的尺度定律将继续存在。

想了解更多AIGC的内容,请访问:

51CTO AI.x社区

https://www.51cto.com/aigc/

责任编辑:武晓燕 来源: 51CTO技术栈
相关推荐

2022-08-08 10:49:31

首席信息官数据经济软件开发

2023-06-28 15:53:05

数字化转型首席信息官

2021-12-20 15:00:59

Veeam

2009-02-23 09:56:25

MySpace首席执行官

2016-01-05 11:00:02

2010-12-22 12:23:30

CRN熊猫安全

2013-10-15 15:50:44

红帽

2022-06-01 10:21:04

首席执行官数字化转型

2023-10-08 11:26:41

AI微软

2024-09-19 10:54:04

2023-02-17 10:53:21

首席信息官数字风险

2013-01-17 09:46:27

博科Lloyd CarneSDN

2013-10-15 09:37:56

微软首席执行官鲍尔默

2019-07-22 21:25:46

SUSE开源软件

2011-07-29 08:56:21

iPadEA游戏

2020-11-11 14:01:09

首席信息官首席执行官Gartner

2022-12-02 13:37:11

DevOps首席执行官

2018-04-09 16:33:07

Riverbed

2021-09-28 09:45:38

AMD芯片短缺工厂

2018-04-12 16:02:30

点赞
收藏

51CTO技术栈公众号