发布于: 雪球转发:0回复:0喜欢:0
回复@icefighter: 呵呵,区块链、元宇宙不知道去哪里了,不过相关股票确实炒作了一把,相同的故事在继续//@icefighter:回复@格隆汇:中美两国的人工智能差距在拉大,至少说了次真话。
其实国外很多专家已经通过AI的历史得出结论,所谓的算法并不重要,算力是唯一重要的。
就连AI涌现的智能看起来是突变,也是错觉,其实还是线性变化。
涌现能力的文章中,评价标准一般是非黑即白,比如说一个模型只预测对了一大部分,只要没达到精确对应,分数都是0,只有0和1的区别
在这个非线性标准下,意味着LLM模型能力一旦过了一个门槛,能力分数就会突然惊人的爆发,也就是所谓的“涌现”。
论文里举的例子是把精确答案的评价标准修改成了“edit distance”,也就是和标准答案之间的距离,结果发现随着模型的增大,离标准答案的距离也越来越近,所以实际上这项能力就是线性增长的。
最近一个AI专家的访谈也确认了AI的本质。
“AGI:AI 本质就是一堆 scaling law
海外独角兽:我们把 LLM 的训练比作登月,月之暗面的名字也和登月相关。你怎么看现在创业公司的 LLM 训练,在 GPU 和算力资源有限的条件下,还能实现登月吗?
杨植麟:“登月”有几个不同的生产要素,算力肯定是一个核心,但还有其他的。
你需要一个同时满足 scalability 和 generality 这两点的架构,但今天其实很多架构已经不满足这两条了。transformer 在已知的 token space 符合这两条,但放大到一个更通用的场景,也不太符合。数据也是一个生产要素,包括整个世界的数字化,和来自用户的数据。
所以在很多核心生产要素中,通过改变其他的生产要素,可以让算力利用率变高。
同时,针对“登月”,算力肯定要持续增长。今天能看到最好的模型是 10 的 25 到 26 次方 FLOPs 这种规模。这个数量级接下来肯定还会持续增长,所以我认为算力是个必要条件,因为机器学习或者 AI 研究了七八十年,唯一 work 的东西其实是 scaling Law,就是放大这几种生产要素。”
在算力层面,我们以后差距会越拉越大的。
引用:
2024-02-19 10:14
有时候生活中的无力感就是,你明知道世界正在发生巨大颠覆,却无法参与这一变迁,只能旁观他人的狂欢,甚至你还清楚不久的将来,你的生活一定会因此被裹挟着向前。
Open AI正是这么一家改变全人类生活的伟大公司,继文本模型ChatGPT、图像模型Dall-E大杀四方后,OpenAI继续祭出大杀器——Sora...