发布于: iPhone转发:12回复:14喜欢:22
$特斯拉(TSLA)$ Andrej Karpathy:人工智能领域正在进行的整合令人难以置信。十年前,视觉、语音、自然语言、强化学习等,是完全独立的;一个人很难读懂跨领域的所有论文——各领域方法完全不同,甚至未必基于机器学习。到2010年,所有这些领域开始过渡到 1)机器学习,特别是2)神经网络。虽然架构多种多样,但至少论文读起来开始有点相似,都在利用大规模数据集,都在进行神经网络的优化。最近两年,几乎所有领域的神经网络架构开始统一到Transformer,要么作为强大的基线,要么(往往)就是最先进水平。输入可以是词语序列、图块序列、语音片段序列、强化学习的(状态、行动、奖励)序列,可以接受任意种类的Token——实在是一种极简又灵活的建模框架。即使在同一领域(如视觉),过去在分类、分割、检测、生成等不同任务也有不小的差异,如今也都转到了同一框架。例如,对检测来说,输入图块序列,输出边框序列。各种应用的差别,主要体现在:1)数据,2)将问题映射到向量序列中的输入/输出的定义,有时还包括 3)位置编码器类型和注意力掩码中特定问题的结构化稀疏模式。虽然在技术上,我重点聚焦视觉领域,但所有人工智能领域的论文、人和想法都突然变得非常相关。每个人都在用基本相同的模型工作,所以大多数改进和想法,可以在所有人工智能领域迅速"复制粘贴"。正如许多人已经注意到并指出的,大脑皮层对其各种输入模式也有一个高度统一的架构。也许自然界也碰巧找到了一种类似的强大架构,并以类似的方式进行着复制,只在细节稍微做出些变化。这种架构上的整合,会反过来聚合和集成软件、硬件、基础设施,并进一步加快整个人工智能的进展。总之,这是个令人兴奋的时代。——转自爱可可-爱生活老师的微博

全部讨论

2021-12-09 20:00

第四次工业革命 也是最颠覆性的革命要来了

2021-12-10 13:28

Andrej真是深度学习领域的“天选之人”。

1986年出生在斯洛伐克,15岁随父母移民多伦多,2005年开始在多伦多大学读本科,听了神经网络之父Geoffrey Hinton的课(2006年 Geoffrey Hinton在《科学》上发表了一篇神经网络领域开创性的文章,提出了深层网络训练中梯度消失问题的解决方案),开始对深度学习着迷。

随后去斯坦福大学,李飞飞门下读博士,读书期间设计了超级热门的网课CS 231n: Convolutional Neural Networks for Visual Recognition

2015年参与创建Open AI,2017年被马斯克挖去主持基于神经网络的自动驾驶。
网页链接

2021-12-10 08:09

架构统一的话,芯片是有可能针对性优化的,类似图形计算针对OpenGL和directx优化,就看芯片厂商敢不敢赌了

2021-12-09 11:51

确实是这样的,当视觉都开始用transformer并且效果很好的时候我感觉大一统的时代要来了。

2021-12-10 09:24

这不就是通用人工智能嘛?

2021-12-10 08:02

2021-12-09 18:41

新时代在向我们招手