有梦想就有收获
随着深度学习技术的成熟及应用,原有芯片算力已经难以应对巨大的算力消耗。简单来说,深度学习的过程可以抽象理解为利用大量标注的数据进行训练,训练出一个行之有效的模型,再将这一模型运用于新数据的推理。因为这一算法是建立在多层大规模神经网络之上的,后者本质上是包含了矩阵乘积和卷积操作的大运算量函数,往往需要先定义一个包含回归问题的方差、分类时的交叉熵的代价函数,再数据分批传递进网络,根据参数求导出代价函数值,从而更新整个网络模型。这通常意味着至少几百万次的相乘处理,计算量巨大。
基于此,GTI的联合创始人杨林教授是一为很有远见的人,早在30年前,加州大学伯克利分校的博士生杨林就想研发出一种特制芯片,能够加快人工智能(AI)的运算速度。
刚刚,黄仁勋院士 (Jensen Huang) 再向行业扔下重磅“核弹”。
钛媒体App获悉,北京时间2月26日, AI 芯片巨头英伟达(NVIDIA)宣布推出全新NVIDIA RTX 500 和 1000 Ada一代消费级GPU(图形处理器)加速芯片,全面支持在轻薄笔记本电脑等移动设备中运行生成式AI(AIGC)软件。
英伟达表...