发布于: iPhone转发:12回复:35喜欢:17
横竖利好英伟达,之前是挖矿,不挖了改训练AI[呵呵][呵呵][呵呵]
也都费电..

————————


关于#chatgpt# 背后的算力和经济账

1、根据微软介绍,微软Azure为OpenAI开发了一个定制的超级计算机。这个超级计算机在全球超算排名里面可以位列前五。这个计算机是一个单一系统,具有28.5万个CPU核心,1万个GPU(据称为英伟达V100)和400 GB/s的GPU服务器网络传输带宽。

2、根据OpenAI,训练一次1746亿参数的GPT-3模型需要的算力为3640PFlops-day。换句话说,以每秒1千万亿次的速度计算,要算10几年。(目前国内很多城市建设的计算中心规模都在100P-300P,这些计算中心训练一次大概两周到一个月)

3、ChatGPT所基于的模型参数比较小,只有13亿参数,只能算一个小应用。

4、Lambda估计,训练一次GPT3模型花费的算力成本超过460万美元。

5、下一代大模型GPT-4尚未发布,据称参数上万亿。

6、据称,每次用户与ChatGPT互动,产生的算力云服务成本为0.01美元。

精彩讨论

城北小王2023-02-15 08:24

利好水电煤?

完球蛋2023-02-15 09:12

美丽国的强大真是环环相扣,模型,算力,海量优质英文信息

e大海航行靠舵手2023-02-15 08:42

吴忌寒写过一篇《算力之美》的小短文,我觉得算是最好一个注脚。网页链接
"算力,可能是人类通往更高文明的一种有效手段,也是与熵增对抗的最有效方式。"

"在我看来,算力是为了去除人性在整个系统里的权重,在未来,它有可能超脱于碳基意志,会成为我们意想不到的防护网。"

Szymon2023-02-15 08:36

达美可以再了解下meta的toolformer,让它自己学习何时用啥工具,基于gpt-j

全部讨论

2023-02-15 08:34

更正下chatgpt有不同参数版本的,主推还是gpt3一样大的175B。不过微调成本远低于gpt3在60p-day

2023-02-15 08:28

这么大的算力百度能在短时间弄出来比gpt好的产品?不可能吧

2023-02-15 08:27

amd的gpu呢达美怎么看