05-23 12:27
那些多模态的大模型和语言的关系是不是没那么大,比如特斯拉的端到端自动驾驶模型。印象中大模型的核心是transformer结构和scaling law,这两个东西和语言的关系是绑定的吗?感觉输入输出应该不仅限于语言,也可以是图片、视频等等?
那么当模型参数不断变大,一次训练需要读取的参数就越多,假设如果你的大脑左脑负责运算,右脑负责存储。每次你想问题都需要把右脑的信息,先加载到左脑,...
那些多模态的大模型和语言的关系是不是没那么大,比如特斯拉的端到端自动驾驶模型。印象中大模型的核心是transformer结构和scaling law,这两个东西和语言的关系是绑定的吗?感觉输入输出应该不仅限于语言,也可以是图片、视频等等?