发布于: Android转发:0回复:1喜欢:0
回复@仓又加错-刘成岗: 并不是,gpt4-o 之所以延迟低是因为 voice 和 video 和文字一样直接作为 input 到新的大模型了。这个跟之前语言转文字再到 gpt4还是有很大区别,真正的多模态。//@仓又加错-刘成岗:回复@pipee:以前用ChatGPT 网页版也随时可以打断啊,点一下按钮就行,换了个交互方式而已。。。我都不知道那些自媒体high个啥,high点太低了,外行瞧热闹而已。
1、真正“认知”和”逻辑”部分,没有演示任何提升。
2、双工、情绪、图像物理识别早有demo。
3、多模态早有demo。
4、真正的提升在于低延迟,也意味着推理成本降低了。
引用:
2024-05-14 09:28
为什么openAI可以做到如此遥遥领先?

全部讨论

05-14 13:43

这次展现的视觉/声音/文字多模态背后的engineering甚至学术壁垒是相当高的。 有CMU教授评价这个working model背后顶得上1000篇论文。