发布于: 雪球转发:8回复:30喜欢:75

听了张小珺和杨植麟的访谈,记录下几个我觉得有趣的点:

1. AGI的第一性原理是scaling law。

2. AI这波创业是关于科研,技术应用和资本的。llm大模型是关于人才密度的,也是关于资本的一场竞赛。(之前我不太喜欢Sam Altman,觉得故意吸人眼球搞PR,最近读了发明白炽灯的历史,理解了画饼对于technological singularity的重要性,忽悠不明真相的群众给钱是非常重要的技能)

3. 目前的llm商业化上,有点 0->1很大,但1->N可能很小的问题。

4. 关于GPU供需,最近有明显的改善,一些创业公司在退出模型训练领域。(后面随着应用的发展,推理需求肯定是大头)

====================

Long context + RAG。去年chatgpt刚火的的时候,谷歌经历过关于搜索业务可能迎来颠覆式创新的讨论,当时我是立场是“问题不大,谷歌自身的AI能力也很强”。最近这种想法有变化,主要是long context + RAG的组合,让我真的有种感觉,searching engine可能会迎来Sea change,谷歌即使自我革命成功,新的模式下的商业变现模式,可能不是reels之于ins那种短空长多,问答式的搜索下,变现的模式是怎样的?挑战者可能不需要考虑这个问题,但谷歌和谷歌的股东,可能要头疼了。

===================

张小珺访谈录挺好的,有几期质量很高,主要是嘉宾有货,主持人一直很克制,把舞台留给嘉宾,推荐一下:

1. 张一鸣的巨浪征途,抄送pdd股东,今年会用到。印象深刻的点是dau黄金ratio后retention rate的自然拉升和拿下节点国家后,tt的对非节点国家的自然传播。

2. 从美国往事到google输掉openai第一局。对这期印象深刻的点不是访谈的主体内容,而是作为MBB analyst(一二级市场分析师也一样),分析一个行业的时候,面对业内人士,分析师相对来说不那么劣势的点是什么?答:历史的长视角,事物发展的规律。

3. 漫谈宝洁:隐藏在186年消费品王国里的规则和秘密。对我印象深刻的点是做产品,除非那种“发现式”的创造需求的产品(iPhone,snapchat),大部分的产品要到第一线了解用户。这期节目钟晓渡也推荐过。

写到这里,突然发现2和3的嘉宾都是王怀南。有点东西啊!其实2和3讲的点,也解释了为什么毛可以在那些重大关头,有超前的预见性,指明方向且事后证明他是对的,读书,特别是历史书 + 寻乌调查。

我想做投资也可以在这两方面多下苦功夫。突然有点明白Druckenmiller是从哪里来的了[大笑]

精彩讨论

forcode03-03 17:17

主持人声音很嗲,哪里人?

中年电竞选手03-03 14:15

关于google的感受是一样的,真遇到大麻烦了。如果劈柴不下台或者不作出重大的改革,这公司估计就要走当年阿里的路线了。
感谢推荐访谈马上去看

奇点那瞬间03-04 03:59

杨的意思,更准确地说,是说PMF这种思维下去做AI应用,1-N可能很小,他的原话是:
“它不是说不成立。假设你今天找到一个场景,用现在的技术能力,且从0到1增量价值巨大,从1到n空间又没那么大,这种场景OK。Midjourney就是,或者做文案生成,相对简单一点的任务,从0到1效果又很明显。这种是只关注应用的机会。但是,最大机会不在这。你的目的假设是商业化,你不可能脱离AGI去思考。我现在只做应用,那好,可能过一年你就被碾压了。”
==========================================
目前的应用,无论是sora,midjourney,还是基于llm model的概括能力,0-1这块是突破性的。但我们还不能基于sora拍摄一段风格统一的长达几十分钟的电影/动漫,不能让llm精确概括出一段纪要里对股价影响最大的那几个点,也就是说1-N这块确实还没有那么“好用”。
他认为1-N很大的东西,应该是AGI,足够通用,且统一所有模型。实现这个目标,应该是一个长期的事情。
我个人觉得1-N这块,我比较看好long context + RAG下的搜索。

全部讨论

03-03 17:33

03-03 13:51

m

03-17 15:09

//

03-14 14:37

转!

03-03 16:25

03-03 15:36

啥?忽悠方丈?

03-03 15:31

Woke对Google伤害超预期的大。