发布于: 修改于:Android转发:16回复:191喜欢:46
AI手机今年会带动一波换机潮。帮你自动ps,帮你整理语音,帮你生成想象的图片和视频,帮你读取提炼总结文件里的信息,生成各种数据图表。

精彩讨论

泡沫艺术家03-03 15:14

如果是APP端提供服务,手机为什么要换机呢?要是手机本地运行,不靠谱的。
这一年用过大量的开源7B,13B单机的语言与多模态模型,还是在“胡说”,而电脑都是16GB-24GB的显存配置,大模型还这样了,手机能用多小的模型?
AI绘图,现在比较好用的SDXL大模型单个模型大小就6G,随便一个Lora 800MB-1G左右,手机有多少内存资源能这么耗?
而且个人体验用4090绘制都不快,至于新的lighting与Turbo两种模型快但没有质量与可控性。手机Gen3也就相当于1050的性能,不算CUDA单元的计算能力,手机并行单元性能,其实才不到这样电脑性能的5%...
其实说到这也能够看到一个问题,就是AI目前在国内很难实现真正的商业化模式赚钱。
因为你想呀。没有使用A100与H100等专业计算卡,就是这样的运行AI应用的“丐版”单机配置,也得2.5-3万的成本。
而如果云端提供这样的AI服务,你得有团队升级AI模型,维护软硬件,甚至AI运行时电费都堪比挖矿。
而且这套硬件时间段分片后才能够几个客户用的?否则都得慢慢排队,你的服务就没人买了。
综合下来就变成了Midjourney那种收费,也就是说想得到真正靠谱的AI服务,并公司实现盈利,单月订阅费用就得至少200元-300元,一年就是2400元-3600元。
个人还不真信,这个基本20倍于各种视频网站会员的费用,在国内会有市场。
除非卖铲子的英伟达肯把“铲子”降成白菜价,否则AI没有商业模式的,因为太贵了!

只胡清一色03-03 13:48

AI 终端之战还未到终局,但一定是小型化、无感化、符合人体工学的趋势,所谓私人智能助理意味着实时、全天候,对存储、散热、轻量化都提出了更高的要求。
$思泉新材(SZ301489)$算是 AI 手机散热方向的核心标的,苹果希望思泉能占到其石墨烯散热份额的 40%+,华为最新折叠也是堆了三层石墨烯,所以绕不开的。

Ealon03-03 13:37

这不都是App干的事情吗?难道新的手机还能内置显卡跑大模型?

进化论一平03-03 21:37

你查一下为什么目前几乎所有的手机厂商对大模型的布置都是端侧而不是云端。只有华为是云端,苹果暂时未定。你们考虑的问题看上去很对但是90%的手机厂商不选。为什么呢,因为你们只考虑性能不考虑隐私。

纳履而去03-03 14:12

不要管真假,抓住清明以前难得短暂上冲机遇,XJB炒才是真弟,一切半真半假的都要一起当真,把场外资金哄片进场,再瓜分他们。

全部讨论

03-03 14:23

被盗号了?

03-03 14:12

不可能的,基本上服务商做的。pc机的显卡都跟不上,何况手机。如果在云端购买服务就和手机没大关系了。

03-03 13:33

期待$苹果(AAPL)$ AI+

03-03 15:50

有没有ai汽车。加完这个buff,可以帮助中国大量车企去库存啦

03-03 13:55

从技术层面来说,还是app加AI服务器的模式更讲的通,单手机ai模式应该还不行。把app做成手机类似sira这种服务,再依靠网络实现ai也是可以的。综合看,更多的还是ai服务更多一些。

没毛用,手机那点算力,你说的这些都得依赖云端算力,也就是说你还得下chatgpt,通义千问,文心一言这些。当然ai作为营销概念确实不错。

03-03 14:14

AI手机更多的应用生态的改变,通过云端或本地(很难跑起来)提高手机智能性,手机的核心配件cpu,gpu真变化不大。

03-04 07:08

可能吗,手机那点地方怎么可能塞得下,就手机的容量加功率要能做到,那想想一张显卡威力更别说现在用在强ai的处理器了,技术是在进步但也不可能用6W干1000W的活

03-03 15:24

完全支持!
三星AI手机销售破纪录了,其实功能改进并没有超预期。
消费行为并非全是理性推动,甚至感性驱动居多,AI手机哪怕比现在的智能手机改动不大,单单AI换代这个噱头,也比一般例行升级更能刺激换机需求,用了两三年没换的,趁着这波AI会一起换。

03-03 13:53

这种不需要换手机,手机 Gpu 运算更不现实