发布于: 雪球转发:0回复:26喜欢:7


Kimi还是经常出错,最好附上原文。比如把billion弄错成了亿。。

精彩讨论

浮云资本04-28 22:53

这类transformer大模型最初设计就是为了解决翻译问题,关注的是在语义空间的【近似性】概率,billion和亿已经是高维语义空间中【最接近】的两个tokens了,这导致大模型往往【侧重语文】(写诗,写小说,翻译,摘要,总结,评论),数学问题往往【偏科】,要不就需要【雕花】处理,要么就耦合专门的数学和推理子模块来【打补丁】

仓又加错-刘成岗04-28 22:38

我已经跟这个问题奋战很久了

浮云资本04-28 22:43

billion和亿已经是高维语义空间中【最接近】的两个tokens了,除非单独定义10亿是一个token,为了语义连续,就需要另外进行数学换算,这可能就需要【雕花】了,当然,还是能做到的

Elon收藏股票04-28 21:04

chatgpt也会把billion弄错成了亿,谁能给kimi反馈一下…

全部讨论

chatgpt也会把billion弄错成了亿,谁能给kimi反馈一下…

04-28 22:53

这类transformer大模型最初设计就是为了解决翻译问题,关注的是在语义空间的【近似性】概率,billion和亿已经是高维语义空间中【最接近】的两个tokens了,这导致大模型往往【侧重语文】(写诗,写小说,翻译,摘要,总结,评论),数学问题往往【偏科】,要不就需要【雕花】处理,要么就耦合专门的数学和推理子模块来【打补丁】

04-28 20:59

一直错 你试试21点
错的一塌糊涂
我觉得我们的大模型是拿来主义 把现有的答案 组织成语言而已
组成语言 这点还是不错的

04-28 20:50

各种chat还是只能做“模糊的正确”,它们理解不了什么是“精确的错误”。。。

04-28 20:57

小丰总用过这个吗?网页链接{Reportify - AI 投资研究深度内容问答引擎} 这个感觉还不错。

04-28 22:55

我们做过测试,kimi极度不擅长数字相关

05-04 11:25

我的kimi没出现这个问题

04-29 09:15

为啥用kimi,这个东西也就gpt3.5的水平,glm文心qwen好多了啊

我也有点纳闷,数字问题 好像许多都掉链子 我上次问了一个“从今天到2025年2月28日有几天”的问题 许多ai都错了 国内外都有

04-29 00:20

kimi并没有解决大模型的问题,所谓上下文20万字,也不是大模型大幅度进化,窗口大到了20万字,也就是RAG做的好点,前置prompt做的好点而已,和大模型本身没多大关系