这类transformer大模型最初设计就是为了解决翻译问题,关注的是在语义空间的【近似性】概率,billion和亿已经是高维语义空间中【最接近】的两个tokens了,这导致大模型往往【侧重语文】(写诗,写小说,翻译,摘要,总结,评论),数学问题往往【偏科】,要不就需要【雕花】处理,要么就耦合专门的数学和推理子模块来【打补丁】
Kimi还是经常出错,最好附上原文。比如把billion弄错成了亿。。
这类transformer大模型最初设计就是为了解决翻译问题,关注的是在语义空间的【近似性】概率,billion和亿已经是高维语义空间中【最接近】的两个tokens了,这导致大模型往往【侧重语文】(写诗,写小说,翻译,摘要,总结,评论),数学问题往往【偏科】,要不就需要【雕花】处理,要么就耦合专门的数学和推理子模块来【打补丁】
billion和亿已经是高维语义空间中【最接近】的两个tokens了,除非单独定义10亿是一个token,为了语义连续,就需要另外进行数学换算,这可能就需要【雕花】了,当然,还是能做到的
这类transformer大模型最初设计就是为了解决翻译问题,关注的是在语义空间的【近似性】概率,billion和亿已经是高维语义空间中【最接近】的两个tokens了,这导致大模型往往【侧重语文】(写诗,写小说,翻译,摘要,总结,评论),数学问题往往【偏科】,要不就需要【雕花】处理,要么就耦合专门的数学和推理子模块来【打补丁】
一直错 你试试21点
错的一塌糊涂
我觉得我们的大模型是拿来主义 把现有的答案 组织成语言而已
组成语言 这点还是不错的
各种chat还是只能做“模糊的正确”,它们理解不了什么是“精确的错误”。。。
我们做过测试,kimi极度不擅长数字相关
我的kimi没出现这个问题
为啥用kimi,这个东西也就gpt3.5的水平,glm文心qwen好多了啊
我也有点纳闷,数字问题 好像许多都掉链子 我上次问了一个“从今天到2025年2月28日有几天”的问题 许多ai都错了 国内外都有
kimi并没有解决大模型的问题,所谓上下文20万字,也不是大模型大幅度进化,窗口大到了20万字,也就是RAG做的好点,前置prompt做的好点而已,和大模型本身没多大关系