MiMo 刚出来之后,我就用 OpenCode 上面的免费额度去进行了尝试,做了一个小项目。这个项目本身难度不高,但是 MiMo 却卡了很久,而且也没有明显的错误反馈,当时对 MiMo 的感觉很不好。
但是周五晚上的时候,我又看到有人说 MiMo 官网的 token 计费方式效果会比 OpenCode 里的免费额度强很多,所以我去充值了 200 块钱,继续做了我原来的项目,以及两个稍微复杂一点的数据清理工作。
我的感受是,它确确实实比之前所有用 Coding Plan 的国产模型要强很多
这倒不一定体现在它单次执行成功率有多高,而是我之前使用 Coding Plan 的时候,会隐约感觉到国产大模型厂商都会对 Agent 调用进行一些限制:有可能是限制了思维链的长度,也有可能是限制了 Agent 执行的轮次,导致那些 Agent 倾向于在任务完成 50% 到 60% 的情况下就结束掉。对于那些真正难以处理的 corner case 或者是一些复杂的 bug,它就会装作看不见。
在 MiMo 上,我觉得这个问题会好很多。它确确实实可以扎扎实实地执行数个小时,就为了解决一些很刁钻的bug。逻辑上倒是很容易理解,就是对于Coding Plan,调用的越多,成本端就越高;而 Token 计费的话,调用的越多,收入也越多。
就我的实际使用而言,虽然花了两百块钱,但是解决了三个困扰了还蛮久的 task。我个人觉得还是挺值得的。就算我去网上买现成的数据,肯定也都不止 200 块钱了。
但这次使用体验让我想到一个国产模型比较矛盾的点:
像 claude 现在的顶尖模型已经可以替代很大一部分工作了,而国内模型厂商本身的能力其实也可以达到 Claude 的 80% 到 90% 了;但如果一直是以 Coding Plan 的这种方式来推广,实际的使用体验还是会差很多,稍微复杂或棘手一点的任务它都没有办法处理,这并不是模型能力不够,而是模型厂商对调用的限制,这种成本上的限制反过来又会影响 Agent 在工作中的普及和推广。
我觉得这个问题,主要还是算力的限制,以及国内服务型收费的定价习惯问题,不知道大家对这个有什么看法?
我自己的想法是,未来 3 到 5 年算力肯定还是会有极大的需求量,但问题就在于到底会是利好英伟达这种公司,还是真的能促进国产芯片的升级。
(最近也有人说 DeepSeek V4 迟迟难产,就是因为需要适配国产芯片,结果导致训练没有办法很好地收敛。。。)
但是周五晚上的时候,我又看到有人说 MiMo 官网的 token 计费方式效果会比 OpenCode 里的免费额度强很多,所以我去充值了 200 块钱,继续做了我原来的项目,以及两个稍微复杂一点的数据清理工作。
我的感受是,它确确实实比之前所有用 Coding Plan 的国产模型要强很多
这倒不一定体现在它单次执行成功率有多高,而是我之前使用 Coding Plan 的时候,会隐约感觉到国产大模型厂商都会对 Agent 调用进行一些限制:有可能是限制了思维链的长度,也有可能是限制了 Agent 执行的轮次,导致那些 Agent 倾向于在任务完成 50% 到 60% 的情况下就结束掉。对于那些真正难以处理的 corner case 或者是一些复杂的 bug,它就会装作看不见。
在 MiMo 上,我觉得这个问题会好很多。它确确实实可以扎扎实实地执行数个小时,就为了解决一些很刁钻的bug。逻辑上倒是很容易理解,就是对于Coding Plan,调用的越多,成本端就越高;而 Token 计费的话,调用的越多,收入也越多。
就我的实际使用而言,虽然花了两百块钱,但是解决了三个困扰了还蛮久的 task。我个人觉得还是挺值得的。就算我去网上买现成的数据,肯定也都不止 200 块钱了。
但这次使用体验让我想到一个国产模型比较矛盾的点:
像 claude 现在的顶尖模型已经可以替代很大一部分工作了,而国内模型厂商本身的能力其实也可以达到 Claude 的 80% 到 90% 了;但如果一直是以 Coding Plan 的这种方式来推广,实际的使用体验还是会差很多,稍微复杂或棘手一点的任务它都没有办法处理,这并不是模型能力不够,而是模型厂商对调用的限制,这种成本上的限制反过来又会影响 Agent 在工作中的普及和推广。
我觉得这个问题,主要还是算力的限制,以及国内服务型收费的定价习惯问题,不知道大家对这个有什么看法?
我自己的想法是,未来 3 到 5 年算力肯定还是会有极大的需求量,但问题就在于到底会是利好英伟达这种公司,还是真的能促进国产芯片的升级。
(最近也有人说 DeepSeek V4 迟迟难产,就是因为需要适配国产芯片,结果导致训练没有办法很好地收敛。。。)
Edge
Chrome
Firefox

京公网安备 11010802031449号