
1 icinessz 68 天前 qwen3:4b-instruct-2507-q4_K_M 本地这种小模型都行 |
2 anghunk 68 天前 我一直在用硅基的 THUDM/glm-4-9b-chat 翻译 |
3 wangxiao20170401 68 天前 via Android 换成国内的,用起来确实舒服多了,速度很快 |
4 cokyhe 67 天前 求问:deepseek 有专门翻译接口吗?提问翻译的时候,怎么能仅仅返回翻译结果? |
6 ruanimal 67 天前 感觉纯翻译,豆包的效果就很好了 |
7 razertory 67 天前 纯翻译,自己一个人用可以考虑上量化模型平台,比如 Groq 或者 Cerebras 。速度又快免费额度又大 |
8 izToDo 66 天前 现在在用免费的 GLM-4.5-Flash ,速度还可以,翻译质量还可以。 |
9 midraos 66 天前 我用的 openai api ,累计充了 100 刀,现在每天送 1M 的 GPT-5 的额度和 10M 的 GPT-5-mini 的额度,用于翻译绰绰有余 |
10 xyfan 66 天前 我用在 zotero 中做翻译,由于 PDF 中时常有有行号、乱码、跨页等问题,使用 deepseek 效果比谷歌翻译等传统翻译效果好很多,就是速度稍慢。 |
11 wonderfulcxm 66 天前 可以的,接入沉浸式翻译一直开着,每个月不到 3 块 |
12 lin41411 66 天前 |
13 Selune 66 天前 用的腾讯混元的 Hunyuan-MT-7B 在线,质量还行 |
14 SeaSaltPepper 66 天前 常年多个模型同时翻译对比,主流模型翻译质量都大差不差,同时使用多个模型基本都能得到最合适的翻译。DeepSeek ,K2, GLM4.5 Air ,Qwen 选一个比较快的就行。 |
15 chunhuitrue 66 天前 你用的什么翻译工具?浏览器的插件?求推荐。 |
16 YanSeven OP @chunhuitrue 虽然沉浸式翻译暴雷了,但是目前体验最佳的感觉还是沉浸式翻译。 日常网页翻译也还较为流畅。 然后 pdf ,epub 等文档翻译也优于传统翻译工具,我也已经翻译了好几本书了 但是,还是要注意,它确实爆过雷,泄露用户数据了。 |
17 PositionZero 66 天前 via Android DeepSeek 官方 API 太慢了。楼上说的 Groq 或者 Cerebras 就不错,速度( TPS )能到 DeepSeek 的几十倍。 |
18 wshjdx 66 天前 via Android 我用在 freshrss 中翻译标题,充值了 100 ,每月用量一块多钱,确实绰绰有余 |
20 Zy143L 65 天前 那你纯浪费了..V3 没必要 翻译也用不着 R 系推理 找个小模型 qwen 的或者豆包的 lite 模型都能很好解决 |
21 chunhuitrue 65 天前 @SGL 还好,我没用过这个。我一直都没用过翻译软件,最多就是 mac 自带的选择一段话-->翻译(贼烂)。豆包浏览器插件试过,觉得不好用。卸载了。 目前还在用 mac 自带...所以打算找个合适的。那看来还真没有。 |
22 chspy 65 天前 我一直用 ppio ,这个国内国外都有,我用着挺稳定的,可以用 WF34BQ |
23 andykuen959595 64 天前 我用的有道,送了 100 元,还没用完 |
24 hanguofu 64 天前 via Android 听说中文翻译效果最好的是阿里巴巴的 qwen3-flash-translator |
25 odyssuse 64 天前 你们都是怎么使用的,用 api 接入,自己的 app 么? |