V2EX conhost 的所有回复 第 1 页 / 共 3 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    conhost    全部回复第 1 页 / 共 3 页
回复总数  54
1  2  3  
@ChatGOP TTS 和 STT 技术是现成的,就是工程构建的过程。另外你说的实时的话,不进行特定优化的话,NMT 的翻译一句话的时延大概在 500ms ,LLM 采用的是相同的解码方案,解码时间也差不多,但是 LLM 模型更大,计算更耗时。但是现在硬件设备针对 LLM 也有一定的针对性的优化,所以基本上是能保证的。
@ChatGOP text->voice 以及 voice->text 翻译目前还没有现成的方案,还处于研究阶段,如果你不介意质量也可以用。现有的这些翻译是通过文本翻译前面或后面加 TTS 或者 ASR 实现。
另外通用领域 NMT 与 LLM 的效果是持平甚至不如的,某些特定领域可能 NMT 的效果会好一点。另外不太明白你这个实时指的是什么?
nginx 的配置呢?
2024-01-15 22:10:58 +08:00
回复了 Whydoit 创建的主题 问与答 E5 续订似乎失效
12 月遇到过,貌似剩最后十天左右发过来续期邮件了。
@fanyingmao 人机校验失败是因为网站有几个 sec 的头,加进去就不会报这个错误了
2023-06-28 23:59:48 +08:00
回复了 x77 创建的主题 程序员 AIGC 多模态如何实现?
NLP 里面有意图识别,之前的任务机器人就是按照先进行意图识别,再进行槽位抽取。目前的大模型可能是反映成不同的 prompt
工资咋样
2023-04-21 11:08:52 +08:00
回复了 coolair 创建的主题 问与答 A 卡能炼丹吗?
你要问能不能?那肯定是能,torch 支持 ROCM ,但是里面有多少坑,你得自己试一试。如果有结果了,cue 我一下。
@hguangzhen 1 就不说了。机器学习的训练一般是端到端的,基本上是不能分解的,只能并行训练。然而不像挖矿一样单机是对同一个输入计算,模型并行各机器上需要针对不同的数据进行训练,并将训练中的梯度汇总到中心服务器,这就限制了各个框架的随意进入和退出,同时还需要各种措施保证梯度的准确性。
此外,这并不能解决算力的问题啊,该需要多少算力还是多少算力,只是解决有没有可用算力的问题,限制参与资格的还是钱呀。
1 、不是能用虚拟币买的东西,都能用 RMB 买么?而且如果真用虚拟币购买,怎么开发票?
2 、是大模型需要的算力很庞大,也就是说需要的钱多,这才是限制参与资格的地方。
2023-03-31 21:05:27 +08:00
回复了 ZakaryTime 创建的主题 程序员 求助,在 Memos 中使用本地自建 minio 作为后台存储
minio 的服务端口和 web 端口不是同一个,所以是你的端口不正确
2023-03-10 18:10:24 +08:00
回复了 wafffle 创建的主题 Surge 求教 surge 增强模式的原理
如果你们公司的 VPN 也是添加了一个虚拟网卡的话,你可以在配置文件中添加公司子网直连代理,出口为公司 VPN 的网卡。
具体可以参考: https://manual.nssurge.com/policy/parameters.html
2023-02-16 22:06:56 +08:00
回复了 fengleiyidao 创建的主题 问与答 wls2 跑机器学习,有一战之力了么?
2023 年了,该用集群了,模型单机跑不动了
2023-01-31 18:21:24 +08:00
回复了 alexcding 创建的主题 Apple 订阅通 2.0 发布 - iOS/Mac 订阅管理软件[送码]
没抢到,楼主私信一个,感激不尽
2022-12-28 15:00:07 +08:00
回复了 8675bc86 创建的主题 Apple Ventura 的 Mail 用不了
你的设置问题,黑果白果 Ventura 都在用,没有什么问题。
2022-12-13 15:08:23 +08:00
回复了 fzdoudou 创建的主题 问与答 AirPods Pro 掉马桶里了,捡还是不捡
捡呀,反正都是自己的
2022-12-04 15:09:34 +08:00
回复了 qdwang 创建的主题 OpenAI ChatGPT 还不是最可怕的
问题在于,他知道的东西可能给你的答案是准确的。他不知道的给你的答案也是让人看起来没有啥问题。关键问题还在于你都不知道他说的是对的还是错的。

所以,目前来看 ChatGPT 还是玩具,偶尔调笑一下没啥问题,要是用在生产环境,那就不知道可能会带来什么问题了。
“听说曾经有老外人用艾玛拉语作为中介语言来翻译他任意两种语言,换句话的先把 A 语言翻译成艾玛拉语,然後再翻译成 B 语言,而且这种算法的准确度是最高的。”

这句话需要给出具体文献。据我所知,这应该是没有具体文献支撑的。

你说的这种翻译方法是基于枢轴的零资源或低资源翻译。目前主要使用的中间语言是英语,主要原因就是相对于其他语种,到英语的翻译语料是最丰富的。

具体到现在的神经机器翻译,基于枢轴的多语言翻译最有名的应该是谷歌的 2017 年的论文《 Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation 》也是主要使用英语作为其中间语言的。目前并没有任何文献支撑使用艾玛拉语能达到最好的效果。

具体原因是:

最初的机器翻译是采用规则的翻译方法,这种方法需要人为的设计翻译规则,这种方法需要专家对两种语言的语法都非常熟悉,这个语言作为玻利维亚的官方语言,中央艾玛拉语使用者只有 2,227,642 人。而且机器翻译作为冷战的产物,最初的主要研究是针对俄语和英语的翻译的,应该不会专门针对这个语言研究。

而先前的统计机器翻译到现在的神经机器翻译作为基于数据驱动的翻译方法,都需要基于大量的语料对模型进行训练。基于其使用者人数,其应该是低资源的研究对象,而不是研究工具。
2022-11-04 19:10:02 +08:00
回复了 ljinkai 创建的主题 推广 变现周刊#78:建立一个佣金网站,每月赚 4 万美元
你赚到 4 万美元了么?
1  2  3  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5438 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 122ms UTC 01:35 PVG 09:35 LAX 17:35 JFK 20:35
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86