![]() | 1 WildCat 2018-08-25 08:17:29 +08:00 via iPhone ![]() tf 的吐槽真的是深得我心。一个人一个写法,而且毫无软件工程 |
![]() | 2 lhx2008 2018-08-25 08:39:01 +08:00 via Android 还是 dl4j 简单易懂,不过功能少不少 |
![]() | 3 singerll 2018-08-25 08:43:25 +08:00 via Android python 各种版本各种库真的心累。 |
![]() | 4 q397064399 2018-08-25 08:59:29 +08:00 从中期来看,,所谓的 AI 人工智能 又要回落了, 这行本质上跟以前一样 并没有革命性的突破,居然还有人拿深度学习来炒币.. 币市纯粹大佬玩控的投机市场 |
5 yangyaofei 2018-08-25 09:47:47 +08:00 说说 Attention 那个为啥不好用?最近还想看看那个的源码呢 |
6 rpman 2018-08-25 10:16:08 +08:00 via iPhone deep learning 之所以是 cs 而不是 stat 的在做就是因为它很工程 |
![]() | 7 begeekmyfriend OP @yangyaofei https://github.com/keithito/tacotron/issues/170#issuecomment-389766623 说来话长,AttentionWrapper 简直是个 bug 设计。这些都是实践中总结对比出来的,可验证的。一下子我的训练数据少了很多,收敛也快了很多。 |
![]() | 8 begeekmyfriend OP ![]() @yangyaofei 说得再详细一点,AttentionWrapper 内部本身封装了一个 decoder RNN,但论文里的 decoder RNN 是需要自己设计的,没法子只能 AttentionWrapper 外面再做一个 decoder,但是我们还需要把 decoder 的输出反馈到 encoder 端,形成闭环,但是 AttentionWrapper 阻止了这种灵活性,只能把反馈接到 decoder 的输入端。总之无法严格实现论文的架构,所以只能把整个 Attention 类拷过来,打散自己搭建。 |
9 lihongjie0209 2018-08-25 10:26:14 +08:00 其次,过度依赖设计模式,对非软件出身的工程师不友好;--- 黑人问号, 这是你的缺点还是框架的缺点? |
![]() | 10 Weny 2018-08-25 10:35:19 +08:00 via iPhone “过度依赖设计模式,对非软件出身的工程师不友好” 楼主的确是你在搞笑了,现在工程能力很厉害的高中生都一抓一大把,一个 cs major 的学生居然吐槽这个。软件工程不应该是基础功吗? |
![]() | 11 begeekmyfriend OP @lihongjie0209 @Weny 第一、你们用过 Tensorflow 吗?第二、你们用过 TF 的 API 更深的地方吗? |
12 lihongjie0209 2018-08-25 10:55:29 +08:00 @begeekmyfriend #11 懂点设计模式而已 |
13 iBaoger 2018-08-25 10:57:54 +08:00 via Android 老马,又见面了 |
![]() | 14 begeekmyfriend OP @iBaoger 阁下是? |
![]() | 15 Hzzone 2018-08-25 11:21:49 +08:00 via iPhone 目前来说我用过的最人类的是 Caffe(笑 |
16 iBaoger 2018-08-25 13:30:16 +08:00 via Android ![]() @begeekmyfriend 阿宝 |
![]() | 17 takato 2018-08-25 13:40:12 +08:00 研究这种事情么,本身就不能指望很多人跟你一起做的。。所以 pytorch 的 issule 少也是正常。。 换句话讲,模型不用自己代码复现一遍,怎么知道自己的理解偏差在哪里呢?做一遍就知道很多很多问题。 |
![]() | 18 takato 2018-08-25 13:41:07 +08:00 tf 的 contrib 里,有一堆东西都是没什么人用过的,有些参数的设置也和论文有出入,真的还不如自己写。。。 |
![]() | 19 begeekmyfriend OP @takato 就是因为 PyTorch 的那个项目(不是 PyTorch 本身)复现有瑕疵才问的,奈何作者跑路中 |
![]() | 20 begeekmyfriend OP @takato 我使用了 TF 的一个高手魔改 API 版本终于复现了 state of the art,可见 TF 本身功能是没什么问题,但的确存在很多脑残设计。 |
![]() | 21 takato 2018-08-25 13:44:39 +08:00 @begeekmyfriend Pytorch 的用户群的确比较研究向。。跑路了去研究别的了也是正常的。23333。 |
![]() | 22 JeffKing 2018-08-25 14:04:34 +08:00 via iPhone 难得碰见 tts 的同行啊 |
![]() | 23 xiaoshenke 2018-08-25 14:27:07 +08:00 via Android @lihongjie0209 自己啥都不懂就别说话憋着 |
![]() | 24 SorryChen 2018-08-25 14:52:05 +08:00 via iPhone cv 很多新论文第一方代码很多用 pytorch 了 |
25 yangyaofei 2018-08-25 18:14:50 +08:00 via Android @begeekmyfriend 这样啊……前几个月摆弄 seq2seq 时候也觉得每次加上 attention 就会有莫名的问题……在之前还觉得直接一个 wrapper 就搞定好强大… 现在用 tensor2tensor 了,已经变成调包侠…… |
![]() | 26 frinstioAKL 2018-08-25 18:43:22 +08:00 赞同楼主观点,python 的 tf 已经不是一个包了,简直就是向一门新的语言靠拢。很多文档是由代码注释自动生成的,然而写的跟屎一样,东缺西缺,用的时候经常得扒源码看。找个开源代码,简直一个人一个风格。现在已经习惯从底层 API 写一套自己的 wrapper 了,用高级 API 有的包装不好还经常变动。最难受的是很多隐藏的坑,很难发掘。比如 tf.image 插值里面 align_corners 默认为 false,而且实现的算法和主流的图像库都是不一样的; 好多函数偷偷建立了局部变量注释里面不写; 有些模块的 c++ 底层是有问题的,导致莫名其妙的性能损失等等。不过得赞叹的是,tf 真的是面向生产力环境的(和 pytorch 比起来,个人觉得) |
![]() | 27 lichun 2018-08-25 18:55:37 +08:00 ![]() |
28 Revenant 2018-08-26 00:18:02 +08:00 以前的 tf 的 API 真的难用,example 的代码写得风骚无比,理解难度很大 尤其是 tf 还有改 API 名和代码的习惯... 去年还碰到过一个坑,当时想看看 tf 的语音识别 example,到 github 中 down 下来后发现运行不了,审查代码半天发现原来 tf 只是声明了某个函数(应该是梅尔频谱的函数),但并没有实现,而这个 example 还写进了 tf 官方文档中 |
![]() | 29 northisland 2018-08-26 13:04:51 +08:00 国人的 mxnet,你好白头鹰 |
30 feiyuanqiu 2018-08-27 20:45:09 +08:00 @lhx2008 请教个问题,java 做人脸识别有什么比较好的库吗?现在用 python 的库,感觉又要学 python 一整套东西... |