这样训练是不是更好?

1 ngloom Mar 14, 2016 好像是会自我对弈做训练的 :P |
2 Sequencer Mar 14, 2016 貌似有一个阶段就是这样训练的... |
3 jackwow Mar 14, 2016 它和人在下棋的时候,当人落子之后, AlphaGo 就是在自己和自己下后面的几步,然后判断落子在哪里接下去胜率最大。 |
4 dxwwym Mar 14, 2016 via iPhone 其实每走一步都在和自己下来预演,个人感觉应该是这样 |
5 alex321 Mar 14, 2016 人家已经明说有 18 个 AlphaGo 版本了,和李对战的是第 18 个版本,并且是单机模式。 此前 Google 一直在用 18 个 AlphaGo 做相互之间的对战训练的。。 AlphaGo 虽然是 AI ,但是是无形的,就像机器宝宝,最终那个小盒子也不过是它临时的容身之所罢了,本质上就是个应用。 |
6 hahastudio Mar 14, 2016 https://deepmind.com/alpha-go.html "..., and by reinforcement learning from games of self-play." "This program was based on general-purpose AI methods, using deep neural networks to mimic expert players, and further improving the program by learning from games played against itself." |
7 Sivan Mar 14, 2016 详见微软小冰 vs 微博聊天机器人 |
9 clino Mar 14, 2016 @alex321 http://sports.sina.com.cn/go/2016-03-11/doc-ifxqhmve9078783.shtml "这次比赛我们使用的是分布式版的 AlphaGo ,并不是单机版。分布式版对单机版的 AlphaGo 胜率大约是 70%。" |
10 alex321 Mar 14, 2016 @Jackiepie @clino 单机是这里看到的: http://www.techweb.com.cn/column/2016-03-08/2291955.shtml 呃。。。。。 我看完那个之后就没看后续的了。 |
12 birdccc Mar 14, 2016 会死机吧 |
14 charlie21 Mar 14, 2016 木遥:关于 AlphaGo 论文的阅读笔记 http://songshuhui.net/archives/93895 |
16 menc Mar 14, 2016 若干月后, alphago 和 betago 两台 AI 对弈,人们已经做好看不懂两位 AI 下棋的思路的准备,可是结果还是出人意料。 alphago 执黑先走一子, betago 思考良久,认输。 |
17 picasso250 Mar 14, 2016 @menc 按照现在的贴目规则,更有可能是: alphago 执黑先走一子, betago 应了一手, alphago 思考良久,认输 |
18 strwei Mar 14, 2016 期待中。。。。。。 |
19 firstinout Mar 15, 2016 @alex321 U R being watched |
20 alex321 Mar 15, 2016 @firstinout 哈哈,后面撒玛利亚人上线的时候就变成 We are being watched 了,然后两个交叉在片首出来。 |
21 firstinout Mar 15, 2016 @alex321 太赞的片子 有空二刷 |