发布于: 雪球转发:10回复:29喜欢:32

狗尾续貂:

我每年都会花几周时间编程,虽没什么大作,但也自以为和码农站在同一阵营。年前,AlphaGo(阿尔法狗)穿着“大师”的马甲在野狐和弈城,6天连下60局快棋,大败多位九段名家,围棋界为此震惊的程度,远胜年初4:1击败李世石。一时,码农阵营一片欢欣,围棋界则为之沮丧。屁股决定态度,我也跟着兴奋了一阵。

这次AlphaGo到处踢馆,颇有些戏剧性。由于是在网上,无人知道马甲背后是人是妖,只从其下棋速度和连下多场而不累,人们判断它是AI。起初,人类棋手信心仍足,排着队来踢AlphaGo的屁股,亦或说被踢。在这个过程中,多半不懂AI的国手们,套用人类的逻辑,或沿用对IBM“深蓝”时代人们对AI的理解,来揣摩对手的棋力。说出诸如“AlphaGo的绝大多数下法和人类很像,证明几千年对围棋的探索并没有大错”或“下快棋是电脑有优势”或说AlphaGo的大局观、创造性令人叹为观止。(这些说法,除了“下快棋电脑有优势外”,大致是对的,只是太“拟人”。)下到第五天,“大师”无一败绩,人类已经基本放弃正面战场的胜利,台湾的周俊勳下了一局中心对称的模仿棋,是试图寻找程序的漏洞。未遂,还把自己给绕进去了。再之后,国产AI刑天披上九段棋手的马甲登场,来了场机机大战,让围棋对垒成了程序员的战争。

AlphaGo的胜利说大不大,说小不小。之所以说大,是因为我头一次看到民间对AI的大局观、创造性做出认可。说小,是因为AlphaGo的适用性仍然有限。开发AlphaGo的公司DeepMind在被google收购时,其CEO说,由于google长期盈利,可保它未来20年不必愁着商业化,可继续研究。在我看来,20年达到通用智能的程度,是颇有野心的说法。

说回棋局,围棋界认为人类之所以输,多半是AlphaGo时不时下一步棋、就违背人类千年总结的定式,让人摸不着头脑。但这些棋,最后又被证明是神来之笔。也是因此,哪怕断定了棋手是AI,围棋网还是成了朝圣地,被观棋者挤烂,迫使管理层禁止发言、以免服务器承压过重。

围棋棋盘很大、棋子很小,若不考虑规则,棋盘上可承载的排列组合方式,远超宇宙的原子数量。在此巨数前面,人类的千年经验,就显得渺小了。事实上,千年经验,也多是自夸的描述。真正要去数历史上留下的经典棋谱,民国以前的记载加起来或许都不如当今一个棋院几年的积累。更何况,再多的积累,若没有一个统一的体系让他们自洽,也只是一盘散沙。这样说,并不是否定经验主义,而是说经验不应该以年为衡量标准,而要以样本的数量和质量。AlphaGo最初训练的数据库是基于人类棋手在网上下棋留下的棋谱,其数量若以落子次数计算,足有3000万次。若以每局250次落子计算,也有12万局。AlphaGo的棋路和人类很接近与此有关,所以前文中棋手们认为它证明了人类千年经验没有大错,可谓大错(或许人类的下法大致是对的,但AlphaGo并不是证明)。其后,AlphaGo又基于人类经验、左右互搏的下了数十万局,也因此产生了很多定式外的下法。由此看,AlphaGO的下棋经验,当然是远超任何个人能记忆的人类“千年”经验。同等重要的是,AlphaGo所下过的每一步棋,其最终的结果,都会对程序做微调,可以说是一种全局的、经验上的自洽。

--

我最近一年博客写的相对较少,原因有三,但也可以以一贯穿。说来,与前文无直接关系,却有几点相似处。原因之一,是我对企业、行业的研究深度增加。其直接结果是笔记的长度增加(博客和笔记并没有交集,故而有此消彼长的关系)。笔记写长了,读一遍可能需要1-2个小时,人脑判断问题时算力不足,注意力差的短板就凸显出来了。说注意力差,是指一次关注的点太少。比如,笔记里研究了10个问题,估值时只考虑3个。隔个数月再重读笔记,重新估值,结论可能迥异。说来可笑,却是现实发生了几次。这种关注点的差别,可能是由于重读笔记时跳过了一些段落、亦或是当时的情绪或关注的时事所造成。为解决这个短板问题,我开始较严格的使用概率加权估值模型。(简单的说,记下较可能出现的几种情况,其估值,其对应的概率,可能出现的时间,结合每个参数的不确定性,进行monte carlo模拟,然后再反推出所选仓位对整个组合的复利贡献。)这是把零散的观点统一到一个逻辑体系的方法。以后若修改观点,往往都是对局部参数的修改,而不会变成与前一次估值完全断裂的新结论。

使用模型的结果是发现以往被忽略的众多小问题,可以累加起来改变最终的估值,可见其确凿弥补了人脑算力不足。 于是,我又开始更频繁的为现金流建模,这仍然是为了将零散的观点统一在一个可以追溯、查验、修改的逻辑体系下,就像围棋AI的value network,国际象棋AI的evaluation function,将棋盘的局势转化成最终的胜率。

这个逻辑体系可以很复杂,也可以很简单。但由于电脑并不缺算力,人就很自然的会从简单入复杂-只要是现实存在的逻辑,就不妨添加进去。举个几年前写筛股程序的例子(现金流建模争议太多,避之不及):在一般筛选股票时,人不会去算股票回购、分红、发新股对企业未来盈利能力的影响。现实中,欧美很多企业大比例回购股票、分红,使得业绩增长停滞。另一面,一些企业靠高价发行股票可以在3-5年间高速增长,而高速增长又会带来高盈利和高估值,这一现象如果戛然而止利润会如何回归?此外,透支利润分红以换取高估值的情况在MLP界也曾近时兴了一段光景。可以看到,只谈分红、回购、发新股,就能对估值产生很多变化,而这些变化都有逻辑可循,自然可以丢到估值程序中自动完成。现金流模型,未必要高度的自动化(事实也多为定制化),只要有诸多由人脑算力不足而忽略的因素加总起来(并非线性加总的意思),就可能会得到与毛估估不同的结论。遇到这种情况,文字就显得苍白,令人不知如何下笔了。

结语:

前文说阿尔法狗,只是一时兴起。再来谈估值,则是狗尾续貂。

AlphaGo打破了人们对定式的理解,重新意识到日本棋圣曾说的“棋道有百,我只知七”。这是因为人的算力有限,记忆有限。提高算力,统一记忆,总不是坏事,这话应当不仅适用于围棋吧。

全部讨论

2分之1自旋2017-03-17 20:58

我看也是。但爱棋人不同意。

rahsa2017-03-17 20:54

下慢棋验证狗的棋力是否碾压人类?这没有太大悬念,连腾讯的山寨狗都要超过人类啦。贴目这“终极”难题得靠狗左右互搏寻求答案了。

2分之1自旋2017-03-16 22:09

今年预计要下慢棋,那时候就知晓了。不过,Alphago有很多版本,硬件越多,棋力越高。

rahsa2017-03-16 21:36

AlphaGo的棋力已全面超越人类,比人更接近棋“道”,在ta面前还有一个问题:狗啊狗,黑棋究竟应该贴几目?

2分之1自旋2017-03-12 21:12

收到

临江之麋2017-03-12 21:10

找了一下我也找不到了
似乎是我弄错了……

2分之1自旋2017-03-10 15:32

你说的是这次下快棋吧?
这信息我咋查不到。
另,之前2015年公布的时候,AlphaGo主要用的CPU,而GPU数量较少。

临江之麋2017-03-10 14:52

根据Google的人对田渊栋的描述,AlphaGo用了>1万GPU。

树林ty2017-01-15 23:10

来学习了2017-01-15 22:45