发布于: iPhone转发:5回复:5喜欢:6
我刚打赏了这个帖子 ¥6,也推荐给你。我是即乐观又悲观,乐观是确实能带来效率上的巨大提升,悲观是只要是理论基础还是统计学,到最后再多参数不免还是个黑匣子,修复bug(调参)可能成本大到不修了,可解释性是个死活绕不过去的影响实际应用的障碍(设想一下AI评估后得出一位客户不能授予贷款,然后这位客户是个黑人。。。)
引用:
2021-03-06 01:36
前些日子看了木姨公司的深度学习白皮书,最近刚好一些会议又放了一些新论文,圈内一些公众号又发了一批新的PR,忍不住想写点东西记录一下自己的思考,
木姨的白皮书自取
链接: 网页链接 提取码: fqvd 复制这段内容后打开百度网盘手机App,操作更方...

全部讨论

Lee-LeYun2021-03-06 13:44

wangyongliang2021-03-06 12:18

可解释性问题我曾经也有过类似的看法,不过后来想通了,因为还有太多不怎么关心可解释性的场景需要效率的提高。不过AI伦理,AI公平,AI可解释性这些相对务虚的领域也有一些人在研究,但是更多的学者还是关注在AI应用,因为还有很多的问题技术指标需要刷新。

finra2021-03-06 12:10

前两天公司合规培训里,好像提到欧洲有法律规定,个人有权要求人工审核。具体怎么操作,效果如何就不太清楚了。

wangyongliang2021-03-06 11:59

居然获得了仓老师的认证

风生水起-Samuel2021-03-06 11:21

我是相对乐观的,感觉目前更像是牛顿三定律将要出来的前夜。
在落地层面来说,模型的可解释性会约束了一些场景的使用,不过更重要的是定义问题和收集数据。