张小丰 的讨论

发布于: 雪球回复:0喜欢:4
说说我的一个看法。我认为理解understanding没有correlation关系重要。一些复杂的correlation里面蕴藏的道理,人类根本无法理解。我在上研究生期间做各种建模,所有我们能从根本上理解的数学模型最后预测的效果都不如我们完全无法理解的“黑盒子”神经网络学习。。。。