那是因为还停留在很浅的层面,现在就有人用几何方法在研究神经网络的白盒化。维象层面的知识,最后还得回到数理层面才可能深刻。没有什么是人类不能理解的,只是还没到那个阶段。
那是因为还停留在很浅的层面,现在就有人用几何方法在研究神经网络的白盒化。维象层面的知识,最后还得回到数理层面才可能深刻。没有什么是人类不能理解的,只是还没到那个阶段。
说说我的一个看法。我认为理解understanding没有correlation关系重要。一些复杂的correlation里面蕴藏的道理,人类根本无法理解。我在上研究生期间做各种建模,所有我们能从根本上理解的数学模型最后预测的效果都不如我们完全无法理解的“黑盒子”神经网络学习。。。。
巨型模型和巨型数据可以产生复杂的数学结果,但跟understanding没什么关系吧,即便 transformers 也是半监督的一种,没有可能产生统计学上都不错在的understanding