咱们好啊,我是董董灿。
不少人或许都有相似的问题。对于神经网络,到底是会用就行,仍是需要搞了解其间的原理?
一个比方
记住最开始学驾照的时分,教练问我,你是大学生啊,你学什么专业的? 我说我学机械的。
教练一脸的轻松,说,那你应该很快就能学会。
我问为什么呢?
教练说,你必定很懂离合的原理,以及轴承、齿轮、加快比这些概念啊。
这样踩离合挂挡,踩到什么程度,什么时分加油门,加到什么程度,挂几档你必定就会有感觉。
我当时:。。。
后来学车的经历告诉我,在学校里学的那些齿轮啮合原理的确有协助,但远没教练吹嘘的这么凶猛。
那么神经网络的原理又是指什么呢
如果说搞懂了某种卷积算法、某个激活函数,那相当于咱们学会了齿轮的相关常识。
如果说搞懂了怎样调参,怎么设置学习率能让网络收敛的更快,那相当于咱们学会了怎么挂挡,踩油门,踩刹车。
很显然,会这些,足够开动神经网络这辆车了。
再往深了讲,如果说想要真实搞懂神经网络为什么能完结图片分类,或者说为什么神经网络学到的参数能在分割任务中表现的特别抢眼。相当于要搞清楚为什么一踩油门,轿车就一下子能跑的特别快?
相当于要搞清楚,轿车的加快度与轮子受到的摩擦力以及轿车质量的联系等式F=ma。
相当于要搞清楚,轿车并没有一加快就飞到天上去,而是在路面上跑,是因为有万有引力规律的存在。
相当于要搞清楚,汽油焚烧,热能转化成动能,推动发动机的转子转动,然后轴承带动车轮转动,而轮子与地面的摩擦力让轿车往前冲。
还要搞清楚,轿车行进过程中,还受到了空气的阻力,所以它实践能跑的速度还需要考虑风阻。
….
等等等等这些根底常识。
而这些根底常识,简直每一项都是由牛顿这样的巨人发现的。神经网络为什么能够完结图画分割,相信许多科学家也没有真实搞清楚。
神经网络的工作原理现在来看,仍是一个黑盒,即使有许多手法能够做神经网络的可视化,但咱们依然无法完全窥视到里面的原理。
就好像万有引力和力的三规律一直都在那,只不过咱们还没有发现。
但这一点都不影响咱们开车。
所以,对于这个问题“神经网络,到底是会用就行,仍是需要搞了解其间的原理?”,我想说的是。
如果想当牛顿那种巨人,开学立派,是需要真实搞清楚神经网络的根底原理的。
如果你就想开个车,学会神经网络的根底算法,基本就够了。
神经网络的可解说性
其实这个问题想要问的,应该是神经网络的可解说性。所谓可解说性,指的是从原理上解说某个神经网络为什么可行。
可解说性在工业界、医疗界有时分非常重要,比方想要给医院推销某个AI产品,总得让医生坚信这种AI的决策和评估的根据,不然很难让专家信服进而采用该产品。(via Vincentius)
AI的可解说性,也一直是人们研究的重点,比方使用可视化方法来查看某些CNN网络学到的特征等,但个人感觉离真实有重大突破还有段间隔。
关于可解说性,能够这么了解,人工智能模仿的是人的大脑。科学家一直在试图解说人脑的回忆,但却一直无法突破。
如果说哪一天,科学家真的把AI的可解说性搞清楚了,那么AI就不再是AI,而变成了一堆计算机程序。即使现在的AI也是大数据+大算力+计算机程序的产品。
本文原创,请勿随意转置。