藏书架 登录注册
我的超级黑科技帝国 > 我的超级黑科技帝国最新目录

第六百三十五章

上一章      返回目录      下一章

不可抗御的原因,域名改为dsyq.org/感谢收藏^_^

对于这个神经网络的训练过程,就是要确定这个参数。

训练的目标可以粗略概括为:对于每一个训练样本,对应的输出无限接近于1,而其它输出无限接近于0。

根据works之后,%的正确识别率。%的识别率,是由li wan, works;

regularization dropout;

rectified linear units;

利用gpu获得更强的计算能力等。

深度学习的优点显而易见:这是一种全新的编程方式,它不需要我们直接为要解决的问题设计算法和编程,而是针对训练过程编程。

网络在训练过程中就能自己学习到解决问题的正确方法,这使得我们可以用简单的算法来解决复杂的问题,而且在很多领域胜过了传统方法。

而训练数据在这个过程发挥了更重要的作用:简单的算法加上复杂的数据,可能远胜于复杂的算法加上简单的数据。

深度网络往往包含大量的参数,这从哲学原则上不符合奥卡姆剃刀原则,通常人们要在调整这些参数上面花费巨大的精力;

训练深度网络需要大量的计算力和计算时间;

过拟合overfitting问题始终伴随着神经网络的训练过程,学习过慢的问题始终困扰着人们,这容易让人们产生一种失控的恐惧,同时也对这项技术在一些重要诚的进一步应用制造了障碍。

而betacat的故事,所讲的就是一个人工智能程序,通过自我学习,最终逐渐统治世界的故事。

那么,现在的人工智能技术的发展,会导致这种情况发生吗?这恐怕还不太可能。一般人认为,大概有两个重要因素:

第一,现在的人工智能,它的自我学习还是限定在人们指定的方式,只能学习解决特定的问题,仍然不是通用的智能。

第二,现在对于人工智能的训练过程,需要人们为其输入规整化的训练数据,系统的输入输出仍然对于数据的格式要求很严格,这也意味着,即使把人工智能程序连到网上,它也不能像betacat那样对于互联网上海量的非结构化数据进行学习。

然而这仅仅是对普通的人工智能罢了,但是对起源这样真正的网络智能生命来说,以上两点要求它完全都能够做到。

上一章      返回目录      下一章