搜索
热门
最新
全本
侦探推理
其他类型
历史军事
恐怖灵异
散文诗词
武侠修真
玄幻魔法
科幻小说
网游动漫
都市言情
香艳高辣
《我的超级黑科技帝国》第六百三十六章
对于这个神经网络的训练过程,就是要确定这11935个参数。
训练的目标可以粗略概括为:对于每一个训练样本,对应的输出无限接近于1,而其它输出无限接近于0。
根据Michael Nielsen给出的实验结果,以上述网络结构为基础,在未经过调优的情况下,可以轻松达到95%的正确识别率。而核心代码只有74行!
在采用了深度学习的思路和卷积网络(convolutional networks)之后,最终达到了99.67%的正确识别率。而针对MNIST数据集达到的历史最佳成绩是99.79%的识别率,是由Li Wan, Matthew Zeiler, Sixin Zhang, Yann LeCun,和 Rob Fergus在2013年做出的。
考虑到这个数据集里还有一些类似如下这样难以辨认的数字,这个结果是相当惊人的!它已经超越了真正人眼的识别了。
在这个过程中一步步调整权重和偏置参数的值,就必须引入梯度下降算法(gradient descent)。
在训练的过程中,我们的神经网络需要有一个实际可行的学习算法,来逐步调整参数。
而最终的目的,是让网络的实际输出与期望输出能够尽量接近。我们需要找到一个表达式来对这种接近程度进行表征。这个表达式被称为代价函数(cost function)
x表示一个训练样本,即网络的输入。其实一个x代表784个输入。
y(x)表示当输入为x的时候,期望的输出值;而a表示当输入为x的时候,实际的输出值。y(x)和a都分别代表10个输出值(以数学上的向量来表示)。而它们的差的平方,就表征了实际输出值和期望输出值的接近程度。越接近,这个差值就越小。
n是训练样本的数量。假设有5万个训练样本,那么n就是5万。因为是多次训练,所以要除以n对所有训练样本求平均值。
C(w,b)的表示法,是把cost function看成是网络中所有权重w和偏置b的函数。为什么这样看呢?进行训练的时候,输入x是固定的(训练样本),不会变。在认为输入不变的情况下,这个式子就可以看成是w和b的函数。那么,式子右边的w和b在哪呢?实际上,在a里面。y(x)也是固定值,但a是w和b的函数。
总结来说,C(w,b)表征了网络的实际输出值和期望输出值的接近程度。越接近,C(w,b)的值就越小。因此,学习的过程就是想办法降低C(w,b)的过程,而不管C(w,b)的表达形式如何,它是w和b的函数,这就变成了一个求函数最小值的最优化问题。
由于C(w,b)的形式比较复杂,参数也非常多,所以直接进行数学上的求解,非常困难。
为了利用计算机算法解决这一问题,计算机科学家们提出了梯度下降算法(gradient descent)。
这个算法本质上是在多维空间中沿着各个维度的切线贡献的方向,每次向下迈出微小的一步,从而最终抵达最小值。
由于多维空间在视觉上无法体现,所以人们通常会退到三维空间进行类比。当C(w,b)只有两个参数的时候,它的函数图像可以在三维空间里呈现。
就好像一个小球在山谷的斜坡上向下不停地滚动,最终就有可能到达谷底。这个理解重新推广到多维空间内也基本成立。
而由于训练样本的数量很大(上万,几十万,甚至更多),直接根据前面的C(w,b)进行计算,计算量会很大,导致学习过程很慢。
、于是就出现了随机梯度下降(stochastic gradient descent)算法,是对于梯度下降的一个近似。
在这个算法中,每次学习不再针对所有的训练集,而是从训练集中随机选择一部分来计算C(w,b),下一次学习再从剩下的训练集中随机选择一部分来计算,直到把整个训练集用光。然后再不断重复这一过程。
深度神经网络(具有多个hidden layer)比浅层神经网络有更多结构上的优势,它有能力从多个层次上进行抽象。
从上个世纪八九十年代开始,研究人员们不断尝试将随机梯度下降算法应用于深度神经网络的训练,但却碰到了梯度消失(vanishing gradient)或梯度爆发(exploding gradient)的问题,导致学习过程异常缓慢,深度神经网络基本不可用。
然而,从2006年开始,人们开始使用一些新的技术来训练深度网络,不断取得了突破。这些技术包括但不限于:
采用卷积网络(convolutional networks);
Regularization (dropout);
Rectified linear units;
利用GPU获得更强的计算能力等。
深度学习的优点显而易见:这是一种全新的编程方式,它不需要我们直接为要解决的问题设计算法和编程,而是针对训练过程编程。
网络在训练过程中就能自己学习到解决问题的正确方法,这使得我们可以用简单的算法来解决复杂的问题,而且在很多领域胜过了传统方法。
而训练数据在这个过程发挥了更重要的作用:简单的算法加上复杂的数据,可能远胜于复杂的算法加上简单的数据。
深度网络往往包含大量的参数,这从哲学原则上不符合奥卡姆剃刀原则,通常人们要在调整这些参数上面花费巨大的精力;
训练深度网络需要大量的计算力和计算时间;
过拟合(Overfitting)问题始终伴随着神经网络的训练过程,学习过慢的问题始终困扰着人们,这容易让人们产生一种失控的恐惧,同时也对这项技术在一些重要场合的进一步应用制造了障碍。
而BetaCat的故事,所讲的就是一个人工智能程序,通过自我学习,最终逐渐统治世界的故事。
那么,现在的人工智能技术的发展,会导致这种情况发生吗?这恐怕还不太可能。一般人认为,大概有两个重要因素:
第一,以现在的人工智能来说,它的自我学习还是限定在人们指定的方式,只能学习解决特定的问题,仍然不是通用的智能。
第二,现在对于人工智能的训练过程,需要人们为其输入规整化的训练数据,系统的输入输出仍然对于数据的格式要求很严格,这也意味着,即使把人工智能程序连到网上,它也不能像BetaCat那样对于互联网上海量的非结构化数据进行学习。
然而这仅仅是对普通的人工智能,但是对起源这样真正的网络智能生命来说,以上两点要求它完全都能够做到。
第六百三十五章
第六百三十七章
小说推荐
超级科技大帝国
【飞卢中文网a级签约作品:超级科技大帝国】siri:我很牛逼,我能够识别很多语言,我是水果出身 s-mart精灵:老子是智能,水果出身了不起啊!照样吊打 水果:我要发布新机了,筒子们钱包准备,这次给你们触控屏下指纹识别技术 陈宇:拿老子出售的二流技术好意思当卖点!真不愧是水果 某为:我很牛,我的通信
科技为王
连载
最新章:
第五百九十八章一群猪队友
咸鱼学霸的黑科技帝国
“滴,您的超时代黑科技app已上线,随即赠送核反应堆一座,请选择安放地点,1:家里后院,2:工厂仓库 妈妈呀,会不会有辐射呀 好吧,我可是立志于成为像史塔克一样的男人,玩玩科技,泡泡妞,做一个无忧无虑的超级炮王就好了,这种档次的科技太落伍了,我玩的都是黑科技
涂画非
连载
最新章:
第232章 灾变,新的起点(大家帮忙支持下新书!)
都市之黑科技帝国
叶尘穿越成了一个国家的王子,并且还获得了黑科技系统 只要完成任务,就可以兑换电影黑科技 啥?小鬼子又在因为钓鱼岛搞事?码的,复仇者流浪号去灭了他们 什么?米鬼寒又在联合军演?十艘航母?来来来,把老子的神盾局的天空航母派过去!让你见识下什么叫真正的航空母舰 沃特?我们的国民在叙利亚被屠杀了?码的,擎天
会飞的妖孽
连载
最新章:
第53章 恐怖绝伦!【求收藏,内附上架感言】
清末之黑科技帝国
携带黑科技系统回到1900年,主线任务是推翻清国,打倒列强,称霸世界 小意思 列强使用单发步枪时,林暮已经有了激光枪 国外刚有坦克设想时,他正在捣鼓空天航母 莱特兄弟发明的飞机?放屁!分明是我林暮 天启坦克、黑鹰直升机、空天航母、外骨骼机甲、基因强化剂、次元穿梭器…一切应有尽有 携带“万界黑科技系统
太三
连载
最新章:
两天的时间过去,这两天的时间里面,林暮足足端掉了好几十个土匪窝,把方圆百里的所有土匪,可以说全部都清剿的一干二净。
毕竟有基地车的雷达检测,他完全可以看得到哪些地方拥有敌人,哪些地方没有敌
超级黑科技
月魔小舞
连载
最新章:
第六百二十五章 宇宙之王(大结局)
火影之超级黑科技
火影世界,众强林立 幸运穿越到火影的良人本以为可以大展身手,无奈却不能提炼查克拉,体质弱的跟正常人都不如“超级黑科技,圆你火影梦 随着良人实力的提升,火影世界真正的一面慢慢拉开了黑暗的面纱
六寻
连载
最新章:
第33章 鞍木流云之死
超级科技强国
本书简介 大难不死,张蜀生回到民国,得到了一个神奇的梦想机。潜心种田,研究科技,开办万千工厂,生产各种杀人武器 钢铁化工,电子通信,家电日化,机械制造,航空航天…他一直在努力让全世界的先进产品上面都贴着:先进产品,中国制造 不再是小米加步枪,张蜀生为英法美日等准备的是成千上万的先进坦克和战机“凡是老
捕鱼者
连载
最新章:
第一百七十六章 大屠杀 上
科技世界:从焊武帝到科学巨匠
我科技大师
连载
最新章:
第五十九章 空间站对接核心:对接锁机构
特种兵之超级黑科技
因情报错误,被美帝数架阿帕奇包围炸死的叶铭重生到另一个平行世界中,并且成为神枪手四连的列兵,军事大演习狙杀来犯倭国特种兵 猎人学院中升起华夏的旗帜,猎杀倭国特种兵,虐杀各国的特种兵 阿三边境闹事,带着队伍直接越境,深入敌国,歼灭倭国樱花小组,坑杀数千阿三士兵 身附宇宙十九级文明超级黑科技系统,屡屡挫
莽林毒蝎
连载
最新章:
第四十三章 备受耻辱的岛国人!【四更求支持!】
返回首页
返回目录