章节出错了,点此刷新,刷新后小编会在两分钟内校正章节内容,请稍后再试。
事实上,
反向传播法,
卷积神经网络,
这两种法的想,
一直应用于相隔将五十年之后的划时代项Alphago乃ChatGPT上。
那么,
为么在1980,这两个牛逼理论出来的年代,
甚直到30年之后,
2010年左右,
人工智能行业都没有得像样的成果,在社会大众眼中如同透明人呢?
又是为么,
人工智能又能在2015年后突然爆发,
短短不到十年之内,
是Alphago攻围棋,吊所有职业选,
着作画人工智能井喷,许多级画师纷纷失业,
然后ChatGPT横出,成为社会热点?
原因其实很简单:
随着硬术的发展,训练人工智能所要的计资源,也就是各种专业和通用的芯片变得来大和宜了。
从Alphago开始,
人工智能行业的发就主一个大力出奇迹,
简单点说,
就是定好一个神经网络架构,穷举法让电脑自和自下棋玩去。
只要力足够,一个月就能下个万局。
而一个人职业围棋棋一生能下多少局棋局?
答案是:
一万局就了不得了。
只要项架构和初设参数没有问题,
从万局获得的经验和对围棋理解,自然要超过局获得的经验。
这就是Alphago为么能吊人棋的原因。
那么,
如果架构和参数错了怎么办呢?
那也很简单,
换一个架构,重新一个月就是了。
发出Alphago的Deepmind当然很了不起。
但如果能把投资人给Deepmind一年时间烧5000万资买的力,给上个纪十年代的辛顿和杨力昆两位大佬用,
人家恐怕提前四十年就能把Alphago搞出来。
只要能烧的钱够多,买的芯片和计资源机时够多,不计成本,
甚可以同时开个Alphago项,一起训练计,这样连潜在的时间成本也下来了——
就操控项的人业余,一个瞎猫也总能撞到一只死耗子。