<!--go-->
林有想过,把马列主义、资本主义、国富论等一系列老家跟社会学有关的书籍内容,丢一套给埃达。但最后还是没有这么做,因为他想起了另一位守护者的事情。
所以在说完自己的提议,并得到首肯后,林饶有兴致地看着维持骄傲神态的埃达,说:”这可真有趣呀。我认识的前一位守护者,她整天想着的是怎么把银须矮人给全灭了。妳却是在思考怎么延续,并让浮空岛有着良好的发展,为了岛上的天人们。守护者的态度并不一致吗?”
埃达也想起眼前魔法师说过,另一位守护者露碧塔的行为。她维持着端庄且高不可攀的神情,说:”为什么你会认为守护者们的态度就该是一样的呢?”
这一反问,突然就把林给问傻了。因为在他所接触到的各种影视等科幻作品中,ai发展到了极致,都会得出毁灭人类或统治人类这么一个结论,避免人类自己把自己给玩完。
这就像镁帝警察为了阻止民众举枪自杀,抢先一步枪击对方,最终致死的荒谬情形一样。
但是ai的训练,是一件需要耐心与细心的事情。要是开头就走偏了,后期除了放弃,没有什么修正的办法。
譬如一开始就将狗的图片定义为猫,那么这个被训练出来的ai,就会永远把狗当成猫了。想要改变几乎是不可能的。除非找到在狗被定义为猫之前的训练阶段,重新来过。
当然,这里的ai是属于弱人工智能。真正的强人工智能仍属于想象的阶段,会发生的事情与问题同样只存在于想象中。
但是同样的一个疑问,那就是不管给出怎样的训练数据,属于强人工智能的ai还是会得出同样的结论吗?
Loading...
未加载完,尝试【刷新】or【关闭小说模式】or【关闭广告屏蔽】。
尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!
移动流量偶尔打不开,可以切换电信、联通、Wifi。
收藏网址:www.dd123.cc
(>人<;)