攀科技真的好难啊追书网更新最快,(请牢记追书网网址:https://www.zhuishu5.com)

    因为模块和架构都有,所以要实现这个功能真的很简单,没几个小时,陆羽和葛云聪他们就写完了全部代码。

    陆羽把代码加载到人工智能的主程序中,没多久,弹出一个对话框。

    只是此时还不能正常交流,没有足够多的样本数据,也没有进行训练,理论上来说,它现在还是一张白纸。

    陆羽调出指令文本框,开始输入指令,允许它接通网络,从网络上搜集各种对话资料学习,并让它自己运用模型进行对话训练。

    弱人工智能就是这样,每一项命令,都需要明确的指令,它自己是不可能判断出需不需要进行下一步。

    直白一点说,你让它做什么,它才会去做什么。

    这和大多数人理解的人工智能存在巨大的差距,之所以现在很多人工智能看着像是自己能做出判断,那是因为提前写好了各种情况设定,只要出现符合的结果,就按照预设程序执行。

    跟主动做出判断和选择,有天壤之别,状若云泥。

    不得不另外提一句,陆羽没有在核心代码里编写传说中的人工智能三大定理,因为根本用不上。

    连自己主动做判断都不行,做任何事都需要指令,这样的弱人工智能,写三大定理干嘛?

    画蛇添足凑字数吗?

    退一万步讲,即便以后硬件满足所需、算力大幅提高,人工智能也不可能自己修改核心代码。

    不管是弱人工智能还是强人工智能,都一样,只要没有提前赋予它修改代码的权限和能力,即便它通过深度学习全面掌握所有编程语言,也不可能主动修改自己的哪怕一行代码。

    这不是什么定理决定的,而是人工智能本身决定的。

    能做到随意修改自己的代码,那是数字智慧生命才能干的事。

    所有描写人工智能危机的科幻作品当中,其实都不属于人工智能范畴,而是数字智慧生命。

    而要从人工智能进化到数字智慧生命,条件未知,时间无比漫长。

    但可以肯定的是,概率极其极其渺茫,在科技水平发展到另一个文明的高度之前,几乎没有任何可能。

    那个文明直到消亡时,也没有诞生过真正的数字智慧生命。

    所以,人工智能威胁人类安全,这本身就是个伪命题,至少,在现阶段,乃至在陆羽可以预料的未来,不存在这样的可能性。

    和核能技术一样,只存在善用和滥用的可能,而不管是善用还是滥用,决定权,始终掌握在人类自己手里。

    ……



-->>

本章未完,点击下一页继续阅读

章节目录