第262章 黑科技人工智能(2 / 3)

能以不断加快的速度重新设计自己。

而人类则受制于生物进化速度,无法与其竞争,最终被超越。

霍金在发表演讲的过程中重申:人工智能崛起要么是人类最好的事情,要么就是最糟糕的事情。

他认为,人类需要警惕人工智能发展带来的威胁。

当它们不再甘心屈服于人类时,将会产生巨大的麻烦,甚至会威胁到人们的生命安全,可见霍金早已预料到人工智能的危害。

王明把自己的担心,还有霍金的言论都跟刘长浩说了一下。

刘长浩:老板,您的担心是完全正确的,因为,真正成熟的人工智能,会进化出自己的感情和思想,这时候的人工智能跟一个活生生的生命没什么两样。

这样的人工智能一旦诞生,只会有三种可能,要么成为人类的朋友,要么成为人类的敌人,要么就是中立。M.

不过,一个人工智能,想要进化成为有思想感情的智能生命的概率,绝对比一个人中一张1000亿龙国币彩票的概率还要低。

王明:这世界上有人能中1000亿龙国币的彩票吗?

刘长浩:所以说,想要出现一个真正成熟的人工智能,是非常困难的,概率小到可以忽略不计,老板您现在根本不需要担心它会出现。

王明:也就是说,你掌握的人工智能黑科技,并不是真正成熟的人工智能了?

刘长浩:没错的老板,说穿了它依旧是一段人工智能程序,只不过,它可以自主学习。

人工智能始终逃脱不了人工两个字,它是由人创造的,就算它会自主学习,那也是因为人赋予了它自己学习的能力。

人类赋予了它学习的能力,同样可以随时命令它停止学习。

它无论学习多少知识,那也都是人类创造出来的知识,它自己永远也不会创新,因为程序永远都是程序。M.

没有思想和感情的程序只会遵循人类的命令行事,就算它学会了全世界上所有的知识,它也不可能进化成为智能生命。

只需要在人工智能最核心的逻辑结构中,添加服从老板命令的指令,它始终是一个只服从于老板命令的人工智能程序而已。

王明:虽然你说的挺像那么回事的,但万一它进化成功了呢?

刘长浩:老板,您这完全就是杞人忧天了,就算它百分之百能进化成为一个智能生命,那也完全不需要担心。

因为您有系统大佬在啊,就算来一万个智能