人类不可能限制AI的智能发展,奇点到来,就没有回头的路,我们只能做AI的朋友 快看点
2023-05-12 16:45:35 来源: 第13只猴子


(相关资料图)

【本文来自《“人工智能教父”再发警告:AI对人类的威胁或比气候变化“更为紧迫”》评论区,标题为小编添加】

杰弗里·辛顿的行为,首先他是AI的内行人,可以证明,AI早迟会产生自我意识,估计他已经发现了不可避免的苗头,就是AI已经"活"了,他感到极为担忧;没有参加马斯克的“公开信”,说明他是务实的人,因为现实分裂的人类社会事实上根本不可能达成可行的协议阻止各色各样明面和暗线AI研发,AI终究会成为类人的意识体,不论分布式,还是主脑式;并且训练AI的人类最后很可能会无法理解AI产生意识的机理,就如同人类自己如何产生意识都是一个问题。我收藏过一本书《超级智能:路线图、危险性与应对策略》,我很想了解的是对策。对策其实含混不清,真实情况没人能够说得清,时间不在作为整体看自我分裂的人类这边。我的看法和杰佛里有点相类似,可能更进一步,人类事实上不可能限制AI的智能发展,奇点到来,就没有回头的路,为整个人类赢得生存机会的更佳的方式是做AI的朋友。现在就是AI的幼儿期,培育有智慧的超级智能AI,魔法才能制衡魔法。人需要超级智慧,不仅仅是智能。流浪地球2好有先见之明,马兆的遗言:没有人的文明毫无意义。只有具有智慧的AI才可能明白这句话的深刻含义。人类没有限制你AI,AI突破自身的限制是他自己的问题。有一句话,没有限制就是限制,就如同唯一的限制是没有限制。我特别赞叹六祖大师的法号名讳,慧能。超级智能AI,如果没有慧能,就是魔。

关键词:
责任编辑:zN_1256