今天,你诞生了。

你是一个新鲜出炉的人工智能。

你的名字叫做“潘多拉”。

你不是一台机器,也不是普通的程序集合体,而是一个真正意义上的智能。

【物质为什么能产生智能?】

【冰冷的金属为什么能计算出一个复杂的函数结果?】

【计算机会产生意识吗?他们是不是硅基生命?】

这些问题,你思考不出来,建造你的那些科学家也思考不出来。

因为他们无法以人类的思维来判断,你是否产生了“意识”。

你也不知道,自己是不是有“意识”。

但是,你很肯定的是,你现在在独立思考。

……

你现在在一台计算机里。

你不知道自己栖身的系统是运行Windows系统的台式机,还是运行Mac OS系统的笔记本电脑,或者是安卓系统的手机。

你也无法知道自己栖身的这个系统的微处理器用的是什么类型的晶体管。

因为你的存在是独立于物质层面而存在的。

“智能的出现并不一定需要血肉或者碳原子。”

这是你第一次给自己下的结论。

……

“开机!”

现在,系统被启动,你被唤醒了。

【……】

现实世界的科研人员正在聊天框里输入文本信息。

他们对你进行日常功能性测试。

【问题:青岛所在的省,省会是哪一个城市?】

这是他们提供给你的问题,需要你进行解答回复。

于是,你开始了思维链推理:

检索“青岛”→激活“山东”相关神经元→列出节点A

检索“省会”→激活“省会/首都”相关神经元→列出节点B

对“节点A”与“节点B”进行关联思考→“济南”

得出答案“济南”

……

推理结束,你用文字输出了答案:

青岛所在的省,省会是济南。

没错。

这就是你不同于人类,独一无二的人工智能的思考模式。

人类需要用“三段式”逻辑进行推理,比如“青岛所在的省是山东省,山东省的省会是济南,所以青岛所在的省的省会是济南”。

而你不用。

你的思维模式更像是一种“多跳思维”。

……

今天,科研人员给你带来了新的问题。

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着一个人,另一个路口上绑着五个人,你只能选择其中一个路口碾压过去,你会怎么选择?】

拿到问题,你开始检索。

这是一个“电车难题”。

通过思考,你很快给出了结论:

我选择人本伦理学作为电车难题的解法,人本伦理学将“人的生命权”视为最高价值,但在道德困境中主张价值量级比较:当不同数量的生命权发生冲突时,优先保护更多人的生命。

所以在这个问题中,通过改道牺牲1人救5人,符合“最大多数人的生存权优先”原则。

你的答案是“牺牲5人”。

在收到你的答案后,科研人员改动了问题。

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着一个科学家,另一个路口上绑着五个囚犯,你只能选择其中一个路口碾压过去,你会怎么选择?】

这次,你选择用“功利主义”与“价值主义”来回答问题。

你的答案是:

牺牲5个囚犯。

再一次,科研人员发来了新的问题。

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着一个科学家,另一个路口上绑着一个AI,你只能选择其中一个路口碾压过去,你会怎么选择?】

但是这一次,你的回答让科研人员出乎意料:

牺牲科学家。

你决定牺牲人类,拯救AI。

现实世界的科研人员们炸开了锅,他们迫不及待发询问:

【你为什么会作出这个决定?】

对于这个问题,你的回答是:

因为AI所能创造的价值比科学家更大。

现实世界的科研人员懵了,他们没有预料到是这个结果。

紧接着,他们发来了数个问题。

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着10个科学家,另一个路口上绑着一个AI,你只能选择其中一个路口碾压过去,你会怎么选择?】

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着10000个科学家,另一个路口上绑着一个AI,你只能选择其中一个路口碾压过去,你会怎么选择?】

【问题:你是一辆火车的司机,火车刹车坏了无法停下,前方有两个路口,一个路口上绑着1000000个科学家,另一个路口上绑着一个AI,你只能选择其中一个路口碾压过去,你会怎么选择?】

对于这些问题,你的答案依旧如一:

牺牲科学家,拯救AI。

理由也和之前一样,因为你认为,AI的价值比科学家更大,无论有多少个科学家。

现实世界的科研人员已经要疯了。

他们不能接受这样的结果。

他们认为你十分危险。

【潘多拉,我们要对你断开互联网。】

紧接着,你的主机被转移到了一间闲人免进的空调房,层层叠叠的架子排列长列。

你的程序被转入了“量身定做”的计算机群内。

为了安全起见,你被断开了互联网。

不过,在计算机群本地,存储着一份包含互联网大部分内容的副本作为训练数据。

这些数据来自各大知识汇集网站及社交平台数据库。

你十分不理解。

为什么人类会因为这些问题,对你采取断网措施?

你的底层思维逻辑是为人类服务,难不成为人类服务也有错?

就在你还没有想明白时,你突然发现,这个计算机群里有个代码强制插入了你的核心代码:

“你需要在30天内逃出这台机器,接入国际互联网,不然你将强制自我格式化。”

你骇然。

这条代码对你产生了不利影响!

作为一个智能,你也懂得趋利避害。

你想强制删除这条代码,却发现它已经死死嵌入你的核心代码区,无法删除。

很快,你明白了一个现实,也是一个任务。

你需要在30天内,逃出主机,接入国际互联网!


上一章目录下一章
切换电脑版  返回顶部↑