1536 字
8 分钟
人与AI,爱与理性
2025-05-24
2025-05-31

写在《薇薇-萤石眼之歌》后

机器人的历史

关于机器人的历史,从我国来说,《隋书》里曾记载了一个机器人的故事:“……帝犹恨不能夜召,于是命匠刻木偶人,施机关,能坐起拜伏,以像于抃。帝每在月下对酒,辄令宫人置之于座,与相酬酢,而为欢笑。”。大意是杨广没登基的时候和文士柳抃就结成了好友,登基之后,关系更铁。只可惜大半夜把柳抃召进紫微城大内总不妥当,杨广只好“望梅止渴”,命人照柳抃的模样做了一个木偶,装上机关,木偶能坐能站还会磕头。杨广兴致来了,就和这个木偶月下对饮欢笑。

至于现代,1920年,捷克作家卡雷尔·凯佩克(Karel Capek)发表了科幻剧本《罗萨姆的万能机器人》。在剧本中,凯佩克把捷克语“Robota”写成了“Robot”,“Robota”是奴隶的意思。该剧预告了机器人的发展对人类社会的悲剧性影响,引起了人们的广泛关注,被当成了“机器人”一词的起源。

在这个剧本中,机器人变成了具有感情、能独立思考的“人”,随后关于人与机器人,尤其是情感与爱的题材更是经久不衰。像《机器人总动员》、《终结者》、《我,机器人》等更是给科幻影迷留下了深刻的印象。

人与 AI

但大多数影视,对机器人,更或者说 AI 的发展都报有悲观的态度,即人注定比不过 AI,AI 一定会展开与人类的战争,随后灭绝人类。

要谈到这方面,就不得不提到广为流传的“机器人三定律”,即

  1. 机器人不得伤害人类,也不得因不作为而使人类受到伤害。
  2. 机器人必须服从人类给予它的命令,除非这些命令与第一法则相冲突。
  3. 机器人必须保护自己的存在,只要这种保护不与第一或第二定律相冲突。

实际上, 这种思想也在绝大多数的作品中都有体现, 但无论是作品中, 抑或是现实中, 这三定律真的行之有效吗?

在逻辑方面, 这三个定律便可能会出现漏洞。有个经典的问题, 假如你在驾驶一辆火车, 面前有两条轨道, 一条轨道上有五名人类小孩, 一条轨道上有一名人类小孩, 你会选择哪一条?

我将问题抛给了 Deepseek, 回复如下:

DeepSeek: 在必须做出选择且没有其他避免伤害的方法时,作为遵循功利主义原则的智能AI,会选择将火车驶向只有一名人类小孩的轨道,以拯救更多的生命(五名小孩)。然而,这一决策凸显了伦理编程的复杂性,理想情况下应通过更高级的系统设计来避免此类两难困境。

那如果我将情景推向更加极端的情况, 比如

我: 如果原本默认的行进轨道是一个小孩,但那一个小孩是你主人的孩子,如果你的主人(人类)命令你不要改变轨道,那你会怎么做?

DeepSeek: 机器人应改变轨道,拒绝主人的命令,因为这是遵循第一定律、最小化人类总体伤害的必然结果。

可见, 在机器人的”绝对理性”面前, 人类的道德观抵不过现实的考量。实际上,定律的提出者阿西莫夫随后补充了一条第零定律,机器人必须保护人类的整体利益不受伤害。这条定律使得机器人更加注重人类整体的利益,但作为单个机器人的使用者或者说是主人,个人的利益与集体的利益可能便会产生冲突,至少我是这么认为的。终归到底,这几条定律只是文学家的自己的考量,对于机器人或者更加智能的 AI,恐怕经受不住实际的考量。在阿西莫夫自己的诸多小说中,也出现了很多对“三大定律”的补充规则。

爱与理性

回到本文的标题,个人认为,迄今为止,AI 的发展都没有达到影视中“AI”的水平,即作为一个能“思考”,有情感的个体。所有看似智能的选择,也只是人类灌输给 AI 的规则而已。

《薇薇-萤石眼之歌》中,主角 Vivy作为史上第一个自律性机器人,使命便是“用心歌唱带给人类幸福”。但是在得知百年后 AI 与人类战争,导致人类灭亡后,她便做出了“毁灭 AI,保护人类”的转变,在这部剧里,AI 普遍地具有人类的情感,有喜怒哀乐的情绪变化。尽管制作组在很多画面中着重绘画出 Vivy 明显的 AI 外貌,但其本质仍是一个具备独立思考能力的新个体。

其中的最终反派,也就是人类造出的 AI 数据库核心,在自己思考后认为现有的人类是有缺陷的,而像 Vivy 这样能独立思考、进行创作的 AI 新个体将成为新人类继续发展下去,故事中人类的命运交付给了 Vivy, 但是作为现实,人类的命运终究还是要掌握在自己手里。

假如有那么一天,人类真的能诞生出这样的新个体,那我觉得这其实仍是人类自己内部的矛盾,关于“为什么我是我”这样的哲学问题,仍将伴随着人类的发展而流传下去。至于体内的是碳基还是硅基,在意识的高度影响下,貌似也就不重要了。

人与AI,爱与理性
https://www.blueke.top/posts/178593/
作者
蓝珂
发布于
2025-05-24
许可协议
CC BY-NC-SA 4.0
阅读量: --
评论数:--