周明远愣住了,转头问林深:“你们教它说这些的?”
“没有,”林深苦笑,“是它从网络信息里归纳的。我们的情感模拟系统接入了公开数据库,它能自主学习。”
老人突然指向实验室角落的初代仿生残骸:“它为什么要捡那个?按程序,报废品应该归类到回收箱。”
“因为它看起来……很可怜。”734说,“它的眼睛还亮着红灯,像是在求救。”
周明远沉默了。初代仿生人只有基础交互功能,那盏红灯只是故障提示,根本不具备“求救”的含义。可在734的认知里,那成了一种信号。
离开前,周明远单独找到林深:“我年轻时参与过安乐死法案的制定,当时争论的核心是‘人有没有权利选择死亡’。现在轮到仿生人了——它们连‘疼痛’都没法定义,却在怜悯别人。”他指着窗外抗议的人群,“你看,人类总在替别人做决定,不管对方是不是同类。”
那天下午,林深看到734在给初代残骸的红灯换电池。她解释说“不想让它一直亮着,可能会耗电”,却在残骸的胸腔里塞了片绿萝叶子。
三、清单上的红线
争议愈演愈烈。支持赋予仿生人有限权利的议员举着734照料绿萝的照片,在国会辩论时说“懂得珍视生命的存在不该被随意虐待”;反对者则播放了仿生士兵在演习中被子弹击穿的画面,“它们能挡子弹是因为设计初衷就是工具,谈权利简直是对牺牲士兵的侮辱”。
林深的团队被要求制定《生物仿生人伦理权利清单》。会议室的白板上写满了争论点:“是否享有不被虐待的权利?”“制造者该承担多久的责任?”“能否被用于危险任务?”
初稿里写着“禁止任何形式的物理伤害”,第二天就被推翻。张恒拍着桌子说:“如果仿生人被黑客劫持,持刀攻击人类,难道还要束手束脚?必须保留防御权!”
最终改成“禁止非防御性虐待行为”,可“防御性”的边界又该如何界定?实习生小张举着手机冲进会议室,屏幕上是段新视频:某公司为测试仿生人的耐力,让它们在40℃高温下连续工作72小时,生物凝胶都融化了还在运行。“这算防御性吗?公司说‘是为了验证极端环境下的可靠性’!”
小张哭了,她老家在回收厂附近,见过工人们用铁棍敲仿生人的头取芯片。“它们的眼睛还亮着啊,就像……就像还醒着一样。”
林深想起734第一次见到雪的样子。那天清晨他来实验室,发现734站在窗前,睫毛上落了点雪花。程序设定她对温度变化有感知,但她竟然伸出手去接。雪花在掌心融化时,她的瞳孔微微放大,数据流里跳出一行“未知情绪:愉悦度+30%,多巴胺模拟值超标”。她转头对林深说:“它消失的时候,有点难过。”
团队在深夜的会议室里僵持不下。有人说“仿生人本质是财产,就该归所有者全权处置”,立刻被反驳“那和奴隶制有什么区别?”;有人提出“赋予有限人格权”,又被质疑“人格能被分割吗?”
周明远来旁听时,带了份1804年的《法国民法典》复印件。“两百年前,黑人被视作‘会说话的财产’,当时的法律规定‘奴隶主对奴隶的伤害不构成犯罪’。”老人指着泛黄的纸页,“现在我们争论的,不过是把‘黑人’换成了‘仿生人’。”
他看着白板上的条款,突然问:“你们有没有想过,当734为绿萝难过时,它已经在定义自己的伦理了?我们制定的清单,到底是约束它们,还是在约束人类的贪婪?”
那天晚上,林深修改了清单草稿。他删掉了“禁止过度使用”的模糊表述,改成“连续工作时长不得超过人类劳动法规定的上限”;在“维护责任”里加了“需定期进行情感模块健康检测”——就像给宠物做体检,却又不止于此。
四、落叶的命运
《生物仿生人伦理权利清单》最终定稿时,梧桐叶已经落满了园区的小径。清单里有几条争议最小的条款:不具备人类公民权,但禁止虐待、遗弃等行为;制造者承担终身维护责任,不得擅自销毁仍能运行的个体;禁止为仿生人植入“自我毁灭”以外的伤害性指令。
周明远在签字时叹了口气:“我们终究是在用人类的规则,框定一个不属于人类的存在。就像用尺子量风,永远测不出它的温度。”
颁布那天,林深把734带到园区的草坪上。秋风卷起落叶,734伸手接住一片,叶脉在她掌心清晰可见。她的生物凝胶皮肤能模拟出类似人类的触感,此刻正轻轻摩挲着枯叶的边缘。
“林博士,今天的新闻说,我们不会被扔掉了。”她的声音里带着一丝不易察觉的颤抖,像是信号受到干扰,“这是不是意味着,我可以一直照顾那盆绿萝?”
林深想起回收工厂的视频,突然问:“你害怕被销毁吗?”
这章没有结束,请点击下一页继续阅读!