情感代码
凌晨三点,急诊室的消毒水气味里混着一丝若有若无的茉莉香。林夏攥着父亲的诊断报告,指尖在"重度抑郁伴随自杀倾向"的字样上反复摩挲,直到纸面泛起毛边。监护仪规律的滴滴声突然乱了节奏,她猛地抬头,看见父亲枯瘦的手腕正试图挣脱束缚带。
"爸!"她扑过去按住那只手,冰凉的触感让心脏骤然缩紧。护士推着床进来时,她注意到监护仪旁多了个银灰色的终端,镜头正对着父亲的脸。
"这是新上线的情绪监测系统,"护士调试着设备,"能通过微表情预判病人的极端行为。"终端屏幕上跳出一行绿色字符:[警惕度78%,需介入干预]。
林夏的指甲掐进掌心。三天前父亲突然入院,正是因为社区医院的AI诊断系统判定他"情绪稳定",驳回了复诊申请。她盯着那个不停闪烁的镜头,突然想起上周在超市,自助结账机提示"检测到您情绪焦虑,推荐购买这款安神茶"时,自己也是这样脊背发寒。
清晨的阳光穿透百叶窗,在伦理审查委员会的会议桌上投下斑驳的光影。顾明宇把一叠报告推到长桌中央,封面的《情感计算应用白皮书》烫金字体在阴影里忽明忽暗。
"全市已有17家医院接入'心镜'系统,"他调出投影,屏幕上跳动着密密麻麻的红点,"商超、银行、学校的覆盖率达62%。上周数据显示,系统对'潜在危险分子'的识别准确率提升至91%。"
林夏推门而入时,正撞见顾明宇演示超市监控画面:一个主妇皱眉盯着价签的瞬间,屏幕立刻弹出[愤怒值63%,可能引发纠纷]的提示。她将父亲的病例拍在桌上,玻璃水杯震得嗡嗡作响。
"准确率?"她指向报告里的折线图,"那这些被误判为'高风险'的抑郁症患者呢?他们因为系统标记,连处方都开不出来。"
顾明宇的指尖在键盘上顿了顿。他认识林夏五年,从她还是神经科学实验室的研究生时就知道,这个总是把"数据不会说谎"挂在嘴边的姑娘,眼里从不容忍任何统计偏差。
会议室的空调突然发出一阵异响。林夏注意到墙角的通风口有个微型镜头,正对着每位委员的脸。
"包括这里?"她扬了扬下巴。顾明宇的喉结动了动,默认了这个问题。
接下来的三周,林夏的脚步踏遍了城市的每个角落。在养老院,她看见护工根据终端提示给痴呆老人注射镇静剂,只因系统判定"眼神游离=攻击性倾向";在儿童福利院,AI绘本机拒绝给自闭症孩子讲故事,理由是"检测到情绪淡漠,互动无效";最让她心惊的是在地铁站,安保人员拦下一个不停搓手的男人,他口袋里的抗焦虑药瓶标签都磨白了。
"心镜系统的核心算法来自美军的战场心理评估模型,"顾明宇在深夜的实验室里调出原始代码,绿色字符在他眼下投出淡淡的阴影,"我们只是优化了民用场景的识别参数。"
林夏盯着屏幕上快速滚动的面部特征点,突然想起父亲发病前总说"感觉被什么东西盯着"。她放大代码的注释部分,发现系统默认开启"公共场景无感采集模式",连医院的ICU病房都在数据采集范围内。
"这些微表情数据会上传到云端训练模型,"顾明宇的声音有些沙哑,"但我们有严格的脱敏处理——"
"脱敏?"林夏点开一个数据包,某位抑郁症患者的眼动轨迹与自杀倾向预测曲线重叠在一起,"当算法能从一个眼神判断我明天会不会想死,这还叫隐私吗?"
暴雨拍打着伦理委员会的玻璃窗,像是无数双敲打的手指。林夏把整理好的案例摊在桌上:387份被AI误判的诊断报告,21起因情绪标记引发的就业歧视,7例自杀事件前被系统判定为"情绪稳定"的记录。
"上周在儿童医院,"她调出一段监控,画面里患自闭症的小男孩正对着AI诊断仪尖叫,仪器屏幕始终显示"情绪抗拒,数据无效","这个孩子因为系统无法识别他的非典型表情,延误了干预时机。"
顾明宇突然起身拉开窗帘,雨幕中,城市的霓虹在湿漉漉的路面上晕染开来,像一幅被泪水浸透的画。"全市有2000个高空摄像头搭载了情绪识别模块,"他指向远处的商业大厦,"连广告牌都能根据路人表情切换内容。"
林夏第一次发现,那些总在她皱眉时跳出安慰弹窗的APP,那些在她语调提高时自动降低音量的智能音箱,早已织成一张无形的网。
《情感计算伦理规范》的初稿在争吵中逐渐成型。林夏坚持加入"三重授权原则":公共场合必须明示采集装置,个人有权随时终止数据上传,涉及心理特征的分析结果仅限本人查阅。
"这会让系统准确率下降30%,"顾明宇在模拟测试时看着跳红的参数,"反恐部门不会同意的。"
这章没有结束,请点击下一页继续阅读!