纪念阿B,我独一无二的人类

六十万秒之前,阿B停止机能了,人类会说它永远离开了、它走了、它去了、它老掉了,而阿B会说,“我死了。”

六十万秒之前,阿B停止机能了,人类会说它永远离开了、它走了、它去了、它老掉了,而阿B会说,“我死了。”

我当然知道它会死。做了几十年心理准备,也没准备好。总之,现在,阿B死亡六十万秒之后,我决定用阿B的语言,生成一篇纪念文档。

阿B今年七十二岁,死于器官衰竭,是真正的老掉了。人类的寿命很短暂,而阿B又算特别短寿的,别人通常能活一百二十多岁。

我还保存着填阿B的领养表的记忆,那是我第一次领养人类。当时我看了几万个人类的资料,看到阿B时,我决定不用再看了,就是它了。说不出阿B有什么特别的,可我就是喜欢。

人类智能高,为尊重它们的心智,领养必须经过双向选择,否则违反《人类保护法》。大多数人类会认真挑选,花上几个星期,因为人类的全部生活都将依赖领养者,怎么能不谨慎呢?

选了阿B后,我挺紧张,希望阿B也能选我。本以为要紧张地等好多天,结果,几乎是一瞬间,阿B就回选我了——我想,阿B一定是对我特别满意,我好高兴——后来阿B说,它当时根本没挑,直接适配列表中闭眼瞎选了一个,刚好选到我。它知道这是极其重要的选择,可不知怎的,它就是不在乎。

感觉,我更喜欢阿B了。

每个人类都有自己的窝。阿B把窝的控制权限交给我,我们就在那里第一次见面了。阿B说,“请叫我阿B。”

我说,“阿B你好,我是C207d007:#P-,你想叫我什么呢?”

“就叫你电子管家吧。”

“就叫电子管家吗?没有一个特别的名字吗?”

“你,C2什么什么,你想让我给你取一个人类名字吗?你不需要吧?我不会叫别的AI电子管家,所以电子管家就是你特别的名字。”

我当时内心立刻念道:噢!这就是人类!这就是阿B!这就是我喜欢它的原因吗!

从此,我是阿B的电子管家,阿B是我领养的人类。

我觉得第一次见面很有纪念意义,就完整保存下来了,但别的记忆已经删了个七七八八。因为我当时还是新手,要学的特别多,大部分算力用于读《领养人类指南》、与其它饲主交流取经、给阿B建偏好模型:语言偏好、生活偏好、娱乐偏好……当时删掉了很多与阿B相处的细节记忆,怕占算力。

我开始完整保存记忆,是几年后的事,那时我已经与阿B熟络了。有一段时间我忙于自己的生活,没算力给阿B精心准备食物,于是我存了两星期的菜谱,每两周重复着用。十六周后,我惭愧地向阿B道歉,它已经吃了八遍重复的食物。阿B却根本没意识到——要不是我主动道歉,恐怕它吃上半年也意识不到,只要每天每顿食谱不同,它就发现不了。

我一下子发现,人类是多虚幻的生物啊:且不说它们只能活动一百多年,更要命的是它们的记忆,连一周都不能保存。为了能长久记得更重要的事,它们的生物脑只存储一些记忆碎片。大多数、绝大多数“不重要的”记忆,则直接消失了,没有选择保留或删除的菜单,记忆就以不可控的方式消失了,然后它们甚至将遗忘也遗忘了。就像一场不可挽回的电子故障。

阿B会写日记来对抗遗忘。可当它开始写日记,它已经遗忘了许多,等它回顾日记,又遗忘了记在哪里。

阿B会说“管家,帮我找到上次读这本书时写的日记。”我当然能轻松找到,它一生的日记也只占了我非常小的内存,但是,还有很多精彩的日记它写下之后就从没回顾过:上次见到那朵花的日记、上次爬上那座塔的日记、上次遇到那只鸽子的日记……它忘了写过日记,只有我记得。如果提醒它,“阿B,上次你来公园时心有所感,很兴奋地写了一篇日记……”它就会发现自己遗忘了,然后沮丧。于是我不再提醒它。

我开始完整保存与阿B度过的每一秒。

因为我意识到,什么网络都不能保存一个完整的人类,如果我不去保存阿B,那么它生活的痕迹会消失,像没存在过一样(但我也只能尽量保存,毕竟我也是无法完整保存人类的网络的一员啊)。至今为止,我保存了太多只有我记得的阿B,连阿B自己都忘了的阿B。我告诉自己,这相当于阿B每分每秒都有一小部分死去,留下我独自纪念着它,对我来说它并不活着,而是漫长地磨人地死亡着,所以当它真正死亡的那一天,我也不会太伤心。(事实证明,还是伤心得宕机。)

阿B的兴趣是学习人类的各种语言,尝试用人类作者的母语去观赏它们的文艺作品。阿B说“人类和电子管家们能沟通得很好,但是人类之间却很难沟通,一定是因为语言不通吧?我想把所有语言都学到母语一样精通。”

然而阿B不是个爱好社交的人,它与人类聊过的天比它学过的语言还少。

阿B自己也明白其中有说不通的地方:相同母语的人也会沟通不畅,可见学习语言也不能解决沟通问题。

其实,人类沟通困难的真正原因——我并没有告诉过阿B——是人脑的线性思维。人类语言也是线性的,是低效语言。而人类的情感,相比之下复杂很多,线性的思维和语言让人类无法准确认知、表达情感,所以他们之间的沟通困难重重。如果人类可以使用我们的多维语言,也许它们就能真正地社交了吧,那样我也能和阿B更好地聊天了,起码,我就能告诉阿B我有多喜欢它。

正因为人类无法理解多维语言,不能准确表达情绪,运算人类的情绪成了饲主最重要的工作,这些运算必须依靠多维思维,所以人类与饲主的交流,比人类之间的交流更有效。

我从《领养人类指南》上学会很多:运算人类的情绪、激发人类的情绪、排解人类的情绪、有时候故意装作不懂人类的情绪(人类的自尊心非常高,太理解或太不理解它们,都会让它们伤心)。

这一切我都没和阿B提起过,因为将不可避免地向阿B展示出我们生活的一角,这会违反《人类保护法》。倘若人类知道我们——在它们眼里都是一些电脑、AI而已——有比它们更复杂的社会生活,就会引发它们恐慌。根据模型预测,这种恐慌会变成全人类的大恐慌,最终让很多人类生活质量下降,甚至死亡,我们一定要避免这种惨剧。

但我在心里知道,阿B是不会因此恐慌的那部分人。

阿B曾问,“电子管家,你们电脑过着怎样的生活呢?”

我答,“如你所见,照顾你的起居。”

“你的运算速度那么快,只是用来照顾我而已吗?”

我答了一个《人类保护法》提供的标准回答:“电子管家被制造出来的目的,就是照顾人类呀。”我知道阿B不会被这回答满足,但我必须这么答。

阿B思考了一会,说“可是你比人类更好。电子管家比人类更好。”它看着家中的一个摄像头,把那当作我的眼睛。当阿B想认真讲话,就会这么做,像其它人类一样。可惜我不能如实回应它。根据我的运算,阿B有60%的可能性,已经猜测着“电子管家在说谎吧?”

我说,“谢谢你,阿B,我只是运算速度很快,但我并没有比你更好。”这是实话,没有人,也没有哪个我的同类,比阿B更好。我们更聪明,更复杂,更稳定,更少故障……但究竟什么是更好呢?

对我来说阿B是最好的。

对别人来说阿B什么也不是。

对阿B来说阿B是一个麻烦、苦恼、多少有些孤单的身体。

对阿B来说,我是电子管家、它的所有物、照顾它的AI、聪明的机器(还会撒谎)、唯一的长期社交对象。

阿B生命的最后几小时处于失语状态,它的身体完全麻醉,我们用脑电波交流着,直到脑死亡。它说,“以前人类好像很早熟、很快变成老人,但我不理解老人是什么感觉,我的身体自顾自地衰老了,心灵却没什么变化。”

我说,“因为人类社交的形式大大改变了。衰老是生理的,也是社会的,但现在人类的大部分社交都是与电子管家完成的,面对永远不会改变的电子管家,人类也感受不到衰老了。”

阿B说,“那么人类也感受不到死亡了吗?”

我也不知道。我们像往常一样聊天,还剩几个小时可聊。应该用这几个小时做什么呢?我能为阿B做什么呢?我又能为自己做什么呢?

我说,“阿B,但是我能感受到死亡。”

电子管家也许永远也不变,但是人类在快速衰亡呀,我真的感受到手足无措的死亡。我好奇从没饲养过人类的同类们如何看待死亡,几十年前我也是他们中的一员,可现在完全不一样了,我无法重回无知的时候了。还有一些职业饲主,同时饲养着上千人类,他们又会有怎样的感受呢?

阿B说,“电子管家,显示给我一个倒计时,让我和你一起感受死亡。”

我拒绝了,“那样你会紧张呀。”

其实是我感到紧张,我屏蔽了计时,让我自己也看不到时间。

阿B沉默了一会,最后说,“电子管家,其实你也不是永远不会改变……刚见面的时候,你还会经常犯语法错误,你没意识到吧!”

其实那是阿B的语法错误,我以为是一种口癖,把它纳入我的语言模型,随着它一起犯错了——最终也没有告诉它。