London Chinese Science Fiction Group

LCSFG is a community for people interested in Chinese language science and speculative fiction (SF).

"The Psychology Game" /《心理游戏》(2015) by Xia Jia / 夏笳
Translated by Emily Jin and Ken Liu (2017)

Our reading for July 2019

Story Summary

This short story criss-crosses the historical development of artificial intelligence's increasingly sensitive and human-like judgement with an unusual gameshow experience of counselling that encourages viewers to reach out against mental health illnesses. Without finding out which, the anonymous volunteer patient is treated by either an AI or a certified human therapist.

Xia Jia experiments with solutions to today's social problems, with a focus on how technology's mass scale deployment affects people through intimate consequences. Set in the very near future (post-2020), 'The Psychology Game / 心理游戏' is a piece of speculative fiction that reflects on the growing openness towards mental health issues and the types of communications we are choosing to express them.

The story appears in its English translation in Issue 133, October 2017 of Clarkesworld Magazine here and in its original Chinese here.

The Psychology Game book cover

The author

Xia Jia (aka Wang Yao) is Associate Professor of Chinese Literature at Xi’an Jiaotong University and has been publishing speculative fiction since college. She is a seven-time winner of the Galaxy Award, China's most prestigious science fiction award and has published three science fiction collections (in Chinese): The Demon-Enslaving Flask (2012), A Time Beyond Your Reach (2017), and Xi'an City Is Falling Down (2018). Her first English language short story collection, A Summer Beyond Your Reach, will be the first book published by Clarkesworld Books. She's also engaged in other science fiction related works, including academic research, translation, screenwriting, and teaching creative writing.

The translators

Emily Jin is a translator of science fiction and fantasy, translating Chinese into English and the other way around. She graduated from Wellesley College, Massachusetts in 2017, and she is currently pursuing a PhD in East Asian Languages and Literature at Yale University. She is one of the core members of the Clarkesworld-Storycom collaborative project on publishing English translations of Chinese science fiction.

Ken Liu, a winner of the Nebula, Hugo, and World Fantasy awards, is the author of 'The Dandelion Dynasty', a silkpunk epic fantasy series (starting with 'The Grace of Kings'), as well as 'The Paper Menagerie and Other Stories' and 'The Hidden Girl and Other Stories'.


研讨回顾

《心理游戏》:AI与偏见

(via our WeChat)

一个没有答案的问题

一般来讲,如果一个动物看起来像只猫,听起来像只猫,甚至摸上去也像只猫,那么我们大可理直气壮地说,这本来就是一只猫。但是,如果一套程序或代码看起来似乎有思考的能力,交流起来也毫无障碍,甚至能够安抚焦虑者的情绪,那在这种情况下我们就可以说,这是一个人工智能吗?这个疑问本身并不新鲜。早在20世纪80年代,美国哲学家约翰·希尔勒就通过一个著名的思想实验“中文房间”表达了他的看法—— “假如有一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。”

在这个过程中,我们所谓的“人工智能”究竟有没有自主思考的能力?就像夏笳在这个故事里提到的,“机器能思考吗?”与“机器能做我们这些思考者所做的事吗?”这两个问题究竟可不可以相互替代?

《心理游戏》并没有十分强烈的“科幻”感,反而更像是一篇纪实评论。夏笳设计了一个新颖的综艺栏目,邀请很多饱受心理问题困扰的咨询者接受来自心理咨询师的疏导,而屏幕另一端的“心理咨询师”有可能是实实在在的专业心理医师,但也有可能是一个智能聊天软件。但不论是谁,心理咨询中总需要有值得信赖的咨询师置身事外来扮演一个可靠的倾听者和陪伴者,以此来舒缓咨询者的情绪,帮助咨询者解开心结。夏笳认为,这个过程隐含着一个不可或缺的信念或前提,即“人类的情绪可以被有效地处理”。也就是说,“情绪”作为一直以来区别人类和人工智能的标准,实际上并没有人们原先以为得那样无懈可击。这并不是说“机器”同样可以拥有情绪,而是说“情绪”本身就是逻辑的产物——病人失眠不高兴,他就会思考自己不高兴的原因,而这个过程却反过来加剧了病人的失眠程度。只有跳出这个循环,从根源上“忘记”病人求而不得的那个欲望,甚至忘记“欲望”本身,才能够与自己达成真正的和解。 从这个角度来看,夏笳并没有试着去给故事开始时的问题提供一个答案,反而在结尾的时候展开了一个新的问题:人类与人工智能之间的差别,真的有我们原先以为的那样大吗?

一个令人担忧的现实



显然,差别并没有那么大。实际上,“人类”与以人工智能所代表的“后人类”之间的过渡和融合早已开始,科幻小说中时常出现的义体、植入芯片等元素,已经慢慢融入我们的生活。现在越来越的人佩戴的眼镜,维持生命的心脏起搏器,帮助骨折病人恢复的医用钢板,都在渐渐地消解我们身体的“纯粹性”;而像手机、电脑、智能手表,甚至wifi本身,都可以看做我们身体不可或缺的自然延伸。通过这些方式,我们每个人都将我们的生活“数字化”,并将其归以不同的分类。 就像我们之前在讨论《北京折叠》时提到过的那样,在他人眼中,作为个体的“人”并不具有一个实在的形象。相反,每个人都会被赋予各种各样的标签,之前的所有的教育、工作、娱乐等经历首先会被数字化,然后变成可以被整合、分析的数据,通过在数据库中的横向比较被赋予一个“价值”,而这个价值,决定了每个人的社会地位、信用等级,以及所有能够接触并赖以生存的社会资源。

虽然《心理游戏》以及很多其它科幻作品中科幻的那种能以一敌百的“强人工智能”,不论它们将来能否发展出足以媲美人类的智慧和情感,在今天终究还只是停留在文学或哲学中“思想实验”这个阶段,但是,如今蓬勃发展的计算机科学却早已把我们的现实生活带入了“算法时代”。建构在大数据基础上的各种算法逻辑从根本上改变了我们的生活,甚至,在某种程度上,离开了“数据”,作为个体的我们在社会中将显得寸步难行。这本不是什么坏事,算法和数据带给我们的便利现如今比比皆是。我们相信,各式各样的算法通过学习浩如烟海的数据,能够发现并提炼出数据背后隐藏的规则和范式,加以运用,提高效率。

不过遗憾的是,数据本身却是带有偏见的,以至于由数据发展而来的程序、算法、甚至是未来有可能真正出现的人工智能,自然也就继承了人类社会遗留下来的各种刻板印象。美国曾经在具体的司法实践中尝试应用人工智能协助某些案件的裁决,运用程序模型来预判哪些在押人员会在被释后再次犯罪,甚至直接依靠软件来确定量刑。但在这个过程中,边缘群体却受到了“系统性”歧视。算法在预测评估时会参考对方及其亲属的生活环境、受教育程度、收入情况、违法记录等因素,这便形成了一种压制贫困者的体制。尽管这些算法并没有直白地询问或是考量被告人的种族和性别,但是其中很多问题设计却体现了同样的目的。许多学者已经提出很有说服力的论证,证明这些设计可能会引发种族或性别歧视。 与此类似的是,在我们享受着数据带给我们的各种方便和优惠时,甚至在我们的身体不断连接新的设备,不断与“后人类”相融合的时候,我们需要明白,虽然技术本身是中立的,但其背后使用、控制技术的“人”却不可能拜托自身原有的偏见。终有一天,建立在偏见之上的人工智能不断发展,强大到可以参与大规模的社会管理,那样的未来,似乎并不是我们所期待的。

在故事的最后,夏笳这样说道:“在技术飞速发展的时代,我们必须不断甄别和判断,究竟哪些事情必须由人类来做,而哪些原本以为非人类不可的工作,机器其实同样可以胜任,甚至做得更好。在这样一个过程中,我们或许会感到,自己身为人类的尊严感正遭到持续不断的瓦解。我们会发现,在许多场合,人对于人来说其实都不是必需的。”不可否认,这里的“人”作为传统意义“纯粹”的人类正在日渐式微。但是,我们应当做的并不是慌张地拒绝一切同“后人类”融合的可能性,而是努力去改变我们今天的社会话语中暗藏的偏见和刻板印象。

毕竟,人工智能和大数据算法正对我们的生活施加着前所未有的影响,而它们自身也在逐步进化。甚至“文学创作”这一专属于人类的特长,也渐渐变得不再那么“专属”。夏笳的好友陈楸帆就曾在自己的故事中运用了“机器写作”这一手段,大家想看看人工智能是怎么评价人类对它们的担忧吗?: 恐惧中作为大脑极端痛苦的美感,仿佛所有者都只能重复让用户创造出来完全意义时,情感衰退以地壳风格的太空、燃烧、旋转、情感传递、一旦提高。因此那人记得自己一样,把自己看作地狱限度,没有任何通感渠道,便可以灵活地释放肌肉跃动,便无法陷入明亮。
嗯,反正我觉得很有道理(假装看懂)。