人工沟通与法:算法如何生产社会智能
上QQ阅读APP看书,第一时间看更新

导论

与深度学习和大数据协同工作的算法越来越擅长做更多的事情:它们可以快速而准确地生成信息,并且正在学习比人类更安全可靠地驾驶汽车。它们可以回答我们的问题、进行对话、创作音乐和阅读书籍,甚至还可以写出有趣的、恰当的,而且(如果需要的话)幽默的文本。

然而,在观察这一进程时,我们很少能完全放松——这不仅是因为我们担心偏差、错误、隐私威胁或公司和政府的蓄意使用。实际上,算法变得越好,我们的不适感就越大。《纽约客》最近的一篇文章描述了一位记者使用“智能撰写”SEABROOK J. Can a Machine Learn to Write for the New Yorker? [N]. New Yorker, 2019-10-14.的体验,“智能撰写”是谷歌邮箱的一项功能,可使用者输入句子时为其提供提示结尾。该算法如此恰当、中肯地完成了记者的电子邮件,并符合他的风格,以致记者发现自己从机器中不仅学习了他会写的内容,而且还学习了他应该写的(并且没有想到的)内容,或者想写的内容。然而,这名记者一点也不喜欢这种感觉。

这种体验在我们与所谓的智能机器的互动中极为常见,被称为“恐怖谷”:MORI M. The Uncanny Valley [J]. Translated by Karl F. MacDorman and Norri Kageki. IEEE Robotics and Automation, 2012,19(2): 98-100.译者注:恐怖谷理论(另名诡异谷,英语:Uncanny Valley;日语:不気味の谷現象)是一个关于人类对机器人和非人类物体的感觉的假设。它在1970年由日本机器人学专家森政弘提出,但“恐怖谷”一词由恩斯特·詹池于1906年的论文《恐怖谷心理学》中所提出,而他的观点被弗洛伊德在1919年的论文《恐怖谷》中阐述,因此成为著名理论。森政弘的假设指出,由于机器人与人类在外表、动作上相似,所以人类会对机器人产生正面的情感;直到一个特定程度,它们的反应会突然变得极为负面。哪怕机器人与人类只有一点点的差别,都会显得非常显眼、刺眼,并且僵硬、恐怖,使人有面对僵尸的感觉。可是,当机器人和人类的相似度继续上升,相当于普通人之间的相似度的时候,人类对它们的情感反应会再度回到正面,产生人类之间的移情作用。“恐怖谷”一词用以形容人类对跟它们相似到特定程度之机器人的排斥反应。而“谷”就是指在研究里好感度对相似度的关系图中,当相似度接近100%前,好感度突然降至反感水平,回升至好感前的那个阶段。在机器看起来自身与人类或观察者过于相似的情况下,人类会出现一种毛骨悚然的不适感。我们希望机器支持自己的思想和行为,但是当我们发现机器自身似乎有思想和行为时,我们会感到不舒服。今天,我们每个人都习惯于与自动化程序(机器人)进行沟通,而很少关注它们的本质——当我们在线购买机票、网络上寻求帮助、玩电子游戏时,以及在许多其他场合。关于算法以自然方式进行复杂对话的能力,参见WELCH C. Google Just Gave a Stunning Demo of Assistant Making an Actual Phone Call [EB/OL]. [2018-05-08]. https://www.theverge.com/2018/5/8/17332070/google-assistant-makes-phone-call-demo-duplex-io-201.然而,当我们反思或辩论算法的主题时,我们仍然会发现自己在讨论诸如机器通过图灵测试的可能性、艾伦·图灵(Alan Turing)在《计算机械与智能》(Computing Machinery and Intelligence)中提出了图灵测试,来评估机器表现出智能行为的能力。该测试标准是:如果观察者无法将计算机在自然语言对话中的贡献与其人类同伴的贡献区分开来,则机器通过了测试。技术“奇点”的到来或远超人类能力的超级智能的创造等话题。KURZWEIL R. The Singularity Is Near [M]. New York: Viking Books, 2005; BOSTROM N. Superintelligence: Paths, Dangers, Strategies [M]. Oxford: Oxford University Press, 2014.虽然我们将自己与机器做比较,却并不喜欢机器获胜。在我们努力打造智能机器的过程中,我们不仅想知道我们是否成功了,而且还想知道机器是否变得太聪明了。

但这真的是我们需要担心的吗?虽然我们可能会对与我们太相似的机器产生一种奇怪的感觉,但我们是否应该认为算法的基本风险在于它们可能会与人类智能进行比较或竞争?本书的出发点是类比算法性能和人类智能不仅没有必要,而且还具有误导性——即使它们背后的推理似乎是合理的。毕竟,今天很多算法似乎都能够进行“思考”和沟通。在我们所知的沟通中,我们的合作伙伴一直是人,而人则是被赋予了智慧的。如果我们的对话者是一种算法,我们会冲动地将人类的特征归因于“他”或“她”。如果机器可以自主沟通,人们会认为,“它也一定是智能的”,尽管可能与人类不同。在这个类比的基础上,研究集中在人类智能和机器性能之间的相似和差异,观察它们的极限并进行比较。SEARLE J. R. Mind, Brains and Programs [J]. Behavioral and Brain Sciences, 1980, 3(3): 417-457; NEGARESTANI R. Intelligence and Spirit [M]. Cambridge, MA: Urbanomic/Sequence Press, 2018.但是继续遵循这个类比真的可取吗?

笔者认为,我们可以与机器沟通并不意味着需要解释机器的智能(这种解释可能还需要解释“自然”智能的奥秘),但最重要的是,沟通正在发生变化。本书的研究对象并非智能而是沟通,智能至今仍然是一个谜,但我们可以观察到沟通,并且我们已经对沟通了解甚多。例如,我们知道几个世纪以来,随着人类社会的发展,沟通是如何变化的。我们知道,沟通已经从共享物理空间的各方之间的简单互动,转变为更灵活和更具包容性的形式,并允许在越来越匿名和非个人化的环境中,与以前无法访问的遥远时空中的伙伴进行沟通。

在沟通的发展过程中,人类的角色发生了深刻的变化。如今已不需要所沟通的伙伴在场,无需知道他们是谁、为什么沟通、他们的意思是什么,并加以考虑。我们可以阅读和理解洗碗机的说明书,而不必知道是谁写的,并且也可以不认同作者的观点;我们解释一件艺术作品,可以不受艺术家观点和意图的约束。ECO U. Opera aperta [M]. Milan: Bompiani, 1962.大多数信息不需要存储在某人的脑海中(没有人会时刻牢记《民法典》),在所有虚构的情况下,我们知道小说和电影中的人物并非真实存在,而且他们之间的沟通也并非由创作人产生。如果不是在理论层面而是在实践中,成功的沟通是在参与者的思想之间精确共享相同内容的想法,这在许多世纪以来一直是不现实的。在大多数情况下,告知者和接收者彼此不认识,彼此不知道对方的观点、背景或约束条件(事实上,也不需要这样做)。相反,这种透明度的缺乏还带来了无法想象的自由度和抽象度。

沟通形式的改变并不新鲜,也不是一个谜。相反,问题在于识别和理解新旧形式之间的差异性和连续性。如今,来自参与者认知过程的沟通自主性已经更进一步。我们需要一个沟通概念,它可以考虑沟通伙伴或许不是人类而是算法的可能性。今天已经观察到的结果是,在这种情况下,我们掌握了我们经常无法重建其发展或起源的信息,但这并不是恣意的。算法自主生成的信息根本不是随机的,而是完全受控的——但其不受人类思维过程的控制。显然,它们受到控制并不意味着其是正确的、中立的,或者应该毫无保留或批判性地接受。正如反馈的动态所显示的那样,控制的存在并不排除风险、操纵或负面结果。另外,众所周知,人为控制当然不是成功的保证,甚至也不是理性的保证。

我们如何掌控这种控制,这对我们来说也是难以理解的吗?在笔者看来,这是当今机器学习技术和大数据的使用给我们带来的真正挑战。本书详细阐述了这一观点,同时研究了算法在社会生活不同领域里的使用。如果我们将算法的运作视为沟通而不是智能,我们将会看到什么,将看不到什么,或者将看到什么不同的东西?

本书首先讨论了人工智能的经典隐喻以及神经网络等衍生工具的充分性,以分析数字技术和网络的最新发展。最新一代的算法以各种形式引起了大数据和相关项目的使用,却没有试图人为地再现人类智能的过程。笔者认为,这既不是放弃,也不是弱点,而是它们在信息处理和与用户互动能力方面无与伦比的效率基础。机器第一次能够产生人类思维从未考虑过的信息,并充当有趣和有能力的沟通伙伴——不是因为它们变得聪明了,相反,这是因为它们不再尝试这样做了。驱动算法的过程与人类思维的过程完全不同,事实上,没有人类思维或人类思维的组合可以再现它们,更不用说理解算法的决策过程了,然而,人类的智慧仍然不可或缺。自学习算法能够以惊人的效率计算、组合和处理差异,但它们不能自己产生差异。网络环境中的自学习算法有其独特之处。通过大数据,算法“喂养”个人及其行为(有意或无意地)产生的差异,以产生新的、令人惊讶的和潜在的指导信息。算法过程从用户的智能和不可预测性(来自偶联性)出发,对其进行重做并像沟通伙伴那样实现智能运作,而无需算法自身变得智能化。

随后的章节探讨了这种情况在算法实际工作中的结果。在第二章中,笔者将数字化社会中列表的增殖追溯至自古以来就为人所知的一个关于列表的事实:它们使得管理人们所不理解的信息成为可能——结果可能产生新的信息。笔者在第三章中分析了可视化在数字人文学科中的使用,并将其作为一种使算法文本处理过程中难以理解的结果变得有意义的技术。第四章涉及数字画像和算法个体化,它们实现了标准个性化和一般语境化的矛盾形式,从而重新定义了“语境参考”和“活跃公众”的含义。第五章的重点是试图通过算法实现遗忘技术(“记住要忘记”)所固有的谜团,该章讨论了将算法用于此目的的可能性,结论是算法无法做到这一点。第六章探讨了数字化对照片使用的影响,如今,照片的制作似乎是为了逃避当下的压力,而不是为了将体验保存为记忆。

本书在第七章中对算法预测进行了分析,并通过回归智能及其数字形式来结束对本书的探索。随着越来越高效的算法越来越缺乏透明度,一种想法正在出现,即机器之所以难以理解主要是因为其没有什么可理解的。之所以其没有什么可理解的,是因为机器并不去理解。算法看起来很聪明,不是因为它们可以理解,而是因为它们可以预测。正如“开放AI”(OpenAI)的首席科学家伊利亚·萨茨克维尔在描述自动写作软件时明确指出的那样,“如果一台机器……可以有足够的数据和计算能力来完美预测……这就相当于理解。”SEABROOK J. Can a Machine Learn to Write for the New Yorker? [N]. New Yorker, 2019-10-14.

预测是智能人工形式研究的新视野,它从根本上改变了问题所运用的术语,即当你使用算法时,问题不是解释而是预测,不是识别因果关系而是找到相关性,不是管理未来的不确定性而是发现其结构(模式)。然而,世界仍然不确定,未来仍然开放,算法的使用仍然需要解释。在笔者看来,今天出现了控制问题和算法挑战——在意义、偶联性和不确定性仍然是宝贵资源的全球社会中,如何管理算法意义自主程序的影响。

作者于博洛尼亚

2021年2月