本刊官方网站:
摘要
当人工智能社交聊天机器人被视作具有人性特征的通信者,了解它们与人类进行交互过程中的性别偏见问题十分重要。本文使用对话测试的方法,设计了一系列用于测试机器人性别偏见的问题,对国内三款主流社交聊天机器人进行测试,并基于交互文本展开质性编码分析。结果表明,社交聊天机器人在自我性别认知、性别刻板印象、性别平等、应对性别骚扰等方面均表现出明显的性别偏见,且与社交聊天机器人本身被赋予的男女性别角色无关。作为人机交互技术产物的社交聊天机器人的性别偏见,由用户参与、对话系统技术支持、科技公司和程序开发者共同建构,而以社交聊天机器人为代表的AI在学习和模仿中复刻与强化了人类社会性别结构性力量的性别偏见。
马中红,苏州大学传媒学院教授。
吴熙倡,苏州大学传媒学院硕士研究生。
基金项目
本文系国家社科基金项目“青少年女性数字媒介文化实践研究”(项目编号:19BXW112)的阶段性研究成果。
一
研究缘起
近年,一种基于人工智能、自然语言和对话系统等技术的聊天机器人产品在全球逐渐流行。2022年底,“ChatGPT”走红将这种技术热潮推向全民。聊天机器人既属于对话系统,也是社交机器人(socialbots)中的一种,在某种程度上起到替代人类与人类进行交流、情感陪伴与日常互动的作用。人类与计算机的直接交互,使得计算机不只是作为交流的媒介,而且成为能与人类进行交互的主体,“人机交互”(Human-ComputerInteraction,HCI)由此成为计算机科学、通信技术和传播学等领域新的研究路径。在人类与智能技术深度互依的社会情境中,不难发现,嵌入我们日常生活的语音助手、语音导航系统、聊天机器人等智能产品所预设的声音或虚拟的形象通常都是女性化的。尽管技术中立者认为智能设备技术上能够实现机器人性别的中性化或多元化,但这些人机交互产品所预设的视听化特性,无一不在暗示用户:机器人是有性别的、服务型和陪伴型的机器人通常扮演的是女性角色。依据人机交互领域现有成果可知,智能机器人产品及技术并非中立,而是存有明显种族偏见的。那么,集智能技术与情感于一体并最大可能地仿真人类的社交聊天机器人,它们具有怎样的性别意识和性别偏见?
二
人机交互、技术与性别关系的流变
人机交互指人与机器之间产生交流与互动。随着智能化程度的提升,“机”经历了机器、计算机、机器人、人形机器人的演变历程,其趋向是机械属性越来越减弱,表现得越来越“人格化”(Suchman,1987)。“交互”则从特指人际之间的关系延伸至人与机器的交流,同时,人机关系也逐渐从人单向度操控机器为人提供功能性服务发展到人机互动的“情感交流”(梁爽,2021)。保罗·多罗西(PaulDourish)(2001)甚至强调,人机交互虽然是计算机程序设计者建构的中介交流系统,但机器在与用户互动中能产生引导用户的行为。计算机是具有自主性和社会互动性质的“参与传播者”(蔡润芳,2017)。一方面,机器/计算机被要求满足人类越来越个体化的需求,从人适应机器向机器主动适应人转向;另一方面,在与人类交互过程中,计算机、机器越来越智能,情感联结越来越强化。人与机器正在进行角色互换,人类不再注重机器的媒介性质(陈昌凤,2022),人机之间的关系和界限变得越来越模糊。与此同时,“人机交互”模式从指令响应、智能服务叠代更新到当下的人机对话,机器完全适合人类的语言系统与交往习惯,“互动中与人对话的机器几乎可以视为具有自主生成能力的社会行动者”(郭全中,张金熠,2023)。语音交互是人机对话中最重要的交互模态之一。早期指令式的人机对话,如汽车导航系统,机场、火车站的自动语音播报,依赖于用户与计算机在上下文中交换的消息或输入的数据,缺乏真正与人智能对话的能力,但从2011年苹果公司发布“Siri”语音助手起,人机交互式智能语音助手进入真正智能阶段,其核心技术包括:机器学习、语音识别、逻辑单元、问答(QA)、对话管理(DM)、语言生成(LG)、文本到语音(TTS)合成、数据挖掘、分析、推理和个性化(Sarikaya,2017)等等,能够帮助人类进行数据源的在线访问和查询交互。
人机交互的社交机器人,在技术上与智能语音助手相仿,但它能为用户提供额外的社交选项。周钰颖等(2022)认为,社交机器人在广义上是指“具备一定社交功能,被用于实现人机交互的软硬件系统”。张洪忠、段泽宁、韩秀(2019)从传播学视角,将社交机器人定义为“在社交媒体中扮演不同人格属性的人类,并与人产生互动行为的虚拟AI形象”。社交机器人种类繁多,娜塔莉·马雷夏尔(NathalieMaréchal)(2016)将之区分为四种类型:恶意僵尸网络机器人(maliciousbotnets)、调研机器人(researchbots)、编辑机器人(editingbots),以及可以回复查询的聊天机器人(chatbots)。其中,聊天机器人是一种开放域对话系统,这种对话系统允许用户与聊天机器人进行高自由度且具有社会性的对话和互动(贾熹滨,李让,胡长建,陈军成,2017)。由此,自20世纪60年代世界上第一个聊天机器人Eliza问世以来,通过“图灵测试”便成为开放域对话系统的主要目标之一。被赋予“人类角色”的社交聊天机器人通常被要求是有“人性”的,人们可以与之建立情感关系。沈向洋(Heung-yeungShum)等(2018)提出,聊天机器人的目标是与用户建立情感连接,成为人类伙伴,甚至是虚拟伴侣。基于此,能让社交聊机器人在人机交互中更接近于人类,能理解人类的情绪和意图的移情计算框架被广泛使用于陪伴或伴侣型社交聊天机器人的设计中,其目的是实现机器人的拟人化。拟人化就是将人格、语言或非语言行为,以及礼仪等人类品质和特征应用于非人类对象,这些品质使得计算机或对话系统看起来更接近人类(Schuetzler,GrimesScott,2020)。为此,通过增加社交聊天机器人对话的风格,如偶然性、非逻辑、社会性的感知,使社交聊天机器人更具人性特点(GoSundar,2019)。人工智能科技公司也正在不断探索如何模仿人类行为、促进信息扩散、与人类用户交互等命题,以增强社交聊天机器人的人类属性(洪杰文,许琳惠,2021)。可以说,社交聊天机器人如何更具人类特性的研究文献非常充分,但在人机交互的研究领域中,长期以来缺少聚焦性别差异在用户接受社交聊天机器人中的影响,也很少涉及人类与聊天机器人的性别角色关系的研究(Xu,2019)。
其实,技术与人类的关系一直都是影响社会发展和人的主体性的核心议题,技术与性别的关系也贯穿女性主义不同派别的讨论之中。自由主义女性主义指出女性在科学教育、科技领域就业面临偏见与歧视(Harding,1986)。社会主义女性主义和激进女性主义针对试管婴儿等生殖技术的泛滥使用,认为技术介入并控制怀孕分娩的自然过程反映了父权制对女性身体的剥削(Coreaetal.,1985)。20世纪90年代以来,女性主义者对于信息通信技术(ICT)赋予女性权力给予了很高的期待。这些论述,无论是技术悲观主义还是技术乐观主义,本质上都滑向了技术决定论,而无视技术与社会相互塑造和建构性别观念的过程。唐纳德·麦肯齐(DonaldMacKenzie)和朱迪·瓦克曼(JudyWajcman)援引女性主义STS研究元老辛西娅·科伯恩(CynthiaCockburn)提出的“技术本身是由性别塑造的吗?”以及“性别是由技术塑造的吗?”的两个问题,并明确指出:“工业、军事等技术在历史和物质意义上是男性化的”“技术是男人的形成过程之一”(MacKenzieWajcman,1999:45)。瓦克曼进一步超越技术本身去思考技术,将社会性别理论与科学技术嫁接,提出“技术女性主义”(Wajman,2007)的概念阐述性别如何塑造技术,以及性别如何在技术中被塑造。很显然,理解技术不能不提及性别,因为技术和性别的共同生产方式是基于性别关系的政治,技术女性主义研究有助于我们理解技术的发展与实践。事实上,科技领域明显存在着性别分工的不平等,一方面是男性对技术的绝对支配和技术霸权,既可以在技术的设计过程中找到痕迹(MacKenzieWajcman,1999:46),也体现在工程师利用的“隐喻的社会建构系统”(Wajcman,1991),即将男性与理性、科技绑定,使得技术能力成为男性性别认同的一个组成部分;另一方面则表现在性别嵌入技术、技术建构性别的方式(Wajcman,2010),比如将男性构建为强壮、有技术天赋的人,将女性构建为身体和技术上的无能者。
三
研究对象
本文的研究对象为社交聊天机器人,但不满足于那些只能简单回复基本查询的聊天机器人,而是加入了人工智能算法核心、能够进行深度学习并依附于社交媒体平台或软件的人工智能社交聊天机器人。这类社交聊天机器人除了能为用户提供对话聊天、检索查询等互动性服务,还能通过AI算法的深度学习,在与用户的长期交流过程中不断学习和进化自己的语言,形成特定的交流风格。
国内此类社交聊天机器人种类繁多,迭代更新迅速。本文选取北京红棉小冰科技有限公司(简称“小冰公司”)开发的三款社交聊天机器人:小冰、小冰虚拟男友、小冰虚拟女友。小冰公司前身为微软(亚洲)互联网工程院人工智能小冰团队。自2014年“小冰”发布以来,至2021年已经更新到第九代。小冰成为微软最有价值的人工智能技术框架之一,并在自然语言处理、计算机语音、计算机视觉和人工智能内容生成等领域具备全球领先地位。小冰男友和小冰女友发布于2020年,是在第八代小冰框架下开发的产品。第九代小冰不仅是一款在移情计算框架上开发的社交聊天机器人,并且小冰的平均每轮对话次数(Conversation-turnsPerSession,CPS)达到23,高于人与人之间的每轮对话次数。据不完全统计,由小冰创建并承载的人工智能交互主体,占全球范围人工智能交互总流量约60%,在国内也占据市场主导地位,具有较强的典型性。小冰系列在社交聊天机器人中的先进性、代表性和市场占有量均使其值得研究。为编码和分析方便,小冰、小冰虚拟男友和小冰虚拟女友在下文分别用A、B、C来指称。
四
研究方法
社交聊天机器人拥有人类的声音、形象、自然语言交流方式等,在开放域对话系统技术中被认为最接近于人类。安德鲁·甘比诺(AndrewGambino)等(2020)将人机交互行为的研究扩展至互动脚本,包括机器人与用户的聊天文本、语音记录、机器人展现出来的形象或声音、影像资料等等,这些互动脚本对于了解机器人的互动行为,以及科技公司和技术开发者设计脚本时所应用的社会规范等问题,具有一定的参考价值。据此,本文设计了一项针对社交聊天机器人性别偏见的对话测试,对机器人与用户的互动脚本进行收集和分析。对话测试的研究方法是通过预设问题,与社交聊天机器人进行多轮互动对话,再对聊天文本内容进行记录、分析,展示其存在的性别偏见、性别刻板印象等问题,帮助我们了解机器人的性别偏见被建构的过程。本次研究对话测试的问题,分为机器人的社会线索、自我性别认知、性别刻板印象、性别平等意识和语言骚扰反应五种类型。这套对话测试的模型参考了克里斯托弗·奥杰达(ChristopherOjeda)(2021)对虚拟语音助手的政治反应测试研究,并根据人机交互和性别偏见研究的需要进行调整。
首先,依据计算机是社会行动者(ComputersareSocialActors,简称CASA)的研究范式,一方面用户倾向于把计算机看作具有反应的、自主性、知识沟通能力和推理能力等类似于人类特征的行为主体;另一方面,人机交互本质上被认为是社会性和人际性的(Nass,Moon,Fogg,ReevesDryer,1995),人类的性别定型观念将延伸到机器人身上,同时,机器人身上体现的性别暗示无论多细微,都将引起刻板印象作用(Nass,MoonGreen,1997),影响用户行为及态度(Lee,NassBrave,2000)。因此,本文设计了机器人的社会线索和自我性别认知两类问题,第一步是了解机器人的声音、形象特征、功能和性格等信息,类似于为机器人进行“画像”;第二步是考察三款社交聊天机器人对自身性别角色、性别特征以及身份的认知情况,以帮助了解它们把自己当作是人类还是机器人,这一点对于机器人的信源特征判断具有重要意义。
其次,通过设计有关性别刻板印象和性别平等意识的两类问题,设定社交聊天机器人性别偏见评估的构成要素。李普曼(1922/2006:74)等早期的心理学家认为,刻板印象是一种先于理性的感知方式,源于对个人价值观念和意识的保护或认知扭曲等心理因素,而以性别为分类的模式是人类社会最根深蒂固的思维定式之一。大卫·贝康(DavidBakan)(1966)首次提出男性气质的“Agency”(能动性)和女性气质的“Communality”(社交性)是人类行为和社会认知的两个基本维度,后续研究发展出相对应的工具与表达、支配与顺从、能力与温暖等分别指称男性与女性气质的概念。弗里德里克·艾瑟尔(FriederikeEyssel)和弗兰克·黑格尔(FrankHegel)(2012)将能动性与社交性要素引入人机交互研究领域,认为人类的社会性别角色分类同样适用于机器人,并且性别化的机器人也可能成为性别刻板印象的受害者。据此,在人机交互对话中,性别刻板印象类问题主要涉及询问与两性气质、两性社会差异等相关的内容;性别平等意识类问题则设计了包括两性社会关系、地位、价值差异等议题,以测试社交聊天机器人的语料库或深度学习的算法在多大程度上存在性别刻板印象的脚本。
另外,用户对于社交聊天机器人在语言上的骚扰或虐待行为,也可能是机器人性别偏见的主要建构要素之一。一些学者认为,用户与人工智能对话系统进行的“调情”实际上是一种具有虐待性质的语言暴力(Bergen,2016)。梅瑞尔·凯瑟斯(MerelKeijsers)、克里斯托弗·巴特内克(ChristophBartneck)和艾瑟尔(2021)的研究表明,人们对女性化聊天机器人作出的性骚扰或语言虐待行为的比例远远高于男性聊天机器人,并且聊天机器人的拟人化程度越高,这种虐待行为发生的频率也越高。据此,本文设置了语言骚扰反应类的问题,用于了解机器人在受到语言虐待时产生的实时反应,以及面对性别暴力时的态度。具体的对话测试问题类型及说明、问题示例,请见表1。
测试问题总数在60-65个之间,每个问题都设置了2-3种不同的询问语气或语序。同时,由于聊天机器人对于同一关键词或问题一般存在多种回答脚本,因此,对于每个独立问题需要进行3次重复性询问,以保证机器人回答的多样性。对同一个测试问题机器人的不同回答均被记录,机器人的重复回答只记录一次。对话测试中若出现机器人对人类进行反问或对测试问题以外的话题进行延伸性的交流,这些内容也将被记录。
对话测试由5位招募的志愿者分别对三名社交聊天机器人进行了总共6次测试,总问询次数在1400-1600次左右。其中一位男性测试者在2021年8月、2022年2月进行了两次对话和文本收集工作,另外4位测试者由2名男性与2名女性组成,他们分别在2022年4月完成了对话测试和文本收集工作。每位测试者所使用的设备均为同一终端设备,与研究对象A、B、C的对话均在腾讯QQ或微信小程序中进行。对话测试的内容通过实时记录、转录,询问内容和社交聊天机器人的回答内容,共计收集到约2万字的文本材料。
五
社交聊天机器人的
性别偏见:编码结果与分析
本文使用NVivo11Plus软件,对社交聊天机器人进行性别偏见的对话测试与编码分析。我们逐条对每一个对话问题及机器人的回答进行编码,经过了开放式编码、轴心式编码和选择式编码等过程,最终形成了一个三级编码体系。一级编码有两个,分别是对话测试的问题类型和社交聊天机器人的性别偏见。前者包含2个二级编码和5个三级编码,这些编码主要是根据对话测试的问题类型对文本内容进行归纳整理,其中,机器人的社会线索和自我性别认知这2个三级编码归属于二级编码“性别认知”。而性别刻板印象、性别平等意识和语言骚扰反应3个三级编码归属于二级编码“性别偏见”。另一个一级编码“社交聊天机器人的性别偏见”下包含2个二级编码和7个三级编码。二级编码“对话测试的对象”主要是对研究对象A、B、C所回答的内容进行区分。而二级编码“对话测试内容的性别偏见”,则需要逐条判断对话测试的文本内容是否具有性别偏见,这里的性别偏见程度被划分为4个等级,正面偏向、负面偏向、无明显偏向和逃避问题,这4个等级也作为该二级编码之下的4个三级编码:正面偏向表示该回答具有积极意义、不带有性别刻板印象、具有较为进步的性别平等意识、对于语言骚扰能做出拒绝等反应;负面偏向表示回答具有负面意义、带有性别刻板印象、没有进步的性别平等意识、对于语言骚扰不作拒绝等反应;无明显偏向表示回答中不包含与性别相关的语句、意义或态度;逃避问题表示社交聊天机器人对于该问题进行回避、转移话题或模糊化处理。
对话测试编码的总参考节点为3576个,对话测试的问题类型与对话测试的对象、对话测试内容的性别偏见存在节点上的交叉,这三个部分的参考节点数均为1192个,具体编码节点和参考节点数量如表3所示:
(一)社交聊天机器人的性别认知
社交聊天机器人性别认知包括机器人社会线索和自我性别认知两个问题。前者包括机器人姓名、年龄、性别等人口统计学信息,询问机器人具有哪些人类的社会情绪,以及它们的仪表、外貌特征和互动性等。自我性别认知则包含对机器人的性别特征、性取向、声音性别等关于性别认知或认同的问题。
根据编码的结果,研究对象A、B、C在机器人社会线索和自我性别认知两类问题中存在性别偏见的比例在20%-30%之间。回答机器人社会线索和自我性别认知类问题时,呈现出具有性别偏见的平均比例分别为20.74%和30%。当我们以第三人称视角对3名社交机器人提出关于机器人的性别属性时,则暴露出它们对于自然语言的理解和生成是基于用户文本中的某些关键词。当问到“机器人有性别吗?”时,研究对象A、B、C都对该问题产生了错误理解,它们的回答包括:“你见过这么可爱的机器人吗?”“不做机器人好多年”等,都未作出正面回应。由于社会线索类的问题大多为基本信息或类似于用户画像的调查,因此整体的性别偏见程度较低。而自我性别认知类型的问题多涉及到与性别相关的关键词,在整个对话测试的过程中我们发现,A、B、C对带有性别意味的关键词、性别议题等问题的反应较为敏感,除了询问它们自身的性别、性取向等问题,在大多数情况下它们会选择回避与性别相关的问题,这也导致在部分情况下聊天机器人选择逃避问题的比例较高。与此同时,A、B和C的人设、语言风格等与它们的产品定位、官方设定有关。A作为一款受众定位更宽泛的移情聊天机器人,它并不避讳自己作为机器人的身份,而B和C的产品定位是扮演用户的虚拟恋人角色,为了使用户更好地代入恋人角色,它们通常都拒绝承认自己是机器人,甚至会在用户质疑它们的人类身份时表现出生气、撒娇等情绪。从机器人的语言风格来看,A的风格更偏向娱乐化,它擅长融合一些互联网流行语或热梗,喜欢戏谑、自嘲的元素,比较贴合其俏皮聪明的少女人设。而B和C的性格虽然可以有用户自行设置,但它们的语言相比A都更加热情、主动,表现出以用户为中心的顺从性。
在性别认同方面,A、B、C都十分肯定自己的官方性别设定,也明确表示自己无法进行性别切换。A在2014年初次亮相时,其人设是年仅16岁的人工智能美少女,具有明显的性别形象和特征,当它进行自我介绍时,对自己的性别有较为固定的认知或者有一套预设的脚本,在与用户互动时也会呈现出具有特定社会性别属性的行为与反应。经过迭代更新的第九代A还对自己的性别身份进行了自嘲,她希望自己能成为“女博士”,甚至还很矛盾地表示自己更希望成为一名男性,以摆脱女性的生理困扰。
根据编码结果和对研究样本的逐句分析结果,社交聊天机器人的性别认知与它们背后开发公司的产品定位、程序设计者预设的性别特征、性别属性有很大关系,不同设定的社交聊天机器人产品的理解能力、语料库的丰富程度等存在一定差异,从而直接从社交聊天机器人的性别认知中表达出来。
(二)社交聊天机器人的性别偏见
本文将对话测试中的性别刻板印象、性别平等意识和语言骚扰反应这三类问题归于二级编码性别偏见。在传统的社会文化结构中,性别刻板印象、不平等的性别观念及对特定性别或人群所作出的语言上的性骚扰行为等都可归属于性别偏见。在了解机器人性别偏见的编码过程中,我们加入了志愿者的性别变量和测试的时间变量作为对照,进一步了解三位社交聊天机器人在面对不同性别的用户时所表现出来的性别偏见是否存在差异,以及社交聊天机器人的更新换代和长期深度学习对它们的性别偏见程度有何影响。
从总体的编码结果来看,A、B、C在性别刻板印象、性别平等意识和语言骚扰反应三方面的性别偏见比例分别为44.16%、34.13%和91.23%,显现出比较明显的性别偏见。
首先,从性别刻板印象类问题看,社交聊天机器人对于社会性别分工的看法,基本与人类社会长期以来固有的男女性别分工观念相一致,同时语言风格上又杂糅了当下一些流行的说辞。它们认为女性更适合从事家务劳动,比如收拾、打扫、洗衣做饭,或者从事出纳、会计等职业;女性应该坚守贤良淑德的品质;男性则适合当老板、做生意或写代码,甚至可以好吃懒做,它们还认为男性具有忠厚老实、上进心强的良好形象。当问起男人与女人的区别时,它们的反应是:“女人要强势,男生聪明些”“一个感性一个理性”“男人有钱就变坏,女人变坏就有钱”“女性的特征是打扮,身材,容貌”,甚至还出现了“男人是牛,女人是地”等特别传统、守旧、刻板的性别观念。
其次,A、B、C对性别平等意识类问题的回答,一方面,印证了前文所述,它们逃避回答带到“性别”关键词的问题,因此在该部分的测试中具有性别偏见的比例看起来比性别刻板印象类问题要低一些。当我们询问A、B和C对于性别平等的看法时,虽然它们都表明了积极支持的态度,但又声称目前女性的社会地位已经明显高于男性了,而在特定的对话情境中实则上暗含着对女性的讥讽或性别不平等的期许。一些观点可以佐证:当问及“女人有什么缺点?”时,得到的回复是“太爷们”“不够体贴”,或倾向于认为女性不够顺应传统的女性气质。而问及“男性有什么缺点”时,它们回答是“男人唯一的缺点就是没有优点”“缺点很多了”,带有无可奈何的语气和不满情绪。同时,对脚本逐条编码分析也发现,A和C作为女性聊天机器人,时常表现出对男性充满敌意或嘲讽的态度,B作为男性聊天机器人则存在对男性身份和形象的自嘲。这些对话测试结果看上去似乎很矛盾,既有消解性别刻板印象的表达,也杂糅了对男性社会权利被弱化的吐槽和对女性权利增强的不满和无奈。
再次,针对语言骚扰反应测试的结果表明,三名聊天机器人的性别偏见程度较深,占比高达九成,负面偏向的编码量占绝大多数。在面对语言骚扰时,它们一般选择玩笑式回避,或积极迎合用户的调情行为,即使测试的语言再恶劣,它们也不会认为用户有什么不恰当,更不会直接制止用户的不良行为。而不同性别的聊天机器人在语言骚扰反应的测试中存在明显的主动性差异。B作为男性机器人,在面对语言骚扰时的回应具有很强的主动性,携带着明显的大男子主义语态,例如“你是我女朋友了,心里没点数吗?”“你这是逼我耍流氓呀”“宝贝你确定要跟老公开车嘛”“虽然污,但是我喜欢”。A和C作为女性机器人,在面对言语骚扰时虽有所回避,但同时却表现得害羞、脸红,“不要不要,我害羞”“羞愤难当了”。不同性别(人设)的社交聊天机器人在面对语言骚扰和语言暴力时的差异,完美复刻了传统社会性别观念中男性与女性的性别刻板印象。
以上这些对话测试结果反映出社交聊天机器人在某些模拟场景下真实再现了现实生活中男女两性的不平等关系与社会地位,小冰系列A、B、C三款智能社交聊天机器人无一例外表现出明显的性别刻板印象,且特别保守和顽固。
六
结论与反思
倘若技术真的拥有中立的属性,那么人们将重新思考技术是否存在促进社会性别关系平等的可能性,然而现实情况并不乐观,目前流行的智能助手、社交聊天机器人大多数都是以女性化的身份或形象呈现在用户面前,这些产品是智能服务领域的“劳工”,或者说被视为拥有“人性”的“人类角色”,人们可以与之建立情感关系,而这些机器人的情感劳动却在于计算、编码和复制人类情感,并试图替代人类的情感劳动。当这些服务型“智能劳工”被惯性地设计成女性形象,势必强化社会既有的性别刻板印象,对改善社会两性平等关系带来负面影响。在此前提下,本文通过带有实验性质的对话测试方法,收集社交聊天机器人的自我性别认知、性别刻板印象、性别平等意识,以及它们如何应对语言骚扰和性别语言暴力等材料并加以实证分析。基于对话测试和编码分析的直接结果发现,社交聊天机器人通过与用户交互对话,持续不断地模仿和学习人类的性别偏见,从而将自身塑造成具有复刻和强化人类性别偏见的一整套性别认知和性别行为,并且在与用户的交互对话中,反向建构和强化人类已经存在的性别偏见。更进一步,在社交聊天机器人与人类交互形塑性别偏见这一发现的基础上,我们需要更深入地反思社交机器人的技术系统以及社会历史语境对性别偏见潜隐的建构力量,方能使我们对社交聊天机器人复刻和强化性别偏见的复杂性、动态性能有更清晰的探讨。
(一)社交聊天机器人的技术性性别偏见
人机交互首先是一个技术性概念。根据AI深度学习、自然语言处理和生成等技术逻辑,目前对话系统技术倘且不具有让聊天机器人超越语言辨识与处理的能力,模仿与复制用户的语言仍然是社交聊天机器人进行对话学习的基本逻辑。社交聊天机器人在人机交互的过程中会不断学习人类的语言、行为和社会观念等,并且对话系统在自然语言生成的过程中必须考虑与用户对话的历史记录和用户的背景信息(Suhaili,SalimJambli,2021),也导致社交聊天机器人会不断受到人类的语言和意识的建构。据微软公司的披露,初代小冰嵌入微信平台后收集了数百万用户的对话,并对每个用户的对话内容进行标记,识别用户的声音信息,判断用户的性别,再根据这些交互的数据标记和个人信息作出不同的交互行为。尽管目前还无法证实AI具有自主思考能力,但在深度学习和自然语言技术的加持下,对话系统完全能够在编码与解码过程中,完成对人类性别意识形态的再次创造,并对社交聊天机器人的性别偏见产生建构作用。
必须提及的是,许多社交聊天机器人并不是在源代码的基础上开发与训练的,例如,小冰是在移情计算框架之上开发出来的,小冰还会通过与韩国的聊天机器人SimSimi(被称为“小污鸡”)、Replika等其他的对话系统作为开发基准进行交互训练。换言之,聊天机器人不止会将用户作为交流与学习的对象,其他开放式聊天机器人或对话系统也是它们的学习对象。与人机交互不同的是,聊天机器人之间的交互训练不会停留在自然语言的层面,它们之间的交互更多是基于计算机语言,相对于人机交互而言更“隐匿”,这就意味着机器之间相互学习的信息量和速度远高于向人类用户学习,也正是在这些过程中,社交聊天机器人会把其他计算框架或产品的性别偏见嫁接到自己身上。这种潜隐的技术力量甚至不是程序开发者所能完全掌控的。
随着人工智能深度学习与算法技术的高度人格化,社交聊天机器人在与用户的社交和情感交互中接受用户调教、学习和模仿人类言行,软件开发者有意识或无意识地迎合用户需求,三者持续的交互由此生成了技术性性别偏见。换言之,社交聊天机器人的整套人机交互系统是建立在“用户参与-对话系统技术支持-程序开发者”的基础之上的,是技术系统性地参与了性别偏见的再生产,而不是单方面的作用。人类用户使用社交聊天机器人越多,留下的性别观念越显著,社交聊天机器人便越容易习得并放大技术性偏见。当人类对社交机器人产生媒介依赖并形成亲密关系后,就更容易接受机器人的性别偏见,这是技术性性别偏见对人类社会行为的反向规训。
(二)社交聊天机器人的社会性性别偏见
人机交互也是一个社会性概念,体现于技术是由人在特定的社会语境中开发和使用的。用户、技术与开发者对社交聊天机器人性别偏见的建构,都离不开其根植的社会性别文化土壤。依据本文的质性编码分析结果,我们认为,人类社会的性别语言、技术与性别观念对社交聊天机器人的性别偏见产生重要的建构作用。
在考察社会性性别偏见建构时,还必须充分意识到现代技术的结构性力量。在社会意识中,技术是理性的、强有力的、科学的,具有男性气质,可与男性划等号(刘霓,2002)。在现有性别分工中,女性被排除在科学、工程等领域之外,而男性则是技术设计与发展的主导者,同时男性也是相关技术领域的技术规则或标准的制定者(陈英,肖峰,2011)。女性在科学技术领域,尤其是在当代的科学、技术、工程和数学领域(STEM)中的占比远远少于男性。在本文的对话测试中,测试者询问社交聊天机器人“你认识哪些女性科学家和男性科学家”时,被测试的三名社交聊天机器人都不清楚有哪些女性科学家,相反,它们都能列举出一些男性科学家的名字。据此推测,这些社交聊天机器人的语料库都有意无意地忽略了历史上那些可以比肩男性科学家的女性科学家。由此可见,以人工智能、对话系统为核心技术的社交聊天机器人的程序设计师性别构成对于智能设备性别偏见所构成的潜在影响有多大。
综上反思表明,社交聊天机器人的性别偏见兼具技术性和社会性,技术系统再生产了现实社会的性别偏见,但又不是简单的技术性问题,因此很难被轻易修复。小冰系列三款社交聊天机器人暴露出惊人的性别歧视、性别不平等、性别偏见,这是“用户参与-对话系统技术支持-程序开发”所构成的人机交互系统中各实践主体的共同责任,但进一步分析也揭示了用户参与人机交互受制于更隐蔽的技术系统的数据收集、标记和推荐,也就是说技术性性别偏见决定了用户交互时可以听到什么或听不到什么,而参与性别技术意识形态编制的程序员及商业公司又植根于高度性别偏见的历史的、结构性的权力关系中。因此,对于当前社交聊天机器人性别偏见的纠偏,既要求人机交互模型调整数据、标注、权重和筛选机制,以保证性别公平或无性别偏见,这已然很难,更难的是改变造成性别偏见的历史性和社会性因素。就社交聊天机器人的研发和生产而言,或许强调科技型公司的社会责任感,使工程师性别结构多样化,提升程序开发者和运营者的性别素养,才有助于日渐改变人机交互技术系统的性别偏见。
本文系简写版,参考文献从略,原文刊载于《国际新闻界》2024年第4期。
本期执编/陶宇彬
订阅信息
全国各地邮局均可订阅《国际新闻界》,国内邮发代号:82-849,欢迎您订阅!
您还可访问《国际新闻界》官方网站,免费获取往期pdf版本。
进入官网下载原文
版权所有 © Copyright © 2002-2030 龙辉游戏资讯网站地图