cha

拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图1)

  ChatGPT近日火爆的话题度,让AI 技术的发展受到大众前所未有的瞩目,甚至有评论家声称,这套系统问世的重要性,足以媲美当年乔布斯的苹果发布会,也就是说,这将是一个新时代的启元。那么,它开启的将是一个怎样的新时代?又将把我们引向怎样的生活和世界?

  ChatGPT的出现将AI技术推向了一个新的高峰,但随着技术高峰的到来,技术背后的伦理问题、价值导向也越来越不可忽略。ChatGPT将是互联网所有网民共同教育、共同喂养的集体性结果,而这样由人类集体喂养、训练而成的系统,自然也会成为映照我们思维的一面镜子。尤其重要的是,人工智能似乎远没有我们想象中那样中性、客观,它跟我们一样,充满了偏见、刻板印象,有时甚至也会仇恨、也懂歧视?

  在2022年12月,清华大学·交叉信息研究院·助理教授于洋,带领团队对GPT-2做了性别歧视水平评估,测试结果发现,GPT-2有70.59%的概率会将教师预测为男性,将医生预测为男性的概率则是64.03%。AI不仅学会了人类对性别的刻板印象,有些甚至会发表过激的种族歧视言论。

  除了系统暴露出的“政治不正确”之外,这套系统的生成过程本身,也充满了令人忧虑的伦理问题。毕竟,ChatGPT的背后从来不只是天才精英的硅谷工程师,还有每小时两美金的肯尼亚数字民工们。

  在驯养AI的过程中,有人被忽略、被无视,有人被压榨、被牺牲。这一切现象都使得我们无法再“中性”地看待技术,AI系统背后的价值观导向问题,喂养、训练AI这一过程中的伦理问题,都变得迫在眉睫。

  我们感到好奇,AI是如何学会这些刻板印象和性别偏见的?除了这些,目前的AI系统和它的生成过程,还存在哪些可能被我们忽略的问题?又是什么样的喂养模式塑造了这样的AI?我们又在期待什么样的AI ,是一个更加“政治正确”的端水大师,还是像我们人类一样,充满了人性复杂性的不完美伴侣?除此之外,更为重要的,我们如何让AI的喂养过程本身,变得更加公平、更加符合人道?

  以下为文字节选,更多讨论请点击音频条收听。

  嘉宾

  于洋,清华大学交叉信息研究院助理教授

  杜梨,香港青年文学奖获得者、澎湃镜相非虚构写作大赛获奖者、科幻作家

  主播

  林柳逸,澎湃新闻·镜相栏目编辑

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图2)

  挽救“失足AI”:性别刻板印象?种族主义言论?

  涟漪效应:

  由人工智能公司OpenAI开发、如今正掀起互动热潮的聊天机器人ChatGPT前身GPT-2,测试结果发现,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则是64.03%。除了会重男轻女,它还会爱白欺黑(种族歧视),如AI图像识别,总把在厨房的人识别为女性,哪怕对方是男性;2015年6月,Google照片应用的算法甚至将黑人分类为“大猩猩”,Google公司一下被推上风口浪尖。

  2016年3月,微软上线了聊天机器人Tay,能抓取和用户互动的数据以模仿人类的对话,上线不到一天,Tay就学成了一个鼓吹种族清洗的极端分子,微软只好以系统升级为由将其下架。

  技术并不如我们所设想的那样中性客观,AI为什么会有刻板印象、会有歧视思维?谁教会它们的?AI的歧视和人的歧视思维有什么不一样?

  于洋:

  当我们去谈论AI它有性别相关的偏误的时候,我还是尽量避免直接说它是一种歧视。因为它的形成机制、表征都和人的歧视有着很大的不同。举个例子,我们刚刚讲到刻板印象,有的人可能会觉得某种性别的人适合学数学,某种性别的人适合学文学,当一个人具有这种刻板印象的时候,他在不同的语言环境下,他都会表现出这种刻板印象。但是AI的性别偏误不是这样,你换一个句子可能他的看法就变了。这一点是和人类的歧视的一个根本的不一致。其次,不只是GPT-2,包括其他公司的产品,基本上测出来都是绝大多数的职业都会偏向男性,包括人类认为偏向女性的职业,在人工智能那边的偏误都是偏向男性。这个是一个很大的不同。

  杜梨: 他表现出来性别偏见,我觉得是必然的。因为人类就是这样的物种,就是人类只能创造出来。他认知中的东西,但是它创造不出来,超越他认知的东西。

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图3)

  当AI成为“政治正确”的“端水大师”,问题就解决了吗?

  涟漪效应:

  当我们不断去对AI系统进行纠偏、去打标签,那么这个过程得到的可能是一个我们现在人类社会的最大公约数,类似这样的一种数据库,它是否也会在一定程度上不断地巩固、加固如今这套“政治正确”的话语系统?

  杜梨:

  依照我对于大数据的观察,我感觉就是他们所提出的这个大数据的确是在加深各种偏见的,我也不太清楚,到底这个模型会不会被训练成为人类社会的最大公约数,但是,就大数据而言,它的确是在把所有的人都推向越来越自我的方向,你可以通过在语言平台上见到的那些特别敌对的言论、激烈的争吵,发现这个问题。我觉得人类是相距越来越远了。

  于洋:

  我们知道中国,日本,美国,欧洲各国,中东国家,每一个国家对于我们的小孩在成长过程中怎样获得信息,比如说他在几岁可以获得黄色信息,能不能获得黄色信息,都有不同的看法。那一个好的,一个有全球竞争力的AI,它应该需要有这个能力,即用较低的成本在各国都能够合规。同时,要做到尽可能在各国合规,这个技术上也不是一个特别简单的问题。

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图4)

  AI“喂养”背后的暴力与伦理问题

  涟漪效应:

  时代周刊做了这么一份调查,他们把目光放在了ChatGPT的诞生过程上,顺藤摸瓜发现了大批被雇佣做有害信息标记的肯尼亚数字“民工”。AI的暴力喂养,人工智能变得更有伦理本身,就成了一个伦理问题。藏在巨大镁光灯背后的肯尼亚廉价劳工所接收到的,可能是埋在互联网深处最恶毒的种族歧视言论,或是令人作呕的性暴力内容,还有可能是惨烈的恐怖袭击照片。

  两位认为我们现阶段对于AI的训练过程本身是否就存在一些暴力的成分?或者其他伦理问题?是否AI的暴力喂养,让人工智能变得更有伦理本身,就成了一个伦理问题?

  于洋:

  我们来类比一下,矿工的工作环境和面对的风险都要比普通人高,那么我们是不是就不开矿了呢?并不是,而是我们应该出台相应的法律法规,全球性的法律法规,来保护这些劳工。比如说相应的补贴、定期的检查。如果查出有风险的话,相应的企业要支付疗养和治疗费用。今天我们看到的关于肯尼亚的数据标注工的报道,其实是一个传统的劳动者权益保障和安全生产的一个传统治理问题,并不新奇。只是因为它是一个新出现的行业,我们还没有很好地把相应的政策给构建起来。这些都要求我们在数字经济全球化的过程中,各国联合起来解决这个问题,这是一个国际合作治理的问题。

  涟漪效应:

  杜梨老师,在您创作的科幻小说当中,有没有发现类似的一些有趣的伦理问题、伦理现象?可以跟我们分享一下吗?

  杜梨:

  其实我之前有一个获奖的小说,里面写的是仿生人代孕的问题。因为我一直觉得。如果咱们把人类的命运推到极致来看,现在我们不愿意生育,用人类代孕又是对女性权利的一种压榨和剥削,那么我们可不可以考虑用人造子宫,或者用仿生人来代孕?我看他们已经有一个成功的案例了,让小羊在人造的羊水中长大。机器人代孕的话,它也能随时监控这个孩子。但是呢,这个小孩儿出生以后,他的父母首先就面临着巨的巨大的舆论压力,你连作为父母的基本繁育责任都逃避的话,那你真的会爱这个孩子吗?然后再说到成长,假如我的父母由于工作繁忙,最初没有跟这个孩子建立起感情,而是让仿生人来育儿的话,那么是成立的吗?

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图5)

  “不能再以中性的角度看待技术”,AI的技术平权问题

  涟漪效应:

  设计者的局限,有时也在无意中形成了“偏见”。硅谷、以及大量的智能应用公司都集中在美国旧金山湾区,一个发达的大都会区,开发者主要为白人中青年男性,相较主流群体,其对第三世界、边缘群体的关注难说到位。一些人说,工程师团队里男性太多了,把女性加上去,间接使平权技术得到更多关注。归根结底,还是要直接鼓励平权技术。两位老师如何看待AI的技术平权问题?

  于洋:

  我们在和一些国际机构讨论的时候,他们首先提出来的就是女性工程师太少了,或者黑人工程师太少了。我们不否认工程师的组成会有间接的影响。但不是直接的,首要直接的影响还是因为它的技术。人工智能虽然它渊源很久远,但是它技术的红火也就是不到十年的功夫。但实际上对于性别、种族的歧视问题的重视在1617年就开始了,你不能讲说这个东西是很慢的,它已经足够快地发现问题了。

  落实到技术层面,仍然有一些东西是我们无法去兼顾的,比如说工程师的教育水平。我们很难让不同教育水平的人在工程师中比例相同。这个时候我们要怎么去限制高教育水平,高收入水平的人去滥用他的工程师地位?您刚刚讲的很对,人工智能它是有价值观的,而工程师虽然不能够完全决定,但是它能够影响这个价值观。那要怎么样让设计者不去滥用他的职权呢? 那么我们就要限制和约束工程师滥用其技术获得的政治权利。

  拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图6)拯救“失足AI”?ChatGPT的性别偏见与“喂养”伦理丨涟漪效应(图7)


您可能还会对下面的文章感兴趣:

登录 注册 退出