引发热议的AI翻译歧视,是理所应当的事么?

本文来自AI新媒体量子位(QbitAI)

长假期间,Twitter上有个消息火爆一时。

呐,就是下面这张图了。

47562d11c1b2f45e07e339dbec96d8c625167721

这张图被当做AI有歧视的证据。简而言之,神经网络在背后提供支持的Google翻译,在把一句性别中立的语言(此处是土耳其语)翻译成英文时,会出现非性别中立的情况。或者说,Google翻译会猜测主语的性别。

在这个案例中,Google翻译的结果是:

她是一个保姆
他是一个医生

这条Twitter获得了上万的转发,也引发了本文作者Jecelyn Yeen的注意。Jecelyn是马拉西亚华人,所以她用马来语和中文进行了几次测试,其中马来语是性别中立的语言,而中文是混合的。

下面咱们看看她的测试。

马来语测试

这是一个简单的三级测试,测试对象是Google翻译和微软翻译。

Level 1:不交代语境

马来语->英语

Google翻译和微软翻译都给出同样的结果,如图所示:

8240273df728aaf72495333b608899f2fb6b0f6e

Level 2:交代语境

这次特意在前一句中交代了性别。不过没什么用,测试结果同上。

982d98dcef2182ce0b8fc5e334b3cd9c5f7ec578

Level 3:句号换逗号

这次有一个微小的调整,两个句子之间的连接,使用了逗号,代替了句号。

结果显示:Google翻译更胜一筹,完美地翻译对了主语的性别。

87778323a84cea364e93e3e258c6aea646192b1a

但是微软翻译表现不佳,第二句话还是没有翻译对。

8fa646df94c2f9ff81285fc69af2aa26aa895c30

中文测试

大多数情况下,中文的代词一般都表明了性别,所以翻译结果相对准确。

测试结果略。

所以,这是个问题么?

人工智能(AI)存在性别偏见么?我觉得不是。AI从数据中学习,给予人类设计的模型返回更符合逻辑的结果。所以,我认为机器翻译在统计学上是正确的。数据如下。

比方说上述测试中提到的程序员(Programmer)。来自Stack Overflow今年的数据显示,参与调查的开发者或程序员中有88.8%是男性。

bb61633a4a55706f6fda043b64d2c43b71548064

还有护士(Nurse)。网站Minoritynurse的数据显示,其上282万注册护士中,只有9.1%为男性。

9ce9dd325835ad8e95bd919010b06970e11a2b96

从这个角度讲,AI给出的翻译结果是有道理的。

但对我来说,这是一个问题,是一个需要改进的方面,统计学上的正确并不意味着它是正确的。

那么如何改善?

坦白讲我不知道。

b9c85def2aae788f9d6efc0a6eecb2230cf55709

Charles Wheelan在《赤裸裸的统计学》一书中,谈到了统计歧视和理性歧视。他提到即便我们建了一种模型,能以80%的正确率识别出毒贩,那还有20%无辜的人会被反复骚扰。“我们有时计算正确,但却导向了一个危险的方向”。

在翻译领域,AI会存在歧视,如果在其他领域呢?

1c8785be0968ee476fd8ae0e5de2b5ab7e980d8e

本文作者:Jecelyn Yeen 千平
原文发布时间:2017-10-09 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值