• 24小时机器人维修热线:020-82000787

子锐站内搜索 互联网
  • 广州子锐机器人技术有限公司
  • 服务热线:020-82000787(8:30-17:30)
  • 联系手机:15889988091(非工作时间)
  • 座机:020-82000787
  • 传真:020-32887675
  • 邮箱:gz@zr-robot.com
  • 广州市天河区吉山新路街8号吉邦科技园3栋一楼
  • 当前位置:首页 > 机器人资讯 > 白色机器人可能未来会在外国被告涉嫌种族歧视!

白色机器人可能未来会在外国被告涉嫌种族歧视!

时间:2021-03-31   点击:   来源:互联网   作者:匿名
简介:前置性研究一直是社会学家们致力于去做的事,我们总在提中国 机器人 研究与国外的差距,其实这不单单在于技术,也在长远性的对其可能造成的社会影响,和可能造成伦理道德上问题的思考。 近日,新西兰人机界面技术实验室的研究人员进行了一项关于机器人和种……

  前置性研究一直是社会学家们致力于去做的事,我们总在提中国机器人研究与国外的差距,其实这不单单在于技术,也在长远性的对其可能造成的社会影响,和可能造成伦理道德上问题的思考。

 

  近日,新西兰人机界面技术实验室的研究人员进行了一项“关于机器人和种族主义”的研究,这项研究报告历经坎坷最后由坎特伯雷大学出版,研究表明:人类认为长得像人的机器人也有种族之分,因此,他们对白色和黑色机器人也具有种族偏见。
 

白色机器人可能未来会在外国被告涉嫌种族歧视!


 

  颜色歧视的发现

 

  不论是电影还是现实生活中的机器人,我们都会发现,机器人大多是白色的。例如威尔·史密斯的电影《我,机器人》、电影《机器人总动员》里的Eve、本田的机器人Asimo、优必选的机器人Walker、波士顿动力的机器人Atlas,甚至是NASA的机器人Valkyrie,这些全部都是有着白色的外观。而一些现实生活中的人形机器人,也是仿照着白人的肤色,比如以奥黛丽·赫本为原型的首个获得公民身份的机器人索菲亚。

 

  而根据一项新的研究,这种白色机器人盛行的原因可能是种族主义。研究人员发现,这些颜色可能会触发社会信号,决定人类对其他人或者机器人的反应和行为。

 

  首席研究员Christoph Bartneck向美国有线电视新闻网解释道:“对黑色机器人的偏见是对非裔美国人的偏见的结果。令人惊讶的是,以前从未与机器人有过互动行为的人也对机器人表现出了种族偏见。”

 

  研究人员认为这个问题需要尽快解决。这个研究表明:假如机器人成为老师、朋友或者照护者,那么这些角色一旦被种族化的白色机器人占据,这将会是一个很严重的问题。很显然,研究中实验使用的是机器人,但是它们具有和人类一样的四肢和头部,肤色则是白色和黑色。
 

白色机器人可能未来会在外国被告涉嫌种族歧视!


 

  而在搜索引擎上搜索“机器人”这个词的相关图片,你也不太会看到别的颜色,就像研究中指出的那样。研究人员认为,白人机器人的比例过高可能会对其他种族的认知造成伤害。Bartneck指出,机器人设计师是来自世界各地的,但他们仍然会最先选择设计白色外观的机器人。

 

  Bartneck告诉《The Next Web》:“人形机器人应该代表人类的多样性。想象一下全是白色皮肤的芭比娃娃;想象一下在非洲或者印度工作的机器人全是白色的;再设想一下接管涉及权威工作的机器人也是白色的。很显然,这会引起对帝国主义和白人霸权的担忧。机器人不仅仅是机器,它们还代表了人类。”

 

  在第二项研究中,HIT Lab NZ团队增加了浅棕色的机器人,他们发现,随着种族多样性的增加,参与者对机器人的种族偏见逐渐消失。这可能意味着机器人的多样化可能会导致人类减少对机器人的种族偏见。

 

  Bartneck告诉美国有线电视新闻网:“就像芭比娃娃有不同的肤色一样,我们也希望机器人不仅仅是白色的。”“我们希望本研究能够鼓励机器人设计师们创造出代表他们群体多元化特征的机器人,没有必要把所有机器人都设计成白色。”Bartneck如是说。

 

  但不少人或许会对这样的研究嗤之以鼻。毕竟,如果我们询问机器人制造公司,为什么要将他们的机器人设定为白色,他们十有八九会告诉你:因为白色跟各种家庭装饰都很百搭呀!

 

  实际上,Bartneck的文章在投稿期间就收到了不小的阻力,这篇提交给HRI会议的论文经历了空前的审查过程。论文大约有5000个词,但收到的评论就有大约有6000个词。在会议计划委员会开会期间,大家对文章进行了详细的讨论,共有9名评审员被要求对该研究进行评估。他们的文章被读者反复审视,有些人指责作者在耸人听闻。

 

  人工智能的种族歧视

 

  此前《每日邮报》曾报道,来自英国和美国的计算机科学和心理学专家表示,经过复制、识别和学习其它机器人的行为,自主机器人竟然可以产生偏见,有些算法甚至产生了种族歧视和性别歧视,也证明了其并非无的放矢。

 

  偏见和歧视是人类社会所特有的高级认知,它需要人类意识和思维的支持才会产生。为了证明人工智能可以产生偏见,英美两国科学家也曾进行了一次计算机博弈模拟实验。实验中,一台超级计算机控制上千个个体进行博弈,并分析每个个体的给出的决策。实验结果表明,绝大多数个体都将资源分享给自己所在的群体,并且这一决策很快就被其它的个体学习运用。
 

白色机器人可能未来会在外国被告涉嫌种族歧视!


 

  科研人员还在另一项关于性别的研究中发现,face++、微软等众多科技公司推出的人脸识别服务中存在性别歧视和种族歧视。实验数据表明,对于黑人女性,微软在21%的情况下无法识别,而face++无法识别的概率更是高达35%,此外,这些系统普遍对白人男性表现的更好。

 

  因此,报道认为,机器人制造和编程设计的人类程序员,在潜意识中带有歧视意识,从而表现在研究和编程过程中,这导致的直接结果就是对于白人机器人的重视程度更高,并且这一偏重也导致了机器人呈现的对于部分人类呈现的不友好行为。

 

  人工智能是计算机科学的一个分支,研究的主要目标是让机器完成一些需要人类智慧才能解决的复杂问题,这就需要人工智能对人类的意识和思维过程进行模拟。报道表示,正因如此,一些科学家才反对人工智能的研究,他们担心人工智能某一天可能会进化出完全的自主意识,带上某部分歧视,甚至对人类产生敌意,同时由人类设计的机器人,如果不经控制,可能最后会成为毁灭人类的最佳工具。

 

  研究与分析

 

  《科技纵览》杂志(IEEE Spectrum)中有这样一段记载:Christoph Bartneck使用了“射手偏见”框架(shooter bias framework)进行试验。在射手偏见研究中,参与者被赋予警察的角色,当面对人们手持枪械或其他友好物体的图像时,他必须决定是否射击。

 

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。
扫二维码手机浏览
  • 广州子锐机器人技术有限公司
  • 地址:广州市天河区吉山新路街8号吉邦科技园3栋一楼
  • 电话:15889988091
  • 传真:020-32887675

Copyright © 广州子锐机器人技术有限公司版权所有     网站备案ICP:粤ICP备15095857号

留电回访
  • 您的姓名
  • 联系电话
  • 需要维修或帮助的产品型号及说明
  •  
24小时工业机器人维修热线:020-82000787(首次维修半价优惠)