油价

莫纳什大学研究表明,我们也会歧视机器人

26-07-2018 印象编辑 素材来源: 9news
摘要
悉尼印象7月26日讯,据9 NEWS报道,墨尔本的莫纳什大学(Monash University)和新西兰的坎特伯雷大學(Canterbury University)的一组研究表明,他们很难找到除了白色之外其他颜色的机器人。他们的发现表明,人类把 ...

悉尼印象726日讯,据9 NEWS报道,墨尔本的莫纳什大学(Monash University)和新西兰的坎特伯雷大學(Canterbury University)的一组研究表明,他们很难找到除了白色之外其他颜色的机器人。

 

他们的发现表明,人类把种族偏见也带到了机器人的设计当中。



图片来源(ABC

 

射手偏见(Shooter bias)模式在机器人上的运用


新西兰坎特伯雷大學(Canterbury University)的人类端口技术实验室的教授和研究的作者之一Christoph Bartneck说:“如果你问任何人:‘你是种族歧视者吗?’,他们肯定会说不是”。

 


相反,研究人员修改了一个研究工具叫“射手偏见(Shooter bias)”的模式。参与者被要求扮演警察官的角色。这个实验会给出参与者一些图片,图片上面有不同的人,参与者需要决定杀哪个人。在一开始的研究中,给参与者展示人的图片,要么是白人或者黑人;要么有武器或没有武器。而现在的研究,给参与者展示的图片是两种不同“皮肤”颜色的机器人。

 


Christoph 教授告诉 RN Drive:“我们发现参与者对人的反应和参与者对机器人的反应是一致的”。“和白色的机器人相比,人们在面对褐色机器人时作出的反应会发生改变。”

 

 

Christoph教授说参与者的种族对实验没有影响,“射手偏见的现象是存在的。这种现象既存在于人类之中,同时也存在于机器之中。”


 

机器人的制造者有责任阻止这类歧视现象的恶化

 

教授Christoph认为机器人的设计应该反映使用人群内部的种族差异。他说:“如果在澳大利亚、新西兰和美国这样的多元化里,所有的机器人都是白色的,那岂不是很奇怪,对不对?”

 

“其实机器人为什么是白色的呢?这其实没有道理啊。”

 

“把如此强的偏见带入机器人的设计中,这可能会带来我们不想见到的负面影响。”

 

“总体上来讲歧视是一个很大的问题,作为机器人的开发者,我认为我们至少有责任不让它继续恶化下去”。

 

Christoph教授说人们把歧视带入机器人中,这很难令人理解。但是研究表明,人们对于性别也是这样做的。

 

“如果你创造了一个人形的机器人,那么人们趋向于像对待有生命的人一样对待机器人,那么关于种族,性别和我们与机器人的关系这些问题就变得很重要了。”

 

Christoph教授表示,至于设计人型机器人的工程师是不是有意要引发人们关于这些问题的讨论,就不是我们所关心的话题了。

 

他说:“我们在设计机器人的时候需要对这些问题作出思考。”

 

“我们在考虑如何设计未来机器人的时候,应该作出明智的决定。”

                

编辑:Siqi Zhang

来源:ABC  

责编:余健                                 



种族歧视问题在西澳大利亚州的租房市场尤为明显。倡导机会平等的活动人士指出,私人租房市场的种族歧视对许多家庭的生活造成了严重影响。

20-08-2018 房地产 租赁 租房 种族歧视