歧视并不是唯一的人类社会,人类智慧的衍生品,人工智能是歧视的问题,也需要引起我们的注意。

参与所有方面的歧视

种族歧视:微软的泰今年3月,人工智能聊天机器人。只有在Twitter上16个小时的热轧生产线的紧急情况。茶作为人工智能,所以她能模仿人类语言在其他用户回答问题,一天,泰很快”到“教一个满嘴脏话的种族主义者。谷歌照片应用程序,可以自动在电子相册标签分配给不同的图片,用户会发现这将是黑色照片归入一个大猩猩。谷歌道歉,说,这不是故意的。

性别歧视:波士顿大学早期Tolga Bolukbasi和微软的研究小组发现,人工智能也存在性别偏见。最近,谷歌在数据库中,它被发现的“性别歧视”现象,很多工作在搜索结果中会自动和性别。例如,如果“女人”这个词和单词相关的家庭经常在一起出现,然后“女人”和“家庭”的概念相关性非常高。

主题趋势,Facebook已经遭到批评的网站编辑新闻偏见。Facebook表示:“在新话题的趋势,我们将不再需要的趋势简单描述或总结。我们的团队将会更加对操作和技术工作”。

各种各样的现象,机器学习不是那么完美的,至少从人体吸收所有的好,坏。

人工智能的歧视来自哪里?

机器学习的根本原因是人类的“数据库”,也就是人工智能的研究人类语言表达内在内容形成框架。简单来说,机器学习的原则是使用大量的数据来训练算法,从而达到理解的目的,学习。

人工智能意识的崛起对世界的理解,并通过了解如何回应。数据中继续学习,加深对问题的理解,与此同时,进化后的数据是关键,这是大数据的意义,在数据的性质,提供了了解世界的可能性。

一旦数据是进口机器,这台机器可以通过消化和吸收的模型生成的认知世界。机器学习的目的是理解、模仿,一定会在发展的过程中减少对人类社会的光明面。在机器学习,有许多偏见影响人类社会,所以在表达将或多或少的影响,反映了这样或那样的问题。

所以总结很简单:我们学习来自世界各地的偏见,而人工智能学习从我们的偏见。Caliskan——伊斯兰教,布赖森,Narayanan写道,人工智能(AI)“将能够显示的历史从训练数据的不公正有害的偏见。”

在智能车辆领域,研究人员打算应用机器学习在人工智能车辆系统中,并使社会司机驾驶习惯。然而,在看着上面的例子,我们还可以应用这样的信任吗?

如何打破人工智能歧视?

人工智能的伟大不是让机器更大,但在智能机器人的发展帮助人们,让每一个普通的人变得更大。英雄的远见,但有些过于乐观,他们相信可以解决人工智能的基本问题在夏天,但并没有完全解决这些问题。

即使不能依靠根除,也想试着解决,如从以下几个方面:

1,技术升级:这是开始从数据。这是更好的,如果你想很好的训练算法,研究人员必须清除不良信息和数据中隐藏的逻辑,让算法分别识别。但从这里我们可以知道,这是研究人员,将是一个非常重,非常困难的工作。人类出生产生歧视,可以通过公式可以解决吗?

我们被迫学会相信人工智能,或者试图控制他们。因为当灾难不透明的算法,我们将需要解释可能是毫无意义的。

2、制度建设方面:我们可能会与欧盟的算法来确定立法建议:确保人链决策参与。当然,我们不能确保人类没有偏见,但禁止深度学习和先进的研究和开发底层技术的人工智能是没有意义的,我们可以引导它的发展有利于人类的方向发展。要做到这一点,需要政治意愿的参与,需要有一个完美的系统,法律规范,不仅让企业追求自己的利益。

人们乐观的现代技术,部分原因是人们相信这是一种民主力量——不要受限于狭隘的偏见的人类很长一段时间去学习。但是一项新的研究发现,这只是一个海市蜃楼的错觉。

3、意识形态领域:教育是最重要的内容,而不是从小灌输孩子片面和错误的思想,建立了卫生健康;用正确的宣传是一个有效的方法来消除误解、歧视,建立典型的形象有助于消除公众刻板印象或特定人群的歧视,这就需要媒体合作,创造良好的舆论环境。在简艾略特蓝色的眼睛和褐色的眼睛测试17年后,这部纪录片从教室的部门主任的学生已经长大进行了回来。

无一例外,他们认为实验是重要的在他们的生活中。因为童年时都有这样的经历,以后更容易接受不同的文化,不同的宗教背景,不同种族和不同意见的人,看到一个更大的世界。

事实上,消除歧视的目的,只是因为世界如此之大,为什么我们如此狭窄。

4、社会道德领域:机器学习算法的数据从人们的语言、行为,等等,但是,如果人们有一个坏习惯,语言意识提供错误示范的算法研究。如:新闻媒体为了博人眼球,在一次车祸中,报告的标题会故意加上一个“女司机”的标签,让大家有更高的错觉司机崩溃,事实上的数据统计,更高的男性司机崩溃。

这种手法,“富二代,在90年之后”和其他标签通常存在于各种各样的媒体,而不是事实本身,公众更关心的是这种标签的意义。要改变这种局面需要承担更多社会责任的科学社区。还需要政府和公众的履行他们的责任,维护公平的概念。



相关文章