谷歌有一项雄心勃勃的计划,是使用人工智能删除攻击性的言论和抵制网络暴民。尽管目前的技术无法应对这一挑战,但它有助于改善已经很规范的网络社区。

互联网已经被人类破坏。网上欺凌、性骚扰、性的评论,社会羞辱和令人反感的言论像躲避瘟疫一样蔓延在网站如Twitter和Reddit,尤其是当你碰巧是错误的注意。

提供在线服务公司之间被人漠视的评论和压制言论自由。但是现在,谷歌认为可以使用人工智能来减少这种数字的悲剧。公司的技术孵化器拼图Google Ideas),智库(其前身是谷歌谈话通过一个自动化项目人工智能识别和删除数字信息。

Jared Cohen拼图的主任说,“我想利用我们所拥有的最好的技术来处理,而不是正确的战术(不正当的手段使那些充满敌意的声音占据了不成比例的比率),并尽我们所能来提供一个公平的环境”。

谷歌的举动显示了勇气一边,拼图差异之前的计划工作。拼图之前工作包括发射项目盾打开DDoS拦截服务(免费),旨在保护新闻网站,促进言论自由从拒绝服务攻击。拼图密码警报的另一个成就是一个Chrome插件,旨在确保安全的网络钓鱼攻击的用户的密码。

这些都是主要的技术挑战,但导杆和网络暴民也已成为一个社会问题。

谈话AI是谷歌“月球探测器”,最成功的项目的项目之一,是“谷歌大脑”的一个分支。一方面,谈话AI已经通过大规模神经网络在机器学习领域带来了革命性的发展,同时也使得谷歌更有优势,如技术比人类在图像识别领域。但对于网路言论辱骂,谈话AI却无能为力。

尽管拼图的目标是“网络暴民”的崛起,但程序本身太温和,因此拼图现在成为一个合格的项目还有一段距离。谈话AI将主要用于简化社区审查过程(这个过程主要是由人类完成),如果不是为了摆脱不良网络行为,它还可以积累更多更好的一些网站。

演讲的对比试验

几个月后,拼图将带头在谈话中人工智能可以应用于《纽约时报》的网站,帮助公司管理其在线评论。目前,《纽约时报》审查的主要几乎每个版本在其网站上的评论。

阅读对话AI 1800万条评论,并学习如何检测拒绝评论,包括没有实质性内容的评论,偏离主题的评论,垃圾邮件,煽动性的,攻击性的评论,包含淫秽言论等。

《纽约时报》的目的不是为了最小化的侮辱性的言论置评,因为这个问题是现在控制;相反,《纽约时报》希望能减少人工版主的工作负载。“我们不希望有一个完全自动化的系统。”《纽约时报》社区团队工程经理艾丽卡格林说。

社区在《纽约时报》社论主席或突,估计约50% ~ 80%的评论终于可以实现自动审查,使人工版主可以为其他地区使用更多的能源。

和实时免费网站Twitter和Reddit不同,《纽约时报》网站面临着一些问题。考虑到机器学习的局限性,谈话AI不能有效打击滥用言论存在于网络空间。

虽然机器学习已经取得了辉煌的成就,但它仍然没有解码人类语言。在人类语言或图像,类似的设计的一部分,被证明是难以捉摸的。

侮辱性语言在语音检测问题是语言上下文。批判性分析谈话的AI并不适用于一个完整的讨论过程中,因为它只可能是一个单一的评论和评论学习模式匹配,以确定哪些是好还是坏的评论。

例如,如果评论往往包含常见的词汇,短语,和其他特征,这些评论将被认为是可以接受的。但根据格林,谷歌的系统往往会对唐纳德·特朗普(Donald Trump)的评论文章的评论,因为他们会参考一些演讲,特朗普的这些评论,如果读者评论中通常有阻塞。这些类型的文章,《纽约时报》将自动选择关闭审查机制。

因此,希望谈话AI在公开网站上(如Twitter)有良好的性能,几乎是疯狂的。

如何检测谈话AI送到犹太大屠杀的评论中记者建议呢?对这些滥用言论检测是基于机器学习算法能够检测基于知识的历史和文化背景,而这些只有在接受了类似的培训在机器学习算法来实现。

即便如此,如果有人发送“如果特朗普赢了,我就买这个”并附上的图片一样,谈话AI怎么区分它和侮辱的言论?

事实上,这个过程需要语义知识和实践,甚至超出了当前机器学习试图实现。

因此,毫无疑问,特殊领导战争后会发现一个新的方法来分发的演讲中,人工智能系统,这样可以避免像交谈。如果目标是防止评论家与侮辱,如“同志”,称呼对方,那么机器学习通过阻断一些评论是一个很好的方式来达到这个目的。但是机器学习不能识别隐喻,隐喻例如说某人是“弯曲”的人是不正常的。

换句话说,对于那些已经非常规范的社区谈话AI会使审计工作更有效率。

但如果你想根除这些我们听到最严重的滥用言论(这些评论通常是那些在最低标准的网站),谈话AI是无能为力。

除非改变了Twitter和Reddit这些平台的性质,或想要管理这些网站的演讲中几乎不可能存在。

在这篇文章中,作者:大卫·奥尔巴赫曾11年谷歌和微软作为一个软件工程师,主要工作区域服务器基础设施。



相关文章