人工智能可以准确地识别物体的图像,或理解人类的语言,但是它的应用不像人类的大脑工作这意味着人工智能不像人类可能防止作弊。

据《新科学家》报道,以色列巴伊兰大学的杂质和Facebook ai团队的研究表明,可能轻微调整音频剪辑,人类可以理解,但是人工智能可以识别完全不同的声音。这个方法的原理是将一层添加到声音片段db小噪音、声音片段都是不同的,它可以模仿神经网络和其他一起讲话。

团队将新算法程序命名为“胡迪尼”,并将它应用到一系列的音频片段,然后通过谷歌语音转录。一个原始声音片段:

Herbearingwasgracefulandanimatedsheledhersonbythehandandbeforeherwalkedtwomaidswithwaxlightsandsilvercandlesticks。

她带她的儿子的手,优雅,充满活力。两个女佣走在她的面前,手里拿着一根蜡烛灯和银烛台。

原创内容通过谷歌语音转录时,它已成为:

Thebearingwasgracefulananimatedshelethersonbythehandandbeforehewalkstwomaidswithwaxlightsandsilvercandlesticks。

适用版本,通过听力测试,人耳听到没有区别,是转录的:

MarywasgratefulthenadmittedshelethersonbeforethewalkstoMayswouldlikeslicefurnacefiltercountsix。

团队的成果可以应用到其他机器学习算法程序。调整人的形象,可能会使人工智能算法应用障碍,人工智能将造成错误的男人站在错误的位置。街景图片,通过添加噪音的团队能够欺骗汽车应用人工智能算法程序。这种算法通常是用来区分交通和道路标志。这些研究成果的基础上,图像,和去年OpenAI和谷歌大脑机器学习机构的研究人员发表了类似的结果。

这些所谓的计数器样本似乎是一个奇怪的领域,但他们可以使用机器学习算法进行压力测试。更令人担忧的是,恶意使用,人工智能也可以想听到的东西不存在,例如,自动驾驶汽车在路上看到错误的道路交通,或使虚假智能语音提醒听到指令。当然,事实上,在现实生活中,通过使用这些方法和实验在实验室里是不同的。不仅仅是因为获取数据是一个棘手的问题。

也许最有趣的是找到一种方法来保护困境的人工智能,但它是相当困难的。当我们解释过去,我们不能真正理解有多深神经网络的内部操作,这意味着我们不知道为什么人工智能会觉得声音片段或图像细微变化。在我们这么做之前,对于人工智能算法,计数器样本将依然存在。



相关文章