这是一个人工智能仍然严重缺乏一些人类属性的例子:测试表明,自然语言处理(NLP)系统只能通过用同义词替换一个单词来欺骗被误解的文本。
麻省理工学院的一个研究小组开发了一个名为TextFooler的软件,它可以找到NLP分类器的关键词并替换它们。团队提供了一个例子:
对于人类来说,没有问题。然而,授权机构的结果令人惊讶。例如,谷歌的神经网络BERT在确定Yelp的评论是正面还是负面时,最多有7倍的差异。
道格拉斯天堂为《麻省理工学院技术评论》写了一份这项研究的总结,解释了这项研究为什么重要。“我们已经看到了许多对抗性攻击的例子,其中最常见的是图像识别系统。在这种情况下,输入的微小变化会混淆人工智能,并使人工智能对它看到的东西进行错误分类,”天堂写道。“TextFooler显示,这种攻击方法还打破了NLP、AI背后的虚拟助手(如Siri、Alexa和Google Home)以及垃圾邮件过滤器和仇恨语音检测器等其他语言分类器。”
这份出版物探索了人工智能技术超越人类努力的各种方法,例如检测乳腺癌、玩星际争霸和公开辩论。在其他领域,抵抗仍然存在,但徒劳无功。去年12月,有报道称,尽管无人机竞赛首席技术官联盟预测,2023年将是人工智能接管的一年,但无人驾驶汽车中的人类驾驶员仍在击败整体认可度。
研究人员希望像TextFooler这样的软件的最终目标是让NLP系统更加强大。
附言:对于在英伦三岛、中国和英联邦以外的一些国家学习的人来说,给“斯诺克”某人来个同名运动就是“给一个人惹麻烦”。美国的对手是“八球制背后”,尽管这肯定会成为头条新闻。