几位专家对AI带来的威胁提出了自己的想法。毫不奇怪,假冒内容是目前最大的危险。
周二,在纽约举行的WSJ Pro网络安全执行论坛上的一次演讲中,专家认为,人工智能产生的内容是我们社会迫切关注的问题。
社交媒体分析公司Graphika的首席创新官卡米莱弗朗索瓦(camillefranois)表示,deepfake文章构成了最大的危险。
我们已经看到了人为的“假消息”和虚假信息活动所能起到的作用。因此,在这个过程中,AI对很多人来说是一个主要威胁,这并不奇怪。
弗朗索瓦强调,如今的假冒文章和虚假宣传活动依靠大量的手工劳动来制造和传播虚假信息。
弗朗索瓦说:“当你看到虚假宣传活动时,创建假网站和假博客的体力劳动量是巨大的。”
“如果您只是简单地自动化受信任的文本,那么它真的会以一种非常自动化和可伸缩的方式溢出垃圾。所以我很担心。”
今年2月,OpenAI推出了其GPT-2工具,可以生成令人信服的假词。人工智能已经在800万个网站上接受了40 GB文本的培训。
OpenAI决定不公开发布GPT-2,因为担心受到损害。然而,今年8月,两名毕业生决定重新创建OpenAI的文本生成器。
这些毕业生说,他们认为目前自己的工作不会对社会构成风险,所以向全世界发布,没有一家资源丰富的公司或政府是可以实现的。
“这给了每个人一个关于安全性的重要话题,研究人员可以帮助确保未来的潜在滥用,”Vanya Cohen的毕业生之一,Wired说。
迈克菲首席数据科学家、高级首席工程师塞莱斯特弗拉利克(Celeste Fralick)在《华尔街日报》的活动中与同组的弗朗索瓦进行了交谈,建议该公司与专门从事深度欺诈的公司合作。
与AI相关的最可怕的网络安全威胁之一是“对抗性机器学习攻击”,黑客利用它来发现和利用AI系统中的漏洞。
Fralick提供了加州大学伯克利分校教授Dawn Song进行的一项实验的例子,在该实验中,无人驾驶汽车仅通过使用贴纸就被误认为是45 MPH的限速标志。
根据Fralick的说法,迈克菲自己也进行了类似的实验,发现了进一步的漏洞。其中之一就是再次修改时速35 MPH的限速标志,欺骗无人驾驶汽车的AI。
“我们扩大了三者的中间部分,所以这辆车没有将其标识为35。觉得是85。”她说。
两位团队成员一致认为,除了采取策略应对攻击之外,还必须教育全体员工了解人工智能带来的威胁。
弗朗索瓦总结道:“确保人们具备基本的人工智能素养非常紧迫。”