几天前,我开始打电话,我很高兴忽略了我的家人。它像一吨砖头一样砸到了我。天啊,我意识到了。我们真的需要AI聊天机器人的方法!就像现在。我立即打电话给我的律师(也是我最老的朋友)大卫诺依曼,向他解释了情况。以下是我们谈话的记录:
诺姆:嘿,嘿,布雷克曼。最近怎么样?
没有时间闲聊了!我们需要尽快提出一项新的法律,但我所知道的关于立法的一切都来自学校摇滚。
诺姆:打我。
我们需要一项法律,要求聊天机器人在自动呼叫中识别自己。
neum[唱歌]:我只是一个机器人。哦,是的,我只是一个机器人。我坐在这里假装我不是。
我告诉你,伙计,我们即将推出一个人工智能聊天机器人,它可以很容易地通过图灵测试.
诺姆:现在是什么?
布瑞克:这是对计算机能否令人信服地冒充人类的测试。如果有人不知道自己在和一个聊天机器人聊天,说明这个机器人已经通过了测试。人们声称他们的机器人已经去世了,但这不是真的。但这只是时间问题。有人预测我们离我们大概有十年,但我的直觉告诉我,更像是五年。
诺姆:所以,五年,十年。有什么问题?
Bryk:问题是,一旦商业化的AI驱动的聊天机器人和人类没什么区别,骗子就会想出新奇的方法,用它们来骗人。至少在人类呼唤人类的过程中,还是有一个限制因素,那就是人类每天每小时只能打那么多电话。人必须得到报酬、休息等等。然而,AI聊天机器人实际上可以用无限多的方式给无限多的人打无限多的电话!
Neum:人工智能和人工智能一样吗?
布里克:是的。人工智能,神经网络,机器学习。你不听我的播客吗?
诺姆:当然!无论如何,人类也有背叛的良心和情感。他们可能会输掉这场比赛。另外,从哲学上讲,这可能是最糟糕的事情。消除人为因素可以消除罪魁祸首和罪恶感,对吗?不是我设计的骗局,而是机器人!
Bryk:机器人甚至可以一次又一次地给同一个人打电话,每次都用不同的声音和不同的销售语气。通过拼凑在线找到的短语,人工智能甚至可以自动生成音高。会变乱吗?当然可以。但谁在乎呢?奇怪的是,聊天机器人的行为是随机的,仍然有可能时不时地发明一些令人信服的消息,尤其是如果规则是好的,并且针对老年人。更糟糕的是,聊天机器人可以表现为任何组织,任何组织。