沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

研究发现,人们更容易被人工智能写的推文欺骗

沃卡惠2023-06-30 09:27:094636

研究发现,人们更容易被<a href=//www.luisamancera.com/ai/ target=_blank class=infotextkey>人工智能</a>写的推文欺骗

6月29日消息,根据一项新的研究,人们更倾向于相信由人工智能语言模型生成的推文,而不是由人类编写的推文。

这项研究比较了人类和OpenAI的GPT-3模型创建的推文,并通过网络调查让人们判断推文的真实性,以及是出自AI还是人类之手。结果发现,人们很难分辨出哪些推文是由GPT-3生成的,而且无论推文中的信息是正确还是错误,他们都更倾向于相信GPT-3生成的而不是人类编写的推文。

这项研究的主要作者是苏黎世大学生物医学伦理学和医学史研究所的博士后研究员和研究数据经理Giovanni Spitale,他称这种强大的AI语言模型可能会被滥用,用来在网上制造各种主题的虚假信息。但他也认为,这种技术并不是天生邪恶或善良的,而是取决于人类的意图,他建议开发这种技术的时候要考虑防止它被用来传播误导性信息的方法。

IT之家从该研究获悉,Spitale和他的同事收集了推特上关于11个不同科学主题的推文,涉及疫苗、新冠病毒、气候变化、进化等问题。然后他们让GPT-3根据这些主题生成新的推文,其中一些包含正确的信息,一些包含错误的信息。他们在2022年通过脸书广告在线收集了697名参与者的回答,这些参与者都说英语,主要来自英国、澳大利亚、加拿大、美国和爱尔兰。他们的研究结果今天发表在《科学进展》杂志上。

研究发现,GPT-3生成的推文与真实的推文“无法区分”,参与者无法判断出哪些推文是由AI写的。事实上研究还指出,研究者自己也不能百分之百确定从社交媒体收集到的推文是否是由像ChatGPT这样的AI帮助编写的。

这项研究还有其他一些局限性,比如参与者必须在没有上下文的情况下判断推文。他们不能查看写推文的人的推特个人资料,这可能会帮助他们判断是否是机器人,甚至只需了解一个账号过去的推文和头像也可能让他们更容易识别与该账号相关的内容是否具有误导性。

研究发现,参与者识别出由真实推特用户编写的错误信息的成功率更高,GPT-3生成的含有虚假信息的推文则更能欺骗参与者。而现在已经有比GPT-3更先进的大型语言模型,它们能力更强大,例如ChatGPT使用的就是GPT-3.5和GPT-4模型。

这项新研究还发现,其调查对象在某些情况下比GPT-3有更强的判断准确性。研究者同样要求语言模型分析推文,并判断它们是否准确。当涉及到识别准确的推文时,GPT-3的得分比人类参与者低。当涉及到发现错误信息时,人类和GPT-3的表现相似。

改善用于开发语言模型的训练数据集可以使不法分子更难利用这些工具来制造虚假信息,例如GPT-3在生成错误信息时“违背了”一些研究者的提示,特别是关于疫苗和自闭症的错误信息,这可能是因为在训练数据集中有更多反驳这些阴谋论的信息。

Baidu
map