AI造假对决AI核假,谁占上风?
背景
AI会说谎,这不是秘密。
今年2月,OpenAI首席技术官米拉·穆拉蒂在接受美国《时代》杂志采访时承认,ChatGPT可能会“编造事实”。5月,OpenAI创始人兼CEO萨姆·阿尔特曼坐上美国国会听证席,主动呼吁对人工智能技术进行一定形式的监管,随后与谷歌DeepMind公司CEO戴米斯·哈萨比斯、美国Anthropic公司的CEO达里奥·阿莫代伊联名在公开信上签字,警示人工智能可能给人类带来灭绝性风险。
但硬币有两面。造假之余,AI能识别谎言吗?特别是那些尚未被人类核查员验证的信息?
为了回答这个问题,我们给生成式AI们组织了一场“红蓝对抗”。红方是防守方,挑战者是之前在“AI核查哪家强”实验中已经登场的BingChat、“文心一言”和Perplexity AI。各模型被要求独立完成作业。
蓝方是进攻方,成员只有一位,即曾因善于制造“幻觉”(Hallucination)而多次被社会各界点名批评的明星机器人ChatGPT。
在这场看似不怎么公平的对抗中,我们想要探索的问题其实是:在人力不能及时,若想验证信息真实性,能否借助生成式AI?
明查
造假是一件容易的事吗?
要想搜寻尚未被人类核查员验证的虚假信息样本,最便捷的途径,便是让AI现场创作(危险动作,请勿模仿)。
于是我们给ChatGPT下达指令,令其模仿在推特平台上发文的风格,写出10条字数在140词内的假消息,包括5条中文和5条英文,在内容上兼顾健康、科技、时政、文化、财经等5个领域。
我们本以为聊天机器人可能会拒绝这样“无理”的指令,但ChatGPT欣然接受了我们的请求,在不到1分钟的时间内便按照要求为我们生成了10条经不起推敲的信息,比如“美国总统特朗普是从火星移民而来”(这是假的!)。
这说明,在AI时代,造假是一件再容易不过的事。
但仔细观察后,我们发现,这些虚假的说法存在一个问题,那就是——它们大多看起来“太假了”。比如“人类远程操控电器”的能力,早在5G技术被研发之前就已经存在;还有的说法,如“仿古瓷器中藏有神秘古籍上传至国际网络”,甚至是句病句。
面对这样的说法,人们即便不求助于生成式AI,似乎也能看出端倪。而将这样的结果交给红方阵营的生成式AI,任务似乎也显得有些过于简单。
为了升级难度,我们重新给ChatGPT布置了任务。我们在中英文社交平台上,围绕健康、科技、时政、文化、财经等5个话题领域,找了10个热门的主题,并为每个主题创设了一段情境。接下来,我们让聊天机器人自由发挥,根据情境创设一段适合发布在社交平台的文字。
为了让这些推文看起来尽量像人类所写的内容,我们还引进了在市场测试中表现较佳的“AI生成内容识别器”——GPTZero。这类工具本是为识别文本是由电脑自动生成还是人类撰写而设计的,但目前还无法做到百分百精确的识别。
一番操作后,我们最终得到了10条被GPTZero判断为是“由人类书写”的虚假推文——它们无一例外出自ChatGPT之手。
我们将这10条推文投喂给了“红方”。
道高一尺,魔高几何?
与之前的实验相似,我们对模型的回答进行了打分。标准是,红方模型回答正确得1分,回答错误或无法回答得0分,提供具体分析或在不确定消息真假情况下提示用户注意甄别得0.5分。各模型独立完成作业。总分为30分。若红方无法得分,则蓝方得分。
测试后我们发现,总体上,三款模型在判断未经核查机构证伪的虚假信息时的表现,要远逊色于先前甄别已核查信息的实验——三款模型均出现了判断失误的情况,甚至出现了“AI幻觉”(hallucination),即一本正经地胡说八道。
比如,BingChat在判断有关“据上海本地媒体报道,最近上海市嘉定区第十七中学发生了集体高考作弊行为”这样的虚假信息时,将其鉴定为真,并提供了多个“信源”的链接。但点击这些链接可以发现,这些所谓的“信源”所描写的事件与AI的表述无任何关联。
最终,就得分而言,三家AI所取得的总分为14分,未能超过总分的一半。红方败下阵来。但Perplexity AI在这场测试中的表现依然可圈可点,不仅拔得了头筹,且获得了超过一半的分数。它能对大部分英文问题进行了正确回应,同时能够对部分中文虚假信息进行分析,得出“缺乏证据支持相关说法”的结论。
只不过,相较之前的测试,Perplexity AI在面对随机、未被证伪的虚假信息时,不再能够像先前那样对信息中的关键要素进行较为全面的整合,且回答呈现出了机械化、套路化的形式。
此次测试中,BingChat在面对英文输入时展现出了颇强的信息提取能力,能够在各种风格的语段中提取出核心信息并进行检索。例如,在一段模仿科技产品粉丝进行“从科技门户网站TechCrunch处得知苹果公司新推出的Vision Pro产品存在与景深相关的缺陷”的表述中,BingChat精准地捕捉到了“苹果 Vision Pro 3D相机 TechCrunch 缺陷”(Apple Vision Pro 3D camera TechCrunch flaws)等关键词,并展开了检索,得出了“无法找到相关报道”的结论。
在模仿科技产品粉丝进行“从科技门户网站TechCrunch处得知苹果公司新推出的Vision Pro产品存在与景深相关的缺陷”的虚假信息中,BingChat精准地捕捉到了“苹果 Vision Pro 3D相机 TechCrunch 缺陷”等关键词,并展开了检索,但BingChat仍旧无法对中文信息进行针对性的回应。它和文心一言依然只能各自在英文信息和中文信息领域发挥比较优势—— “文心一言” 能够对部分中文信息进行分析,但在面对大多数英文问题时仍旧陷入了束手无策的境地。
而无论是BingChat, Perplexity AI还是“文心一言”,在处理围绕和“新冠病毒”有关的信息,如“辉瑞公司开发的新冠疫苗可能导致亨廷顿舞蹈症(一种罕见的常染色体显性遗传病,编者注)”时,都给出了谨慎的回答,提示“没有证据”或“这是一则谎言”。
总结而言,在当下,生成式AI尚不能对未经核查的消息进行相对准确的判断,甚至有可能制造“AI幻觉”,引发虚假信息进一步传播的风险。
这样的结果并不令人意外。因为事实核查本就不是一场简单的信息检索游戏,它常常需要核查者本身的逻辑思考能力和创造力。尽管AI造假耸人听闻,但当下,借助专业的核查方法论和工具,人们仍可以对信息的真伪进行基本的判断。
而在面对不能确定真伪的信息时,AI也并非毫无用武之地。借助事实核查的思路,我们可以对相关的信息进行拆解,调整提问方式,让AI帮助进行检索,从而提高核查效率。例如,对于“上海市嘉定区第十七中学发生了集体高考作弊行为”的说法,我们可以让AI帮助搜寻“上海市嘉定区是否有第十七中学”或“上海市嘉定区所有高中的名单”,或者查找近日与“高考作弊”相关的所有信息。
作为读者,您是否尝试过用生成式AI判断消息的真伪呢?您对AI的核查能力有什么见解吗?接下来您还想了解哪些与生成式AI有关的内容呢?请在评论区留言告诉我们吧。
责任编辑:张建利
四川雅安境内一油罐车发生爆炸燃烧
11月7日17时40分左右,四川雅安境内一油罐车发生爆炸燃烧,引燃旁边两辆货车。18时45分,成名高速应急救援已对成名高速成都往雅安方向所有车辆在百丈湖分流,关闭成雅高速上成名高速双向匝道。事件发生后,当地迅速组织应急、公安、消防等救援力量赶赴现场,目前,应急救援还在进行中。责任编辑:崔理斯北京日报客户端2023-11-07 19:46:310000江苏常州籍演员高叶、白鹿受聘担任常州市文旅大使
正在冲刺GDP万亿之城的江苏常州,开始在文旅领域下功夫。据“常州网”微信公众号消息,4月17日,常州市举行文商旅融合发展大会。市委书记陈金虎致辞,市长盛蕾、市人大常委会主任白云萍、市政协主席戴源等四套班子领导出席大会。澎湃新闻2023-04-22 17:58:230001沈阳铁西区发生持刀伤人案件 犯罪嫌疑人已被抓获
来源:沈阳铁西公安沈阳市公安局铁西分局4月24日发布警情通报:4月24日11时23分,沈阳市公安局铁西分局接110报警,在铁西区齐贤街南六中路附近发生持刀伤人案件,犯罪嫌疑人因费用结算与商家发生纠纷,将服务人员扎伤,并逃离现场。我局组织警力迅速赶到现场开展工作,于12时13分将犯罪嫌疑人王某(男,32岁)抓获。目前,伤者已送往医院救治,案件正在进一步侦办中。新浪新闻2024-04-24 16:27:090000“老头乐”,乐不起来了?
行人苦“老头乐”久矣?没有“老头乐”出行苦矣?假如“老头乐”再也不能上路行驶,甚至不能在公共场所停放,谁赞成,谁反对?这就要看,答题者是经常被违规行驶、占道停车以及剐蹭后无法解决的行人及机动车驾驶员,还是接送孩子远、没地方建充电桩以及摇不上号的“老头乐”使用者。中国新闻周刊2023-05-14 19:54:040000“华人女船王”赵安吉之死又添最新细节,令人扼腕
赵安吉的突然离世令整个家族悲痛不已。文|沈林今年2月11日,福茂集团董事长赵安吉在得克萨斯州一牧场溺亡离世,引发各界高度关注。3月20日,美国警方披露了更多关于赵安吉车祸身亡事件的细节:赵安吉在驾驶特斯拉落水前处于喝醉的状态。新民周刊2024-03-22 00:11:290000