人们曾信奉一些普遍的经验,例如“谣言止于智者” “有图有真相”,但现在好了,谣言起于“智者”——人工智能,而被用来证实真相的图片,也许本身即是谎言。当地时间4月4日,美国前总统特朗普正式以被告身份出席纽约州地方法院非法封口费案件庭审现场时,很多人的第一反应却是:“假的吧?”因为“特朗普被捕”的假消息和假照片已经传播快半个月了,当事情真的发生时,人们反而不敢相信。
之前的假照片几乎成为连续剧,每天都在上新——“特朗普在前面跑得气喘吁吁,执法人员在后面紧追不舍”,“特朗普遭到纽约市警察围殴、逮捕,场面混乱”,“特朗普的铁窗泪和狱中生活”,“特朗普火拼越狱”……几乎是一部合格的好莱坞大片配置。
这些疯传的“特朗普系列”全部由AI制作生成,最早是信息调查网站bellingcat创始人、英国独立记者艾略特·希金斯的恶作剧,他在网上读到特朗普可能被逮捕的消息后灵机一动,想将这一事件“可视化”。于是,希金斯在AI绘图工具Midjourney上输入相应提示词,例如“特朗普在被捕时摔倒了;新闻报道画面。”随后,他将Midjourney生成的图像发布在社交媒体上,并在帖子中写道:“在等待特朗普被捕时,制作了特朗普被捕的图片。”
(资料图)
网友用AI软件制作的“特朗普被捕瞬间”的假新闻照片
网友转发时可不会细看他写了什么,仅仅两天后这些内容的浏览量已突破500万次,图片在经由他人重新转发后,骗到了很多人。有用户在转发时,配上“突发新闻:特朗普今晨在曼哈顿被捕”“震惊!特朗普被逮捕并押往联邦监狱”等文字。还有人疑惑地在图片下提问:“为什么特朗普被捕的事没上新闻?”
“在批量制造虚假但可信的图像方面,AI已经向前迈进了巨大一步。”《华盛顿邮报》评论说。那么,这项技术的能力和可获得性是否已经大大超过了监管和立法的反应以及企业的控制,从此使得真相更加模糊?
“我只是在胡闹而已”
“我只是在胡闹而已。”希金斯接受采访时说,事情的发酵速度让这位始作俑者也始料未及,“我以为大概也就5个人会转发。”过去,制作一张假照片还需要一位photoshop高手做上整整一下午,而现在,用户只需提供一个简单的文字提示,这些工具就能迅速生成以假乱真的图像,背景中往往还包含大量令人信服的细节,更重要的是,其能够高度模仿新闻机构风格的照片。
比如,在最近的中文互联网上,不仅流传特朗普被捕的图像,还有大量AI生成的上世纪80年代、90年代的照片,这些照片中,无论是主角还是背景,都拥有非常真实的细节,除此之外,还有人戏谑地把《星球大战》中的角色或者机器人相当真实地“镶嵌”进那些八九十年代的街头图像之中,由于细节过于逼真,看起来竟然一点都不违和。相当多的人开始担忧,也许未来不再有“真实”的历史,人们的记忆也会被混淆。
AI绘画:一些电影元素被“镶嵌”进上世纪八九十年代的生活场景。
有关AI对摄影界的影响,摄影师们有过讨论。首先当然是版权问题,因为生成器的数据库是通过在互联网上抓取数十亿张带有相关文本描述和标签的图像而构成的。在其中,人工智能公司Stability AI受到了摄影师的集体侵权指控,Getty图库也备受诟病。而有关图片质量,摄影师们从专业角度认为,AI还没有能够彻底以假乱真。
纽约的摄影师查理·英格曼对图像生成器的图片研究了一段时间,他发现人工智能对人类身体的理解是有限的,一个情感可能被定义为快乐,因为许多带微笑的图像都被标记为“快乐”,但人工智能无法识别其他微妙的姿态,例如放松的肩膀。哥伦比亚大学博士明妮·艾泰路发表文章说,当使用Midjourney进行图像生成时,系统会反复出现刻板印象,例如,当她在生成器中输入“绿色的衣服”这样的描述时,系统生成的总是黑人,她推断Midjourney将明亮的颜色与黑人肤色联系起来了。更不用说AI图像还会有一种不自然的光泽和质感,即便是写实风格。
曾拍摄过《算命》《老唐头》等独立纪录片的导演徐童也注意到了这些“有意思的照片”,因为本专业为新闻摄影,后来又在不断用纪录片追随“真相、真实、真理”,他格外关注AI的发展。“人工智能生成图像还处于婴儿时期。“徐童对《中国新闻周刊》说,AI生成的图片对于专业人士而言尚不难辨别真伪,专业摄影师们似乎也不认为当下它能够对人们所需要的真实照片造成什么重大影响。但徐童也承认,AI的发展是迅速的,也许很快就进化。在他看来,越来越逼真的AI生成图像目前主要分两类,要么是很容易辨别真伪的戏谑,某种程度像是民众的黑色幽默,要么是对真实图片的高度拟仿,例如那些80年代的街景,人们担心的大约为后者。
但这样的图片在徐童眼中,类似于文物界的赝品,“普通人怎么能分清《兰亭序》的真迹和《兰亭序》的赝品?分不清。但毕竟还是有真迹在那,还是有专业的人能分清楚。”而即便人们看的是“赝品”,这个拟仿到位的“赝品”并不会覆盖“真品”,也不会使人们对“真品”本身的感受和印象产生什么混淆,所以不必对“赝品”产生恐慌。
何况人们的记忆和对历史的理解,有时候并不一定全部基于非虚构信息和影像。学者王学泰曾经在他的《游民文化与中国社会》等书中描绘过一种现象:宋朝以后,中国社会受戏曲、曲艺影响极大,例如清末,义和团成员在重大活动中喜欢将装束向历史中的忠臣名将靠拢,例如黄忠、马超等,他们的服饰参考正是戏曲中古人的样貌。太平天国的装束、官职以及作战方式都曾向历史学习,他们学习的历史其实是通俗文艺中所描述的历史。
AI绘画:一些电影元素被“镶嵌”进上世纪八九十年代的生活场景。
复旦大学新闻学院教授汤景泰告诉《中国新闻周刊》,在那个时候,“戏曲不但建构了一些人对于古代历史的记忆,而且在塑造他们相应的行为”,可以说,即便在有信史的情况下,虚构的东西仍然在“参与我们相应的一些集体记忆建构。”尤其对于孩子和受相应教育比较少的人,恐怕一直以来都难以对虚构和非虚构内容准确地进行分辨。
因此,汤景泰认为,如今AI所制造的一切信息,最值得警惕的并非艺术、玩笑或历史图片,而是那些被故意制造出来的,欺骗、误导他人的“谣言”,这些“谣言”会使很多无辜者受害,更令人担忧的,是以谣言为代表的各类虚假信息往往深受现实政治权力结构的影响,在潜移默化中影响特定问题的社会认知,甚至引发社会动荡。
一键生成的谣言
不久前,一条“杭州市政府3月1号取消机动车依尾号限行”的“新闻稿”在互联网上广泛传播。后来经过警方调查,发现这是一条不实新闻——2月中旬,杭州一个小区业主群在讨论ChatGPT,一位业主开玩笑说,尝试用它写篇杭州取消限行的新闻稿看看。随后这位业主在群里直播了ChatGPT写作过程,还把文章发群里。没有围观全程的业主不明就里,以为是真的新闻,截图转发,最后以讹传讹。
自2004年美国传播学者拉尔夫·凯伊斯提出“后真相时代”概念、2016年《牛津英语词典》将其作为当年的年度词汇收藏和发布以来,“后真相”就成为人们不得不正视的新现象。所谓“后真相”,是指人们不再相信真相,只相信感觉,只愿意去听、去看想听和想看的东西。汤景泰告诉《中国新闻周刊》,从那个时候起,新闻伦理已经开始不断受到挑战。随着电脑技术不断发展,2018年“深度伪造”(Deepfake)概念被学界提出,那时,人工智能已经开始将图片或视频合并叠加到源图片或视频上,借助神经网络技术进行大样本学习,将个人的声音、面部表情及身体动作拼接合成虚假内容。
AI绘画:OpenAI CEO山姆·阿尔特曼乘坐UFO,在中国乡村留影。
在国内,第一次引起人们注意的“深度伪造”大概是2019年B站的一段视频——94年版《射雕英雄传》中朱茵的脸被换成杨幂,从服饰发型到神态动作都是原演员朱茵的,只有五官成了杨幂,却丝毫不违和。那时AI的技术已经引发人们的担心,所以制作朱茵和杨幂换脸视频的up主“换脸哥”下架了所有视频并致歉,希望大家都尊重版权与肖像,专注于技术本身。
两年后的2021年,刘昊然工作室向警方报案,因为有人用AI换脸技术发布伪造侮辱刘昊然的视频。这时,AI换脸技术使用门槛已经大幅降低,不再需要专业视频博主的制作,稍微懂点技术就能做到。甚至开始形成黑色产业链,一位女明星的脸被AI换到了200多部色情视频之中,在一些平台以10块、5块一部的价格出售,网上还有商家提供视频AI换脸的服务,根据时间长短收费。
当这项技术发展到2023年,已经实现大众化应用,几天前,一张女子在地铁上的照片被AI“一键脱衣”,造谣图随后在网上广泛传播。
谣言是最古老的传播媒介,但制造一条逼真的谣言从未像今天这样容易。以ChatGPT、Midjourney等为代表的人工智能技术不仅可以制造足以乱真的文字,还可以大大提高深度伪造技术的效率,对图片、声音、视频等各种话语类型进行伪造,实现谣言生产的多模态,谣言的逼真性、扰乱认知的能力几乎达到前所未有的高度。谣言治理正面临挑战。
谣言的背后,其实反映某些真实的心理和情感。汤景泰担心,制造过程越来越简单的谣言,会借助现实中已有的矛盾,助长各个群体之间的进一步撕裂,“特别是谣言武器化的趋势,这几年已经越来越突出了。所以在这种情况之下,它必然会服务于现有的权力博弈。”例如2021年1月,特朗普支持者受到选举舞弊谣言的煽动,暴力冲击美国国会大厦。今年3月“特朗普被捕照”出现不久,网络上也出现了“特朗普持枪反攻、活捉拜登和佩罗西”的主题假照片,非常清晰地显示出美国政治的两派斗争。
2018年,美国麻省理工学院传媒实验室发布过一项史上规模最大的假新闻研究成果。真信息在网络空间传播所用的时间是假信息所用时间的6倍,虚假信息的传播速度、传播深度和传播范围都要比真实信息传播得更快、更深、范围更广,而虚假政治新闻的影响比恐怖主义、自然灾害、科学、城市传说或金融方面的虚假新闻更为明显。从传播学层面看,重复作为一种强化价值理念的方式,展示了强大的认同力量。
而揭露虚假信息并不总能改变人们的思想。2017年11月发表在《Intelligence》杂志上的一项研究发现,那些认知能力较低的人在被告知一些消息为虚构或者根本与事实相反后,仍无法改变原来的印象。美国麻省理工学院的研究成果也表明:“即使揭穿是由声誉良好的事实检查组织来完成,也无助于说服那些已经相信虚假信息的人”。
用魔法打败魔法
可能是出于AI被用于欺诈、虚假信息传播等不良用途的担忧,今年3月31日意大利个人数据保护局(DPA)宣布禁止使用ChatGPT。4月3日德国数据保护专员也表示,德国可能会效仿意大利,封杀ChatGPT。亚马逊、美国银行、软银、高盛集团等世界知名企业内部,也已经限制使用ChatGPT来处理工作。
每一次技术革命,都会给社会带来巨大的变化、风险和机遇,如今AI似乎在扮演着类似的角色。3月29日,特斯拉CEO马斯克、硅谷人工智能知名专家盖瑞·马库斯等上千名科技人士联名发表了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。马库斯说:“我现在并不担心‘AGI风险’(我们无法控制的超级智能机器的风险),在短期内我担心的是‘MAI风险’——平庸人工智能(MediocreAI)是不可靠的,但被广泛部署。”这一呼吁得到了不少关注与回应,截至当地时间3月31日,已有超2300人签名。
AI绘画:20世纪90年代的中国情侣。
但也有一些业内人士对此持反对态度,例如Meta首席技术官(CTO)安德鲁·博斯沃思,他认为“很多时候,你必须先了解技术是如何发展的,然后才能知道如何保护人类并确保技术安全。这(要求暂停高级AI开发)不仅不现实,而且不会有效。”
一些科研团队已经在研究利用AI来识别AI制造的虚假信息,用“魔法”打败“魔法”。瑞士卢加诺大学人工智能教授迈克尔·布朗斯坦就在带领团队开发一个使用人工智能检测假新闻的项目。他的模型不仅分析假新闻的语义特征也包括传播途径,例如通过数据分析,他发现在社交网站上,假新闻的转发量可能远远超过点赞量,而普通帖子的点赞量往往超过转发量。通过各个维度的综合计算,布朗斯坦的项目会给新闻条目评分。
但完全指望技术来解决虚假信息的问题,布朗斯坦认为是幼稚的,他说:“这不仅仅是假新闻的问题,也是信任和缺乏批判性思维的问题,这可不是仅靠技术就能缓解的。这需要所有利益相关者的努力。”
然而企业标准和政府监管这一层面目前显然是缺失的,例如虽然因生成“特朗普被捕”图像,希金斯的账号被Midjourney封禁,但他并未被告知违反了哪些规定。
专注于新兴技术研究的卡内基国际事务伦理委员会研究员阿瑟·霍兰德·米歇尔在接受《华盛顿邮报》采访时说,他担心世界还没有为即将到来的“洪水”做好准备,涉及普通人的伪造图像将更难受到监管,“从政策角度来说,我不确定我们是否准备好应对如此大规模、涉及社会各阶层的虚假信息。要终止这一局面,可能将需要迄今无法想象的技术突破。”
2023年3月30日,联合国教科文组织发表声明,呼吁各国政府尽快实施已通过的首份人工智能伦理问题全球性协议《人工智能伦理问题建议书》。声明说,行业自律显然不足以避免这些伦理危害。因此,《人工智能伦理问题建议书》提供了工具,以确保人工智能的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。
从人文科学与社会科学的角度看,汤景泰认为面对人工智能技术可能带来的谣言生产与传播风险,人类仍离不开人工智能技术的支持,但也要看到,谣言的传播动因和心理机制有复杂的社会基础,根本症结在于难以弥合的社会分歧,新闻的真实性与客观性被解构,人们更愿意相信符合群体心理预期和情感的信息。因此,破解谣言的根本在于建构一个可沟通性更强的社会。
发于2023.4.17总第1088期《中国新闻周刊》杂志
杂志标题:被AI篡改的“真相”
记者:李静
关键词: