webwxgetmsgimg_副本.jpg
《传媒观察》|Sora横空出世,我们该如何“把关”?
2024-05-07 11:22:00  来源:《传媒观察》  作者:张梦晗 陈泽  
1
听新闻

编者按:Sora“世界模拟器”的出现标志着信息环境又一次革命性重构。基于Transformer和Diffusion模型的Sora,在真正意义上建立起了人/社会与智能生成模型的广泛交互。全民生成的“文生视频”在生成量级、检测难度等方面都远超深度伪造,并显现出了其作为深度伪造的“迭代泛用版本”对媒介真实的潜在破坏性。张梦晗副教授和博士研究生陈泽在《传媒观察》2024年第4期刊文,认为以“亿参数”为数据学习单位的Sora带来了把关关系的异化。媒体、平台与公众按照既有把关关系展开的把关活动,非但无法帮助公众降低外部不确定性和保障信息秩序化,反而会加剧信息系统的失序状况。技术环境的变化召唤着把关理论的适时调试与推进。在此背景下,把关应首先被理解为以新闻真实帮助公众与现实社会建立起有意义联系的过程。把关理论能否脱离作为“行动”的隐喻,而向社会机能的本体意义回归,直接关系到其在生成式人工智能时代的理论与现实意义。

 

在以Sora为“起点”的人工智能视频生成“涌现”,致使我们对外部世界可靠性感知丧失的背景下,如何推进把关理论与技术发展波峰的匹配?或许需要我们首先从技术本身出发,以“逆向工程”(reverse engineering)为切入方式,从而展开解剖式的全面观察。按照海特涅(Hettne)的观点,越具复杂性的问题越需要我们返回到其底层机制与“事件”发生的空间,方能够切实解释和回应现实。具体到把关理论——在报纸时代是观察新闻编辑室里“盖茨先生”的日常工作,在数字时代是以理论工具和技术“内视”,来剖析把关权力分散的后果和拆解算法黑箱。而人工智能的复杂技术图式,则要求我们返回到最直观记录了相关人工智能技术的特性、模式和运作机制的“装置”,即以具体的技术结构作为观照视角。

由于OpenAI的代码段并未开源,本文以Sora在技术架构方面的特征为主,以与Sora建立在相同模型(Transformer和Diffusion)之上,并在技术逻辑方面存在较高相似度的开源生成式AI代码“DF Software For All”作为探索性的补充。主要探究Sora的技术架构何以颠覆既有把关机制,以及把关关系的变化对社会系统的结构性影响,并尝试在此基础上探讨Sora时代把关理论向前推进的可能性。

超越深度伪造:人/机器模型关系重组下的把关失效风险

当我们将深度伪造与Sora进行技术性比较时,便能够更加清晰直观地了解到Sora对既有把关体系的全面冲击。

首先,深度伪造技术并不具备实际的“智能”性,即其并未在公众与机器模型之间形成有效连接。按照布克尔(Burkell)的说法,“深度伪造是少数领域内专家的工具,对于公众而言却没有任何使用性”,从而“远离了人工智能所追求的初衷”。在技术门槛性限制下,深度伪造视频的流通数量也相对有限。据ContentDetector.AI的统计数据显示,在2017年至2023年之间,全球互联网中的深度伪造视频总量约为50万条。其中96%为“色情伪造”内容,其余涉及政治、经济、娱乐等题材,具有“引发社会动荡”可能的深度伪造视频占比仅为4%。而正是这两万余条深度伪造视频,使人类社会步入了“虚假信息时代”,并拉开了新闻业“把关人角色终结”的序幕。

与深度伪造不同,OpenAI通过一连串的技术“搭桥”,使Sora成为人工智能史上第一个允许所有人与视频生成模型相连接的社会性技术。人工智能视频生成模型在真正意义上完成了由“领域技术”向“公共产品”的转换——用户无需知晓如何将Encoder输出的编码信息矩阵传送至Decoder,也不需要使用任何复杂的CGI(Computer Generated Images)工具。任何人均能够通过上传文字叙事,来获得一段足以以假乱真的视频。如果说深度伪造使以肉眼为基础的传统把关方式面临挑战,那么,Sora的出现则如史蒂芬利维(Steven Levy)所说的那样:带领我们进入一个“虚假信息的大灾难”的“全民生成”时代。我们或可试想如下情境:当一天中同时出现无数诸如“拜登逝世,哈里斯任代理总统”“全国机动车限行”的AI新闻视频时,信息场的混乱也将引发社会系统进入失序状态。在无数用户节点与Sora的交互下,“文生视频”在一天内的生成总量,就可能超出过去5年内深度伪造视频的总和。这势必会对既有的把关体系、把关方式与把关策略构成颠覆性的冲击,并导致信息环境失序。

其次,鉴于深度伪造的技术特性,其所生成的视频中有多种特征能够被识别检测。例如,图像帧的边缘伪影、面部变形过程中保真度变化、帧序列残差等。而Sora所遵循的是“累积-理解-输出”的学习过程,而不是深度伪造“A+B”的“合成”过程,并不存在因“图像融合”而带来的技术特征。因此,尽管Sora目前仍存在无法精准模拟相互作用的物理状态等问题,但现有的Reality Defender、The Factual等技术,也难以完成对Sora视频的准确识别。在此背景下,菲利克斯西蒙(Felix Simon)提出的“人类+AI”协同把关模式也就成为了一种理想化的设想。当人工把关与“机器把关”均无法完成对Sora视频的鉴别时,把关本身的意义也就随之消散了。

尽管Sora目前仍是仅供艺术家、影视制作者等群体使用的“内测版”,但AI生成视频的上一历史版本,即深度伪造,已经向我们展现了其对社会信息交流秩序的全面冲击。按照默克尔(Meckel)的观点,深度伪造的马车正在载着人类与稳固的真实世界脱离。然而,无论是在生成量级、检测难度还是潜在破坏性方面,基于Transformer和Diffusion模型的Sora都要远远超过深度伪造。如果说深度伪造是人类与稳固真实世界相脱离的开始,那么Sora对既有把关机制的颠覆,无疑将带领我们驶入一个以游戏主义为主导的恶托邦(Dystopia)。

越把关,越混乱?把关异化下“真相出场机制”的重构

新闻把关“场”(field)中的行动标准由两大基本逻辑构成。一是控制论视角下对“可能性集合”的控制,这决定了哪些信息得以被挑选并流出“管道”。二是新闻职业伦理对新闻把关人的核心要求,即真实性的问题。由此可见,新闻把关存在“两大关口”,即内容关口与事实关口。新闻把关人既需要在重要性、公共性、盈利目标等的共同影响下,在一系列的“信息原料”中选出“可被发布的新闻”,从而完成内容层面的把关;又需要通过“事实把关”保证被挑选出信息的真实性。

通过对“DF Software For All”代码的第二部分的分析可以发现,其在神经网络的训练过程中,每一面(side)的图像训练数量都达到了500—5000张。如此强度的训练量“足以使人类无法通过肉眼判断真伪”。相较于“DF Software For All”,Sora无论是在训练量还是学习数据库大小方面都实现了质的飞跃。目前,Sora已经开始将来自Shutterstock数据库和公共网络的视频作为训练素材,其生成视频的训练量已需要以“亿参数”为单位来计算,远远超过了任何已知模型的训练量。这意味着Sora将拥有更强的“以假乱真”能力。大量AI生成视频能够轻易绕过传统把关人基于肉眼观测的“事实关口”。以往以“人工”为主的事实把关模式再难应对如此复杂的技术局面。

“事实关口”的失效将导致“内容关口”面临巨大冲击。原本“内容关口”的运作机制为:在保障新闻真实性的基础上,把关人通过摇动由市场、政治体制、受众等“藤条”编织而成的“新闻筛”,使得一部分颗粒度较大的信息得以流入信息系统,从而将“难以计数的事件信息被转换为数量可控的媒体信息”。通常而言,信息颗粒的大小由其与新闻价值判断体系的契合程度决定。换言之,若一条信息更加具有重要性、新奇性、趣味性等特质,则其越有可能被把关人加工制作为新闻,并在信息系统内快速传播。

然而,对于Sora生成的视频“新闻”而言,由于其可以脱离现实进行“想象式”的生产,使得所有人均可通过编辑文字内容,来随意调节生成视频的内在属性,制造真假难辨的大颗粒度“新闻”。若希望“新闻”的重要性属性更加凸显,则可将视频主体设置为白宫或俄乌战场。若希望“新闻”刺激性更强,则可将冲突、暴力作为视频叙事的基调。信息颗粒度由信息的客观属性转变为可被随意拖拉的控制面板,媒体、公众与平台以信息颗粒度大小为标准进行的“内容把关”不仅将导致信息系统熵增的加速,更带来了既有把关关系的异化。

平台和公众分别形成了以盈利为导向的算法把关,和以个人兴趣为主导的自决把关逻辑。在生存压力和流量竞争的驱动下,媒体的把关活动也逐渐被公众与平台的把关逻辑支配。可以说,互联网的出现彻底改变了传统意义上的把关关系。而当互联网重构的把关关系与以Sora为代表的“文生视频”迎头相撞时,信息系统新的危机也就随之产生了——按照既有把关关系展开的把关活动,非但无法发挥其“活的功能有序性”,即帮助公众降低外部不确定性,并起到信息秩序化的作用,反而会加剧信息系统的失序状况。

按照马西普(Masip)等人的观点,相较于“日常生活中的事件”,公众向来更偏爱那些“新奇、刺激和有趣”的内容。而Sora的仿真性与“创造性”,使得其所生成的信息内容在满足公众刺激性和趣味性方面,拥有着近乎无限的空间。此类信息的分享率、传播率、扩散范围和互动吸引力,“通常都远超一条普通而重要的新闻”。因此,公众以个人兴趣为主导的把关极有可能成为AI生成视频的扩散器。公众的点赞、转发或讨论,都将推动AI生成视频在信息系统中的飞速传播,并扩大潜在负面影响的覆盖范围。

同时,平台的把关机制也被AI生成视频的信息特性和公众的信息偏好“劫持”。

从整体来看,平台的把关机制主要由三部分构成。其一,是平台自身在负面信息或虚假信息进入公众视野后进行的事后把关。其二,是公众的票选把关机制。其三,是基于算法的智能分发机制。此外,平台算法和公众的把关权力实际上是从传统媒体处“剥夺”而来的。若公众与平台获得把关权力却无法发挥把关的社会功能,媒体所面临的把关压力也随之增大。对于新闻媒体而言,平台和公众已成为其新闻来源的重要渠道。尽管专业化的记者团队和编辑部仍能对一手新闻稿件负责,但当平台和公众渠道中充斥大量AI生成视频时,新闻媒体也难以在短时间内完成“真假判别”的技术核查。同时,与平台“常态接合”的新闻业仍需服从公众的时效性需求。在信息来源渠道被污染,AI生成视频的技术审核难度高、耗时久,以及媒体间的时效性竞争压力下,新闻业也极易成为AI生成视频“真实性”的背书者。而一旦作为“最后事实标杆”的新闻业公信力崩塌,将引发整个信息系统的失序风险,并使我们进入一个泛虚假主义的时代。所谓泛虚假主义,是指当个体完全无法区分外部现实与虚构事物之间的界限时,转而以可被个人把握的游戏性心态面对媒介环境,以“无法确定为真实,便为虚假”的信息观来对待一切信息。在此背景下,新闻作为社会之公器的社会意义也随之消散了,而变为了一种“公众玩具”。

匹配技术波峰:生成式AI时代把关理论结构性再造的可能

以Sora为代表的生成式AI的“智能涌现”,正在推动着把关理论的结构性变革。在此背景下,把关理论在生成式AI时代的可能推进方向包括以下几方面。

首先,是关于把关理论内涵的侧重点调适。可以说,Sora的出现颠覆了把关理论不言自明的前提假设,即关于“真实性”的问题。在前互联网时代,新闻媒体把关过程中的“真实性”是新闻的必然要求,也是一个无需赘言的基本前提。于是,我们便看到了休梅克和沃斯(Vos)对把关理论的经典陈述:“把关是从无数信息片段中选择和制作人们每天接受的有限信息的过程。”即使是在进入互联网时代后,新闻真实也未受到根本性的挑战,理论的推进重点多被研究者放置在新把关主体之上。如华莱士(Wallace)将把关理论界定为“媒体、平台与公众各自按照不同取向,从庞大信息流中截取他们感兴趣的信息”。

可以看出,无论是休梅克还是华莱士,在对理论边界进行概述时都存在一个默认假设,即“无数信息片段”或“庞大信息流”都是现实世界运动的信息化呈现,把关的主要工作在于“截取”和“制作”。然而,以Sora为代表的“世界模拟器”正在摧毁这一假设的前提。据美国数据分析公司高德纳(Gartner Group)的预测,在未来三年内,由生成式AI输出的信息将占到信息空间总量的30%。在可预见的将来,“无数信息片段”中必将混杂着海量难辨真伪的生成视频。在此背景下,不言自明的“真实性”亟需在理论层面予以特别关注。把关应首先被理解为一个辨识虚假信息,以新闻真实帮助公众与现实社会建立起有意义的联系的过程。

其次,是重新探讨关于把关“人”的关系问题。如今,把关关系在整体上呈现为一条边界的两边——一侧是平台、公众与媒体所在的现实世界,另一侧则是不断迭代的生成式AI。能否进行有效的把关则决定了这条边界的游移状况,边界越向平台、媒体和公众的方向移动,我们就越难通过媒介来感知现实世界。无论是媒体、公众还是平台,都将在本体性安全无法得到保障的情况下面临危机。在此背景下,把关关系拥有了由媒体对公众兴趣与平台流量逻辑的迎合关系,走向协作关系的可能性。

最后,是对把关本体意义与社会意义的回归。Sora全民生成和仿真特性对信息环境的冲击,要求我们重新思考把关在社会系统中的角色与作用,将关注重点放置在其作为社会机能的本体意义之上。从文字(ChatGPT)到图片(DALLE)再到视频(Sora),作为生成式AI领域“头羊”的OpenAI,在短短两年时间中,拼凑起了一张跨越虚拟与现实边界的媒介拼图。模拟物理世界的AI生成内容中介了我们与现实世界之间原本稳固的联系。从历史视角来看,我们从未如此需要把关社会功能的发挥。在生成式AI时代,把关不再仅仅是关于把关人、信息接收者与渠道的隐喻,而是人类与社会真实、信息系统与社会生态秩序的本质性关系问题。面对即将到来的AI信息潮,把关的“成功”与“失败”直接关系到公众是否还能够通过媒介来认识和理解现实世界,并依此展开行动。如何重构生成式AI时代把关的“真相出场机制”将成为未来研究中一个重要的理论与现实问题。

(载《传媒观察》2024年第4期,原文约11000字,标题为:“全民生成”冲击下,“真相出场机制”如何重构——生成式人工智能时代把关理论的关系实践与结构性变革。此为节选,注释从略,学术引用请参考原文。“传媒观察杂志”公号全文链接https://mp.weixin.qq.com/s/HR1nKt5K3dxMCLxCnGS2nA。)

【作者简介】 张梦晗,苏州大学传媒学院副教授

陈泽,苏州大学传媒学院博士研究生

标签:
责编:王迅 易保山