竞博JBO官网(中国)官网APP下载

《传媒观察》|新闻传播领域“AI向善”何JBO官网以达成?
发布时间:2023-08-09 01:01:19

  以ChatGPT为代表的新一代人工智能技术嵌入社会多个领域的趋势已经明朗,在新闻传播领域的轻型应用已经快速开始。暨南大学新闻与传播学院博士研究生张姣与暨南大学新闻与传播学院教授曹轲在《传媒观察》2023年第7期刊文,对ChatGPT等AI技术应用趋势进行前瞻性分析后发现,技术的深度嵌入可能会产生以下五个问题:文本随机与深度伪造对新闻真实性构成挑战;私域流量与数据捆绑加剧被遗忘难题;用户生产造成信息淹没与新闻价值流动;社会超速与个人封闭召唤新闻预警功能;标准知识与认知偏差需要社会情境供给。

  在ChatGPT应用趋势下,虽然新闻从业人员可以鉴于以往人机互动的诸多经验保持足够积极的心态,但是也需要认识到技术带来的新的深层变化,以更好地发挥新闻在社会中的作用。基于此,本文从新闻真实性、数字遗忘权、信息生产、技术依赖与社会治理五个方面着手,分析随着ChatGPT等技术应用程度加深,新闻领域内部及所处的社会生态可能会发生的变化。

  ChatGPT生成的虚假信息和随机文本将直接影响新闻真实性。作为一个语言模型,ChatGPT的生产逻辑是根据用户指令将相关度高的内容进行组合,但其自身并不能判断所生成内容本身的合理性,也不提供相关信息的出处和具体的组合逻辑,这就导致ChatGPT生成内容的真实性有待商榷,若没有建立起完善的核查机制,这些内容将直接影响新闻真实性。此外,ChatGPT在指令解读方面还不能完全理解人类语言的细微差别,而中国恰恰是一个高语境国家,遣词造句中的情感往往是技术难以捕捉的,因此ChatGPT生成的文本具有一定的随机性,并不总是能提供精准匹配用户需求的信息。就新闻领域而言,这意味着ChatGPT根据传受双方指令生产出的新闻产品将存在极大的不确定性,可能错误解读新闻素材,也可能错误判断报道意图。虚假信息尚且可以依靠信息核查机制和纠偏程序解决,而随机文本问题则难以通过简单的核查机制解决,若将人工智能生成的随机文本作为标准的新闻事件进行发布和接受,将直接冲击新闻的真实性。

  深度伪造的内容将在更大程度上消解新闻的真实性。ChatGPT是基于人类反馈来进行训练的,其在新闻领域的应用则更需要用户的反馈,以协助ChatGPT熟悉人类偏好和语言习惯,促使其依托自身的学习优化能力来把握新闻的生产逻辑以及人际交流的基本框架。随着ChatGPT的开放程度提高,准入门槛降低,相应的风险系数将会提升。若在某一时间段内,ChatGPT密集地接收到包含某种特定意图的信息,极有可能在海量的数据面前丧失辨别能力,将这些刻意输送的内容当作人类的真实反馈纳入数据库中,甚至依照这些数据进行自我修正。随后这些数据将不断参与到ChatGPT的生产中,以滚动的态势提供给用户,在更大程度上消解新闻的真实性。

  虚假信息和随机文本以直接的方式冲击新闻真实性,深度伪造的内容则以更隐晦、更深层的方式消解新闻真实性,新闻领域的工作人员和用户将共同迎接人工智能带来的新机遇,也将共同面对人工智能对新闻真实性的消解。技术赋能之下的新闻更加真假难辨,用户在面对技术的衍生问题时需要明确自身作为新闻生产链条消费端的主置,将自身置于整个传播流程和传播体系之中,与新闻领域的工作人员共同守护新闻真实性。

  大数据时代JBO官网,虽然已经有海量信息成为公共资源,但是依然有大量的信息资源存储于私域之中。以ChatGPT为代表的新一代人工智能技术通过与用户持续性对话,能够穿透社会网络壁垒,不断攫取私域资源,“实现公私域资源的连接整合和协同利用”。当私域信息池与公共信息池接通后,人们的遗忘将变得更加困难,不仅难以选择自己的遗忘,更难的是无法被他人遗忘。这一问题折射到新闻领域,则是尊重被遗忘权与发挥社会公共价值之间的两难选择。

  ChatGPT的深度应用将打破隐私信息与新闻公共价值之间的平衡。在互联网时代之前,人类可以通过自然的遗忘规律或者销毁某种记忆媒介来遗忘某些内容。互联网的普及初期,虽然用户的浏览记录、行为偏好均以数字档案的形式弥散在互联网的各个角落,但依然可以通过注销账号等方式使自己消失在互联网所呈现的内容中。随着技术的发展,遗忘的难度倍增,尤其是大数据时代,“每个人都已经成为他们在线档案的总和”。

  ChatGPT深度应用后,遗忘将成为一个更复杂的议题,用户个人的信息将在其与人工智能互动的过程中导向公共的信息库,用户的隐私信息和公开信息之间的界限将更加模糊,用户可以销毁私域中的记忆媒介,但其信息无法从ChatGPT的数据库中消失,甚至用户要求信息删除的指令都将成为人工智能生产的素材,进入人工智能的下一轮生产环节,并在未来的某一时刻呈现出来。这一问题在新闻领域的表征,是用户的私域信息一旦进入数据库成为新的生产素材,如果该信息具有一定的社会公共价值,就极易通过新闻线索的筛选流程进入生产环节。而ChatGPT无法从道德、人性以及社会风俗等诸多层面对信息进行评判和取舍,也无法对相关隐私进行保护,以致对相关用户的隐私权造成伤害,进而打破隐私信息与新闻公共价值之间的平衡。

  在不断迭代的技术裹挟下,不仅用户个人的遗忘变得困难,用户被他人遗忘也将变得困难。在新闻生产的过程中,ChatGPT以持续对话的形式逐渐向用户感兴趣的议题聚焦,不断对用户关注的问题进行针对性生产。持续性的对话过程和ChatGPT自身的储存能力使得信息能够源源不断地流入数据库,但是用户输入的信息是十分驳杂的,不仅真假难辨,而且可能涉及某一事件的多方主体,这使得各类未经当事人许可的内容进入信息库。这也意味着ChatGPT等技术大规模应用后,被遗忘困难在新闻领域的表征,将是所有不便于公开详尽信息的报道,所有基于隐私保护被屏蔽的信息,都将在事件主体之外的用户与ChatGPT互动中得到补充,并再次显现出来,事件主体想要遗忘的内容将不断受到他者的提醒。新闻行业对于这些数据的应用极有可能在无意识的情况下侵犯民众的隐私权,引发不必要的争论与争议。

  记忆作为稀缺资源的时候,人类不断探索增强记忆的方式,不断创造记忆的媒介。但是,当技术发展到一定程度,遗忘成为一种稀缺资源的时候,“完全记忆”已经成为一种负担,人类又以同样的激情渴望遗忘。ChatGPT等技术的应用使得人被记忆困在过去,这同样将成为新闻行业的梦魇,新闻从业人员和用户需要形成密切的动态合作关系,协同维护民众隐私权与新闻社会公共价值之间的平衡。

  随着5G、大数据、算法等技术的发展,大众的日常生活逐渐融合于网络之中,线上购物、线上办公、线上娱乐已经成为大众工作与生活的常态,大规模的线上活动使得大众成为平台的免费劳动者。同理,用户在与ChatGPT的交流中也无偿地丰富了ChatGPT的数据库、承担着ChatGPT的训练工作,用户与人工智能的大规模互动不仅会促成无休止的数据生产,造成信息淹没,用户逻辑的注入也将影响ChatGPT在新闻生产过程中对于新闻价值的评判,造成新闻价值标准在用户逻辑和专业逻辑之间流动。

  无休止的数据生产将成为新闻领域的负担。人机交互会不断产生数据,随着用户发出指令,ChatGPT就会将指令与结果一起收入数据库,作为资料投入下一轮人机互动,周而复始、循环往复,数据库存储量也随着人机互动的加深而不断扩大,为无尽的数据存储提供可能。只有在海量数据的基础上,开发者才能不断对人工智能技术进行调整,使其无限向人类思维靠拢。技术企业对海量数据的渴求意味着数据收集、生产的过程可能会造成法律或伦理的问题,人工智能对用户个人数据的搜集、存储可能是在用户未被明确告知或者未察觉的情况下进行的。此外,即使用户个体已经停止与ChatGPT交流,与之相关的数据依然在进行生产。对于新闻领域而言,海量数据并非喜从天降。

  首先,数量不等同于质量,海量数据并不等同于海量高质量数据,数据中的真假问题、隐私问题将增加新闻从业者信息核查的工作量;其次,ChatGPT无所不记的特性对于算力和存储能力有着极高的要求,以ChatGPT为代表的新JBO官网一代人工智能技术大规模使用后,新闻领域的竞争将涵盖数据库容量的比拼,这对各媒体数据库的存储量提出较高要求,各媒体单位需要耗费庞大的资金不断对数据库进行扩容,对算力加以精进,这一支出将进一步拉开不同媒体之间的差距,影响传播格局。

  ChatGPT等技术的应用不仅赋能新闻生产者,也将扩大用户参与新闻生产活动的范围,促使传播权力向用户端下沉,传播权力过度下沉可能造成新闻价值标准在用户逻辑和专业逻辑之间不断流动。在新闻生产过程中,用户不断向人工智能输出自己的需求和喜好,不断用自身作为人的情感和逻辑“喂养”程序,丰富人工智能的信息库和语料库,在一定程度上能够协助新闻从业者训练人工智能,促使人工智能在允许的范围内不断自我修正,不断向类人化靠近。用户在与ChatGPT对话的过程中,不断将自身的逻辑与价值判断标准植入ChatGPT的数据库中,这确实能够在一定程度上使得新闻更能满足民众的需求。但是传播权力无止境的下沉将使得人工智能的新闻生产逻辑不断向用户端偏移,打破用户喜好和新闻专业的平衡,使得新闻价值的评判标准不断在用户喜好和新闻专业性之间流动,即使新闻从业人员定期对数据库进行调整,也无法杜绝新闻价值的流动,新闻的社会公共属性势必受到影响。

  就目的而言,技术企业对数据有着无限的渴求,而调动用户参与的积极性是收集数据的重要途径,在这一过程中技术企业将通过多种方式使得用户沉迷于人机互动中。人机互动中无休止的数据生产将加重新闻从业人员筛选新闻线索的负担,增加新闻媒体的运营成本,拉大媒体之间的差距,更重要的是新闻价值标准在用户逻辑和专业逻辑之间的不停流动将影响新闻的社会公共价值。信息生产和价值流动应该在何时按下中止键,需要政府机关、新闻领域、民众与技术企业共同协商决定,以维护新闻的公共属性。

  “数字媒介带来的传播革命正根本性地重构着各种社会关系、改造着社会基本形态”,以ChatGPT为代表的新一轮人工智能的面世与应用正在印证这一改变。ChatGPT面世后引发的“取代论”足以证明人工智能技术在整个生产力系统中的重要作用。作为一种生产式的人工智能,ChatGPT目前能够替代专业人员完成一些耗时久的、重复的、基础的文书工作,微软宣布推出GPT-4 Office全家桶也佐证了这一点。ChatGPT的深度应用以及进一步开发将对诸多职业造成冲击。ChatGPT经过专业调试训练后,能够高质量完成文书撰写、股市预测、财务报表等工作,届时不仅将改变生产力系统,也会改变生产关系体系和社会上层建筑,进而改变整个社会结构,推动社会加速发展。深度媒介化范式之下,媒介技术的逻辑已经深入社会的每个领域,为各个领域的发展提供强大助力,且技术的JBO官网运作是无休止的,将不断加速社会发展,使社会发展进入超速的状态。若社会存在进入超速发展的趋势,新闻领域作为社会的瞭望哨,需要敏锐地探察到社会变动,及时发挥预警作用,协助社会以正常的速度按照既有的方向发展。

  虽然信息茧房是一个老生常谈的问题,但ChatGPT建构的信息茧房更加隐蔽,危害性也更大。尽管目前的技术尚不能完全满足用户的创作需求,产出结果与用户需求存在偏差,但是用户已经可以相对容易地以自己需要的呈现方式获取自己感兴趣的信息。由此可见,经过不断调试之后,ChatGPT有望真正实现定制化生产,这也意味着技术与人的关系发生变化,用户不再需要去适应技术的运行机制,这种完全投其所好的交互方式,会使用户在不知不觉中沉溺在AI制造的世界里,逐渐失去独立思考的能力,越来越以自我为中心。

  此外,相较于前几代的人工智能技术,ChatGPT更类人化,这导致本来基于平台的传受关系无限趋近人与人之间的交流。在过往的交往机制中,人机之间、用户与从业者之间由于时空间隔、技术限制,传受双方只能在非常浅表的层面互动,ChatGPT的应用使得交往机制不断向仿真化的人际交往靠近,这种互动机制极有可能导致用户陷入个人封闭的状态,沉浸于人工智能营造的虚拟社交之中,满足于人工智能对其个性化需求的迎合,形成更难以打破的信息茧房。个人封闭的可能性将影响新闻公共属性的发挥,新闻行业作为社会公器,需要及时发现用户个人封闭的发展趋势,避免一味地迎合用户。

  深度媒介化的趋势下,技术的发展与进步已成定局,无论是社会的发展态势问题还是用户的个人发展前景问题,核心都是以人为本的问题。对“个人”需求的关注,对“个人”主体性的开发与引导,将成为新闻领域发挥社会价值的重点所在。新闻领域作为社会发展的前哨,作为维护社会稳定的公器,需要及时发现社会与个人的发展问题,并及时发出预警,确保社会与民众均在以人为本的轨道上发展。

  人工智能技术能够在一定程度上辅助提取社会问题中的共性要素,以一定的标准生产出治理知识,协助决策者理解社会问题,但治理政策的落地需要基层工作人员的行动,也需要全体社会成员的配合。社会治理共同体不是均质的,因此,社会治理知识的标准生产并不能保证标准执行,文化传统、道德观念、民众心理等多种因素交织在社会治理问题之中,这些复杂因素正是基层社会治理的困难所在。从决策的角度来看,社会治理问题看似相同,实则各有侧重,依靠技术生产出的治理知识未必能够直指每一个问题的核心,这些知识只能够提供基础的解决思路,具体的治理政策还需要基层干部结合实际情况进行调整。从落实的角度来看,人本身是存在认知偏差的,这些偏差会对治理政策的落实造成影响,ChatGPT等技术在日常生活中的应用会加大认知偏差。技术的深度包围和深度迎合之下,个体极易陷入技术营造的幻象之中,这些幻象一方面会将本来细小的矛盾放大,另一方面会加剧认知偏差,甚至导致群体行动,这两方面的影响不论是作用于基层干部,还是作用于群众,都将加大社会治理问题的难度。

  以ChatGPT为代表的新一代人工智能技术对人的负面影响也将体现在社会治理问题之中,技术迎合之下人的情绪将更加极化,每个人都更以自我为中心,当人的社会属性被消磨,失去了为他人着想的能力,社会治理问题的解决将更加困难。社会治理不仅需要技术的力量,更需要人的温度,需要在彰显理性的同时滋润人的情感。因此,数字化社会治理中更需要新闻领域承担起社会责任,真实有效地反映社会问题,反映社会民生,尽可能多样地呈现政策应用可能面临的社会情境,为治理政策的制定和执行提供温度,弥补人工智能对于人类情感缺乏认知而造成的不足。

  (载《传媒观察》2023年第7期,原文约10000字,标题为:“AI 向善”何以达成: 深度学习与轻型应用——AI 应用趋势下的新闻传播学思考,此为节选,注释从略,学术引用请参考原文。“传媒观察杂志”公号全文链接:)

TOP