国际刊号:ISSN 1672-8122 

国内刊号:CN 61-1430/G

首页 >> 学术前沿 >>学术前沿 >> 光琪凝|聊天机器人助推媒体智能化发展之思考——以ChatGPT为例
详细内容

光琪凝|聊天机器人助推媒体智能化发展之思考——以ChatGPT为例

聊天机器人助推媒体智能化发展之思考——以ChatGPT为例


光琪凝
摘 要:以ChatGPT为代表的人工智能聊天机器人的出现及其背后的大模型,作为新一代生产力工具,将助推媒体智能化发展,加速“人机协同”进程,对新闻生产方式、新闻报道理念、信息传播环境等环节带来深远影响,但是,也需要警惕它带来的数据信息准确性有偏差、版权问题不清、容易产生偏见和歧视等挑战。基于此,本文提出在媒体智能化时代人机协同的大趋势下,要在技术的使用和人类记者在新闻报道中的重要作用之间找到平衡。
关键词:聊天机器人;ChatGPT;媒体智能化;人机协同



一、引 

2022年11月,ChatGPT(Chat Generative Pre-trained Transformer),即聊天生成型预训练变换模型横空出世,它是由微软公司投资的人工智能公司OpenAI开发推出的人工智能聊天机器人,使用了GPT-3.5架构的大型语言模型,并进行了强化学习训练。与以往的聊天机器人相比,ChatGPT除了可以用人类自然对话方式进行互动之外,还可以胜任复杂的知识型工作,比如,可以根据输入的问题在许多知识领域自动生成富有逻辑的答案,“创作”出类似于真人记者写的文章。2023年3月16日,百度发布了其中国版ChatGPT——“文心一言”。作为多模态模型,“文心一言”也能够生成文本、图片、音频和视频,尤其是对我国语言文化的理解比ChatGPT表现得更好,甚至能够生成四川话等方言语音。由此,引发了这种人工智能聊天机器人会如何影响新闻业的争议和讨论。

毫无疑问,ChatGPT标志着生成式通用人工智能时代的加速到来,这种人工智能聊天机器人对社会发展的影响较为深远,对现在很多职业的发展前景也产生了一定的冲击。正如雨果·里夫金德(Hugo Rifkind)在《泰晤士报》中所说的那样:它们代表着“一颗慢动作炸弹在我无法列出的更多职业下爆炸”。在此背景下,以信息文字为主的新闻业首当其冲。在媒体智能化时代,全球众多的新闻工作者对这种人工智能机器人也是跃跃欲试,但是,他们在充分享受“人机协同”便利的同时,也逐渐发现ChatGPT存在许多问题,比如,数据信息准确性有偏差、数据来源不明确容易导致侵犯版权、存在偏见和歧视等。虽然大众对ChatGPT的评价不统一,但作为新闻工作者应该对此进行深刻思考:这种人工智能机器人以及相似模型和服务的出现,在助推媒体智能化发展的同时,会给新闻业带来怎样的冲击变化?新闻工作者应该如何抓住“人机协同”的机遇并化解挑战,从而获得竞争优势?本文将对上述问题展开论述。

2019年1月,中共中央政治局在人民日报社就全媒体时代和媒体融合发展举行第十二次集体学习时,习近平总书记强调:“从全球范围看,媒体智能化进入快速发展阶段。我们要增强紧迫感和使命感,推动关键核心技术自主创新不断实现突破,探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,用主流价值导向驾驭‘算法’,全面提高舆论引导能力。”

二、ChatGPT引领智媒时代发展

(一)ChatGPT是智媒时代的又一技术基石

ChatGPT的真正核心是GPT,其英文全称是Generative Pre-trained Transformer,中文翻译是生成式预训练的转换模型。Transformer是用于人工智能一大研究方向——自然语言处理(NLP)的神经网络架构,是基于自注意力机制的深度学习模型架构。GPT可以看作是Transformer模型在生成任务上的一个应用扩展。

ChatGPT之所以率先成为了全球现象级网红,主要是因为它背后的生成式大模型展示出了通用型 AI能力。相比一般模型,大模型使用的数据来源广泛、数量大,输出能力具有通用属性,尤其在语义理解、逻辑推理、文本表达等方面表现优秀。最新版本GPT-4与上一代GPT-3.5相比,再次展现了人工智能的发展速度。根据36氪报道,GPT-4通过了模拟律师考试,并且分数排在前10%左右,相比之下,GPT-3.5的得分在倒数10%左右;GPT-4具备大幅增加输入中可使用的单词数量的能力,可容纳单词数量高达25000个,可以生成的文本长度扩大了8倍。从某种程度上说,GPT-4具备取代一般重复性工作的能力。基于对通用能力的掌握,大模型学会了“如何学习”,可以做到“举一反三”,因此,在众多垂直领域展现出广阔的应用潜力。

毫无疑问,ChatGPT是媒体智能化时代发展的又一技术基石。对新闻工作者来说,它是一个日益完美的助手,尤其是升级版GPT-4更擅长语言艺术,也更具表达创造力。根据格隆汇报道,OpenAI、OpenResearch和宾夕法尼亚大学最新的一项研究显示,在GPT和GPT驱动的软件助力下,新闻工作者所有工作的完成时间能够大幅下降至少50%。

(二)ChatGPT加速人机协同进程

彭兰教授指出,未来人与机器的边界将打破,“人机协同”将成为新的新闻生产方式,而ChatGPT能使这一天加速到来。随着新闻工作者广泛应用人工智能技术,机器人和新闻工作者对各自的任务分工都会有清晰的划分,比如,机器人主要从事简单重复性劳动,新闻工作者则承担需要深度思考或涉及价值伦理决策的工作。

人机协同主要有两种表现形式:一是新闻工作者根据发稿需求设计程序,让机器人完成各种单调繁杂的数据性新闻报道或存在一定危险因素的新闻报道,如灾难性报道等;二是机器人协助新闻工作者实现高质量的深度报道,比如,新闻工作者利用人工智能技术快速收集各类信息、了解新闻事件的前因后果、深度挖掘事件的内涵、分析事件的影响,为受众提供更具亲和力、能够引发共鸣的报道。

毫无疑问,第一种表现形式,新闻业早已有大量成功尝试的先例。从美联社、华盛顿邮报、路透社、Facebook到我国的腾讯Dream writter、新华社“快笔小新”,机器人写作早已屡见不鲜。以ChatGPT为代表的人工智能聊天机器人属于第二种表现方式,它在做好新闻工作者的工作助手、成就高质量深度报道方面的能力大幅提升。这种人工智能聊天机器人可以在新闻生产的多个环节发挥重要作用,比如:1.信息采集。ChatGPT拥有海量数据,可以作为新闻工作者的延伸,增强新闻工作者的信息采集能力,从选题策划、搜集资料到提供实时多语言翻译,帮助新闻工作者罗列采访提纲。2.智能加工。ChatGPT属于多模态模型,GPT-4的多模态模型不仅可以提取文字中的标签,还可以提取图片中的标签,以统一的数据进行处理并生成文本。而中国版的ChatGPT——“文心一言”除了能生成文本外,还能根据用户需求智能化生成图片或音频、视频。这是典型的智能加工,从以生成文本形式进行智能化写作拓展到智能编辑音视频,显著提升了智能化生产力。3.智能整合。ChatGPT的背后是大模型、大计算、大数据,所以这种人工智能聊天机器人的显著功能就是可以总结长文本并快速形成摘要、提炼最重要的观点和信息、分析大量数据并提供见解,将新闻工作者从大量碎片化的信息中解放出来,形成富有逻辑、思维缜密的新闻报道。4.智能核查。移动互联网时代,假新闻容易在短时间内快速传播,而ChatGPT具有试图过滤掉有害内容的内置安全功能,能够从源头把关新闻信息,帮助新闻工作者进行信息审核。

(三)ChatGPT在新闻业的引入和应用

正是看到以ChatGPT为代表的人工智能聊天机器人在新闻业广泛应用的潜力,2023年2月初,在线媒体组织BuzzFeed宣布,打算使用OpenAI的文本合成技术,该技术仿照人工智能聊天机器人进行热门测验和内容生产。BuzzFeed首席执行官乔纳·佩雷蒂(Jonah Peretti)表示,“到2023年,受人工智能启发的内容从研发阶段转变为我们核心业务的一部分,能够增强测验体验,为我们的头脑风暴提供信息,并为我们的受众提供个性化内容。”与此同时,其他西方媒体(如《纽约时报》《时代》《卫报》等)也纷纷表示会择机应用ChatGPT为新闻内容生产服务。

我国媒体也认识到这一点。齐鲁晚报·齐鲁壹点的技术团队已经把ChatGPT算法模型引入到现有采编业务中了。比如,在齐鲁壹点智能创作平台,记者写稿时就可以使用人工智能聊天机器人一键生成相关内容,辅助自己写作;在齐鲁壹点用户运营的各个微信群里,齐鲁壹点技术团队为AI小壹机器人接入了人工智能聊天机器人的互动能力,不仅提高了私域用户群的活跃度和服务性,也大大节省了日常的人工运营成本。此外,目前已有包括《财经》新媒体、澎湃新闻、重庆日报报业集团旗下上游新闻、河南广播电视台大象新闻、每日经济新闻等30多家媒体平台,宣布接入中国版ChatGPT——“文心一言”,成为了生态合作伙伴。

三、智媒化时代“人”的因素更重要

(一)ChatGPT不能完全替代人类新闻工作者

由于人工智能聊天机器人发展速度非常快,又这么“能干”,所以一些新闻工作者不免产生忧虑:会不会被人工智能聊天机器人抢饭碗?目前来看,答案是否定的。虽然这种人工智能聊天机器人可以在较短的时间内写出漂亮的命题作文,但是,它仍然无法完全替代人类新闻工作者。

在简单的消息写作和数据分析报道领域,这种人工智能聊天机器人可能很有用武之地,能够替代部分人类记者,但总体而言,新闻业还是跟人密切相关的行业。新闻工作者擅长对报道逻辑和深度进行宏观把控,能够弥补人工智能聊天机器人不能理解新闻事件背后信息和因果关系的缺陷。这种人工智能聊天机器人再“智能”也无法代替人直接参加新闻采访,无法感知采访对象是否说了实话,或与采访对象直接联系;虽然它生成文字稿件的速度快,但是欠缺“温度”,难以触碰受众的心扉,缺乏打动人心的力量,会削弱新闻传播的深度和广度,也无法把握新闻传播伦理的界限。

此外,新闻业是问责制的行业,一旦发布的新闻报道出了问题或者犯了错,新闻工作者可以承担责任,而人工智能聊天机器人无法做到。因此,目前它还只能是新闻工作者节省时间和精力的助手,不能完全替代新闻工作者。

(二)新闻工作者要担任好“把关人”角色

智媒化时代,ChatGPT肯定能让新闻工作者“省心省力”,但新闻的准确性是新闻的重要原则,由于ChatGPT背后的模型是庞大的数据集训练而成,所以这种人工智能聊天机器人的主要隐忧在于有时候它会提供虚假信息。因此,新闻工作者要担任好“把关人”角色,只有把关到位,才能从根本上杜绝虚假新闻,达到理想的传播效果,营造出正向积极的新闻舆论环境。

国外某新闻机构曾短暂聘用ChatGPT为记者,但很快就解雇了它。原因是ChatGPT在报道阿根廷布宜诺斯艾利斯一名老年妇女被残忍抢劫的事件时错误百出,甚至报道中包括受害者名字、作案地点等在内的关键信息都与事实严重不符。随着不断地升级和数据叠加,ChatGPT可以让错误信息实现逻辑自洽,只需要在99%的真实信息中混入1%的其他信息就可以得出完全不同的结论,从而达到引导舆论的目的。对于新闻工作者来说,这是“人机协同”时必须提防和注意的。

(二)新闻工作者要做新闻伦理问题的捍卫者

以ChatGPT为代表的人工智能聊天机器人,生成文章的素材是互联网上的海量信息和数据,这可能源自他人作品。当《新闻公报》(Press Gazette)记者询问ChatGPT它的新闻来源时,它是这样回答的:作为AI语言模型,我没有首选的新闻来源或阅读的出版商,相反,我的训练数据拥有广泛的来源,包括书籍、文章、网站和互联网上公开的其他基于文本的材料;为我的训练数据作出贡献的一些新闻出版商和网站,包括CNN、BBC、路透社、《纽约时报》《华盛顿邮报》《卫报》《泰晤士报》《太阳报》《新闻公报》、半岛电视台等。但OpenAI公司并未向这些提供信息的全球知名媒体付费,而且它生成的文本信息一般也不会说明引用来源,提供这些信息的作者也没有因此获得认可和报酬,这就牵涉到版权剽窃的新闻伦理问题。

算法生成新闻内容,特别是引用未说明来源的内容,作为主要的传播方式是反乌托邦的,这种影响将对新闻业的基本业务造成很大损害。因此,新闻工作者要确保使用这种人工智能聊天机器人符合新闻伦理标准,做维护新闻来源版权的捍卫者,维护新闻业以积极健康的方式发展。

四、结 语

新闻业是一种协作工艺,将消息来源、记者、编辑、作品和受众联系起来,形成知识生产的无限循环。现在看来,ChatGPT可以加入这个循环,快速地帮助新闻工作者制作更具可读性和传播范围更广的新闻,制作成本也更低。对此,我们应该清醒地认识到ChatGPT在提高新闻工作效率和更好地为受众服务方面的发展潜力,不应该禁止它,而是应该欢迎它的到来。

相信随着时间的推移,ChatGPT在互联网搜索和获取准确有效信息方面会日益完善,也将逐步解决版权问题。随着它的写作水平越来越高,我们将看到一个新世界。对此,新闻工作者应做好充分准备,拓展自身知识面,强化逻辑思维,向ChatGPT提出好问题;培养自身批判性思维和审慎的思考能力,练就“火眼金睛”甄别ChatGPT生成信息的准确性;努力消除潜在的版权问题,并确保以合乎道德与公平的方式使用ChatGPT,负责任地实现“人机协同”。



24小时服务热线:029-81298560 029-81298610
更多

陕西今传媒杂志社有限责任公司

微信公众号

扫码订阅  今传媒

http://www.masscm.com

COPYRIGTT  2014-2025,ALL RIGHTS RESERVED

技术支持: 善源网络.善建站 | 管理登录
seo seo