摘要:人工智能的发展及其在新闻生产领域的应用正在不断深入,并在整体上提升了新闻生产效能。但是数据驱动的人工智能介入新闻生产,因为数据偏差和算法偏见,可能给新闻生产带来新的伦理风险,由此产生新闻失实的隐忧、客观中立的偏颇、人文关怀的缺失以及对社会公平的威胁。这是以数据为中心的伦理风险,利用人工智能学习人工智能、构建人机协同生产模式、加强行业自律建立AIGC伦理规范、发展数据管理和算法监测技术,就是从数据出发探寻规避风险的可能路径。
当前,随着媒体融合发展的深入推进,人工智能(Artificial intelligence,AI)赋能新闻传媒发展,让麦克卢汉(Marshall McLuhan)60年前“媒介即人的延伸”的预见,呈现出更丰富而生动的现实图景。人工智能介入新闻生产正在为新闻业发展注入新动能,也给传统的新闻伦理带来冲击与挑战。如何应对人工智能给新闻生产带来的冲击与挑战,是新闻业当下亟须面对的问题。
“1956年的达特茅斯会议上,约翰·麦卡锡(John McCarthy)正式提出‘人工智能’(Artificial intelligence)的名字”,[1]人工智能走过了70年蜿蜒向前的探索之路。第一代人工智能,主要依赖预设的规则和人类知识进行推理、决策,典型示例是阿尔法狗(AlphaGo)的国际象棋人机大战,这是规则完全确定的信息博弈行为,可以做出准确判断,但对于模糊信息、繁杂语义和不确定情境的处理能力有限,因此对新闻生产的介入有限。持续发展中的第二代人工智能,运用人工神经网络和人类脑神经工作原理,摸拟人类的学习和决策过程,具有深度学习和更泛化的适应能力,能够对信息进行分类、预测和生成,其显著成果是实现图像识别和自然语言处理,因此能够进行新闻素材的深度分析、新闻稿件的自动撰写与编辑,从而真切地介入新闻生产。当前正在探索的第三代人工智能,在知识和数据的双驱动之下,朝着具有独立思考、推理和决策能力的方向发展,将可能深度介入新闻生产各环节,融合创新新闻呈现样态,推动新闻业的全新变革与发展。
自美国Open AI公司2022年底发布一款人工智能聊天机器人——ChatGPT以后,人工智能生成内容(Artificial intelligence generated content,AIGC)引起了全球范围内的广泛关注,美国《Science》将AIGC列为“2022年度科学十大突破”之一。除了Open AI的ChatGPT,Google、Facebook(Mete)等国外科技公司都研发推出了各自的人工智能语言大模型,国内的科大讯飞、百度、阿里、腾讯、字节跳动等科技公司也相继推出了星火、文心一言、通义千问、混元、豆包等人工智能语言大模型。今年初,Open AI推出的Sora、快手AI推动的“可灵”等视频生成模型,人工智能生成内容已经可以广泛地应用于新闻生产各环节和更复杂的工序之中。
国内外众多知名的媒体机构已经将人工智能积极地应用于新闻内容生产。在国内,人民日报社2023年10月发布“人民日报创作大脑AI+”,利用人工智能技术搭建起了集智能化、场景化、自动化于一体的全新工作模式,并在2024年全国两会上得到高效运用;新华社2023年7月发布了大型语言模型MediaGPT,并在成都大运会报道中,利用此模型生成具有表现力的新闻产品《AIGC:珍稀“宝贝”为成都大运会加油助威》;中央广播电视总台也于2023年7月发布了“央视听媒体大模型”(CMG Media GPT),专注于视听媒体的内容生产。在国外,早在2015年就开始使用AI生成有关上市公司的财经分析新闻,2023年7月与Open AI签署合作协议,接入其人工智能大模型进行新闻生产;《》开发了数据分析机器人“Blossomblot”,分析社交平台上的信息来辅助生产“爆款”内容,2023年情人节前夕,使用ChatGPT创建情人节消息生成器生成互动新闻《A Valentine,From AI.TO You》;路透社、英国广播公司、《》也已使用ChatGPT等生成式AI进行内容生产。
尽管人工智能在新闻生产领域的应用尚未普及,但是人工智能生成内容的强大功能和既有的新闻生产实践已经表明,其作用和影响不可小觑。对于新闻生产而言,人工智能将使新闻素材的获取、采集、筛选更加高效和精准,新闻写作、编校审核、内容呈现形式、版面页面布局更加快捷和优化,从而在整体上提升新闻生产的效能。但是,机遇与挑战并存,迎接人工智能带来的技术福利,也不可忽视人工智能带来伦理风险。
新闻伦理是指在新闻生产传播实践中应遵循的道德规范和行为准则,它划定了新闻从业者的职业操守和价值底线。尽管对于新闻伦理的理解是一个动态的认识过程,但其核心准则是相对恒定的,真实准确、客观中立、尊重人格尊严等专业规范,就是长期以来的新闻实践形成的核心准则。人工智能介入新闻生产,势必对新闻生产流程各环节造成影响,冲击既有的从业规范,给新闻生产带来相应的伦理风险。
(一)新闻失实的隐忧。真实性是最基本的新闻伦理准则。新闻真实是基于客观事实的真实准确,而人工智能生成内容是基于数据和算法生产新闻,真实准确的数据是事实,但数据与事实并能简单地划等号,因为数据可能包含错误、虚假的信息。基于数据及其算法而来的人工智能生成内容,可能暗藏着相应的新闻失实的隐忧。
数据偏差可能造成新闻失实。ChatGPT是基于Common Crawl的大型文本数据集生成的,对网络信息进行直接爬虫收集组合而成的数据集,其数据并未经过严格的审查与筛选,本身可能包含错误甚至虚假的信息。基于错误、虚假数据生成的文本内容,形成错误、虚假的事实,造成新闻失实。而且,数据集本身就是一个复杂的集合体,含有大量的虚构作品、用户生成内容(UGC)等文本,事实与观点、事实与想象共存一体,人工智能因其自在的结构性缺陷无法区分。将观点与想象的数据误认为事实的数据,就会生成与事实不符的文本内容,造成新闻失实。
算法局限性可能导致新闻失实。算法难以完全理解复杂的语义和文化背景,特别是千差万别的地方语境和人文特色,当新闻事件中包含人文地理和文化隐喻的内容时,算法可能误解这样的内容,做出错误的判断和表述,从而导致新闻失实。OpenAI对用户作出提示:ChatGPT“可能偶尔会生成不正确的信息”和“产生有害指令”,其实就是对算法局限性可能造成失实的警示。
(二)客观中立的偏颇。客观中立的新闻伦理原则,要求在新闻生产传播实践中做到不偏不倚。人工智能生成内容的核心逻辑是向数据学习,数据偏见和算法偏见之下,人工智能生产内容是否能够坚守新闻客观中立性原则,已不受新闻从业者掌控,难免有失偏颇。
数据偏见是人工智能自在的缺陷。相对于包罗万象的人类信息世界而言,再庞大的数据库也是有限的,也无法克服多样性的局限和代表性、公正性方面的缺陷。因此,“从数据出发寻求解决方案的AIGC,在接受大量网络文本作为‘全人类’的‘代表’时,冒有系统性偏向的风险。”[2]当数据集偏向某个特定的人群而无法准确代表人口多样性时,就可能产生人口偏见。用于ChatGPT训练的数据集含有推特平台上大量用户生成内容(UGC),而推特用户中白人占比达60%,男性占比66%,大模型在学习这样的数据之后生成的新闻内容,自然会偏向于白人男性,对其他族裔和女性的偏见应然而生。
算法偏见就是人工智能的规则偏见。算法是研发者赋予的数据处理规则,规则偏见是算法设计不完善不合理而产生的系统性偏见。人工智能看似是没有主观意见的机器,但是算法必然受到研发者本身价值倾向的影响。ChatGPT宣称是一款“没有主观意见的人工智能”,但其生成的文本出现黑人是罪犯、是等内容并非偶然,可能就是算法设计而导致的偏见。而且,算法就像一个黑箱,数据的使用方式、决策机制、计算参数的设计与调整等都是不透明的。算法黒箱隐藏着研发者的主观偏见,生成的新闻内容就不可避免带有主观偏见的描述或评价。
(三)人文关怀的缺失。人文关怀是新闻伦理的重要考量,强调在新闻报道中关注人的价值和尊严,避免对人的伤害和岐视。人工智能本质上是基于数据和程序运行的工具,没有像人类一样的情感体验和意识。因此,人文关怀的缺失,是人工智能介入新闻生产显在的伦理风险。
人工智能生成内容漠视情感。“机器学习算法在生成新闻内容时会根据数据集自动进行选择性分析和分类。这意味着其会忽略主观的判断和深入的调查。”[3]正是由于没有人类情感的判断力,人工智能自动生成的新闻无法把握和传达新闻事件中的情感因素。比如,对于灾难新闻的写作,人工智能在模板化的语料与框架之下快速地写出新闻。这样的新闻当然是生硬和冷漠的,不能对灾难事件提供情感支持。
人工智能生成内容更可能造成人格侵害。人工智能在新闻生产中需要大量的数据支持,这其中就包括私人生活、私人领域和私人行为的个人隐私信息数据,如果这些数据被不当使用于人工智能生成的内容之中,就会侵害当事人的隐私权;如果这些生成的内容涉及到对个人的不当描述、诽谤、污蔑等,就会侵害当事人的名誉权。侵害隐私权和名誉权,都是侵害当事人的人格尊严。而且,人工智能大模型往往会自动保存与用户的通话记录,ChatGPT的对话记录就被保存在OpenAI公司的存储系统中,这同样是对用户隐私安全的潜在威胁。
(四)对社会公平的威胁。社会公平是新闻伦理追求的最终目标,但是人工智能作为新技术推动新闻生产变革,可能导致行业资源集中和智能鸿沟的扩大,从而对社会公平构成新的威胁。这无疑是与新闻追求社会公平正义的伦理准则背道而驰的,因此可以视为人工智能介入新闻生产带来的伦理风险。
人工智能导致行业资源集中威胁社会公平。一方面,人工智能的研发技术资源主要被少数科技巨头掌握,国内主要是腾讯pg麻将胡了官网,、阿里巴巴、字节跳动等大型科技公司,全球范围内主要是OpenAI等龙头科技公司。他们垄断人工智能技术,而作为内容生产者的新闻机构需要购买技术服务,这样可能形成不利于买方的不公平交易。另一方面,大型媒体机构更有资源和能力采用先进的人工智能技术,可能会加剧媒体行业的资源集中,使得小型媒体难以获得同等的发展机会,影响行业的公平竞争。
人工智能产生智能鸿沟威胁社会公平。智能传播时代,数字鸿沟进一步发展为智能鸿沟。“智能鸿沟特指是个体或群体在智能技术的接触、使用及应用结果等方面形成的差异。”[4]人工智能介入新闻生产会加剧扩大数字鸿沟,进而形成智能鸿沟。受到文化程度、年龄、地域、经济水平等因素的影响,不同群体对人工智能的接触频率、认知水平和应用能力方面都存在差距。比如,使用ChatGPT获取新闻时,能否提出有效的提示词影响着所获取新闻的广度与深度。而且,智能鸿沟的扩大,本质上是知识不平等的加剧,必将影响处于劣势的群体参与社会讨论和公共决策的机会,导致社会参与的不公平。
“新闻行业构建一套共同认可的伦理价值观,其目的不仅在于保持行业内部的良性竞争和可持续发展,更关乎对整个社会伦理的引导。”[5]共识的新闻伦理价值观,不能因为人工智能的介入而失守。当下的人工智能生成内容,是基于数据驱动而实现的,由此带来的新闻伦理风险主要是以数据为中心衍生的风险。因此,规避人工智能给新闻生产带来的伦理风险,需要并从数据出发,去探寻可能路径。
(一)认知焕新:利用人工智能学习人工智能。“任何一次技术革命的背后,实际上是一种主体性质的观念革命”[6]。人工智能正在驱动新一轮技术革命,必将对全球经济社会发展和人类文明进步产生深远影响。传媒行业迎接人工智能技术革命,同样需要来一场观念革命:强化数据观念和智能技术观念,重视数据作为生产要素的作用,重视人工智能对产业变革的驱动力量,积极运用人工智能技术进行新闻生产与传播;同时要强化技术伦理意识,关注人工智能可能带来的社会伦理问题,关注人工智能介入新闻生产传播带来的伦理风险,积极寻求工具理性与价值理性的平衡。
对于新闻从业者来说,要理性认识人工智能技术的发展及其在新闻生产中的应用。在为人工智能的便捷高效而欢呼的同时,理性地面对人工智能带来的伦理困境,关注人工智能生产对新闻真实性、客观性、人格尊重和社会公平的挑战pg麻将胡了官网,,主动规避相应的道德风险。同时,要创新思维,主动学pg麻将胡了下载入口,习,跨界学习,利用人工智能学习人工智能,不断提升自己的数字传媒素养和人工智能技术运用能力,从而增强自已防范人工智能新闻生产伦理风险的本领。
(二)模式转变:构建人机协同新闻生产模式。人工智能介入新闻生产,新闻生产模式需要进行与之适配的改变。构建人机协同的新闻生产模式,是一项持久的任务,也是一条值得探索的有效路径。“智媒趋势下,尽管人在内容生产中将始终保持主导地位,传统的一些内容生产模式也会延续下去,但未来人机协同也将成为一种常态。”[7]
人工智能介入新闻生产,新闻生产各环节各工序中加入了人工智能作为新闻生产者的角色,意味着记者与人工智能共同作为新闻生产合作者。合作需要分工,也需要协同。记者的角色不再是单纯的内容生产者,而要转向为主题策划者、深度内容挖掘者,发挥其主观能动性,策划报道选题,确认报道主题,选择报道角度,挖掘内容深度。人工智能则发挥其数据收集和快速产出的能力,从而实现人机角色的优势互补。人机协同的新闻生产模式,在深度报道中的优势非常明显:记者可以发挥自身经验和专业知识,深入现场调查采访,再从中挖掘新闻价值;而人工智能生成内容可以帮助记者快速梳理相关政策文件等背景知识。这样的协同合作,新闻内容质量更优、效率更高。当然,在人机协同的新闻生产模式中需要强化人工核查,而人的主体性意识可以做出理性判断和价值选择,对人工智能生成内容进行严格的事实核查和伦理审查,以规避新闻伦理问题。
(三)法制规约:加强行业自律建立AIGC伦理规范。技术发展往往先于法制建设,但技术发展需要法制规约。随着人工智能的发展,规约人工智能应用的法制建设已在全球范围内引起重视。由欧盟牵头推进的《人工智能公约》于今年9月5日签署,已有57个国家加入,要求签署国对AI产生的有害结果负责。在国内,国家互联网信息办公室2023年4月起草了《生成式人工智能服务管理办法(征求意见稿)》,明确了生成式人工智能应用的相关规则;这都是对人工智能生成内容的法制规约,应用人工智能进行新闻生产有法可依,也有法可管。
但是,对人工智能应用的法律监管终究还处于起步阶段,而人工智能介入新闻生产已经面临现实的伦理风险。因此当务之急,更需要新闻行业、新闻从业者坚守新闻伦理准则,加强行业自律。行业自律需要从具体的机构媒体做起,大型机构媒体应率先垂范,制定具有明确指导性和具体要求的AIGC伦理规范,为人工智能新闻生产立规矩;建立严格的伦理审查机制,明确记者、编辑、技术人员在人工智能新闻生产中的职责和权限,加强对生产流程的把控,确保人工智能技术的应用符合伦理价值要求。新闻行业组织应发挥引领作用,牵头制定人工智能新闻生产的行业规范或自律公约,引导新闻机构和新闻从业者自觉遵守伦理规范。
(四)技术规约:发展数据管理与算法监测技术。数据是人工智能冲击新闻伦理的主要风险来源,正是数据本身的偏差与数据管理不当给新闻伦理带来威胁。因此,要通过发展数据管理技术来提升数据管理能力,运用技术手段科学管理数据的收集、筛选、存储和使用。比如,使用加密技术,防止数据滥用,以保障新闻内容涉及的个人隐私和信息安全;利用区块链技术,为新闻内容提供不可篡改的溯源信息,以确保新闻信息源的真实可靠;利用水印技术,确认数据及其生成内容的权属,以明晰侵权责任。数据管理,是可以通过发展更多更好的数据管理技术和工具来规约的,通过数据技术管理减少数据偏差,就可以更有效地规避人工智能生产新闻的伦理风险。
算法偏见是人工智能新闻生产自在的伦理风险。算法是研发者赋予的,当然可以通过人工审核其是否完善与合理、是否存在偏见或岐视,但是作为用户的新闻生产者通常在算法黑箱之外,无以知晓无处审核。因此,发展算法审核与监测技术,利用技术手段发现与纠正pg麻将胡了下载入口,算法偏见,同样是行之有效的方法。比如,利用数pg麻将胡了下载入口,据挖掘工具跟踪算法的运行过程,及时发现并纠正可能导致伦理风险的算法偏见;运用决策树、规则集、线性模型等解释性机器学习,增强算法的解释性,便于审核与纠错;采用伦理评估模型,根据评估结果改进算法,减少伦理风险。归根结底,要推动人工智能技术的研发,提高其透明度和可解释性,使新闻从业者和受众能够更好地理解和监督人工智能的决策过程,减少因算法黑箱而导致的风险。
[1]牟怡,传播的进化:人工智能将如何重塑人类的交流,北京:清华大学出版社,2017年,第17页。
[2]陈昌凤、张梦,由数据决定?AIGC的价值观和伦理问题,新闻与写作,2023年第4期,第18页。
[3]潘雪、果磊、段艳文,人工智能技术对新闻伦理的挑战与应对,青年记者,2023年第24期,第57页。
[4]彭兰,智能传播时代“智能鸿沟”的走向探询,中国编辑,2024年第11期,第19页。
[5]唐嘉仪、李春凤、黄凌颖,新闻伦理视野下的AIGC:冲击与反思,南方传媒研究,2023年2期,第33页。
[6]陈卫星,媒介域的方法论意义,国际新闻界,2018年第2期,第13页。
[7]彭兰,智媒趋势下内容生产中的人机关系,上海交通大学学报(哲学社会科学版),2020年第1期,第31页。
(作者何芳明系湖南大学新闻与传播学院教授,《长沙晚报》高级编辑,博士;杨思颖系湖南大学新闻与传播学院2024级硕士研究生)
近年来,随着人口老龄化程度加深和家庭护理需求的增加,“互联网+护理服务”因其便利性被越来越多的家庭所接受。
这就是人间不公!731部队细菌战犯逃回日本后,很多人在医院、学校等公立机构担任要职
731部队是日本军国主义者在第二次世界大战期间下令组建的细菌战秘密部队之一。1931年到1945年期间,731部队进行骇人听闻的人体实验和细菌战等,在中国犯下滔天罪行。数千名中国、苏联、朝鲜战俘和中国平民被用于人体细菌和毒气实验。
“你这隐形战机也不隐形啊……”这样一句玩笑话,却被一名美国主播拿来认真“尬黑”中国了。近日,有关“中国第六代战斗机成功首飞”的讨论,成为外界关注的热门话题,其中不乏美媒报道。据参考消息1月3日报道,一名美国电视主播在近日的一场节目中评论了中国“六代机”。
伴随着2025年第一缕海上日出,川山舰的全体海警执法员们迎着朝阳,面向红旗,举行新年的第一次升国旗仪式。伴随《义勇军进行曲》激昂雄壮的旋律,海警执法员们精神抖擞,斗志昂扬,面向国旗肃立,庄严敬礼。鲜艳的五星红旗在国歌声中冉冉升起。沐浴着新年的阳光,满载着新年希望。
1月6日,北京平谷消防发布讣告,全文如下。讣 告李子斌,男,汉族,1984年12月出生,山西省忻州市代县人。2007年6月入伍,生前系平谷区消防救援支队后勤装备科初级专业技术职务(专业技术九级),专业技术三级指挥长消防救援衔。
近期,韩国可谓是好戏连台,宛如一部情节错综复杂的政治悬疑大片,让全球的观众看的是眼花缭乱。
近日,一位女大学生打车去机场,因拒绝司机绕路办私事,在高速上被司机强行赶下车,引发了社会强烈的关注与热议,这名司机也因此遭到了无数网友的指责与谩骂!