人工智能时代新闻伦理失范现象研究
王佩 西北政法大学
【摘要】人工智能时代,新闻业发生了翻天覆地的变化,其生产过程和生产模式基于新技术进步,新闻信息的来源更广泛,新闻生产变得程序化和可操作化,减少了新闻工作者的任务量,提高了新闻效率,给社会生活带来了极大的便利。但可惜的是,技术是一把双刃剑,人工智能程序缺少人的思维,导致新闻的真实性和客观性受到了冲击,造成了新闻伦理失范现象,给人们生活带来了困扰。自从美国未来学家雷蒙德·库兹韦尔提出奇点理论之后,出于对未知事物的不确定,许多人质疑机器是否有一天会取代人类,再加上越来越多的机器事故,关于机器伦理、机器道德的问题备受关注。本文将从人工智能时代的新闻伦理失范现象入手,探索新闻伦理失范现象的表现、产生的原因、给社会带来的后果,并根据实际情况,提出相应的措施。
【关键词】新闻伦理;人工智能;智能算法
一、人工智能时代新闻伦理失范现象的相关定义
(一)人工智能理论的定义
人工智能,英文为Artificial Intelligence,缩写形式为AI。是指人制造出的机器的智能化呈现,是对人的意识和思维进行模拟的一门学科。对人工智能的研究始于1956年,这一词由约翰·麦卡锡提出。当时研究的目的是通过制造机器,来解决需要人动手的问题。[1] 人工智能理论是在计算机的基础上产生的。早期该理论的关键人物是英国学者图灵。他是多用途计算机的发明人之一。他正式提出了“万能计算”的概念,并以“图灵机”为媒介,开始研究人工智能。他的研究核心是:大脑是别样形式的计算机,人工智能可以做出和人类相似的行为。
2014年,聊天程序尤金·古斯特曼首次通过图灵测试,标志着人工智能进入了一个新的时代。2016,围棋九段棋手李世石在和计算机程序Alpha Go的比赛中不幸落败。这可以作为转折性事件,证明智能化的程序可以模拟人思考的方式,甚至可以超过人类,人工智能变成了现实。2016年被称为“人工智能元年”。从2017年到2019年,人工智能连续三年被写入中国政府工作报告中,其发展引起了中央的高度重视。在新闻领域,基于大数据和算法的人工智能技术被广泛使用,改变了传统新闻业的生产模式,实现了个性化内容的分发,分担了新闻工作者繁重的工作量,改变了全天候的工作模式。
(二)新闻伦理的相关概念
伦理是指处理社会各类群体之间关系的行为准则。新闻伦理指的是调节新闻界和社会各界之间关系的道德规范的总称。人工智能技术在国家政策的大力支持下快速发展,但事物都有两面性。科技进步的同时伴随着新闻伦理失范现象的产生。学者郭锐提出人工智能伦理需要讨论两个问题,一是人工智能缺少人的思想,是否可以准确执行人带有伦理性的指令。二是人工智能的潜力是否达到不可控的地步。[2] 新闻工作者议程设置的权力让渡给用户或者是机器,在技术发达的场域中,人肉搜索行为泛滥,侵犯了个人的隐私权,使用不当极易触犯法律。2017年,国务院在《新一代人工智能发展规划》中明确,要重视人工智能发展过程中的风险问题,加强预防和引导。2018年,习近平总书记在中共中央政治局第九次集体学习时强调,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。国家也已经意识到新闻伦理失范的问题,并开始着手去规范治理。
二、人工智能时代新闻伦理失范现象的表现
(一)个人隐私的泄露
在人工智能时代,我们一直处于“第三只眼”的监视之下,淘宝监视着我们的购物习惯,百度掌握着我们的网页浏览情况,抖音、微博等熟悉着我们的社交关系。1989年,柏林墙倒塌,在之后的近40年间,德国安全局对上千万民众进行监视,掌握他们所有的交流交往信息。搜索引擎所包含的信息,要比网页上的信息多得多。[3]进行大数据分析的人可以清晰地看到大数据在促进资本增加过程中的作用,这更加刺激一部分人收集、处理、分析更多的数据,再加上技术的发展,存储成本降低,分析工具越来越便利、先进,存储数据的规模呈现井喷式的增长。人们每天的社会活动都会产生很多数据,商家通过分析大量的数据,获取其关联性,从而得知受众的关注点,发现更多的商业价值,预测未来事物的发展趋势。
现在获取大数据的渠道越来越广泛,获取形式越发隐蔽,一个网页链接,一个二维码,一个人脸识别,甚至一个地点定位,都会暴露我们的信息。英国公益组织调查称,很多APP通过我们的网上行为直接窃取我们的隐私,甚至公开分享、售卖。某些经期APP擅自分享隐私数据给“脸书”,以便“脸书”可以实时推送。牺牲个人隐私获得大量的数据信息,用来牟利,这是违背新闻职业伦理和法律法规的行为。
(二)对不同人群的歧视和偏见
算法偏见指的是算法程序并不都是客观的,有的带着研发人士的歧视,或者是采集的信息带着歧视。郭锐学者认为算法偏见有很多种,如人为、数据驱动、机器自我学习偏见。偏见主要取决于其数据来源。人工智能技术的研究人员和从业人员通常会把自己的价值观在一定程度上灌输到数据中,影响最终的结果。
在2019年世界人工智能大会上,外交部原副部长傅莹提出,人群歧视是我们不能忽视的人工智能伦理规范方面的新问题。[4]在大多数的科幻电影中,机器的形象是冷漠的,没有人的情绪。然而在现实中,机器程序被赋予喜恶,基于一定的目的被创造出来。如,COMPAS是帮助预测罪犯的一种智能算法,它预测黑人被告再次犯罪的风险高于白人两倍。算法偏见是普遍存在的,人工智能技术的偏见往往带有隐蔽性,不易被人发现,如果机器人获取了带有偏见的信息,经过处理后传达给受众,受众出于对机器客观性的认同,往往会认为这类信息是值得相信的。由此可见,人工智能涉及的算法偏见会对不同人群产生歧视与偏见,值得我们注意。
(三)信息茧房的固定思维
信息茧房是指受众在接收信息的过程中,有意无意地会选择自己喜欢的信息,一段时间之后,就把自己的思想禁锢于类似“蚕茧”的“茧房”中。[5]在传统媒体时代,受众是被动的信息接收者,所接收的信息都是被媒体议程设置之后的,无法主动去表达自己的看法。互联网的兴起在一定程度上改变了受众的地位。受众可以在网络平台上表达自己的看法和态度,可以自主选择自己想要获取的信息。
人工智能的出现,算法技术的发展,个性化推荐技术的应用,令用户可以随意筛选信息。但是,技术也限制了受众信息获取的范围。个性化新闻推荐机制运用算法技术实现了信息的高效分发,但出于自我兴趣爱好选择新闻,限制了接收学习其他内容的渠道,我们无法全面观测周围情况,进而影响现实行动。在人工智能时代,我们通过网络获取信息,APP通过我们的浏览数据为我们推荐相似的信息,比如你喜欢看美食做法,算法程序根据你的阅读习惯为你推送美食信息。对个人而言,可以选择自己喜欢的东西,对社会而言,则是少了一些不同意见的碰撞,少了异质性的信息和看法。
(四)机器人地位的界定
技术发展越来越快,我们无法想象人类未来的样子。在人工智能时代,我们可以进行人机交互,可以打破虚拟空间和现实空间的壁垒,甚至有一天,我们可以生产出拥有人的思维和能力、能够像人一样生存的机器。但是当经历过虚拟的世界后,我们是否会对现实世界产生怀疑?当人工智能拥有了思维,可以对外界环境产生条件反射,这时候我们应该如何界定它?这些问题都是需要我们仔细考虑的。首要的是人工智能的权利问题。随着技术的发展,模拟人的思维方式,可以使机器人拥有部分人的特征。例如和人对话甚至还能识别情绪。从记忆、计算、分析等能力方面来看,人工智能比人更优秀。英国数学家杜·索托伊声称,如果机器人可以达到人类复杂性思维的程度,我们有责任保护它们的权利。但有些学者呈反对意见,他们认为机器人非自然人,不能拥有权利。
人工智能技术近年来发展迅速,在新闻、医学、商业军事等领域都得到了广泛应用,很多工作岗位已经被机器人取代。但是人工智能有时候也会出现错误。2017年,《洛杉矶时报》的机器人Quakebot虚报了地震,但幸运的是,它很快又删除了消息,没有造成恐慌。机器人的责任问题也是专家们研究的热点,在新闻领域,如果出现了报道失误,这个责任应由谁来承担?是研发人员、输入数据的人员,还是机器人自己?机器人能否为自己的行为负责?这一系列问题,没有明确的规则进行界定。事物如果有了其社会地位,人类都应对其负责,不能像对待东西那样随意对待它们。[6]目前机器人呈现人性化趋势发展,在满足人们物质要求的同时,还能逐渐满足人的情感要求。但是目前多数人认为机器人只是一个工具,一个冷冰冰的程序。如何界定机器人的伦理规范、地位、职责,至今还没有明确的说法。
三、人工智能时代新闻伦理失范现象的原因
(一)人工智能技术的不成熟
目前人工智能技术不够成熟,出现了很多伦理性的问题。机器人主要的操作方法是在大数据的基础上进行分析,这就需要我们事先输入海量的数据,才能让机器达到接近人类思考的程度。我们之前所写的新闻报道,原则上是要求真实、客观、中立的,但是事实上暗含着作者的价值观。人工智能程序能够基本保持价值中立,但按照既定模板和素材写出来的新闻,缺少灵活性和人情味,这也是技术所限。另外,机器人只能按照套路进行新闻采写,其代码的系统和软件不具备新闻敏感性,无法对发生事件的新闻价值进行取舍,从而收集很多不必要的新闻事件,造成新闻冗余。
人工智能技术对已有的数据有较大的依赖性,是在它们的基础上进行新闻生产,如果数据受到污染或者是数据真实性有偏差,就会影响新闻作品的质量。它们按照人类设定的程序去执行,没有类似人的判断力,无法对数据进行筛选和分类。同时,人工智能型人才存在着大量的缺口,这也是新闻行业持续发展的一大限制条件。百度创始人李彦宏曾说,全国人工智能研究方向的博士、硕士毕业生每年都不到200人,相比较起我国的人口、企业,这个数量是极其少的。
(二)法律法规的不完善
随着人们对人工智能研究的深入,关于伦理和道德的问题也逐渐被关注。早在1942年,世界科幻大师阿西莫夫就预见人工智能与人的对抗,他提出为机器人立法的想法,尽管那时候并不能实现。他最大的贡献是创造了“机器人三定律”,即机器人爱护自己,遵循自我定律,又不能违背人的命令。根据《中华人民共和国民法总则》第一百二十七条的规定,数据其实是属于个人的新型财产权。在人工智能时代,数据的保护也成为研究的重点。2016年英国发布机器人伦理标准《伦理设计与应用机器人》,微软提出人工智能的六大原则,都在一定程度上对伦理问题进行了解释。2017年国务院印发的《新一代人工智能发展规划》中提出要注意人工智能带来的伦理风险。2018年欧盟委员会发布的《欧盟人工智能》中提出,为了促进人工智能的发展,考虑建立适当伦理和法律。世界各国已经意识到人工智能的弊端,都在根据国情采取相应的措施。
人类如何与人工智能产品进行交往,两者存在何种社会关系,目前没有学者能够说清楚。人工智能技术出现的时间晚,关于人工智能的伦理和法律问题,现有法律法规没有针对性的规定。而新颁布的这些规定没有细化,不能适用于复杂的人工智能技术。为了避免人工智能问题,目前主要的解决办法是研发和使用人工智能的自我约束功能。如何趋利避害,让人工智能技术更好地服务于人类,任重而道远。
(三)市场的高度垄断
随着资本的不断涌入,人工智能技术越发偏离正确的轨道。[7]在人工智能时代,技术权力将被少数资本家高度垄断,成为他们逐利的媒介。国内各大互联网巨头纷纷在人工智能方面进行布局。2017年,百度无人驾驶车在国内首先实现城市混合路况下的自动驾驶;阿里巴巴在杭州安装城市大脑1.0;今日头条开发智能算法推荐功能,增强用户黏性。不少平台打造了人工智能开源平台,用来开拓市场和引进人才。但令人遗憾的是,这种技术掌握在少数人手中。我们可以发现,未来人工智能的发展,和这些行业巨头息息相关。有能力变革的媒体享受其带来的便捷,节省时间和人力,促进媒体更好地发展。大部分媒体则由于缺少资金和技术,在市场竞争中承受着变革的压力。
商业公司以追求利益为目的,遵循市场的逻辑。[8]技术本身没有对错,其正负效应取决于使用技术的人。雅斯贝尔斯曾直言,技术仅仅是一种实现目的的手段,其存在价值在于它在新闻生产过程中如何使用。万维网的创始人蒂姆·伯纳斯·李强调,技术的发展在带来机遇的同时,也带来了前所未有的危机。比如部分领域的网络垄断。资本家们为了获得利益,运用注意力经济的理念,开发一种令人上瘾的技术,利用人的弱点和心理特征,过滤掉你不喜欢的东西,令你在自我的世界中徜徉,尽管那些东西不一定是正确的。
(四)人工智能技术的滥用
人工智能技术的滥用指的是使用者出于经济利益或者其他目的,将技术运用到不恰当领域的行为。如电商平台利用算法技术,引导用户进行娱乐性消费;视频平台与APP合作,令用户进行捆绑性下载。有些人甚至利用人工智能技术,做一些违法乱纪的事情。滥用人工智能技术会带来相应的安全风险。[9]2019年,一款视频换脸技术软件引发社会的广泛关注,该软件可以任意更换视频中的人脸,操作简单、快速,普通人也可以轻松实现。出于追求点击率和娱乐化的想法,换脸技术一经出现,便被大规模地使用。但换脸技术也产生了伦理争议,视频相比文字、图片来说,具有更高的可信性。人工智能换脸技术,超越了之前任何视频后期制作软件,如果两个换脸的人的脸型、五官有重叠之处,一般人无法看出视频中的人是否就是本人。技术的滥用,损害了新闻真实性,触犯了个人隐私。
无独有偶,2019年6月,一款名叫“DeepNude”的 AI软件出现,它基于人工智能算法,能把正常的照片变为裸照。操作简单,而且目前只针对女性图片。虽然该软件上线后很快就被取缔,但仍旧有一些人出于牟利、猎奇的心理在电商社交平台上公开售卖该软件。这种行为不仅侵犯了他人的肖像权、隐私权、名誉权,也会让公众对当事人产生误解,影响当事人的生活。技术本身是中性的,没有善恶之分,如果被滥用,就会触犯法律。
四、人工智能时代新闻伦理失范现象的后果
(一)造成大量新闻工作者的失业
德国的贝克认为,现代化的风险是由工业的过度生产造成的,并且随着全球化进程而危害加剧。[10]伴随着人工智能技术增长的,是它发展的不可预测性,这种无法预料的科技后果也许会成为社会的主宰力量。多名专家认为人工智能最终会演化成超越人类的物体。物理学家霍金曾强调人工智能前期可以为人类带来便利,但人类受制于生物进化的速度,可能被更新速度较快的机器超越。微软创始人比尔·盖茨也表现出对未来人工智能技术的不可控的担心。
深入了解人工智能,我们会接触到奇点理论,从新闻业角度来说,奇点理论指的是机器人会取代人类成为新时代的信息发布者,甚至很可能会操纵人类。人工智能的发展很可能会造成大量新闻工作者失业。技术的运用需要相应的技能,但是目前来说,我国人工智能人才数量较少,大部分人不能胜任技术性强的工作。技术的发展速度大大超过了人类获取知识的速度,未来机器人的发展趋势,我们无法精准预测。
(二)影响社会稳定
互联网在提供海量数据来源的同时,也存在着数据泄露的风险。如一些实名认证登录、地理位置使用等,这种个体行为轨迹的分析模式会造成或多或少的社会伦理风险,给人们的生活造成不便。人工智能的换脸应用给社会信息传播带来了冲击,这种简易操作的应用程序,一旦滥用,可能会影响社会稳定。视频比文字、图片更易让人相信,再加上人脸、虹膜等信息是人最为重要的隐私,具有唯一独特性,现在刷脸技术在社会中用途广泛,人的面部信息如果被任意传播到公共领域,带来的恶劣后果无法估量。
算法黑箱指的是新闻生产过程不透明。传统的新闻从采集、整理、加工、报道都有专门人员参与。在人工智能时代,算法作为高科技产品,给人一种摸不着的感觉。比如谁发明了算法,这个算法叫什么名字,谁使用了这个算法,谁可以为这个算法负责,这些我们都不知道。算法的不透明性给了有心人士可乘之机,可能成为他们的武器,成为他们攻讦别人的借口,操作算法程序用来诱导个人行为,最终影响社会稳定。
(三)降低新闻稿件的质量
在人工智能时代,大数据技术的产生与快速发展,令机器人写作已经有与新闻工作者平分秋色的态势。机器人写作有着写稿速度快、效率高、传播范围广的特点,有效缓解了新闻工作者的压力,增强了新闻报道的时效性、准确性。但是机器人写作仅仅适用于体育、天气预报等格式简单、固定的新闻报道。也存在着稿件内容流于表面、缺少深度思考、有千篇一律之感的问题。人工智能所使用的数据是人类已经创作的大量信息素材,通过既定模板进行程序化的加工,这个过程不带有人的思维与想法,因此又叫写作而非创作。创作不仅仅是1+1=2的过程,而是在社会实践经验的基础上,产生新的东西。由此可见,新闻工作者所进行的新闻加工,与机器人的新闻加工,有着本质的区别。
刘易斯·芒福德对人工智能持批判态度。他认为,写作机器人的诞生让新闻稿件失去独特的个性,朝着同质化方向发展。机器无法完全挖掘出新闻背后的东西,只能浅尝辄止。在报道一些社会新闻时,通常需要更深入地追踪和探究其背后的意义,而这点恰恰是人工智能很难做到的。因此,虽然人工智能技术可以减轻人的负担,却千篇一律,少了个人特色,影响新闻报道的质量。
(四)导致新闻议程设置权力的让渡
议程设置是由美国学者麦库姆斯和肖提出的理论假说。他们认为,大众媒介是我们了解社会公共事务的主要来源,人们依赖媒介议程来减少心中的不确定性。[11]互联网出现之前,报纸、广播、电视是我们信息获取的来源,我们只能被动接收媒介给我们设置的信息。互联网出现后,受众可以自主选择所要浏览的信息,议程设置的权力一部分让渡给了受众。
人工智能时代的新闻界,由受众和机器生产的新闻占据较大比例,这与传统的议程设置方式大相径庭,议程设置的权力逐渐让渡给了机器和受众。网络运营者进行议程设置的目的是吸引更多的受众,其原则是解决不同受众的信息需求。[12]受众的素质参差不齐,不能有效筛选出有价值的信息,生产的新闻也缺乏可读性。另外,当受众取得了选择信息的主动性,就会把自己的兴趣限制在某个领域,影响其全面发展。
五、人工智能时代新闻伦理建设的措施
在人工智能时代,新闻行业机遇与挑战并存,我们要想更好地利用人工智能技术建设媒介新图景,就要根据现存环境,采取新措施,牢牢抓住人工智能技术带来的新机遇,迎接并应对它带来的挑战,促进新闻伦理建设。
(一)政府:出台相关法律法规
技术的变革总是会带来积极和消极的影响。面对消极的影响,人类需要警醒,政府作为新闻伦理规则的制定者,需要根据现实情况进行管理。针对人工智能技术,建立相关的法律法规,对伦理和道德问题进行详细规定。这种管理,既需要法律法规的制约,又需要对技术的使用范围进行限制,把人工智能技术放在一个可控的位置,消除技术可能带来的不良影响。专家表示,为了人工智能技术的良好发展,政府的管理模式需要加以调整,有必要从应对式的管理形式转变为预测式的管理。
任何不经当事人同意进行的信息发布都是侵权。在人工智能时代,关于侵权行为如何界定、如何处罚尚未明确,侵权行为不好判定。我们可以做的是,根据《中华人民共和国侵权责任法》《最高人民法院关于人民法院在互联网公布裁判文书的规定》等法律法规,加大对侵犯隐私行为的惩戒力度,根据情节轻重,予以罚款、拘留或者刑事处罚。[13]人工智能技术存在较多的隐患,我们应加大对其相关伦理、道德问题的关注,用相关法律法规引导其健康发展。
(二)新闻工作者:重视质量,内容为王
尽管人工智能技术已经在新闻的采集、生成等生产过程中发挥了重要的作用,但是新闻工作者作为有独立价值观和判断力的把关人,这种优势是人工智能技术无法取代的。新闻工作者需要正视自己的作用,不骄傲自大,亦不妄自菲薄。要紧跟时代的步伐,学习新技术,运用新本领,人机结合,充分利用智能化的机器,把它们成稿时间快、效率高、审核范围广的作用高效发挥出来。在重视报道速度的同时兼顾报道的质量。
人工智能时代对新闻工作者提出了更高的要求,记者要转变思想观念,接受并学习新技术,对计算机编程、数据分析、媒介经营等知识进行深入了解,不断提高自己的专业素养,写出具有可读性、富有人情味的新闻报道。为了促进技术的发展,需要加大科技投入,加大对个性化写作机器人的研究,把技术发展和传媒发展联系在一起。
(三)新闻平台:做好新闻的内容监管
我们要承认人工智能技术在促进我们沟通交流中的极大作用,同时也要认识到它并不是万能的,它只是冷冰冰的机器程序,大数据不能精准分析我们社交的质量,还会肆意串联原本不相关联的事件。[14] 2019年,国家互联网信息办公室在《数据安全管理办法(征求意见稿)》中规定,网络运用人工智能技术推送新闻或者广告时应注“定推”标志。当用户停止推送时,应删除用户信息。网络信息内容服务平台,要对自家平台进行生态治理,建立健全用户自主选择信息的机制,要根据用户的需求,推荐新闻,注重用户的感受,同时,在用户界面设置便捷的反馈与举报入口。
我们应当建立相应的制度,设立社会的“安全阀”,更好地促进社会各个群体的良好沟通和互动。人工智能程序不具备法律和道德观念,无法筛选出一些改头换面的敏感内容,这时候就需要加入审核人员,对有害信息进行删除,并根据情节严重程度对用户进行一定的处罚。在盈利的同时,各新闻平台要牢记社会责任,利用新技术为人类造福,鼓励并减少不必要的劳动时间,致力于做更有意义的事情。
(四)新闻教育:与时俱进,技术与素养并重
在人工智能时代,传统的新闻教育方式已经不能适应日新月异的社会变革。想要在新时代保持领先地位,更好地做社会新情况的报道者,新闻工作者必须改革新闻教育,培养具有良好操作技能、较高实践水平的智媒人才。要细分教学项目,根据个人优势,精确化培养人才。积极引进新式的硬件、软件设施,积极主动地与国内外优秀的新闻机构、新闻院校进行交流沟通,学习对方优秀的经营、教育方式和人才培养机制。开设相关人工智能、大数据的课程,同时积极鼓励新闻专业人才学习计算机方面的课程,学习算法的运用。致力于培养“一专多能”的复合型人才。目前互联网运用的领域越来越多,几乎达到无网络寸步难行的地步。同时,我们在强调专业技能学习的同时,也要注重伦理素养的提升。良好的伦理素养是生产高质量新闻的基础,也是我们区别于人工智能的独特优势。人工智能方面的学生和从业者要加强伦理教育,设立相应的学习小组,定期对相关人员进行考察。
结语
人工智能技术日益在新闻传播活动中占有重要地位。新闻伦理失范现象也越发值得我们重视。传统新闻中的隐性采访、公民隐私权、客观性等问题依然具有研究价值,人工智能时代的大数据和算法更应重点研究。我们在了解了新闻伦理失范的表现、原因之后,也要承担起自己作为新闻人的责任,在进行新闻传播的时候,不滥用数据,尊重法律法规,尊重他人的权利。同时也要谨慎地对待社交网络信息,不被有心人使用。
参考文献
[1][英]斯图尔特·罗素,彼得·诺维格.人工智能:一种现代方法[M]. 2版.姜哲,金奕江,张敏,等,译.北京:人民邮电出版社,2010:16-17.?
[2]郭锐.人工智能的伦理与治理[J].人工智能,2019(04):11-19.
[3][英]维克托·迈尔-舍恩伯格.删除:大数据取舍之道[M].袁杰,译.杭州:浙江人民出版社,2013:12-13.
[4]傅莹.人工智能的治理与国际合作[EB/OL].(2019-08-30).https://m.guancha.cn/fuying/2019_08_30_515920.shtml.
[5] 凯斯·R.桑斯坦.信息乌托邦:众人如何生产知识[M].毕竞悦译.北京:法律出版社,2008:8-9.
[6]吴恺.当代人工智能技术发展中的伦理问题研究[J].中共山西省委党校学报,2019(6):65-68.
[7]何慧媛,贺俊浩.人工智能时代,媒体如何创新转型——“人工智能与媒体未来”研讨会综述[J].中国记者,2017(2):47-48.
[8]胡曙光,陈昌凤.观念与规范:人工智能时代媒介伦理困境及其引导[J].中国出版,2019(02):11-15.
[9]牛静,侯京南. 基于人工智能的换脸视频伦理问题探讨[J].青年记者,2019(05):89-90.
[10][德]乌尔里希·贝克.风险社会[M].何博闻,译.南京:译林出版社,2004:18-19.
[11][美]马克斯韦尔·麦库姆斯.议程设置:大众媒介与舆论[M].郭镇之,徐培喜,译.北京:北京大学出版社,2008:68-71.
[12]王鼎钧.App内基于人工智能和算法的议程设置分析[J].新闻研究导刊,2017(07):26-27.
[13]杜静.智能教育时代下人工智能伦理的内涵与建构原则[J].电化教育研究,2019(07):21-29.
[14]喻国明. 新闻传播的大数据时代 [M]. 北京:中国人民大学出版社,2014:219-220.