人工智能视频换脸技术及“换脸视频”的伦理问题分析
周舒扬 西北政法大学
【摘要】视频换脸技术是弱人工智能技术在深度学习领域的新发展,与视频换脸技术息息相关的“换脸视频”在发展中逐渐暴露出一些难以用纯技术手段进行调和的伦理问题。本文就视频换脸技术及“换脸视频”的伦理问题解决具有现实性与必要性进行解释,从信息层面和社会层面两个角度对伦理问题进行具体分析,并对伦理问题的产生进行深度探因,最后从宏观和微观两个角度提出构建伦理规制机制和加快视频换脸技术识别的设想,对视频换脸技术及“换脸视频”的发展进行了展望式的探讨。
【关键词】人工智能;视频换脸技术;换脸视频;伦理问题;伦理规制;价值理性
距离1956年达特茅斯会议首次提出人工智能定义这一重要历史节点已经过去半个多世纪,技术的发展促进人工智能的强势崛起。人工智能已经由科学家设计的蓝图变为现实,走上了一条产业化发展道路,为人类提升了生产效率,创造了巨大财富。在关于人工智能的科学研究中,根据人工智能是否真正具备“类人脑”的智慧及自主能力,人工智能普遍被划分为弱人工智能和强人工智能两个等级。弱人工智能指的是技术看起来是智能的,但是并不真正拥有自主意识及类人类智慧;强人工智能的观点认为有可能制造出真正能推理和解决问题的智能机器,创造一种新的文明。目前,强人工智能尚未成为现实,弱人工智能技术已经被广泛应用于具体实践中——在信息传播领域,弱人工智能技术与新闻传播活动的结合主要在新闻生产、新闻分发和新闻体验三大领域,参与了整个新闻生产流程。机器人写作、数据新闻、算法新闻等新的信息传播模式,从内容生产、内容分发到营造场景、增强新闻的沉浸体验,弱人工智能技术已然成为新闻传播各个环节的必备要素;在生活实践中,智能家居、无人驾驶、机器翻译等的出现影响着教育、医疗等涉及人类生活的各个领域,使人类社会发生了翻天覆地的改变。因此,弱人工智能技术也受到了主流研究领域和实践领域的重点关注。
弱人工智能技术已经在“深度学习”领域扩展了新的发展空间。“深度学习”通过学习样本数据的内在规律和表示层次,能够解决文字、图像、声音等数据的识别难题。基于弱人工智能技术“深度学习”领域的视频换脸技术及这项技术最为直接的产品——“换脸视频”的出现,虽然在一方面激发了人类的创造力,却也在另一方面暴露出一些难以用纯粹的技术手段加以解决的伦理问题,更暴露出在人工智能时代无法规避的、更为复杂的人与技术之间的深刻矛盾。本文以弱人工智能背景下的视频换脸技术及“换脸视频”为研究对象,抛却未来学家的乐观主义或悲观主义立场,围绕研究对象的伦理问题进行思考及反思。
一、人工智能视频换脸技术及“换脸视频”的国内外发展情况简述
(一)国外发展情况:伦理问题初现
视频换脸技术是弱人工智能技术在“深度学习”领域的一个重要发展。所谓视频换脸技术,是通过网络图库、视频库等途径获取大量素材,通过反复训练形成深度学习网络,达到系统自动替换脸部信息的效果。在整个过程中,可学习的样本素材越多,合成的面部还原度也会越高。[1]视频换脸技术最初尚存在诸多局限,例如需要大量具有代表性和清晰程度高的图片素材,对影像的光影要求也较高。花费高昂制作经费制作出的“换脸视频”早期还存在着肉眼可见的漏洞,那就是视频的素材是使用睁眼的静态图片进行训练,忽略了例如呼吸、脉搏和眼球运动等自发无意识的、动态的生理活动,因此早期视频换脸技术的整体作品较为粗糙,视频换脸技术也因为缺乏技术普及的内在动力而仅仅作为技术爱好者自娱自乐的工具。但在技术不断更新的情况下,视频换脸技术中存在的漏洞也逐步得到修复,还能进行深度的动作模仿。可以说,技术迭代的日益迅速使“换脸视频”的真实性越来越难以被技术检测出来,真假难辨也为视频换脸技术及“换脸视频”增加了伦理隐患。
“换脸视频”作为视频换脸技术最直接的“成果”,在换脸技术的发展下也应运而生。“换脸视频”最早在美国出现,2017年,美国著名的匿名论坛Reddit上一位名为“深度伪造”(DeepFakes)的网友发布了一条利用视频换脸技术制作的低俗视频,让视频换脸技术和“换脸视频”在短时间内受到大量关注,也让美国的明星艺人、政治人物成为这项技术最早的受害者。由于公众人物特别是影视明星职业的特殊性,相比于普通人来说,更能够在网络上搜索到足够多的脸部原始素材支持视频换脸技术的深度学习,这成为名人群体遭受视频换脸技术侵害的主要原因。在国外众多社交网站中,替换明星艺人脸部的低俗视频泛滥,侵犯了明星艺人的肖像权,有损其名誉。替换政治人物面部的短视频也开始出现,技术成为商业利益主体不当得利的工具,或沦为政客相互攻讦的武器。公众人物作为受法律保护的利益主体,却无力阻止其面部影像被用于不正当途径情况的发生。视频换脸技术和“换脸视频”产生可预见的伦理问题,使视频换脸技术的诞生地Reddit论坛调整了内容条款,以禁止“换脸视频”传播的手段应对技术滥用所带来的一系列危害;Twitter等公司也宣称下架了标记为“DeepFakes”的相关内容,严格控制“换脸视频”的传播。但在视频换脸技术代码开源后,强制禁止技术的传播对伦理问题的解决是无济于事的。
(二)国内发展情况:娱乐功能突出
伴随着技术代码的开源,视频换脸技术很快传入国内,依托于新浪微博、哔哩哔哩视频网站等平台,许多技术爱好者制作出的“换脸视频”在传播中逐渐打开了这类视频在国内的关注度。2019年2月28日,新浪微博热搜话题榜上#将朱茵的黄蓉换成杨幂的脸#话题浏览量高达1.2亿次;在哔哩哔哩视频网站键入“AI换脸”进行搜索,用户上传的带有“AI换脸”标签的视频数量截至目前有将近千个,播放量最高的视频累计点击次数接近300万次。
最初国内“换脸视频”是由部分技术爱好者群体以技术交流为目的进行自发的制作,作品大多为玩家“练手”之作,没有明显的情感偏向。此后,有技术爱好者推出了能够在Windows系统中运行的FakeApp软件,使制作者不再需要具备人工智能相关的知识,降低了制作“换脸视频”的门槛,让更多人有机会接触视频换脸技术。技术难度的下移,技术爱好者与“鬼畜文化”引领者的身份产生重合,使视频换脸技术得以与国内独特的“鬼畜文化”网络语境相结合,“换脸视频”的制作在国内逐渐演变成了一场依托于技术的狂欢,其娱乐功能更为突出。国内的“换脸视频”作品就此接过“鬼畜视频”以戏谑恶搞为宗旨的大旗,视频制作者在对“权威”进行解构和重构的同时彰显着个性。技术赋予了普通公众争夺话语权的权力,与巴赫金在20世纪提出“狂欢精神”中颠覆等级的束缚、追求对话地位的平等及人文关怀的内核遥相呼应。但是我们必须警惕过度狂欢使人沉溺其中,甚至冲击伦理道德的危险。
二、人工智能视频换脸技术及“换脸视频”的伦理问题分析
在前沿技术的发展过程中,技术红利与伦理隐患的问题一直以来都相生相伴。伦理不仅包含着对人与人、人与社会和人与自然之间关系处理中的行为规范,而且也深刻地蕴涵着依照一定原则来规范行为的道理。在诸多关系的交织下,伦理问题更为错综复杂。在进行伦理规则重构、伦理规范制定的设想之前,必须着眼于伦理问题的发现,才能根据具体问题进行积极的应对。视频换脸技术作为一项新技术,“换脸视频”作为一个有待成熟的产业,在缺乏伦理约束的情况下,恐怕会与人类良性发展的宗旨背道而驰。面对诸多伦理隐忧,探究视频换脸技术及“换脸视频”的伦理问题有着必要性和现实性。
目前视频换脸技术及“换脸视频”已经拥有了足够的应用潜力和商业价值,但发展潜力与伦理隐忧并存。首先,在影视制作方面,换脸技术为电影业特别是特效制作带来了效率的提升,能够解决片方在面临演员意外事故时的重拍风险,最大可能地降低损失,但是在时间成本和资金成本方面,视频换脸技术还需要积极调试以适应电影后期的生产流程,以便更好地为电影业服务。其次,在图片美颜、图片滤镜大行其道的当下,图片换脸类应用的发展已有些年头。视频换脸技术的出现,为制作动态视频人脸交换应用的开发者提供了创作思路。2019年8月30日,一款名为“ZAO”的视频换脸APP在国内火爆上线,该款APP主要利用技术手段,通过替换影视片段中的明星脸以实现普通人的“明星梦”。该款APP目前主要作为视频换脸工具,但未来有向社交类工具延伸的倾向。虽然这款APP尚在公测阶段,对用户“换脸”有使用次数的限制,但是一上线即“爆款”,导致服务器处于瘫痪状态。技术开发者和产品应用商做出了将技术进行工具化和产品化的努力,视频换脸技术再一次降低了使用门槛。但是视频换脸技术曾被用于色情视频地下产业链,一些不法分子通过替换女明星脸部制作淫秽视频进行牟利,如此“前身”很难不让人担忧技术若被有心之人利用,不仅会侵犯普通人诸如隐私权、肖像权等合法权益,而且也将打开“潘多拉的盒子”,使视频换脸类应用成为一个利用技术作恶的平台,给普通人的信息安全造成潜在威胁。2019年9月3日,工业和信息化部就“ZAO”APP的网络数据安全问题开展问询约谈。另外,在视频换脸APP伴随伦理隐忧初步发展的同时,直播换脸技术的开发也有了新的尝试。德国纽伦堡大学的相关团队发布了名为“Face2Face”的APP,这款APP基于精确捕捉和实时化呈现的效果,证实了在直播中进行脸部替换也已经是近在咫尺的一件事。[2]基于视频换脸技术及“换脸视频”的伦理问题,通过归纳和整合,本文主要从信息层面和社会层面两个角度进行讨论。
(一)信息层面的伦理问题:视频换脸技术及“换脸视频”干扰了人类对真实性的判断
PS技术的全面普及,改变了“有图有真相”的传统,图片验证真实性的权威失落。在静态图片说服力大为减弱的情况下,人们转而信赖动态视频对真实性的保障。视频换脸技术及“换脸视频”带来深度伪造的结果,让人们陷入对视频真假不确定性的疑问中,干扰人类对真实性的判断。不仅动态视频证实真实与否的权威性就此消失,而且也将进一步增加人们获取真实信息的难度。人们对真实性的判断正在经受着严峻的挑战。
在人类的信息传播活动中,对信息真实程度的把控要求较为严格,特别是承担着信息传播渠道角色的新闻业。即使新闻真实是一个动态的过程,真实还是成为新闻业最为重要的行业准则之一,专业的新闻媒体及从业人员从未停止追求真实的脚步。进入人工智能时代,携技术而来、具有技术背景的科技公司强势入主新闻传播领域,重新塑造了一个“泛传媒”的媒体格局,与传统新闻媒体共享,甚至争夺人工智能时代的红利。在新老势力的交错中,新闻传统的“生产—分发”一体系统生态分离,信息传播领域的权力关系格局借由新生产力的出现开始解构与重构。专业性的传统媒体优势不再,科技公司拥有算法的技术优势,甚至包揽了新闻生产与内容分发工作,成为把控信息质量的关键要素。借由机器“自动化”生产和精准投放机制,普通受众追求信息真实的基本权利被隔绝于科技公司的算法黑箱之外。科技公司不断利用技术带领更新新闻业的格局,在追求信息的用户体验上也进行了VR新闻的新尝试。VR构建出的虚拟现实景象呈现出了后现代哲学家让·鲍德里亚在20个世纪提出的“超真实”概念的预想,他在“超真实”概念中提出——大众媒介制造出的“超真实”即人工真实淹没了自然真实,自然真实因此消解甚至消失,人类判断真假的尺度因为真实主体的消失而不复存在。VR新闻利用隐蔽性的技术手段营造出“超真实”的环境,已经对人们追求的新闻真实和信息真实造成一定程度上的损害。
视频换脸技术不遗余力地制作深度伪造、真假难辨的“换脸视频”,着力打造一个“超真实”的虚拟图景,打破自然真实与人工真实的边界,进一步地损害着人类对“真实”最基本的认知。随着“ZAO”等APP的发展,视频换脸技术的应用门槛将会越来越低,当技术越来越纯熟,可能使人类陷入一场对真实性的质疑之战。若视频换脸技术全面投入信息传播领域,新闻业将首当其冲受到伤害。“换脸视频”被全面投入新闻业,不仅会加剧假新闻的泛滥之灾,也将使传统媒体赖以生存的公信力变得岌岌可危。从承担审核责任的平台角度解决“换脸视频”存在的风险较为困难,从内容上看,“换脸视频”的隐蔽性较强,无法通过人工和机器进行视频人像的真假辨认。尚处于发展初期的视频换脸技术对真实性尺度及制作与传播“换脸视频”伦理底线的把控,都无法给出令人满意的回应。
(二)社会层面的伦理问题:视频换脸技术及“换脸视频”将威胁公众安全甚至国家安全
从“换脸视频”由地下产业向公众进行渗透开始,一部分人就对视频换脸技术的前景抱有较为悲观的论调。有人注意到视频换脸技术不仅会在信息安全层面上损害人们的合法权益,威胁公众安全,技术作恶甚至将威胁社会生活的正常秩序,为国家安全带来巨大挑战。
在人工智能时代的浸润下,人类生活已经离不开大数据的支撑,整个人类社会在大数据的包围下形成了对数据的依赖。伴随着“ZAO”这类APP的横空出世,通过科技公司的支持,视频换脸技术的普及化、工具化、成熟化指日可待。但是一旦视频换脸类的APP遭到非法入侵,冲破了数据安全的防线,人们的隐私安全、信息安全以及具有法律意义的唯一性的面部特征的安全将得不到基本的保障。面部信息作为不可更改的敏感信息,一旦泄露或者被滥用,将为信息主体带来持久的影响。掌握着个人独特生物特征的面部识别技术,一直以来都与金融服务、个人隐私等有着紧密的关联性。但视频换脸技术的出现,与生物识别技术呈现一种“以彼之矛、攻彼之盾”的竞争关系,若视频换脸技术发展到相当成熟的阶段,生物识别技术就有被破解的可能。以“ZAO”为代表的换脸类APP备受争议的一点就在于,以创新为由大规模地收集人脸信息,责任公司是否具有保障数据安全的能力;面部识别信息的大范围采集是否会造成突破刷脸支付的危险。虽然官方解释称,目前的面部识别技术能够有效避免各种人脸伪造带来身份冒用的情况,但人脸识别并非万无一失,面部识别技术构筑的信息安全堡垒若就此崩塌,将对公众利益和公众信息安全造成难以言喻的损害。若视频换脸技术制作出的虚假视频被用于诈骗或敲诈勒索,那么对于对受害者而言,由此带来的恶劣影响是难以消除的。
更加严重的想象是,带有深度伪造功能的视频换脸技术及“换脸视频”若向金融、政治领域延伸,由此炮制出虚假的经济新闻和政治新闻,将很容易造成从金融领域到政治领域稳定秩序的崩塌,带来流言、掀起舆论战争并误导民众。例如,奥巴马辱骂特朗普、扎克伯格谈Facebook上的俄罗斯干预等带有政治色彩的虚假视频已经悄无声息地传播开,视频换脸技术或成为政治势力斗争的工具。若这项技术被反社会的恐怖组织加以利用,将不仅仅是国家内政治团体之间的小打小闹,很可能会造成国与国之间的误解与冲突升级,对国家安全造成威胁,国际政治也将面临灾难性的后果。视频换脸技术及“换脸视频”若如此种路径朝着作恶的道路一去不返,会给人类社会的文明秩序和政治秩序带来前所未有的颠覆。因此,在视频换脸技术发展初期对技术伦理进行规范,成了一项迫在眉睫的任务。
三、对人工智能视频换脸技术及“换脸视频”的伦理问题探因
目前人工智能技术处于弱人工智能这样一个初步发展的阶段,从技术本质的角度进行观照,弱人工智能技术看似拥有“类人脑”的智慧,实际上仍然难以被看作具有自主能力的独立个体。人工智能技术背后的设计者、实际操控者是人类自身,人工智能技术目前为止还只是一项体现人的意志的技术,无时无刻不体现着人的设定、反映着人的想法。技术发展的每个环节中都会有不同的人扮演着不同的角色,只要有人的力量的加入,技术就无法规避有意无意造成的漏洞甚至是偏见。因此,对于技术伦理问题上的讨论,归根到底是对人的问题的探寻。对人工智能视频换脸技术及“换脸视频”的伦理问题进行更深层次的探因,我们应该站在“人”的立场上对现实存在的伦理困境进行重新审度与积极回应。
(一)伦理责任主体构成复杂、责任意识缺位
关于人工智能时代的伦理责任主体论述,即谁应该为人工智能技术产生的消极影响负责,一直以来都是学界和业界的争议点。有学者提出,参与人工智能技术的研制与应用的相关设计者、制造者、编程者和使用者等个人或组织,都应该被纳入伦理责任主体的范围中;在确立责任主体的同时,以人工智能时代个人应享有的主体权利为基准,把握技术的公开性及透明性,在保证普通公众对技术知情权的同时,让普通公众形成一个共同体,主动承担作为权利主体应尽的相应责任,以进行合适的伦理校准,以此建立出“责任—权利”双重保障机制,确定人工智能责任伦理和权利伦理,才不失为对人工智能技术伦理调适的实质推进。
对视频换脸技术进行具体的伦理责任主体确定,是一项较为复杂的工作。从视频换脸技术的发展路径来看,技术爱好者群体兼具设计者、制造者、编程者、视频内容创作者、视频传播者等多重身份,广泛地参与到技术及“换脸视频”发展及传播的各个流程中去,与其他人工智能技术由实验室出发形成的学术路径向商业路径扩散、由点到面的发展模式大为不同,因此视频换脸技术及“换脸视频”实际的责任主体人群范围大,呈现一种动态分布,群体结构较为复杂,增加了确认责任主体的难度。
视频换脸技术伦理问题目前主要出现于它最重要的技术成果——“换脸视频”中。与“换脸视频”的传播及推广相关的伦理责任主体主要集中于各信息平台和科技公司。作为传播中介的各信息平台是传播“换脸视频”的主要渠道,应该被纳入责任主体的范畴,肩负审核视频内容的责任。但是由于“换脸视频”隐蔽性强的问题,再加上信息平台并非被侵权的主体而缺乏主动作为的动力这两点原因,目前大多数信息平台在审核方面采取的是事后追责而非事前处置机制。科技公司在视频换脸技术发展的过程中,将视频换脸技术投入具体实践中,有意将其工具化及产品化,以获取商业利益的转化,对于视频换脸技术的普及起到推波助澜的作用,因此也应当承担相应的责任。
但实际上,无论是普通技术爱好者组成的复杂责任群体,还是各信息平台和科技公司构成的重要机构,各主体的责任意识都存在缺位。针对普通技术爱好者组成的责任群体,由于其角色的复杂性与可变性,对其进行实际的归责十分困难。而信息平台、科技公司的发展伦理中带有商业利益的深刻投射,盈利作为其重要的现实需求,与伦理责任主体应当具备的自律负责的专业精神发生偏移与让位。伦理责任主体边界模糊,又何谈对普通公众进行负责任的权利保障,更妄论“责任—权利”双重保障机制的真正落地。人工智能技术的伦理调适之路一直都是一条未尽之路。
(二)人与技术关系的内在矛盾:工具理性与价值理性的失衡
技术与伦理的鸿沟,无法用纯技术的手段加以解决。人工智能技术与人类社会及秩序产生的矛盾,实际上是人与技术之间的内在矛盾。在人工智能时代的逼仄下,特别是在目前人与技术呈现融合之势的状况下,以及强人工智能的预言和设想带来技术与机器统治人类的威胁,人与技术之间的关系正经历着重塑。虽然人的主体性作用成为论述人与技术关系的共识,但是技术与人类还存在“互构与互驯”的关系,任何未来学家的乐观主义或者悲观主义论断,无论是夜郎自大式地将技术看作被人类拿捏在手中的、依附人类的、绝对中立的存在,还是把人与技术做简单的切割与对立、将技术的力量夸大,都不适合在正视技术发展的同时观照人类自身的发展,也不再适合论述人与技术关系的新走向。
人与技术关系的内在矛盾和工具理性与价值理性关系的失衡有着深刻的哲学关联。马克思·韦伯曾在《经济与社会》(第一卷)中提出“工具理性”和“价值理性”两个概念。工具理性也被称作技术理性,是一种为达到特定实践目的而运用的中介手段,强调为达到目的不惜一切手段,追求最大程度的利益和效益;价值理性则注重行为本身所代表的价值,追求行为的合目的性,认为在达到目的的同时也应该注意使用手段的正当性。韦伯指出,工具理性和价值理性必须统一于人类的实践中,二者是人的理性不可分割的重要方面。[3]
但是,伴随着西方工业革命的扩张,工具理性代表唯技术论的观点不断膨胀,追求利益最大化成为人类内化的价值标准,逐渐偏离了工具理性与价值理性并行的和谐道路,二者关系日渐失衡。当工具理性占了上风,人类被工具理性带来的“技术拜物教”所奴役,价值理性中所含的鲜明的人文精神——这种普遍的人类自我关怀,对人类的尊严、价值、命运的维护、追求和关切将无法调和工具性、有用性带来的功利主义对人类发展的负面影响。在当前的人工智能时代,工具理性盲目扩张“技术至上”的伦理观,带来的后果是人工智能技术对价值理性形成压制之势及价值理性作用的式微。工具理性与价值理性二者关系的失衡使人与技术的内在矛盾得以爆发,让人类陷入人文和伦理的双重困境中。
视频换脸技术与“换脸视频”的伦理危机从表面上看是因伦理责任主体缺位带来审核与监管失职造成的问题,但实质上暗藏着资本、技术与人类本该具备的价值理性的较量。应对视频换脸技术及“换脸视频”伦理困境的挑战,把握住技术应有的工具理性、重塑价值理性的巨大作用,作为基本的应对宗旨应当成为箭上之弦。但是,呼唤价值理性在人工智能时代的回归,其实是一件知易行难的事情。马尔库塞在竭力批判技术异化带来“单向度的人”的危险时,也为未来社会的发展设计了一种新的科学技术发展模式。在这个新技术模式中,他倡导在技术中植入一种为人类服务、以人类发展为根本目的新的社会价值观。这个观点为人工智能时代下重拾价值理性的内在意涵给予了一定的现实启示。很多学者注意到在人与技术的关系中,技术与人类的价值观和伦理规范体系必须一致。如何将人类价值嵌入人工智能技术中,把人类道德转化为人工智能语言,在技术中散发人的价值理性的光芒,成为对当前人类面对新技术产生的伦理困境的最直接回应,也因此成了人工智能时代的最现实挑战。
四、人工智能视频换脸技术及“换脸视频”的伦理问题应对之策
(一)宏观上:建立一个合理的、适应人类发展的伦理规制机制,避免“科林格里奇困境”;呼吁人工智能时代价值理性的回归
面对人工智能技术带来的伦理挑战,以及工具理性与价值理性的关系失衡,学界与业界存在着普遍的共识,那就是建立一个合理的、适应人类发展的伦理规制机制。“科林格里奇困境”为我们呈现伦理规制在技术评估与技术控制方面处于滞后的两难处境,这个两难处境主要是指一项技术的社会后果诸如伦理问题和社会风险较难在技术生命的早期被预料到,但当不希望存在的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,对它的控制将十分困难。“科林格里奇困境”带来的评估与控制的矛盾加剧了建立伦理规制机制的紧迫性。构建一定高度的、相对前置的、具有前瞻性的伦理规制机制布局,能够在一定程度上规避“科林格里奇困境”的出现。近年来,无论在国际还是国内,诸如IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则、国内的《新一代人工智能发展规划》等展现了人类尝试建立一个普适性的、具有人文关怀的伦理规制机制的努力;各个国家也开始建立科技伦理委员会,自上而下地对技术伦理进行统筹,对技术进行提前研判与监督,把技术伦理构建纳入国家战略的高度。但既要防止规制制定中的精英主义立场,又不可尽以大众需求为基准;既要适应不同国情,又要符合全球人工智能技术发展中提前防控风险的形势,对伦理规制尺度的把握依然任重道远。
此外,如何在人文层面上进行价值理性的关怀,把握工具理性与价值理性的平衡关系,成为制度设计者和技术开发者对价值理性失落的有效回应。但是,站在制度设计者的角度,从制度上把握二者平衡,呼吁价值理性的回归与落地还需要多方面的共同努力。站在技术开发者的角度看问题,如何将复杂的人类道德及人类价值理性观点转化为可以被人工智能技术接受的技术语言,提升技术的理性与合理性,在人工智能技术中把握人类的主导作用,进行“价值纠错”机制的有效探索,成为技术领域利用技术方式推动伦理机制完善的当务之急。
(二)微观上:加强监管与行业自律;加快视频换脸技术识别工具的开发
1. 技术行业加强自我监管,政府机构加强外部监管及立法
面对技术的伦理问题,事中、事后的监管必不可少,但“科林格里奇困境”的矛盾启发我们,技术评估与控制的最重要、最根本保障还是事前监管。在鼓励技术进步的同时,应该督促技术行业的行业自律,在技术层面上最大限度地消除负面影响,采取有效措施加强对新技术的安全评估,把人类的道德规范和价值理性合理地转化为人工智能技术可识别的语言。除此之外,政府机构也应当与技术行业一起,合作寻找规范技术伦理的破解之道。作为监管部门的政府相关机构应加强技术的事中、事后监管,规范审核机制,并推动相关立法,实现对技术标准和技术原则的法理建设。
面对“ZAO”可能存在的伦理风险及信息安全问题,2019年9月3日,工业和信息化部约谈该款APP相关负责人,要求其严格按照国家法律法规以及相关主管部门要求,组织开展自查整改,对公众与社会普遍对视频换脸技术及“换脸视频”的伦理质疑进行一定的回应。[4]视频换脸技术与“换脸视频”的发展还有一段很长的路要走,监管必须走在技术发展前面,在推动技术进步的同时,控制伦理风险对人类社会的伤害。
2. 加快视频换脸技术识别工具的开发,以技术对抗技术
如何使视频换脸技术及“换脸视频”通过合法、合理的使用赢得新的发展机遇?除了在大方向上推动建立规范的伦理规制机制进行制度性的安排、构建多元伦理责任主体以呼唤自律和负责任的精神、呼吁人工智能时代价值理性的回归、加强行业自律与外部监管之外,加快视频换脸技术识别工具的开发,能够作为针对性的、具体的手段在最大限度上回应视频换脸技术及“换脸视频”的伦理调适困局。
针对视频换脸技术及其生产出虚假的“换脸视频”可能带来的伦理危险,开发识别和破解工具是防治视频换脸技术及“换脸视频”作恶的较为直接的应对方式。识别技术的开发能够保障对制作与传播底线的兜底,加强技术操作行为的公开性,并通过机器识别的技术手段减少信息平台对视频内容进行审核的人工识别压力。目前美国国防部与教育机构合作研发了“反变脸”的人工智能刑侦检测程序,这套程序主要利用人类难以被模仿的生理信号,辨别由机器学习算法生成的虚假图片和视频。此外,研究人员正在开发一种可扩展的平台化工具,应对伴随着换脸类APP发展带来的伦理困局,以适应视频换脸技术和“换脸视频”的发展,对其进行有效的伦理调适。[5]识别技术应当始终走在发展的前头,以更好地规避视频换脸技术对人类伦理秩序进行冲击的可能性。
结语
人工智能技术为人类带来前所未有的创造能力,就视频换脸技术而言,它满足了普通人的想象力,给予了影视业新的生机,并为科技公司提供潜在的商业可能性。但技术绝非绝对中立的存在,在其不断发展的过程中必定会伴随着伦理难题,因此人工智能技术伦理的调适之路应当是一条永无止境之路。面对视频换脸技术及“换脸视频”的伦理争议,强行粗暴禁止视频换脸技术的使用,如此消极的处理方式不利于技术进步,更无益于人类社会的发展,也会让不见天日的技术地下产业更加猖獗。对此,我们应当直面技术、直面伦理难题,在宏观上呼吁人文主义的价值理性精神回归,构筑适应人类社会和谐发展的伦理规制机制,在微观上加强行业自律与外部监管,并进行识别工具的研发,引导人工智能视频换脸技术及“换脸视频”更加稳健的发展。
参考文献
[1] [英]玛格丽特·博登.人工智能哲学[M].刘西瑞,译.上海:上海译文出版社,2001.
[2] 彭兰.增强与克制:智媒时代的新生产力[J].湖南师范大学社会科学学报,2019,48(04):132-142.
[3] 马小茹.“超真实”的基本表征——解析鲍德里亚对资本主义症候的“诊断”[J].哲学动态,2019(03):54-61.
[4] 段伟文.人工智能时代的价值审度与伦理调适[J].中国人民大学学报,2017,31(06):98-108.
[5] 蒋晓丽,贾瑞琪.论人工智能时代技术与人的互构与互驯——基于海德格尔技术哲学观的考察[J].西南民族大学学报(人文社科版),2018,39(04):130-135.
[6] 邓环.科技文化:工具理性与价值理性的冲突及融合[J].科技进步与对策,2013,30(19):25-28.
[7] 李桂花,张媛媛.超越单向度的人——论马尔库塞的科技异化批判理论[J].社会科学战线,2012(07):30-32.
[8] 陈凡,贾璐萌.技术控制困境的伦理分析——解决科林格里奇困境的伦理进路[J].大连理工大学学报(社会科学版),2016,37(01):77-82.
[1]一度蜜“. AI 换脸”让我们知道:有图也不一定有真相![EB/OL](. 2019-03-01).http://k.sina.com.cn/article_3854820371_e5c3e41300100i786.html.
[2]智能相对论. AI 换脸之后,你还敢相信“眼见为实”吗?[EB/OL].(2018-08-06). https://www.admin5.com/article/20180806/869409.shtml.
[3][德]马克思·韦伯. 经济与社会(第一卷)[M]. 阎克文,译. 上海:上海世纪出版集团,2010.
[4]新浪科技. 人民日报海外版评ZAO:AI 换脸,别只顾着好玩[EB/OL].(2019-09-09).https://tech.sina.com.cn/i/2019-09-09/doc-iicezzrq4463951.shtml?cre=tianyi&mod=pcnews&loc=3&r=0&rfunc=76&tj=none&tr=12.
[5]新浪科技. AI 换脸终结者问世:美国防部推高精度“反换脸”工具[EB/OL].(2019-08-08).https://www.ithome.com/html/next/375589.htm.