ag88环亚
联系电话
新闻中心 News center
联系我们 Contact us
  • 电 话:
  • 手 机:
  • 联 系人:ag88环亚总经理
  • 地 址:环亚国际ag88设计有限公司
人工智能时代的新闻伦理:行动与治理
来源:http://www.tg-zh.com 责任编辑:ag88环亚 更新日期:2019-04-02 07:18

  人工智能背景下新闻传播的生产工具和生产方式出现了巨大变化,尊崇客观、公正、最小伤害的新闻伦理传统面临冲击,研究范畴由新闻工作者、新闻机构、新闻受众延伸至智能技术和社交平台,它们在新闻伦理图景中的位置和行为模式也产生了变化。以算法伦理和大数据伦理为主要的逻辑起点,结合智能时代新闻传播模式的具体变化,从个体伦理层次、组织伦理层次和社会伦理层次厘清具体道德行动者的行动领域,可以更为清晰地展现各道德行动者之间的伦理互动结构,并且综合呈现人工智能时代的新闻伦理结构和不同责任主体之间的关系。

  【作者简介】赵瑜,浙江大学传媒与国际文化学院教授、博导。研究方向为传播政策、新媒体传播和伦理治理。主要著作有《从数字电视到互联网电视——媒介政策范式及其转型》《中国蓝——省级卫视创新发展的浙江实践》等。

  随着信息革命的深入,新闻传播业的生产工具与生产方式出现了巨大变化。人工智能不仅可以通过机器写作重塑新闻生产流程,还能通过智能算法革新新闻分发方式,更会对新闻传媒生态的信息终端、用户系统、互动模式等进行多方位重塑。在这种结构性变革的面前,传统新闻伦理学的研究与实践也面临着更加复杂的挑战。在新闻传播领域,机器写作、智能分发、算法推荐等技术带来了更具个性化的服务和更高的传播效率,但后真相、个人和国家数据安全、算法偏见、被遗忘权等问题,也激起了广泛的讨论。机器越自由,就越需要道德准则(温德尔·瓦拉赫、科林·艾伦,2017)。

  在科技进步主义话语主导社会发展的语境下,技术的制度化作用被进一步放大,新闻伦理的传统理论假设也需要在新的技术条件和社会环境下予以系统反思。媒体伦理通常是对两个问题的问责:“对什么负责?”“对谁负责?”(Glasser,1989:179),而人工智能发展到今日,我们可能要增加一个答案看似显而易见,却实则众说纷纭的问题:“谁来负责?”

  新闻及其生产惯例一直受到技术的影响(Parry,2011;Pavlik,2000),在演变的过程中,各种价值观被刻入其中形成新闻伦理共识。大众化报纸诞生以来,新闻业长期被期待为没有干预的事实再现,发展了客观性、中立性、可确认性和中介作用等价值(Dörr & Hollnbuchner,2017)。对客观性原则的反思,催生了调查性报道、解释性新闻,它们试图在报道和阐述之间取得平衡,并增加不同的道德价值面向以形成公众舆论(Selgado & Stromback,2012)。

  新闻传播的数字化和国际化对媒体伦理传统假定带来进一步的冲击。首先,在线新闻,特别是基于社交媒体的信息传播模式,使得传统的“验证新闻”及其严格的事实检查正在被非专业化的新闻形式取代(Kovach & Rosenstiel,2007)。新闻专业人员把控信息流的垄断地位被打破,传统媒体一直遵循的伦理价值,如客观公正、把关控制等,也被大量即时性用户生成的内容遮蔽。而全球化新闻业的出现,不仅导致文化价值的冲突,也产生了一个更难解决的问题,即如何设想和界定全球化新闻传播的相关责任(Ward,2011:208)。

  人工智能的两大支柱——算法和大数据,已经多维度地进入新闻传播领域,特别是智能推荐算法作为两者的集成,已经在信息传播领域产生巨大的影响。目前主流的推荐算法有三种:基于内容的推荐、基于协同过滤的推荐和基于时序流行度的推荐。

  基于内容的算法,其主要逻辑是受众偏好与新闻内容特征的匹配。通过用户特征数据和网络行为的分析,确立兴趣模型;利用分词技术等模式计算内容文本特征,选取两者之间相关度高的形成推荐列表。这种算法能够有效增加用户黏性,但对于个人信息的标签化分析,也容易引发个人数据安全性的争议。近期斯坦福大学研发的算法可以通过交友网站信息判定性取向,准确率高达91%(Yilun Wang & Michal Kosinski,2018),这一研究立即招致公众批评,也让公众对于算法的信息挖掘能力产生伦理质疑。

  协同过滤算法的基本逻辑是人以群分,通过计算用户的特征数据将其编入一个用户群体,按照群体共享度较高的偏好推荐内容。这种做法将计算单位有效地下降为群体,减少了数据处理量。谷歌新闻最早采取的就是这类推荐算法。但是这种算法的伦理困境在于容易产生信息茧房,且将人群分类可能产生潜在的算法歧视,不仅触犯个人隐私,而且易于强化社会偏见。

  基于时序流行度的推荐算法,将单位时间的瞬时点击率等动态特征作为考量因素,将特定时间窗口内流行度较高的新闻推荐给用户。这种算法模型很好地解决了内容冷启动问题,但是对于“标题党”和“三俗”信息的免疫力相对较低。

  信息聚合平台往往综合使用上述三种推荐算法,并且针对用户体验不断优化各指标的权重,以更好地预测用户行为。之前智能推荐算法的研发并没有置于新闻伦理的框架予以关切,使得互联网信息平台公司在算法的设置中很少内嵌传统新闻伦理价值。社交媒体时代,信息推荐和信息过滤等智能算法实际上具有了议程设置的功能,取代传统媒体引导舆论。而智能算法设计者没有受到传统新闻伦理约束,这就在一定程度上使得新闻专业主义的行业传统和价值基础,与智能算法的社会影响之间产生了鸿沟。Facebook的“偏见门”(Bakshy et al.,2015;方师师,2016;韩鸿、彭璟论,2016)和算法推荐下“后真相”时代的假新闻泛滥(迈克尔·舒德森、周兰,2017;彭兰,2017;史安斌、王沛楠,2017;潘忠党、陆晔,2017;支庭荣、罗敏,2018),也许就是不受传统新闻伦理约束的信息智能系统所造成的社会代价。

  过度依赖算法推荐的新闻价值排序,会产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护的问题。目前有两种伦理风险已经引起广泛的关注:数据安全和算法偏见。

  机器学习是一种从数据中挖掘和发现固有模式的一种方法。机器学习的有效性取决于用来进行训练的数据质量和数量,机器是否有权进行个人信息挖掘等问题引发了重大的伦理争议。

  算法偏见和纠偏也是一个伦理关注焦点。2018年美国公民自由联盟批评亚马逊Rekognition人脸识别工具。经过测试表明,对于肤色较深的人,Rekognition的识别效果较差。谷歌所研制的图像标注系统曾错误地将黑人标记为“大猩猩”(Sandvig et al.,2016),这就不得不让人们对算法强化社会原有偏见的可能性充满忧虑。

  以欧盟为代表的国家和地区开始强势介入人工智能立法,《通用数据保护条例(GDPR)》的实行产生了巨大的行业震动,导至行业寒蝉效应。相对于规制硬约束,在人工智能社会构建前景尚未明朗之前,伦理软约束则更加适合。有效的伦理治理需要分清楚责任主体,特别是在智能技术深度介入新闻信息传播的当下,一些原本不在新闻伦理探讨范围内的行动者进入该领域,他们的作用和问责方式,亟待理论梳理。

  一般意义上,伦理是“对我们应该做的事情的研究”(Merrill,2011:3)。在元伦理和规范伦理学层面,伦理研究通常被区分为三种传统。首先是强调人类相互作用的责任和义务的道德义务论,康德认为可以通过相关正式准则,特别是普遍性准则将道德规则和其他行为规则区分开来(Kant,1785)。其次是边沁(Bentham,1785)、密尔(Mill,1962)开创的功利主义传统。该传统把最大化社会效用作为最基本的道德准则,这种传统也被称为后果论。最后是美德论,核心问题不是正确行动,而是美好生活,道德也不在于行事原则,更在于人们的品质,这就重回亚里士多德 “我应该成为什么样的人”的经典论述。

  在应用伦理学层面的分析中,基于问责的考量往往需要区分道德行动者。一般认为,具有道德意向性和能动性,并具有行动力和对自身行动的解释能力(Taylor Paul,1986:14),是道德行动者的基本条件。技术人工物一定程度上突破了伦理道德的人类中心主义,伦理学家开始将意向性视为道德能动性的一个“不错但却不必要的条件”,与道德能动性相关的唯一事物是行动者的行为是否是“道德上可修饰的”,即是否引发道德上的善或恶(Floridi L,Sanders J W,2004)。

  新闻伦理属于应用伦理学研究,研究起点是基于行业的实际伦理难题进行价值判断。现代性大众传播观念和伦理观念根植于以启蒙运动为代表的知识革命,笛卡尔、洛克、弥尔顿、穆勒等学者的经典论述是其中的主要智识资源。施拉姆结合媒体发展现实指出,如何妥善处理大众品味、企业盈利和社会责任三者的关系是大众媒体面对的主要问题(Wilbur Schramm,1957),其中知情权和隐私权、表达权和名誉权持续产生张力,就此,政府、媒体和公众成为新闻伦理关系的核心行动者。

  人工智能时代,随着算法在不同的生活领域产生建构性影响,算法作为内容创建者的制度化引发了专业新闻的各种伦理挑战。其中,互联网信息平台公司,对算法研发起到核心作用的工程师团队,甚至是技术本身是否应该作为伦理行动者进入了新闻伦理的话语框架,值得细致分析。

  新闻伦理的传统行动者。(1)政府:伦理治理的规则制定者与底线管控者。变革性技术总是同时带来正面和负面效应,人类也逐渐摸索出一套技术控制模式。这种模式一般包含两个方面,其一是社会规范性的,如法律、法规;其二是技术性的,即对技术设计和运用制定标准。这两项工作都需要国家,甚至国家间的合作方能达成。

  对于人工智能的管理,政府显性地扮演两种角色。首先,是在国家战略层面,通过行业规划和部署,将技术开发、建建设想防火尺度5月1日实施,产业发展作为核心战略要素,在国际竞争的语境下予以通盘考虑。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018~2020年)》等政策,让中国的人工智能发展有了明确的时间表和路线月美国政府出台了“美国国家人工智能研发规划”,加拿大、英国、德国、法国等国家也针对人工智能研究和机器人设计出台专门的战略规划和规范性报告。其次,是从司法实践角度,各国也有专门法规,如欧盟《一般数据保护条例》和美国《人工智能未来法案》等。

  值得注意的是,各国对人工智能的伦理反应早于立法研究,欧盟于2006年发布《机器人伦理路线年韩国工商能源部颁布《机器人伦理宪章》等,体现政府相关部门对人工智能伦理治理的关注。这些伦理研究报告其实在为其后的立法和规制进行伦理学和法理学的筹备,对自主智能体的主体地位、问责模式和人类行为规范,作了初步设想。

  著名的“科林格瑞治困境”指出了技术评估的两难困境:在技术发展的早期控制其应用方向相对容易,但此时决策者缺少合理控制的专业知识;当技术应用的风险显露时,对它的控制却几近不可能(卡尔·米切姆、朱勤、安延明,2007)。各国政府的人工智能伦理治理和立法实践如此迅速,某种程度上也在规避上述规制困境,尤其是人工智能被普遍认为是一个具备高度社会建构性能力的系统,各国政府不约而同采取了相对前置的治理模式。

  (2)媒体:新闻伦理的日常践行者。媒体是新闻伦理中最为核心的部分,因为传统新闻生产、分发都在该系统内完成。自1923年美国报纸编辑协会提出美国首个新闻业自律规范《报人守则》,新闻伦理就与新闻工作者的职业伦理和行业自律挂钩。

  在前互联网时代,新闻伦理通常与报道内容及其选择相挂钩,责任、独立、真实准确、公正、公平等原则以不同的形式予以表达。在绝大部分的媒体体制之下,媒体不仅具有社会公共性,本身作为承担一定经营活动的组织,也需要考虑经济层面的可持续发展问题。因此,大众化媒体如何处理公共服务和商业利益之间的张力,以兼顾经济效益和社会效益,是新闻伦理的主要关切点。在此间所产生的媒体与国家的关系、媒体与社会的关系、媒体与个体的关系,也是新闻伦理的核心焦点。

  社交媒体和智能推荐算法的结合,改变了受众获得信息的主要渠道和接受模式,传统媒体的议程设置功能受到较大冲击,部分媒体开始被迫跟随社交媒体表达模式改变自身的新闻生产方式。但是2016年美国大选所引发的“后真相”讨论,恰恰说明社会仍然需要“不可爱的新闻界” (迈克尔·舒德森、周岩,2017)。潘忠党、陆晔(2017)认为“后真相”一词的流行更加凸显新闻专业主义不仅是对媒介和新闻从业者的职业期许,更是全社会所遵循的文化价值体系的一部分。新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范。(潘忠党、陆晔,2018)

  (3)公众:“用脚投票”的新闻伦理批评者。自20世纪20年代杜威和李普曼的争论为起始,公众是具有公共目的的社会有机统一体,还是原子化的消极“幻影”,存在根本性的学术分歧。而学术界对公众在新闻传播系统中的作用,也始终存在争议。

  在传统新闻传播中,公众作为信息的接收者,处于被动地位。但是即便在这种相对的被动位置中,施拉姆指出阅听大众应以传播动力的主要推动者自任。大众的基本责任是运用一切可能,使自己成为机警而又有鉴别能力的阅听大众,学习如何运用媒体,并积极地对媒体展开睿智的批评(Wilbur Schramm,1957)。

  在人工智能时代,“你关心的就是头条”的算法逻辑,使得公众或者说用户的地位得到了进一步提升。信息平台认为自身不存在新闻立场,算法的主要目的在于加强用户的黏性。2016年以来,Facebook推出一系列机制,强调保障用户对最终内容的选择权,其中尤为强调3F原则(Friends and Family First),即好友分享的优先级高于新闻媒体发布的消息。这一算法权重变化的目的在于,从“帮助你找到相关的内容”转向“实现用户有意义的社会互动”,即促成用户间的讨论和深度参与。赋权用户而非传统强势机构,是算法所强调的平权价值。但是其后所引发的虚假消息充斥社交媒体,也是传统机构媒体权重下降后的副作用。

  人工智能系统非常有效地通过用户日渐增多的网络行为数据进行精准内容推荐,公众是被动接受偏好的信息从而陷入信息茧房,还是有意识地通过综合使用媒体平台,形成更加理性而多元的社会认知,其重任日益集中到个体自身。因此现阶段至少可以相对确定地说,公众作为新闻伦理的行动者,在人工智能时代所肩负的责任将更加重大。

  人工智能时代的新增新闻伦理行动者。当下,互联网信息平台公司在新闻传播过程中产生了日益重要的中介作用,传统关于信息和新闻的分野也变得模糊。弗洛里迪在《信息伦理学》中指出,信息是一种资源、一种产品,也是一种目标。借助信息与通讯技术手段为媒介的信息生产与传播引发了伦理后果,合理应对这些后果需要更多的智识动员和道德行动者(卢恰克·弗洛里迪,2018)。

  在线平台传统上不属于新闻传播范畴,互联网企业也往往不承认自身的“媒体”性质,而倾向将自身描述成信息传播的基础设施,平台上传输和交换的是数据(data)而非传统意义的新闻内容。但是当人类的交往活动和商业活动日益集中到网络平台,互联网信息平台公司的角色就发生了变化。研究指出,像谷歌、Facebook这样的公司往往起步于具体的垂直应用,例如搜索、社交,但是为了将用户进一步固定在自身的商业平台上,他们的功能日益多元。因此在更加广泛的意义上,网络生态嵌入了更广大的社会文化和政治经济语境之中(Jose Van Dijck,2013),这一趋势伴随着科技所导致的社会形态变化,变得势不可挡。

  近年来互联网信息平台公司已经成为传播伦理的核心关注区域。2018年Facebook的扎克伯格和今日头条的张一鸣,近乎在同一天面对主管部门的质询,并向公众道歉。

  Facebook信任危机的触发点在于个人隐私泄露最终形成干预选举的危害。据披露,Facebook上超过5000万用户信息数据被一家名为“剑桥分析”(Cambridge Analytica)的公司泄露,用于在2016年美国总统大选中针对目标受众推送广告,从而影响大选结果,此事在世界范围内引发了轩然大波。扎克伯格就此接受美国国会质询。

  而字节跳动公司则因旗下产品存在低俗内容和导向问题,受到主管部门处罚。应用市场下架了今日头条客户端,并暂停服务三周;“内涵段子”客户端软件及公众号被责令永久关停;短视频应用抖音APP删除了所有用户评论。此后“今日头条”品牌口号也从“你关心的就是头条”转变为“信息创造价值”。

  对互联网信息平台上存在的伦理失范内容,平台应该承担怎样的法律责任,学术界存在争议,也存在实际的问责困境。被广泛应用的避风港原则成为互联网平台抗辩的主要依据,判定并不直接生产和编辑内容的互联网平台企业侵权,难度很大。但平台企业在内容处理方面的失误,将极大地影响社会,因此它们不可避免地需要承担平衡不同权利主体的重任。尊龙人生就是博旧版,但是直到最近,遏制非法、不恰当内容的重任始终在用户身上,平台主要通过举报来发现类似信息。

  当然,平台主动遏制它所界定的不适宜行为,也面临挑战。例如Facebook公司曾经通过机器鉴别遏制裸体展示,哺乳妇女的照片和反映越战的知名摄影作品《战火中的女孩》也因此归入此类,这两件事都让Facebook公司承受了巨大的压力,并引发关于平台歧视的担忧。总体而言,平台公司类似举措都容易导致偏爱主流人群而压抑边缘人群的结果。虽然类似举措未必隐含制度化和规模化的群体歧视,但的确提出平台如何更好履行责任的疑虑(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在线平台日益发现,算法可以有效增进用户黏性,却在内容审核和审美品鉴方面无法全面掌握复杂而多元的人类行为变量。例如,机器目前对于模式不断转换且非常主观化的仇恨言论,判定表现就不是太好。

  关于人工智能时代的平台责任的讨论,往往也牵扯出智能技术本身的伦理主体地位问题。在广为引用的《关于人工能动者的道德》一文中,牛津大学教授弗洛里迪和桑德斯依据行动者之互动关系标准,确立交互性、自主性和适应性三个标准以判定智能技术是否具备伦理责任主体地位。他们认为,一个与其环境持续产生交互的系统,如果在没有响应外部刺激的情况下也能行动,也有在不同的环境中行动的能力,这个系统就可以被视作行动者(Floridi L,Sanders J W,2004)。

  伦理学界对技术人工物的道德主体地位存在较大争议。在新闻伦理的探讨范畴中,智能技术对信息传播权重的计算的确在很大程度上影响了新闻信息交流活动。但是直到目前,智能技术尚未完全达到自主性和适应性,将其判定为独立的伦理行动者论据不足。

  所以就目前的技术发展状况而言,更为重要的是确立互联网信息平台公司的新闻伦理地位。依据目前他们在人类信息传播活动中的重要性,以及他们实际可以起到的信息推荐中介效应,互联网信息平台应该被纳入新闻伦理的范畴,并作为其间一个重要的机构行动者予以关照。

  平台也开始意识到自身的伦理主体责任,主动开始在技术研发和产品开发的过程中嵌入伦理考虑。2016年9月,亚马逊、谷歌、Facebook、IBM和微软宣布成立一家非营利组织:人工智能合作组织(Partnership on AI),目标是为人工智能的研究制定和提供范例,推进公众对人工智能的了解,并作为一个开放的平台来吸引民众及社会的参与和讨论。目前各国的司法实践,也在强迫他们认识到自身不仅需要承担技术伦理和商业伦理,也需要在新闻伦理的框架内规制自身的行为。

  综上所述,人工智能时代新闻伦理的道德行动者出现了变化,显性地表现为增加了一个重要的机构行动者,我们姑且将它们称为互联网信息平台公司。与此同时,传统的道德行动者——政府、媒体、公众,它们在伦理图景中的位置和行为模式也产生了变化。政府在规制方面采取了更加前瞻式的模式以应对变革性技术的社会构建动能。公众在人工智能时代的个性化信息服务背景下,其伦理素养和媒介素养变得更加事关全局。而传统媒体机构在算法推荐逻辑下,面临权重下降的境遇,其传统新闻生产流程和伦理价值面临冲击。

  为了更清晰地展现各道德行动者之间的伦理互动结构,有必要进一步区分不同行动者的区位。个人伦理层次、组织伦理层次、社会伦理层次的区分有助于进一步明晰对此问题的论述。

  第一,个人伦理层次,主要包括新闻专业主义和工程师伦理。传统新闻伦理具有很强的个人伦理色彩,记者、编辑就自己生产的新闻内容承担风险、享受赞誉。尊龙d88.com新三板收购梵雅文化在新闻专业主义理论体系下,个人层次的伦理认知,不仅是职业认知的重要组成部分,也是新闻机构权威性的主要来源。客观、公正、服务公共利益,是新闻工作者长期珍视的伦理传统。

  自动化新闻平台将工程师也纳入新闻传播领域,他们所编写的代码直接影响新闻伦理。因此工程师团体需要通过合理的结构代码完成其伦理责任。

  责任是知识和力量的函数。在智能信息时代,科学家、工程师不仅人数众多而且参与社会重大的决策和管理,他们的行为会对他人、对社会带来比其他人更大的影响,因此他们应负更多的伦理责任(曹南燕,2000)。

  在过去25年中,工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响,以及此过程中他们对他人价值观的敏感度(Wallach & Allen,2008)。2000年,美国工程和技术认证委员会(ABET)在其标准中明确指出,工程教育必须证明他们的学生“对职业和道德责任的理解”(Downey et al.,2007)。奥巴马政府2016年10月将“理解并解决人工智能的道德、法律和社会影响”列入美国国家人工智能战略,并建议AI从业者和学生都要接受伦理培训(曹建峰,2016)。

  与此同时,鉴于大量的媒体内容来自用户生成内容,涉足其间的个体制作者及其伦理素养也在此列。目前在直播和短视频平台时常出现伦理失范行为,个体内容生产者是直接的道德行动者,需要在与平台伦理原则磨合的过程中形成行为规则共识。

  对于亚里士多德来说,具备关于伦理规则的知识和自觉遵守伦理规则的能力是两个不同的方面。只有当人们在内在本性和对善生活的追求基础上,自觉地尊重伦理规则,才是符合伦理和美德的个体(麦金泰尔,1996)。在内容庞杂的社交媒体和互联网信息平台中,美德论对于个体层次的伦理治理,也许具有更大的启示意义。

  第二,组织伦理层次,主要涉及新闻组织和互联网信息平台。传统新闻媒体对其生产的内容及其经济运行负有伦理责任,与此同时,媒体的言论对政治、经济和社会都有巨大影响。虽然在传统生产流程中,记者作为显性的新闻伦理践行者,对自身的报道肩负伦理责任,但是媒体承担着重要的把关功能,并在科层式的生产模式中内化组织宗旨和目标。在媒体组织内部,知情权与隐私权、表达权和名誉权的权衡,公共服务和经营目标的平衡,形成多组竞争性伦理价值,需要在新闻媒体组织层面根据其伦理传统针对具体问题予以价值排序。长期以来,客观、公正和最小伤害成为十分重要的组织伦理出发点。

  到了人工智能时代,互联网信息平台实际上部分起到了新闻媒体的功能。与传统新闻媒体更多关注新闻的生产不同,目前的互联网企业并不直接涉足新闻内容制作,但是其推荐算法实际在对新闻价值的不同维度予以赋值,随着越来越多的民众将互联网作为主要的新闻信息来源,互联网信息平台在新闻分发和互动环节产生了巨大的动能。互联网信息平台的伦理关注点主要在数据和代码(算法)两个体系,如何合理利用平台积淀的用户数据,如何合理通过算法的中介,提高社会总体福利水平,是此类组织的伦理责任。

  目前技术本身的伦理地位也存在争议,在用户偏好挖掘的机器学习机制中,平台公司会部分采取无监督学习模式,这使得学习结果存在客观上的算法黑箱。这也是智能系统设计的悖论:一方面系统需要更大的自由度以体现其智能效能,但具备自主学习能力的系统在技术上和伦理上都存在风险;另一方面,若将伦理规则嵌入智能系统,那么设计出来的系统就缺乏充分的灵活性,也就不够“智能”。但是从目前的伦理问责和司法实践看,互联网信息平台作为算法的直接开发者和版权所有者,有义务将智能系统设计为道德智能体,将社会长期珍视的伦理价值内嵌至平台系统。据此,大众传播责任的两种形态行动——自律制度、专业精神,同样适用于互联网信息平台公司。

  第三,社会伦理层次,包括政治和公众两个维度。在政治维度,如何处理互联网信息平台、新闻媒体和社会其他部门的关系,如何管理技术的发展方向、媒体信息的作用范围,是政治层面关注的焦点,也因此与新闻系统产生权力博弈和伦理话语冲突。

  电气和电子工程师协会(IEEE)2017年发布《人工智能设计的伦理准则》白皮书(Ethically Aligned Design),这份报告不仅对工程师群体的伦理设计提出要求,并且在宏观上希望政府、司法机构审慎使用数据,必要的时候严格测试和评估内嵌于系统的伦理原则和运算逻辑。而且政府和产业利益相关者需要明确,哪些核心决策权不能交由智能系统。

  因此在更加宏观的社会伦理治理层次,政府作为主要的道德行动者,需要从社会整体福利水平和国家信息安全的高度理解人工智能系统的信息中介效应,对其引导舆论、影响个体的能力保持伦理警觉,并逐渐清晰政府的管控底线。

  在公众维度,以往新闻很大程度上依赖于记者的信誉,如今在网络信息发布过程中,受众不再被动,任何人都有权利批评报道、增加事实和发表评论。就此,新闻发表从个人化的行为(组织化的行为)转变为公共的行为(Ward, 2011)。在智能时代,公众的伦理素养至少包含明确是谁作出或者支持智能系统的伦理决策,并且理解自动技术系统的社会影响的能力。公众需要更加清晰智能系统的运作模式和社会影响机制,运用理性力量加强自身的信息自律能力,而不要成为机械刺激性快乐的被捕获者,从而丧失了对康乐生活的追求和反思能力。

  媒体的智能化,大大延伸了媒体的外延,将新闻传播推向“万物皆媒”的时代。新闻伦理学的研究范畴也随之由新闻工作者、新闻机构、新闻受众延向了传播技术和社交平台。由于人工智能技术的出现,更多的行动者开始参与或影响新闻的生产与发布,新闻工作者不再是唯一的道德行动者,泛信息系统,特别是互联网信息平台的影响力正在逐渐上升。

  自治、公平、正义、责任、服务公共利益等原则是长期以来新闻伦理的基本组成部分。智媒时代,除了进一步坚持传统媒体伦理价值体系之外,还需要融合基于技术和平台的伦理要求。机器人伦理提出的人的尊严和人权、责任、透明度、避免滥用和共生繁荣等原则,也是人工智能时代新闻伦理的智识来源。而互联网平台公司,如谷歌提倡的“七条准则”:有益于社会、避免创造或增强偏见、对人们有说明义务、根据原则确定合适的应用等,也同样适合新媒体背景下的新闻伦理。

  (本文系“数字化变革中媒体从业者伦理胜任力建模及提升策略”课题的阶段性成果,课题编号:2018FZA121;同时受中央高校基本科研业务费专项资金资助)

  曹建峰,2016,《人工智能:机器歧视及应对之策》,《信息安全与通信保密》,第12期,第15~19页。

  曹南燕,2000,《科学家和工程师的伦理责任》,《哲学研究》,第1期,第45~51页。

  方师师,2016,《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》,第9期,第39~50页。

  韩鸿、彭璟论,2017,《智媒时代社交媒体的社会责任——对2016美国大选中Facebook假新闻事件的反思》,《新闻界》,第5期,第89~93页。

  [美]卡尔·米切姆、朱勤、安延明,2007,《关于技术与伦理关系的多元透视》,《哲学研究》,第11期,第79~82页。

  刘则渊、王国豫,2007,《技术伦理与工程师的职业伦理》,《哲学研究》,第11期,第75~78页。

  [英]卢恰克·弗洛里迪,2018,《信息伦理学》,薛平译,上海译文出版社。

  [美]阿拉斯戴尔·麦金泰尔,1996,《谁之正义?何种合理性?》,万俊人、吴海针、王今一译,北京:当代中国出版社。

  [美]迈克尔·舒德森、周岩,2017年,《新闻的真实面孔—— 如何在“后真相”时代寻找“真新闻”》,《新闻记者》,第5期,第75~77页。

  潘忠党、陆晔,2017,《走向公共:新闻专业主义再出发》,《国际新闻界》,第10期,第91~124页。

  彭兰,2017,《更好的新闻业,还是更坏的新闻业?——人工智能时代传媒业的新挑战》,《中国出版》,第24期,第3~8页。

  史安斌、王沛楠,2017,《作为社会抗争的假新闻——美国大选假新闻现象的阐释路径与生成机制》,《新闻记者》,第6期,第4~12页。

  [美]温德尔·瓦拉赫、科林·艾伦,2017,《道德机器:如何让机器人明辨是非》,北京大学出版社。

  支庭荣、罗敏,2018,《“后真相”时代:话语的生成、传播与反思——基于西方政治传播的视角》,《新闻界》,第1期,第54~59页。

Copyright © 2013 ag88环亚,环亚国际ag88,ag88环亚国际,ag娱乐手机官方网站 All Rights Reserved 网站地图 ICP备案编号: