关于人工智能时代新闻伦理与法规的思考.docx

关于人工智能时代新闻伦理与法规的思考.docx

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

?

?

关于人工智能时代新闻伦理与法规的思考

?

?

许向东

【关键词】人工智能?新闻传播?新闻伦理与法规?数据保护

TU984.2????????????A

【DOI】10.16619/ki.rmltxsqy.2018.24.006

人工智能是什么?它会如何发展?它会给我们的生活、工作带来哪些影响?由于学科领域的不同,关于其定义和边界很难形成共识。人工智能对传媒业的影响,包括如何提高新闻生产的效率,是否对新闻从业者造成职业压力,以及是否会对新闻伦理与法规产生冲击等,已经成为新闻传播领域的关注点。

人工智能引发了新闻伦理与法规的新问题

在传统媒体时代,传媒业相互竞争、追逐利润,引发了诸如虚假新闻、有偿新闻、媒体审判、新闻侵权等违背新闻伦理与法规的现象。当前,人工智能技术逐渐渗透到新闻产品的生产、传播过程中,在实现精准推送、高效生产的同时,也带来了新的伦理与法规问题。

数据的非法采集和过度分析。数据是人工智能时代的重要资源,拥有足够体量的数据是进行数据分析、深度挖掘的前提。因此,为了拥有大量的数据,数据的采集范围日渐广泛,采集方式也日渐隐蔽,无形中就增加了个人数据被非法收集和过度分析的风险。

信息剧增时代是一个生产大量数据和消费大量数据的时代,人们日益繁杂的社会活动在不断地产生着不可计量的数据。从所有权的角度来看,依据法律,每个人不仅拥有个人数据的所有权,而且有权利知道是哪些机构在收集自己的数据、收集了哪些数据、被收集的数据将用于何处,等等。如果在未告知对方的情况下收集个人数据,这就是一种违背职业伦理和相关法规的行为。

当前,社交媒体的普及和大数据分析技术的不断升级,不仅使得技术人员能够从看似没有价值的事物中提取信息,将其转化成有用的数据,而且也为大数据企业深入分析数据、找到数据之间的关联性提供了便利。一组孤立的、零散的数据也许不具备较高的价值,但是,如果与其他组数据放在一起考虑,发现其中的相关关系以及相关关系的强弱,将有助于我们比以往更容易、更清晰地分析事物,尤其是在发现商业价值,以及预测某类事物的发展趋势方面。“互联网+”为创造新的商业模式开辟了思路,而大数据分析技术则为实现商业价值奠定了技术基础。当前,为建设一个透明、高效的服务型政府,政府部门在逐渐开放数据库,一些网站尤其是社交媒体平台也不同程度地开放了用户的实时信息,这就为个别大数据商业机构提供了抓取和挖掘数据的机会。当数据(尤其是包含了用户个人的经济状况、社交范围的数据)间的关系被建立起来,这些数据越是被深度挖掘,其商业价值就越大。在传统媒体主导的时代,受众的注意力是最值钱的,而现在则发生了根本性变化,受众的透明度——所留下的各种行为痕迹(数据)更值钱、更好卖。因此,建立数据采集、数据分析的实施规则,有助于消除个人数据的违规采集和过度挖掘现象。

算法偏见和算法透明度。按照常理,算法作为一种数学表达,理应抛弃了人类在信息传播中具有的猎奇、歧视、偏见等不良因素,但现实并非如此。所谓的算法偏见(algorithmicbias),是指在看似客观中立的算法程序的研发中,其实带有研发人员的偏见、歧视等,或者所采用的数据带有偏见或歧视。[1]算法是通过数据运算来预测未来的,运算过程将涉及数据的质量、研发人员对数据的筛选等因素。其中,数据的体量、准确性、适用范围等直接关系到算法决策和运算的结果。在研发人工智能系统的过程中,研发人员所使用的训练数据的分布状况,以及对算法进行应力测试的过程,都会影响人工智能的决策与选择,使得各式各样的偏见、歧视被技术客观性的外衣包裹。另外,算法和数据驱动产品总是会反映其建造者的设计选择,如若程序员们本身带有偏见,那么编写出来的程序带有偏见就不足为奇了。[2]当前,算法偏见主要有如下几种:一是“互动偏见”,指在算法系统与用户互动过程中使算法产生的偏见,当机器被设定为向周围环境学习时,它们不能决定要保留或者丢弃哪些数据,也无法判断哪些数据是对的或错的;二是“潜意识偏见”,指算法将错误的观念与种族和性别等因素连结起来;三是“选择偏见”,指受数据影响的算法,导致过于放大某一族群或群组,从而使该算法对其有利,而代价是牺牲其他群体;四是“数据导向的偏见”,指用来训练算法的原始数据已经存在偏见了,机器不会质疑所接收到的数据,只是单纯地寻找其中的模式。如果数据一开始就被扭曲,那么其输出的结果,也将会反映这一点。[3]

算法的透明度问题本质上也是新闻生产的透明度问题。传统的新闻生产流程较为简单,从素材的采集加工,到编辑整合,再到播发,公众多多少少都有所了解。而披著“高科技”外衣的“算法”则让人感觉有些“高深莫测”了。诸如“是哪些人研发了这个算法”“这个算法的运算目的是什么”“谁对运算的结果负责”以及“设计推荐算法需要参考哪些指标”等

文档评论(0)

137****7707 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档