福建省福州第一中学2023-2024学年高二下学期7月期末考试 语文 Word版含解析.docx

福建省福州第一中学2023-2024学年高二下学期7月期末考试 语文 Word版含解析.docx

  1. 1、本文档共31页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

福州一中2023—2024学年第二学期第四学段模块考试

高二语文学科(选择性必修下)模块试卷(试题卷)

(完卷150分钟满分150分)

班级座号姓名

一、现代文阅读(35分)

(一)现代文阅读I(本题共5小题,19分)

阅读下面的文字,完成下面小题。

当前,生成式人工智能的状态可以被视为一种“灰箱化”,即介于完全可见可知可理解的公开技术和算法黑箱之间。人们通过提示词介入内容生成模式,并结合基于人类反馈的强化学习可以在一定程度上打开算法黑箱,但过程中始终存在的不可知与不可控处又带来了真实的忧虑和恐惧。在新技术语境下,新闻传播业面临的环境监管、资本干预、伦理消亡的不确定性并未减少相反,其可能带来更多关于真实性、平台资本主义、新闻伦理等方面的问题和挑战。充分了解生成式人工智能潜在的风险并保持警惕,是更好地理解人与技术的关系、保证技术向善的进路。

大众寄希望于通过人工智能鉴别假新闻的想法似乎难以实现。相反,人工智能正在生产出更多难以辨别的虚假新闻。本质上,生成式人工智能并不拥有自主检验内容真实性的能力,它生成、输出内容的质量取决于其数据库和模型训练的水平,它对内容的检验则取决于人类使用者的反馈和驯化。“一本正经地胡说八道”不止一次出现在生成式人工智能的实践中。而作为人工智能深度学习领域的一个分支,自动编码器、生成对抗网络等技术业逐渐被应用到深度伪造中,智能生产、操纵、修改数据,通过媒体传播虚假消息,给政治安全、经济安全、社会安全、国民安全等国家安全领域带来了诸多风险。其引发的真相危机将重构人、技术与媒介之间的信任关系与价值关系,为新闻传播带来失实风险、侵权风险和算法权力滥用等伦理风险。

社交媒体平台凭借强大的用户群体和雄厚的技术力量,迅速成为新闻消费者获取新闻资讯最为主要的途径。生成式人工智能的发展将使得平台权力进一步重构。如果说此前平台资本尚且无法脱离对内容产品的依赖,生成式人工智能则可以使它们进一步摆脱这一局面,从而延伸平台能力。生成式人工智能使数据的地位越发凸显。数据质量直接关系到生成内容的质量,而商业平台在语料库、用户资源上具备天然优势。相反,这一过程中用户将进一步失权。数据是平台最重要的资产,用户作为原始数据的生产者,却并不拥有数据的知情权与所有权。于是,在生成式人工智能的加持下,资本化的平台能够将其庞大的用户资源转化为可以盈利的数据,并在传播格局中占据更为主动的位置。在和生成式人工智能互动的过程中,用户在无知觉的情况下成为不断帮助平台训练、优化人工智能逻辑的数字劳工,却并不能得到自己应用的收益,智媒时代以来的数字剥削将被进一步扩大。另外,在缺乏约束的情况下,“按需生成”也可能成为商业平台的陷阱。商业平台以何种方式、何种程度使用用户的行为及隐私等数据资源是不可见的。用户向生成式人工智能吐露的信息越多,自身数据被资源化的程度越高,继而成为商业平台赢者通吃的一个环节。

人工智能技术已成为无远弗届和人类须臾不可离的强大力量,同时也带来了越来越多亟待应对的伦理困境与道德抉择。首先,生成式人工智能输出和生成内容的质量取决于它输入的数据及其模型训练的水平,如生成式人工智能的技术代表ChatGPT,它目前依然依赖其从特定时期网页中提取的大量文本数据和用户反馈强化学习来调整模型。借助网络爬虫得到的在线数据天然存在着偏见,不接入互联网的地区和不熟悉互联网使用的人群被排除在外,成为智能传播时代下的“隐形人”。其次,网络数据的质量令人忧虑。相当数量的研究发现,生成式人工智能模型中编码了偏见和刻板印象,会大量生成并在用户中传播看似准确却毫无意义的信息,它不仅未能便利沟通反而阻碍了沟通。而偏见和刻板印象加剧了群体间的撕裂。在被边缘化的少数群体中,生成式人工智能生产的内容正在扩大而不是弥合鸿沟,加重而不是缩减偏见。最后,隐私安全问题越发凸显。生成式人工智能超大体量的数据需求导致算法在抓取数据的同时,增加了用户信息泄露的风险。

美国认知科学家哲学家科林·艾伦和技术伦理专家温德尔·瓦拉赫提出,机器道德关乎人类的决策行为,故而人类不要把责任推给机器,而是必须坚守人类的价值观和伦理。数据伦理在生成式人工智能的发展中必须被强调,数据的归属权与使用权必须厘清,技术公司如何使用用户数据应当被纳入更清晰明了的框架范围内,这就要求我们必须对深度智能时代的伦理价值、伦理原则和伦理责任等问题展开必要的反思与追问。

(摘编自唐铮、林子璐《生成式人工智能与新闻业:赋能、风险与前瞻》)

1.下列对原文相关内容的理解和分析,不正确的一项是()

A.生成式人工智能的状态可以被视为一种“灰箱化”,它一方面被人们可知、可见、可理解,另一方面又在使用过程中始终存在不可知和不可控处。

B.生成式人工智能不能自主检验内容的真实性,只能依

您可能关注的文档

文档评论(0)

175****9218 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档