(一)现代文阅读Ⅰ
阅读下面的文字,完成小题。
材料一:
人工智能是指通过分析其环境而具有一定程度的自主性行动,以实现特定目标而显示智能行为的系统。近来研究更趋向于将人工智能定义为建立在现代算法基础上,以历史数据为支撑而形成的具有感知、推理、学习、决策等思维活动并能够按照一定目标完成相应行为的计算系统。目前众多基于人工智能的系统已广泛应用,如搜索引擎通过处理海量数据,将原本混乱的互联网以人类可理解的、可感知的形式呈现出来;无人驾驶通过传感器感知环境而实现转向、加速和制动。这些为增强与替代人类的活动和任务提供了变革潜力,逐渐提升了人类的感知、思考和对世界采取行动的能力。
人工智能具有以往技术无法企及的增强人类活动的特点,且在某种程度上以独立的、不可预测的方式通过采取精准行动而做出决策。一些学者认为,以大数据和算法匹配的人工智能正在不可逆转地重塑人类生活、工作和交往的方式,但与此同时也带来了公共安全风险、算法偏见问题、责任伦理问题等一系列的挑战。回溯人工智能发展历程,不管是符号主义、联结主义还是行为主义,其发展的核心是由数据驱动算法的不断升级和优化。数据是“基本驱动力”,而算法是“一种有限、确定、有效并适合用计算机程序来实现的解决问题的方法”。从技术底层逻辑来看,人工智能存在的不确定性风险主要来源于数据与算法:其一是数据的不当收集和处理。人工智能的发展以海量信息作支撑,各类数据信息采集覆盖于数字化空间中,如个人身份、网络行为等。如不采取合理的治理措施,人类将面临隐私“裸奔”的尴尬局面,进而触发极大的伦理风险。其二是算法内在缺陷及其不当使用。在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志,有可能将个人情感、社会观、价值观嵌入技术中,造成如算法失算、算法歧视、算法“黑箱”、审查难等问题,从而导致人工智能的“脱靶”现象,即背离既定的正面目标而产生相反的破坏活动。像ChatGPT,其强大的信息检索和数据存储功能确实给人类生活、工作带来了福祉,但如不对输出加以控制,可能生成种族主义、性别歧视之类有偏见的内容或有害指令信息,扰乱社会公平和正义。
(摘编自刘丹鹤 孙嘉悦《人工智能规制政策制定的风险与治理》)
材料二:
在人机互动中,人具有思想和情感,ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确,例如,男女之间的语言通常带有性别化表述特征,ChatGPT在互动问答中将形成普遍性的或“非人非机”双向训练的“中性化”融合式表述方式,主体的个性化语言特质在ChatGPT互动中试图链接理解它的普遍化特征,在语言主体间性过程中形成的语言“混合物”将对其话语风格和语言伦理产生影响,这是从生活方式到表达方式的改变,语言的趋同化或同质化将被规训并固定。这一改变是语言伦理领域的改变,表达方式的改变是文化学意义上的话语革命,但其不是语言伦理关于语言使用的道德准则和规范性话语价值的体现。赵汀阳认为,不能过于注重人工智能的“拟人化”,拟人化并不意味着否定有用性,而是人工智能试图拥有人的情感、价值观。人并不完美,将人工智能拟人化是非常可怕且消极的事情。真正的主体性在无限的驯化中成为智能机器人的训练客体,这是主体客体化的一种变现。ChatGPT将人的主体性话语转化为客体的结果,即人的语言物化症候。
ChatGPT的训练和被训练会规制与被规训,更加实在地呈现效果,如同ChatGPT掌控受众想象力的空间或方式,成为技术异化后统治人类的一门艺术。法国学者勒庞在《乌合之众:大众心理研究》一书中指出:“影响民众想像力的,并不是事实本身,而是它们发生和引起注意的方式。如果让我表明看法的话,我会说,必须对它们进行浓缩加工,它们才会形成一种令人瞠目结舌的惊人形象。掌握了影响群众想像力的艺术,也就掌握了统治他们的艺术。”人的从众心理将转变为从智能机器人心理,在广泛的社会语境中被认为是个性化的叙事方式被人工智能以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人的价值信仰、态度和行为产生重要影响,这既是值得关注的科技哲学问题,又是伦理问题。
人工智能正在接管学术界甚至世界,即使这一担忧不是主要的,却将长期存在。人工智能模型可以快速复制已有学术文献,虽然其复制的文献没有出处,没有正确性的考证来源,但ChatGPT会不断产生其认为的客观答案,生成虚假的学术文本,其对学术道德的影响是深远的。因此,使用人工智能模型时仍需谨慎,ChatGPT被视为“嘴替”或“文替”,数据的滥用或对知识的不完整性采用,将为错误信息的传播埋下风险和隐患。在使用ChatGPT的过程中要遵循学术伦理,以确保学术的真实性和公正性。人工智能被界定为在某一情境中采取最好可能行动的理性行动者,而不能在实践中走向道德理性的反面。在伦理规则方面,2021年,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出“将伦理道德融入人工智能研发和应用的全生命周期”。吴沈括认为,在人工智能治理过程中,伦理和法律应在不同层次相互配合,唯有如此,才能在不同程度的风险处置过程中形成有效且广泛的保护网络。对于人工智能发展过程中产生的中高风险,需要用法律划定行为红线,最大限度降低风险程度。
(摘编自令小雄 王鼎民 袁健《ChatGPT爆火后关于科技伦理及学术伦理的冷思考》)
1.下列对材料相关内容的理解和分析,不正确的一项是( )
A.人工智能是一种计算系统,它以现代算法为基础,以历史数据为支撑,具有人的某些思维活动。
B.人工智能在增强人类活动方面具有以往技术无法企及的优势,它可以通过采取精准行动做出决策。
C.人工智能是复杂的电脑代码程式,并不具有情感或价值偏见,但在开发过程中可能嵌入人的主观意志。
D.人工智能改变了个性化的叙事方式,这一改变会对人的价值信仰、态度和行为产生重要的影响。
2.根据材料内容,下列说法正确的一项是( )
A.人工智能为增强与替代人类的活动和任务提供了变革潜力,随着人工智能系统的应用,人类的活动将会被替代。
B.人工智能能够重塑人类生活、工作和交往的方式,它给人类带来巨大机遇的同时也带来了一系列的挑战。
C.人机对话中主体的个性化语言特质与普遍化特征相链接,人的主体性话语转化为客体的结果,主体性随之消失。
D.在人工智能治理过程中,只要伦理和法律在不同层次相互配合,就能在风险处置过程中形成有效广泛的保护网络。
3.下列选项,最适合作为论据来支撑材料二观点的一项是( )
A.比尔·盖茨认为ChatGPT的问世具有重大历史意义,这种人工智能技术的诞生不亚于互联网或个人电脑的诞生。
B.ChatGPT通过对话方式挖掘并分析数据,帮助学生了解自己的学习状态和需求,提供个性化的学习内容和学习建议。
C.2022年7月,李彦宏在百度世界大会上预言:“未来十年,人工智能生成内容技术将颠覆现有内容生产模式。”
本试题由一苇轩(高中语文题库)www.gzywtk.com进行考点归类细化整理
D.ChatGPT降低了学术不端的成本,可能会引发一系列诚信危机。学生用它代写作业或论文,会干扰正常的教学秩序。
4.如何规避人工智能存在的风险?请结合两则材料加以概括。
5.近日,有关专家呼吁暂停聊天机器人ChatGPT的进一步研发。请结合材料二,试分析这一做法的原因。
《人工智能规制政策制定的风险与治理》阅读题及答案
- 题目编号:28381
- 是否推荐:是
- 难度平均:3
- 质量平均:3
- 收藏次数:0
- 浏览次数:395
- 使用次数:0
- 创建时间:2023-04-01
- 上传用户:gzywtk
- 上传时间:2023-05-15
- 考点详细:现代文阅读-信息类文本
- 选文题目:人工智能规制政策制定的风险与治理 作者:刘丹鹤 体裁:多材料文本
试题内容:
试题答案:
1.C
2.B
3.D
4.①合理收集和处理数据,保护用户的隐私;
②弥补算法内在缺陷,正确使用算法;
③遵循伦理规则,不能走向道德理性的反面;
④用法律划定行为红线,最大限度降低风险程度。
5.①ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确;
②人工智能会以潜移默化的方式改变个性化的叙事方式,对人的价值信仰、态度和行为产生重要影响;
③容易诱发学术不端的行为,影响学术的真实性和公正性。
【解析】
1.
本题考查学生筛选并整合文中信息的能力。
C.“人工智能是复杂的电脑代码程式……”偷换概念。根据原文“在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志”可知,应是“算法”。
故选C。
2.
本题考查学生分析概括作者的观点态度的能力。
A.“人类的活动将会被替代”主观臆断。原文说的是“这些为增强与替代人类的活动和任务提供了变革潜力,逐渐提升了人类的感知、思考和对世界采取行动的能力”,说明人工智能只是为这些活动任务提供变革潜力,并不代表人类活动一定会被替代。
C.“主体性随之消失”主观臆断。原文说的是“真正的主体性在无限的驯化中成为智能机器人的训练客体,这是主体客体化的一种变现”,只是说可能会主体客体化,并没有说会消失。
D.“只要伦理和法律在不同层次相互配合,就能在风险处置过程中形成有效广泛的保护网络”逻辑关系不正确。原文说的是“吴沈括认为,在人工智能治理过程中,伦理和法律应在不同层次相互配合,唯有如此,才能在不同程度的风险处置过程中形成有效且广泛的保护网络”。选项混淆充分条件与必要条件。
故选B。
3.
本题考查学生分析文章论点、论据和论证方法的能力。
根据材料一原文“像ChatGPT,其强大的信息检索和数据存储功能确实给人类生活、工作带来了福祉,但如不对输出加以控制,可能生成种族主义、性别歧视之类有偏见的内容或有害指令信息,扰乱社会公平和正义”可知,该则材料的中心主旨是ChatGPT等人工智能有好处也会有坏处,需对其加以控制。
D.指出“可能会引发一系列诚信危机”“会干扰正常的教学秩序”等可能产生的不良影响,符合材料一主旨。
A、B、C仅仅描述了人工智能带来的技术变革与好处。
故选D。
4.
本题考查学生归纳内容要点的能力。
根据材料一原文“其一是数据的不当收集和处理”“如不采取合理的治理措施,人类将面临隐私‘裸奔’的尴尬局面,进而触发极大的伦理风险”可知,应合理收集和处理数据,保护用户的隐私。
根据材料一原文“其二是算法内在缺陷及其不当使用。在技术层面,算法就是一些复杂的电脑代码程式,并不具有情感或价值偏见,但是由于在编码、运用过程中离不开设计者和开发者的主观意志,有可能将个人情感、社会观、价值观嵌入技术中,造成如算法失算、算法歧视、算法‘黑箱’、审查难等问题,从而导致人工智能的‘脱靶’现象,即背离既定的正面目标而产生相反的破坏活动”可知,应弥补算法内在缺陷,正确使用算法。
根据原文“一些学者认为,以大数据和算法匹配的人工智能正在不可逆转地重塑人类生活、工作和交往的方式,但与此同时也带来了公共安全风险、算法偏见问题、责任伦理问题等一系列的挑战”“在使用ChatGPT的过程中要遵循学术伦理,以确保学术的真实性和公正性”可知,应遵循伦理规则,不能走向道德理性的反面。
根据材料二原文“吴沈括认为,在人工智能治理过程中,伦理和法律应在不同层次相互配合,唯有如此,才能在不同程度的风险处置过程中形成有效且广泛的保护网络。对于人工智能发展过程中产生的中高风险,需要用法律划定行为红线,最大限度降低风险程度”可知,应用法律划定行为红线,最大限度降低风险程度。
5.
本题考查学生筛选并整合文中信息,归纳内容要点的能力。
根据材料二原文“ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确,例如,男女之间的语言通常带有性别化表述特征”可知,是因为ChatGPT在涉及人类情感的细微之处或措辞的把握上并不准确。
根据材料二原文“人的从众心理将转变为从智能机器人心理,在广泛的社会语境中被认为是个性化的叙事方式被人工智能以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人的价值信仰、态度和行为产生重要影响,这既是值得关注的科技哲学问题,又是伦理问题”可知,是因为人工智能会以潜移默化的方式改变个性化的叙事方式,对人的价值信仰、态度和行为产生重要影响。
根据材料二原文“但ChatGPT会不断产生其认为的客观答案,生成虚假的学术文本,其对学术道德的影响是深远的”可知,是因为容易诱发学术不端的行为,影响学术的真实性和公正性。
- 评价此题:难度得分
- ☆
- ☆
- ☆
- ☆
- ☆
- 质量得分
-
- ☆
- ☆
- ☆
- ☆
- ☆