摘 要:全球范围内,生成式人工智能在教育领域的运用正日益受到关注。通过深入探讨生成式人工智能在教育领域的应用及其治理策略,旨在揭示其在国外的进展和未来发展趋势,并针对发现的应用问题提出解决方案。当前,生成式人工智能在输出内容可信度、信息来源多样性、数字偏见、师生主体地位受到挑战等方面面临诸多伦理风险困境。通过分析国外教育领域生成式人工智能应用及治理案例,发现内容可信度和内容使用权是教育应用治理的重要考量,教育主体性和教育行业价值是教育应用治理的核心要义,使用指南和监管政策是教育应用治理的守门防线。其主要治理举措包括赋予算法“真善”的价值导向,构建顶层政策引领导向,实施有道德的主体责任研究导向,并针对我国教育领域人工智能发展实际情况,构建“善用、善本、善防、善长”四个维度的智能向善治理策略,实现教育领域生成式人工智能应用的可持续发展。
关键词:生成式人工智能;智能向善;治理;教育;应用
中图分类号:G434
文献标志码:A
文章编号:1673-8454(2024)10-0054-09
作者简介:柳晨晨,温州大学教育学院副教授、硕士生导师,博士(浙江温州325035);李运娇,温州大学教育学院硕士研究生(浙江温州325035);王佑镁,温州大学大数据与智慧教育研究中心教授、博士生导师,博士(浙江温州325035)
基金项目:教育部教育管理信息中心国外教育研究2024年度委托课题“生成式人工智能对教育的影响、应对研究及数据库建设”(编号:MOE-CIEM-20230032)
一、问题的提出
人工智能在经历生成算法、预训练模型、多模态等技术的累积融合和迭代后,逐渐突破传统分析型人工智能范畴,迎来生成式人工智能的加速发展。2024年2月,OpenAI发布首款文生视频大模型Sora,这是继ChatGPT等大语言模型突破文本内容创作之后,人工智能技术首次解决现有文生视频工具难以解决的连贯性问题[1],再次提高了生成式人工智能在理解和创造人类感知内容方面的能力上限,给社会各层面带来极大的冲击力、想象力和震撼力。在教育领域,生成式人工智能能够扮演不同的角色,帮助学生理解问题并及时反馈,生成个性化的内容,在不断提高教育教学效率的同时,也引发了新一轮的技术恐惧和伦理忧思。面对生成式人工智能的发展浪潮,迫切需要明晰生成式人工智能信息生成的机制与内容的准确度,维护以人为本的教育主体性与教育的核心价值,为教育领域生成式人工智能应用提供一个全面的监管框架,并就人工智能技术的适当应用达成进一步共识。本研究通过分析国外教育领域生成式人工智能应用及其治理案例,梳理其关键议题和主要举措,对我国教育领域生成式人工智能应用治理提出相关建议,以期提升我国教育领域生成式人工智能的安全发展水平,实现智能向善。
二、国外生成式人工智能教育应用治理的关键议题
(一)内容可信度和内容使用权是教育应用治理的重要考量
从目前技术迭代情况来看,生成式人工智能正在获得生成语言的能力,也使区分生成的大量语句与人类书写的文本变得越来越困难。当人工智能生成内容(AIGC)逐渐逼近甚至超越人类创建的内容时,自然的人智交互体验为用户提供了便捷高效的信息服务,但也引发了不容忽视的可信度问题[2]。AIGC在为教育提供便捷的家校社联系、多语种的流畅交互等技术红利的同时,也面临资源质量良莠不齐、算法设计与人的认知发展弱关联等挑战[3]。算法“失算”容易导致偏颇性内容的生成,在英国的一项受访调查中发现,经常有报告称生成式人工智能工具产生不准确的内容、有偏见的结果、美国化拼写等问题。许多代表强调需要因此审查和纠正产出。这项调查还测试了多个生成式人工智能平台的评分性能,受访者指出没有一个平台足够准确[4]。
一些科学家已经在使用聊天机器人作为研究助手来整理想法,对他们的工作提供反馈,帮助编写代码,并审查文献。然而,许多图像生成式人工智能系统和一些代码生成式人工智能系统被指控侵犯知识产权。相关人员指出,GPT可能会违反欧盟《通用数据保护条例》第十七条的内容,该条例确立了被遗忘权。被遗忘权强调数据主体对其个人数据的充分控制权,赋予个人要求删除已过时的、不必要的、不(再)相关的个人数据的权利[5]。AIGC中如若包含个人信息则属于对个人信息的处理,应当遵守《中华人民共和国民法典》《中华人民共和国个人信息保护法》等法律法规,如果违反相关规则,未经个人同意处理个人信息,就会侵害他人的个人信息权益[6]。GPT模型是经过大量开源数据训练而来的,无法从模型中删除某人的数据或该数据的结果,由此导致的内容使用权问题值得商榷。可以看出,由于用户访问生成式人工智能工具不存在时间控制和权限限制,其信息权益和内容可信度需要进行规范。
(二)教育主体性和教育行业价值是教育应用治理的核心要义
人机交互失范易造成教育主体性受威胁。2023年5月,美国教育部教育技术办公室发布《人工智能与教学的未来:见解与建议》报告,指出生成式人工智能未来对教育和研究可能产生的影响。
首先是教育模式的转变,要谨防教育主体性失范风险。为破解智能时代技术带来的主体性危机,应以“培养人”为意向,坚守教育的价值指向,使技术意向性与教育目的性相统一[7]。此外,还需强化教师对生成式人工智能进行判断和控制的责任。也就是说,人必须处于核心地位。在这一过程中,除教师外,家长、学生、政策制定者、教育管理者等也应参与其中。
其次是研究效率的提高,要关注原创数据泄露危机。通过生成式人工智能工具进行编辑以及提供个性化的反馈,能够帮助研究者发展写作技能。然而,在写作过程中使用生成式人工智能生成文本和编辑,也引起了人们对作品归属、学术诚信、剽窃以及未能提升判断力和写作技能的关注。用户完全可以要求ChatGPT将一段已有文本进行改写,或综合分析多篇文章以概括主要观点并重新表述,从而达到剽窃的目的[8]。写作中的创造性和原创性是关键的学习成果,在写作过程中依赖生成式人工智能可能会威胁到这些成果。所以,应鼓励有指导地使用生成式人工智能。
最后是教育行业价值的凝练,必须要与生成式人工智能模型结合。尽管数字技术具有变革教育的潜力,但在实际推进过程中还存在着一些挑战,如果使用不当,反而有损教育教学的目的。总而言之,教育工作者不能把工作完全委托给人工智能,而要从教育目标出发,准确评估人工智能模型的适应性、有用性及潜在风险。
(三)使用指南和监管政策是教育应用治理的守门防线
公开可用的生成式人工智能工具正在迅速涌现,迭代版本的发布速度超过了国家监管框架的适应速度。生成式人工智能强劲的发展势头,引发了公众对其开发和使用中风险的关注,也加强了对控制和监管机制的呼吁。尽管大多数学者对教育中生成式人工智能的使用持普遍乐观态度,但几乎所有部门或组织都报告了一些对潜在风险的担忧,这些担忧通常具有高度的一致性。大多数国家或地区缺乏关于生成式人工智能的国家层面的法规,用户的数据隐私得不到很好的保护,教育机构在很大程度上没有准备好对这些工具进行验证和监察。
从国外的行动措施来看,德国正在努力加强政府各部门之间的战略协调,并制定相关程序[9]。英国在政府各部门开展工作,评估现有缓解措施中的差距规模和程度,并尝试采取进一步措施。美国规定人工智能活动的相关原则,制定联邦部门和教育机构必须遵循的具体政策,不断加强人工智能治理,以保护公民的权利和安全[10]。美国国家标准与技术研究院(NIST)于 2023年1月发布《人工智能风险管理框架》(AI RMF 1.0),并于2023年6月成立生成式人工智能公共工作组。究其原因,主要是生成式人工智能发展速度迅猛,其监管与使用准则相对滞后,造成使用与管理之间存在结构性不匹配。
三、国外生成式人工智能教育应用治理的主要举措
在探讨生成式人工智能在教育领域的应用治理之前,我们必须先理解其关键议题。本研究深入分析了生成式人工智能教育应用的核心问题,包括内容质量的保障、教育主体性的维护以及监管政策的完善。通过对这些问题的细致梳理,本研究旨在为构建有效的治理策略奠定基础,并确保生成式人工智能技术能够在教育领域内得到合理、安全和有益的应用。
(一)赋予算法“真善”的价值导向,降低虚假信息影响
生成式人工智能工具正在改变着教学内容的生成和提供方式。一方面,需限制低龄段学习者使用生成式人工智能工具,并提高适用年龄段使用工具的信息辨别能力和数字素养。当前生成式人工智能主要依靠用户输入的Prompt去生成内容,语言和逻辑直接决定着输出的内容质量。这表明,一个严谨且丰富的课程体系对学生仍至关重要。要培养ChatGPT所不擅长的,特别是人类独有的思维方式,即培养人的思维能力和解决问题的综合能力。未来人类与生成式人工智能对话生成的内容可能成为知识生产的主要来源之一,从而进一步改变基于人类创建和验证的资源、教科书和课程的教育内容。然而,人工智能生成的权威性低甚至虚假的文本容易误导那些没有足够的先验知识来识别不准确之处或有效质疑它的年轻学习者。学习者对未经验证内容的参与是否应该被认定为学习是需要界定的。这需要教育者理清内容的构成,将AIGC作为辅助而不是主要角色,科学合理地进行有效学习和教学。
另一方面,开发者需提高训练模型的可解释性和透明度。顾名思义,透明度要求的作用机制是通过提升人们对人工智能的认知,使之获得监督和防范人工智能风险的能力[11]。通过将伦理原则直接编码进算法中,开发者可以确保生成式人工智能的输出不仅准确,而且符合社会价值观。例如,IBM的Watson系统在提供医疗咨询时,其算法被设计为优先考虑患者的隐私和安全[12]。缺乏解释如何生成输出的方法往往会将用户锁定在由生成式人工智能系统设计的参数定义的逻辑中。这些参数可能反映了特定的文化或商业价值观和规范,隐式地生成偏颇性内容。这是由于算法具有不透明性,其作为一个黑盒子运行,因此难以知道产生特定内容的原因。
尽管人们普遍寄希望于通过算法公开来打开算法黑箱,实现算法透明。但单纯的算法公开不仅面临着商业秘密泄露的诘难,也无法真正对算法决策作出解释[13]。机构和教育工作者应重新思考教学设计,以便生成式人工智能工具能够更好地应用于教育领域。同时,建立生成式人工智能应用的使用标准,为研究人员、教师和学习者提供有关生成式人工智能工具的指导和培训,以确保他们了解数据标签和算法中的偏见等道德问题,并遵守有关数据隐私保护和知识产权的法律规定。
(二)构建政策引领导向,制定技术使用标准
制定生成式人工智能技术教育应用的使用标准,加强教育治理的规范性。可从国家战略规划出发,制定国家级人工智能战略,明确教育领域的发展目标与路径。同时建立和完善法律法规,确保生成式人工智能的使用符合教育伦理和数据保护标准。配合教育政策的整合,将人工智能教育应用纳入国家教育政策和课程标准。
一方面,教师、学习者和研究人员能够协同设计生成式人工智能安全且有效的使用策略。生成式人工智能模型已经证明其在扩展研究大纲、丰富数据探索和文献综述方面的潜力,但需要新的研究来定义潜在领域的能力,以证明其在多维度的有效性和准确性。这个过程还需要一个强有力的试点和评估过程,以审查不同用途的长期影响。
另一方面,使用者需要加强自身的规范意识,遵守使用指南,明确使用标准。研究人员、教师和学习者应该意识到,用生成式人工智能创建的图像或代码可能侵犯他人的知识产权,他们在互联网上创建并分享的图像、声音或代码可能会被其他生成式人工智能利用。在使用AIGC技术时,必须明确自身角色定位,对使用范围进行伦理规范,防止AIGC技术被滥用,确保AIGC技术本身遵守社会伦理规范、符合社会价值观[14]。研究人员、教师和学习者需要了解数据所有者的权利,并检查他们使用的生成式人工智能工具是否违反任何现有规定。
(三)遵循政策规范导向,明晰生成式人工智能实践准则
生成式人工智能工具的出现,正迅速改变着科学、艺术和文学作品的创作、传播和消费方式。因此,确定生成作品的所有权和原创性十分必要。康奈尔大学出台相关规定,学生或员工所拥有的原创研究或内容不应上传到生成式人工智能工具上[15]。因为它们可能成为全球认证工具所使用的培训数据的一部分。这些数据包括学生作业、项目或研究小组产生的数据、包含个人身份信息的数据、来自研究伙伴或公司的可能包含专有信息的数据、受版权保护的数据等。未经版权所有者许可,未经授权复制、分发或使用受版权保护的作品侵犯了其专有权,有可能会导致相应的法律后果。
可见,在教育研究中明确生成式人工智能应遵循的实践准则变得越来越重要。除此之外,研究人员和教师还需要学习生成式人工智能方面的专业知识。应坚决维护教师的育人主体性,无论是备课、授课、课后辅导、作业评价等教学过程,还是学生思政教育、三观引导等育人过程,教师如果过度依赖AIGC,将逐步丧失育人的主体地位[16]。教育领域引入生成式人工智能应用需要考虑多种复杂的因素,研究人员和教师必须接受高质量的培训,政府机构必须就生成式人工智能的适当使用提供详细、规范的指导。
(四)落实主体责任导向,完善使用与监督机制
确立以伦理为基础的准则,指导生成式人工智能在教育中的研究与应用,确保技术的发展与人类价值观、社会伦理相协调。采取跨国和跨学科的方法,以便有效和道德地使用生成式人工智能进行教育和研究。对于上述问题,只有通过利用一系列专业知识并汇集多个利益相关方,才能及时确定关键问题并有效地解决这些问题,以最大限度地减少负面影响。制定负责任的人工智能准则和监管框架需要多主体协同发力。
一是与人工智能供应商、教育工作者、研究人员、家长和学生的代表合作,规划课程框架和整体调整评估方法,以便充分利用生成式人工智能的潜力,降低风险。二是带动跨国和跨学科的专业知识,包括教育工作者、研究人员、学习科学家、人工智能工程师以及其他利益相关方,研究生成式人工智能对未来学习和知识生产、研究和版权、课程和评估,以及人际协作和社会动态的长期影响。三是建立风险评估机制,对生成式人工智能应用的潜在伦理风险进行识别、评估和缓解,确保教育创新在安全轨道上进行。提供及时的建议,为法规和政策的迭代更新提供信息。同时建立反馈机制,收集生成式人工智能应用的用户体验和效果数据,不断优化和改进技术应用,确保其符合教育的道德要求。
四、对我国教育领域生成式人工智能应用治理的启示
在审视了生成式人工智能在教育领域应用的关键议题后,我们转向探讨具体的治理策略,如图1所示。这些策略旨在确保生成式人工智能技术能够在教育中发挥其最大潜力,同时避免潜在的风险和不利影响。本文提出一系列针对性措施,包括算法价值观的赋予、顶层政策的构建、使用方针的政策规范等,以期为生成式人工智能在教育中的善用、善本、善防、善长提供全面而深入的指导。通过这些举措,期望能够促进生成式人工智能技术的健康发展,并为教育领域带来积极变革。
图1 生成式人工智能教育应用的举措和启示
(一)“智能向善”之善用:负责任地使用生成式人工智能
2023年5月,中共中央政治局召开会议,提出“要重视通用人工智能发展,营造创新生态,重视防范风险”[17]。这为统筹安全与发展,推动生成式人工智能生态健康生长提供了科学依据。展望未来,人工智能治理的完善需要持续推进精准敏捷监管[18],迈向负责任的人工智能。2023年4月,日本在高崎市举办了七国集团(G7)数字与技术部长会议。该会议盘点了生成式人工智能带来的机遇和挑战。2023年6月,日本向七国集团成员发放了一份调查问卷,问卷主要为受访者提供生成式人工智能相关的机会选择和风险排名。其优先在七国集团领导人的声明、经合组织发布的人工智能原则和可能的政策行动中选择。调查问卷基于经合组织的数据,旨在评估七国集团成员现有和计划中的政策倡议,介绍了生成式人工智能的进展。其中,负责任地使用生成式人工智能技术被广泛认为是政策中最紧迫的优先事项[19]。加拿大根据拟议的《人工智能和数据法案》(AIDA),为私营部门负责任地设计、开发和使用人工智能系统(包括生成式人工智能系统)制定了一个基于风险的监管框架[20]。法国正在分析生成式人工智能的现有立法,如《通用数据保护条例》(GDPR)带来的新挑战,并指出只有在人工智能系统有效治理和负责任使用的条件下,公众才会使用和信任这些技术[21]。
我国也应在合理开发生成式人工智能工具的同时,提供指导、支持和指南方针,以接纳新技术带来的新机会。首先,应制定全面的伦理指导原则。确保生成式人工智能在教育领域的应用符合道德标准和社会价值观。这些原则应涵盖数据隐私、知识产权保护、内容真实性验证等方面。其次,在学术与实践领域,研究者提出并构建了负责任创新(RRI)框架,其理念是在科学和技术创新过程中社会行动者和创新者彼此负责,同步考量伦理规范、价值导向与社会责任[22]。因此,在教育实践过程中,我们可以通过专业培训和继续教育,提升教师在生成式人工智能应用方面的专业能力,使其能够高效地利用生成式人工智能工具辅助教学,并能够指导学生正确使用生成式人工智能,进行负责任的创新活动。最后,通过在课程中融入数字素养教育,教育学生如何辨别真伪信息,如何评估AIGC的可靠性,以及如何安全、负责任地使用生成式人工智能工具。
(二)“智能向善”之善本:厘清本源机制并适当管理生成式人工智能
生成式人工智能带来的颠覆性创新,影响了广大缺乏经验的用户和开发人员。然而,该技术的广泛应用领域、生成式人工智能系统之间日益增加的交互,以及快速的技术发展给社会带来高度的不确定性和不可预测性[23]。这是因为生成式人工智能系统是通过推断数据中的模式和联系来“训练”的,而程序员通常不容易识别这些模式和联系。这种机制会使生成式人工智能系统执行开发人员没有预料到的新任务或推理形式的能力——这是一个强大的能力来源,但也是有意设计甚至完全理解模型能力的障碍。开发人员的知识和意图与系统功能之间的这种差距可能会使结果责任分配变得更加复杂,所以应尽量减少黑盒效应带来的数据不透明性。
因此,遵循透明性和可问责性是生成式人工智能教育应用中的基本原则。透明性应包括数据的透明性,涉及数据集、数据来源和数据处理方法[24]。此外,还应披露知识产权和版权信息的使用情况。生成式人工智能的运行需要海量数据,生成式人工智能服务提供者可能会未经同意处理大量个人信息[25]。问责是所有关键利益相关者的共同责任,问责标准及相关信息的制定和公示意义重大。首先,推动建立透明的算法审计机制,定期对生成式人工智能算法进行审查,确保其公正性和无偏见性。其次,鼓励生成式人工智能技术开发者提供开源代码和透明度报告,以便教育工作者和研究人员能够更好地理解算法工作原理和潜在的偏见。最后,开发一个多维度的评估体系,对生成式人工智能生成的内容进行质量评估,包括准确性、可靠性、多样性、创新性等指标。
(三)“智能向善”之善防:防止虚假信息滥用并使用监管手段,提高数字素养
生成式人工智能模型在几乎没有资源或专业知识的情况下大规模创建合成内容,拥有“深度伪造”的能力。受访者曾表示对人工智能生成的内容大规模影响人类行为、表达、情感的能力,以及反映或宣传错误信息的内容表示担忧。还有受访者表示,不正确或捏造的内容容易被呈现为事实,即“自信错误”或“幻觉”输出。这表明,数字素养水平低可能会进一步加速错误信息的传播并加剧其影响,提高使用者的数字素养、开发内容真实性评估工具成为重要议题。建议以预防生成式人工智能工具误用为目标,增强科研诚信意识和信息意识,推进学术诚信治理,确保科研和教学活动有序开展。
(四)“智能向善”之善长:扬长避短,合作共赢
新一轮人工智能革命加速了教育全球化进程,能否在激烈碰撞的意识形态纷争中树立国家话语权,关乎旗帜、关乎道路、关乎国家政治安全以及人心向背[26]。政府需要开展国际合作,在各个部门部署和使用这些技术,确保人工智能以共同利益为导向。生成式人工智能的快速发展为新兴国家和发展中国家创造了新的机会,促进更多本地人工智能创新的国际合作,应侧重于推广具有代表性的数据集、人工智能技术、负责任的人工智能政策框架和适当的数据保护。由于生成式人工智能是在可能存在偏见的现有数据上训练的,也会导致全球两极分化加剧,因此呼吁各利益相关者参与人工智能治理,政府需要对这项技术的快速变化作出更积极的反应,包括与各种利益相关者接触,以了解这些技术对社会不同部分和不同部门的影响。因此,国际协调和合作对于确保这些技术的可信度和管理是十分必要的。作为政策指导参与生成式人工智能工具监管的一种可能方式,可考虑发挥政策引领职能,探索构建智能向善的生成式人工智能治理方略,基于各国报告和指南,持续追踪生成式人工智能教育应用影响,为决策部门研判政策实施效果提供数据支持。
五、结论
人工智能技术融入教育教学全过程已是大势所趋,如何回应当前生成式人工智能在教育领域应用的时代需求,如何消除数智化发展带来的教育应用风险,已成为一个重要而紧迫的议题。数字教育是增强未来学习和引领变革的关键,教育工作者应该支持所有的技术,以提高我们下一代的教育水平[27]。
本研究通过对国外教育领域生成式人工智能应用及治理案例的分析研究,发现内容可信度和内容使用权是教育应用治理的重要考量,教育主体性和教育行业价值是教育应用治理的核心要义,使用指南和监管政策是教育应用治理的守门防线。在治理层面,呼吁赋予算法“真善”的价值导向,构建顶层的政策引领导向,实施有道德的主体责任研究导向,以便有效和道德地使用生成式人工智能进行教育和研究。同时,针对我国人工智能教育发展的实际情况,建议从智能向善之“善用、善本、善防、善长”四个维度,实现教育领域生成式人工智能应用的可持续发展。但在后续研究中,还需要高度重视教育人工智能伦理研究和技术伦理制度规范制定,需要完善新一代人工智能伦理风险的监控与预警机制,以确保人工智能技术安全、高效地运行,从而推动教育事业持续健康、智能向善地发展。
参考文献:
[1]陆道坤,陈吉钰.Sora:学校教育的“拯救者”还是“终结者”[J].新疆师范大学学报(哲学社会科学版),2024,45(6):112-127,2.
[2]宋士杰,赵宇翔,朱庆华.从ELIZA到ChatGPT:人智交互体验中的AI生成内容(AIGC)可信度评价[J].情报资料工作,2023,44(4):35-42.
[3]童莉莉,曾佳,底颖.AIGC视域下数字教育产品的四维风险矩阵与治理框架[J].现代远程教育研究,2024,36(2):12-19.
[4]Department for Education. Generative AI in education call for evidence: summary of responses[R]. England: DEPED, 2023.
[5]洪丹娜.大数据时代被遗忘权的合法性证成[J].华南理工大学学报(社会科学版),2021,23(1):73-83.
[6]李铭轩,文继荣.AIGC时代网络信息内容的法律治理——以大语言模型为例[J].北京理工大学学报(社会科学版),2023,25(6):83-92.
[7]苏慧丽,张敬威.机器的“人化”与人的“机器化”:智能时代教育的主体性危机与破解[J].现代远程教育研究,2024,36(1):12-20,28.
[8]匡文波,姜泽玮.ChatGPT在编辑出版中的应用、风险与规制[J].中国编辑,2024(1):72-77.
[9]Bundesministerium für Bildung und Forschung. Aktionsplan Künstliche Intelligenz[R]. Germany: BMBF, 2023.
[10]OFFICE of Education Technology. Artificial Intelligence and the future of teaching and learning[R]. America: OET, 2023.
[11]刘文杰.何以透明,以何透明:人工智能法透明度规则之构建[J].比较法研究,2024(2):120-134.
[12]尤晋泽,林岩.大数据时代认知医疗的数据安全伦理透视——以IBM Watson Health为例[J].医学与哲学(A),2018,39(3):28-31.
[13]杨志航.算法透明实现的另一种可能:可解释人工智能[J/OL].行政法学研究,2024(3):154-163[2024-03-22].http://kns.cnki.net/kcms/detail/11.3110.D.20240314.1621.018.html.
[14]陈建兵,王明.负责任的人工智能:技术伦理危机下AIGC的治理基点[J].西安交通大学学报(社会科学版),2024,44(1):111-120.
[15]高观点笃者.康奈尔大学发布教育和教学中使用生成式人工智能的报告[EB/OL].(2023-08-19)[2024-06-29].http://www.360doc.com/content/23/0819/14/43535834_1093074609.shtml.
[16]杨滨.生成式人工智能赋能教师使命践履:问题风险、实践策略与发展进路[J].教育文汇,2024(1):8-11,47.
[17]孙辰朔,林志杰.推动人工智能创新与治理协同发展[EB/OL].(2023-05-15)[2024-09-07].https://baijiahao.baidu.com/s?id=1765907755435630758&wfr=spider&for=pc.
[18]曹建峰.迈向负责任AI:中国AI治理趋势与展望[J].上海师范大学学报(哲学社会科学版),2023,52(4):5-15.
[19]OECD. G7 Hiroshima Process on Generative Artificial Intelligence(AI)[EB/OL]. (2023-09-07)[2024-09-07]. https://www.oecd.org/en/publications/g7-hiroshima-process-on-generative-artificial-intelligence-ai_bf3c0c60-en.html.
[20]Innovation, Science and Economic Development Canada. The Artificial Intelligence and Data Act (AIDA)-Companion document[EB/OL].(2023-03-13)[2024-06-29]. http://www.oclc.org/about/cooperation.en.html.
[21]CNIL. Artificial intelligence: The CNIL opens a consultation on the creation of datasets for AI[EB/OL].(2023-10-16)[2024-09-13]. https://www.cnil.fr/en/closed-artificial-intelligence-cnil-opens-consultation-creation-datasets-ai.
[22]李娜,陈君.负责任创新框架下的人工智能伦理问题研究[J].科技管理研究,2020,40(6):258-264.
[23]刘军,雷亮,钟昌振,等.生成式人工智能的教育应用监管路线图——UNESCO《教育和研究领域生成式人工智能使用指南》解读与启示[J].中国教育信息化,2024,30(8):13-28.
[24]牟智佳,冯西雅,苏福根,等.大数据赋能数字教育监测评估:理念、模式与路径[J].中国教育信息化,2024,30(6):54-61.
[25]胡宏涛.论生成式人工智能服务提供者的个人信息合理使用[J].江苏社会科学,2024(2):185-192.
[26]包崇庆,柏路.人工智能时代主流意识形态话语权建设的多维审视[J].传媒,2023(13):93-96.
[27]Bailey C .先进的教育技术:机遇、风险与责任[J].中国高教研究,2024(3):17-21.
Intelligence for Good: Governance Strategies for Generative AI Applications
in Education Abroad
Chenchen LIU1, Yunjiao LI1, Youmei WANG2
(1.Big Data and Smart Education Research Center,Wenzhou University,Wenzhou 325035,Zhejiang;
2.Research Center for Big Data and Smart Education, Wenzhou University, Wenzhou 325035, Zhejiang)
Abstract: The application of generative artificial intelligence in the field of education is receiving increasing attention globally. By delving into the application and governance strategies of generative artificial intelligence in the field of education, the aim is to reveal its progress and future development trends both domestically and internationally, and propose solutions to the identified application problems. Currently, generative artificial intelligence faces many ethical risks and dilemmas in terms of output content credibility, diversity of information sources, digital bias, and challenges the subject status of teachers and students. By analyzing the application and governance cases of generative artificial intelligence in the field of education abroad, it is found that content credibility and content usage rights are important considerations for educational application governance. Educational subjectivity and the value of the education industry are the core essence of educational application governance, and usage guidelines and regulatory policies are the defense line for educational application governance. Its main governance measures include endowing algorithms with the value orientation of “truth and goodness”, constructing top-level policy guidance, implementing ethical subject responsibility research guidance, and building intelligent governance strategies in four dimensions of “good use, good foundation, good prevention, and good growth” based on the actual development of artificial intelligence in China’s education field, to achieve sustainable development of generative artificial intelligence applications in the education field.
Keywords: Generative AI; Goodness for AI; Governance; Education; Application
编辑:李晓萍 校对:王天鹏
原标题:智能向善:国外教育领域生成式人工智能应用的治理方略
来源:《中国教育信息化》
