4月29日,科技部官网公布《虚拟现实技术研发伦理指引》(以下简称《指引》),意在着力构建虚拟现实技术研发的伦理框架,规范相关技术创新路径,防控潜在伦理风险。
这份由国家科技伦理委员会人工智能伦理分委员会制定的文件明确,从事虚拟现实技术的主体应主动开展伦理评估(审查),设置相应审查机构(机制),产品或技术应按照国家有关规定获得伦理审查通过后方能上市。
“虚拟现实技术正成为全球科技竞争的一个战略制高点,其核心价值不仅在于拓展人类感知维度与认知边界,更承载着推动产业升级、重构社会形态的巨大潜能。”清华大学苏世民书院院长薛澜在接受科技日报记者采访时说,但虚拟现实技术的深度应用伴生多维伦理挑战。
由于沉浸式体验、角色扮演、感官剥夺和技术依赖,虚拟现实技术使得行为主体容易出现道德意识虚化、自我意识弱化、价值认同偏移等价值异化的伦理问题;虚拟现实技术因其虚拟环境的设计、交互机制和技术手段,存在行为操控、行为依赖等伦理风险;虚拟现实技术的误用、滥用,将加剧社会安全、社会责任等问题。
为此,《指引》明确了虚拟现实技术研发的基本原则、伦理要求、伦理问题、伦理评估(审查)等,提出了虚拟现实技术研究与应用的一般要求:合法合规、知情同意、隐私保护和个人信息保护、风险防控、责任明晰、群体保护、警示标识。
在薛澜看来,《指引》的特点为体现共识度、注重覆盖面、力求操作性。“文件覆盖虚拟现实技术从研发、产品化到场景落地的主要类型与重要环节,特别强化对社交娱乐、教育培训等高频率民生场景的规范要求,以及对儿童等特殊群体的专项保护。”他说。
针对虚拟现实技术研发,《指引》构建了覆盖虚拟现实技术全生命周期的伦理评估(审查)机构(机制)。具体而言,虚拟现实技术伦理评估(审查)需进行全流程闭环管理,重点针对虚拟场景中的身份混淆、行为成瘾、价值观偏移等特有风险进行预判。与此同时,需采用多维度手段对虚拟现实产品或技术进行审查,检测虚拟环境对认知决策的潜在影响;需对虚拟现实产品或技术采取动态化评估方法,建立用户年龄分级、使用时长预警等适配性审查标准等。
当前,以生成式人工智能、多模态交互为代表的人工智能技术深度融入虚拟现实领域,为虚拟现实技术研究和应用带来新机遇。然而,技术融合也带来认知渗透、社会关系重构等新型伦理挑战:生成式人工智能和虚拟现实的结合可能模糊虚实边界,导致用户产生持续性认知偏差;算法推荐机制在虚拟环境中形成的“信息茧房”,可能加剧价值观极化;虚拟身份的多重映射特性,更易引发网络欺诈、数据滥用等社会问题……
薛澜表示,为此,《指引》依据“合理控制风险”与“维护个人权益”原则,从“风险防控”与“警示标识”两大维度作出针对性部署:要求实现可审核、可监督、可追溯、可信赖,提升安全评估和管控能力,确保人始终能可靠控制虚拟现实技术,采取有效措施避免和预防虚拟现实技术的误用、滥用、恶用。
《指引》还要求虚拟现实产品在设备、界面、交互场景及说明书中以文字、语音、音频或者通用符号等显性标识形式醒目提示潜在风险,明确说明技术应用可能诱发的健康风险、行为异化、自我意识干扰等问题,并注重警示标识的动态性、可识别性。
编辑:李华山