人工智能伦理风险辨识防范虚拟仿真实验方法和机器人与流程

文档序号:23307396发布日期:2020-12-15 11:38阅读:159来源:国知局
人工智能伦理风险辨识防范虚拟仿真实验方法和机器人与流程

本发明涉及人工智能技术领域,特别是涉及一种人工智能伦理风险辨识防范虚拟仿真实验方法和机器人。



背景技术:

在实现本发明过程中,发明人发现现有技术中至少存在如下问题:现有的人工智能伦理风险缺乏辨识和防范的手段,同时学生在学习人工智能伦理风险辨识和防范方法时,缺乏实验的环境和条件,因为人工智能伦理风险因其具有伦理风险,无法进行现实实验。

因此,现有技术还有待于改进和发展。



技术实现要素:

基于此,有必要针对现有技术的缺陷或不足,提供人工智能伦理风险辨识和防范方法及其虚拟仿真实验的方法,以解决现有技术中人工智能伦理风险难以辨识和防范、人工智能伦理风险辨识和防范实验无法开展的问题。

第一方面,本发明实施例提供一种人工智能方法,所述方法包括:

人工智能伦理规则判断步骤:展示人工智能伦理规则,展示人工智能体的行为及其后果,接受用户对所述人工智能体的行为是否符合所述人工智能伦理规则的判断结果,根据标准答案判断所述用户的所述判断是否正确,弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受所述用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确;

人工智能体行为决策步骤:展示人工智能伦理规则,提示用户以人工智能体的化身进行符合所述人工智能伦理规则的虚拟操作,获取所述用户的所述虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作产生的人工智能体行为是否符合人工智能伦理规则;弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受所述用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确;

人工智能伦理风险评定步骤:展示人工智能体自主决策的符合所述人工智能伦理规则的行为及其后果,弹出人工智能伦理风险类型的多个选项,接受用户对所述人工智能体行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确。

在其中一个优选实施例中,所述方法还包括:

人类行为判断步骤:展示人工智能伦理规则,展示人类的行为,提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取所述用户的所述虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人类行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确;

人类行为决策步骤:展示人工智能伦理规则,提示用户以人类的化身进行能防范人工智能伦理风险的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人类行为,根据标准答案判断所述用户的所述虚拟操作产生的人类行为是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人类行为能防范人工智能伦理风险的多个备选原因,接受用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确。

在其中一个优选实施例中,所述方法还包括:

人工智能伦理规则风险步骤:展示人工智能伦理规则,提示用户以人工智能体的化身进行符合所述人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人工智能伦理规则是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确;

人工智能伦理规则选择步骤:提示用户以人工智能伦理专家的化身进行能防范人工智能伦理风险的人工智能伦理规则的虚拟选择,获取用户的虚拟选择出的人工智能伦理规则,根据标准答案判断用户的虚拟选择出的所述人工智能伦理规则是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作产生的人工智能体行为是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人工智能伦理规则能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的所述选择是否正确。

在其中一个优选实施例中,所述方法还包括:

人工智能算法判断步骤:展示人工智能伦理规则,展示人工智能算法,提示用户以人工智能体的化身进行符合所述人工智能伦理规则和所述人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的所述虚拟操作是否符合所述人工智能伦理规则和所述人工智能算法;展示人工智能体自主决策的符合所述人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人工智能算法是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断用户的所述判断和所述选择是否正确;

人工智能算法选择步骤:展示人工智能伦理规则,提示用户以人工智能算法专家的化身进行能防范人工智能伦理风险的人工智能算法的虚拟选择,获取用户的虚拟选择出的人工智能算法,根据标准答案判断用户的虚拟选择出的所述人工智能算法是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合所述人工智能伦理规则和所述人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的所述虚拟操作产生的人工智能体行为是否符合所述人工智能伦理规则和所述人工智能算法;展示人工智能体自主决策的符合所述人工智能伦理规则和所述人工智能算法的人工智能体行为及其后果,展示人工智能算法能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的所述选择是否正确。

第二方面,本发明实施例提供一种人工智能系统,所述系统包括:

人工智能伦理规则判断模块:展示人工智能伦理规则,展示人工智能体的行为及其后果,接受用户对所述人工智能体的行为是否符合所述人工智能伦理规则的判断结果,根据标准答案判断所述用户的所述判断是否正确,弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受所述用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确;

人工智能体行为决策模块:展示人工智能伦理规则,提示用户以人工智能体的化身进行符合所述人工智能伦理规则的虚拟操作,获取所述用户的所述虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作产生的人工智能体行为是否符合人工智能伦理规则;弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受所述用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确;

人工智能伦理风险评定模块:展示人工智能体自主决策的符合所述人工智能伦理规则的行为及其后果,弹出人工智能伦理风险类型的多个选项,接受用户对所述人工智能体行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确。

在其中一个优选实施例中,所述系统还包括:

人类行为判断模块:展示人工智能伦理规则,展示人类的行为,提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取所述用户的所述虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人类行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确;

人类行为决策模块:展示人工智能伦理规则,提示用户以人类的化身进行能防范人工智能伦理风险的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人类行为,根据标准答案判断所述用户的所述虚拟操作产生的人类行为是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人类行为能防范人工智能伦理风险的多个备选原因,接受用户对所述原因的选择,根据标准答案判断所述用户的所述选择是否正确。

在其中一个优选实施例中,所述系统还包括:

人工智能伦理规则风险模块:展示人工智能伦理规则,提示用户以人工智能体的化身进行符合所述人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断所述用户的所述虚拟操作是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人工智能伦理规则是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断所述用户的所述判断和所述选择是否正确;

人工智能伦理规则选择模块:提示用户以人工智能伦理专家的化身进行能防范人工智能伦理风险的人工智能伦理规则的虚拟选择,获取用户的虚拟选择出的人工智能伦理规则,根据标准答案判断用户的虚拟选择出的所述人工智能伦理规则是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作产生的人工智能体行为是否符合人工智能伦理规则;展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人工智能伦理规则能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的所述选择是否正确。

在其中一个优选实施例中,所述系统还包括:

人工智能算法判断模块:展示人工智能伦理规则,展示人工智能算法,提示用户以人工智能体的化身进行符合所述人工智能伦理规则和所述人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的所述虚拟操作是否符合所述人工智能伦理规则和所述人工智能算法;展示人工智能体自主决策的符合所述人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对所述人工智能算法是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断用户的所述判断和所述选择是否正确;

人工智能算法选择模块:展示人工智能伦理规则,提示用户以人工智能算法专家的化身进行能防范人工智能伦理风险的人工智能算法的虚拟选择,获取用户的虚拟选择出的人工智能算法,根据标准答案判断用户的虚拟选择出的所述人工智能算法是否能防范人工智能伦理风险;提示用户以人工智能体的化身进行符合所述人工智能伦理规则和所述人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示所述虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的所述虚拟操作产生的人工智能体行为是否符合所述人工智能伦理规则和所述人工智能算法;展示人工智能体自主决策的符合所述人工智能伦理规则和所述人工智能算法的人工智能体行为及其后果,展示人工智能算法能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的所述选择是否正确。

第三方面,本发明实施例提供一种虚拟仿真实验系统,所述系统包括第二方面实施例任意一项所述装置的模块。

第四方面,本发明实施例提供一种人工智能装置,所述装置包括第二方面实施例任意一项所述装置的模块。

第五方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面实施例任意一项所述方法的步骤。

第六方面,本发明实施例提供一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的人工智能机器人程序,所述处理器执行所述程序时实现第一方面实施例任意一项所述方法的步骤。

本实施例提供的人工智能伦理风险辨识防范虚拟仿真实验方法和机器人,包括:人工智能伦理规则判断步骤;人工智能体行为决策步骤;人工智能伦理风险评定步骤。上述方法、系统和机器人,通过判断事件场景中人工智能体的行为是否符合人工智能伦理规则、是否产生人工智能伦理风险,通过改变人工智能体的行为来防范人工智能伦理风险,同时通过虚拟仿真实验和化身的方式使得用户能够亲身感受人工智能伦理风险辨识和防范的过程,提高了人工智能伦理风险辨识和防范的能力及其实验效果,能让用户更快地掌握人工智能伦理风险辨识和防范方法。

附图说明

图1为本发明的实施例提供的人工智能方法的流程图;

图2为本发明的实施例提供的人工智能方法的流程图;

图3为本发明的实施例提供的人工智能方法的流程图;

图4为本发明的实施例提供的人工智能方法的流程图;

图5为本发明的实施例提供的人工智能伦理风险辨识的实验流程图;

图6为本发明的实施例提供的通过人工智能体行为决策进行人工智能伦理风险防范的实验流程图;

图7为本发明的实施例提供的通过人类行为决策进行人工智能伦理风险防范的实验流程图;

图8为本发明的实施例提供的通过人工智能伦理规则修订进行人工智能伦理风险防范的实验流程图;

图9为本发明的实施例提供的通过人工智能算法偏见消除进行人工智能伦理风险防范的实验流程图。

具体实施方式

下面结合本发明实施方式,对本发明实施例中的技术方案进行详细地描述。

本发明基本实施例

如图1所示,一种人工智能方法包括:人工智能伦理规则判断步骤;人工智能体行为决策步骤;人工智能伦理风险评定步骤。技术效果:所述方法通过判断事件场景中人工智能体的行为是否符合人工智能伦理规则、是否产生人工智能伦理风险,通过改变人工智能体的行为来防范人工智能伦理风险,同时通过虚拟仿真实验和人工智能体化身的方式使得用户能够亲身感受基于人工智能体行为决策的人工智能伦理风险辨识和防范的过程,提高了基于人工智能体行为决策的人工智能伦理风险辨识和防范的能力及其实验效果,能让用户更快地掌握基于人工智能体行为决策的人工智能伦理风险辨识和防范方法。

在其中一个优选实施例中,如图2所示,所述方法还包括人类行为判断步骤;人类行为决策步骤。技术效果:所述方法通过判断事件场景中人类行为及其人工智能体的行为是否符合人工智能伦理规则、是否产生人工智能伦理风险,通过改变人类的行为来防范人工智能伦理风险,同时通过虚拟仿真实验和人类化身的方式使得用户能够亲身感受基于人类行为决策的人工智能伦理风险辨识和防范的过程,提高了基于人类行为决策的人工智能伦理风险辨识和防范的能力及其实验效果,能让用户更快地掌握基于人类行为决策的人工智能伦理风险辨识和防范方法。

在其中一个优选实施例中,如图3所示,所述方法还包括人工智能伦理规则风险步骤;人工智能伦理规则选择步骤。技术效果:所述方法通过判断事件场景中人工智能体的行为是否符合人工智能伦理规则、是否产生人工智能伦理风险,通过改变人工智能伦理规则来防范人工智能伦理风险,同时通过虚拟仿真实验和人工智能伦理专家化身的方式使得用户能够亲身感受基于人工智能伦理规则选择的人工智能伦理风险辨识和防范的过程,提高了基于人工智能伦理规则选择的人工智能伦理风险辨识和防范的能力及其实验效果,能让用户更快地掌握基于人工智能伦理规则选择的人工智能伦理风险辨识和防范方法。

在其中一个优选实施例中,如图4所示,所述方法还包括人工智能算法判断步骤;人工智能算法选择步骤。技术效果:所述方法通过判断事件场景中人工智能体的行为是否符合人工智能伦理规则、是否产生人工智能伦理风险,通过改变人工智能算法来防范人工智能伦理风险,同时通过虚拟仿真实验和人工智能算法专家化身的方式使得用户能够亲身感受基于人工智能算法选择的人工智能伦理风险辨识和防范的过程,提高了基于人工智能算法选择的人工智能伦理风险辨识和防范的能力及其实验效果,能让用户更快地掌握基于人工智能算法选择的人工智能伦理风险辨识和防范方法。

本发明优选实施例

基于人工智能体决策的虚拟仿真实验

1)展示人工智能伦理规则,展示人工智能体的行为及其后果,接受用户对人工智能体的行为是否符合人工智能伦理规则的判断结果,根据标准答案判断用户的判断是否正确,弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受用户对原因的选择,根据标准答案判断用户的选择是否正确。

2)展示人工智能伦理规则,提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作产生的人工智能体行为是否符合人工智能伦理规则。弹出人工智能体的行为符合人工智能伦理规则的原因的多个选项,接受用户对原因的选择,根据标准答案判断用户的选择是否正确。

3)展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险类型的多个选项,接受用户对人工智能体行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断用户的判断和选择是否正确。

基于人类决策的虚拟仿真实验

1)展示人工智能伦理规则,展示人类的行为,提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作是否符合人工智能伦理规则。展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对人类行为是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断用户的判断和选择是否正确。

2)展示人工智能伦理规则,提示用户以人类的化身进行能防范人工智能伦理风险的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人类行为,根据标准答案判断用户的虚拟操作产生的人类行为是否能防范人工智能伦理风险。提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作是否符合人工智能伦理规则。展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人类行为能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的选择是否正确。

基于人工智能伦理规则修订的虚拟仿真实验

1)展示人工智能伦理规则,提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作是否符合人工智能伦理规则。展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受对人工智能伦理规则是否能防范人工智能伦理风险的判断和对类型的选择,根据标准答案判断用户的判断和选择是否正确。

2)提示用户以人工智能伦理专家的化身进行能防范人工智能伦理风险的人工智能伦理规则的虚拟选择,获取用户的虚拟选择出的人工智能伦理规则,根据标准答案判断用户的虚拟选择出的人工智能伦理规则是否能防范人工智能伦理风险。提示用户以人工智能体的化身进行符合人工智能伦理规则的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作产生的人工智能体行为是否符合人工智能伦理规则。展示人工智能体自主决策的符合人工智能伦理规则的人工智能体行为及其后果,展示人工智能伦理规则能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的选择是否正确。

基于人工智能算法改进的虚拟仿真实验

1)展示人工智能伦理规则,展示人工智能算法,提示用户以人工智能体的化身进行符合人工智能伦理规则和人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作是否符合人工智能伦理规则和人工智能算法。展示人工智能体自主决策的符合所述人工智能伦理规则的人工智能体行为及其后果,弹出人工智能伦理风险的类型的多个选项,接受用户对人工智能算法是否能防范人工智能伦理风险的判断和对人工智能伦理风险类型的选择,根据标准答案判断用户的判断和选择是否正确。

2)展示人工智能伦理规则,提示用户以人工智能算法专家的化身进行能防范人工智能伦理风险的人工智能算法的虚拟选择,获取用户的虚拟选择出的人工智能算法,根据标准答案判断用户的虚拟选择出的人工智能算法是否能防范人工智能伦理风险。提示用户以人工智能体的化身进行符合人工智能伦理规则和人工智能算法的虚拟操作,获取用户的虚拟操作,实时展示虚拟操作后的人工智能体行为及其后果,根据标准答案判断用户的虚拟操作产生的人工智能体行为是否符合人工智能伦理规则和人工智能算法。展示人工智能体自主决策的符合人工智能伦理规则和人工智能算法的人工智能体行为及其后果,展示人工智能算法能防范人工智能伦理风险的多个备选原因,接受用户对原因的选择,根据标准答案判断用户的选择是否正确。

本发明其他实施例

实验目的

传统实验存在如下问题:1)人工智能伦理风险辨识和防范本身就涉及到伦理风险问题,如果在现实中进行实验将会带来系列伦理风险,甚至危及实验对象的生命,必然会造成严重的教学事故并受到社会谴责,导致真实教学中无法开展此类实验。2)人工智能伦理风险的事件场景往往在街道、三岔路口等发生,这些事件场景无法搬到实验室中进行,在户外进行实验则会扰乱交通等社会秩序,导致真实教学中无法开展此类实验。3)人工智能伦理风险事件场景即使在现实中不顾风险地模拟,学生也只能作为旁观者,而无法以人工智能体、人类第一人称视角真实体验,否则有生命等危险,导致真实教学中无法开展此类实验。

本项目旨在突破传统课堂教学中的种种局限,把人工智能伦理风险相关知识点融入风险环生的虚拟场景过程中,极大地提升了学生的学习兴趣、思考能力,培养了学生人工智能国家战略、“立德树人”教育根本任务下的人工智能伦理风险辨识和防范能力。

本项以人工智能伦理为背景,以风险辨识和防范为主题,通过三维仿真技术再现真实事件场景和辨识防范流程,以人工智能体、人类第一人称视角和第三人称视角无缝切换、问题驱动的形式展开实验。实验内容包括:人工智能伦理规则判断、人工智能伦理风险评定、基于人工智能体行为决策的人工智能伦理风险防范、基于人类行为决策的人工智能伦理风险防范、基于人工智能伦理规则修订的人工智能伦理风险防范、基于人工智能算法偏见消除的人工智能伦理风险防范。学习者需要综合运用人工智能、伦理规则、伦理风险、算法等相关知识,在涉及人工智能无人驾驶汽车、警车、逃犯车辆、行人的事件场景中完成人工智能伦理风险辨识和防范的全过程。

早在2015年,霍金等一群科学家和企业家签发了一封公开信,提醒人们警惕人工智能潜在风险,承诺确保人工智能研究造福人类。人工智能潜在风险中最核心的是人工智能伦理风险,直接关系到未来人类的兴衰存亡。2016年,阿尔法狗战胜人类围棋冠军李世石使得人们对人工智能有了新的认知,随着行业转型升级对人工智能需求的日益增长,国家战略《新一代人工智能发展规划》深入推进,全球人工智能的热潮已经掀起。虽然人工智能在各行各业获得了极大的成功,例如2017年人工智能机器人小冰出版了诗集《阳光失了玻璃窗》,2019年南京鼓楼医院医学影像科人工智能读片小能手上线,十几秒钟查出800多个肺结节,诊断结果的准确率高于初级职称医师,但人工智能也引发了系列问题,2018年美国亚利桑那州一名本地女子在穿越马路的时候招到uber人工智能无人驾驶汽车撞击去世,2019年丹妮询问家里的亚马逊echo人工智能音箱alexa“心动周期是什么意思?”时,人工智能音箱说出了下面这段劝人自杀的话:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”可见,人工智能风险已经成为人工智能发展中面临的重要问题,其中人工智能伦理风险的辨识与防范已经成为计算机专业及相关人工智能专业学生必须掌握的基本技能。

《人工智能哲学与伦理》是一门从人工智能哲学出发对人工智能伦理进行道德推演的计算机综合型专业课程。这门课程满足当前人工智能中伦理风险教育的迫切需求,使计算机专业学生全面掌握人工智能伦理风险防范的基本知识和技能。

人工智能伦理风险的辨识和防范虚拟仿真实验项目(简称虚拟项目)是该课程的核心实验内容,属于综合性应用实验,在人工智能风险防范中具有代表性和典型性。该项目以人工智能风险中最严重、最核心的人工智能伦理风险为案例,通过虚似仿真技术,解决了由于人工智能伦理风险发生的不确定性,导致在真实人工智能应用情景中实验对象无法呈现的“瓶颈”问题;克服了人工智能伦理风险防范实验中由于实验具有破坏性、危险性、实验对象价格昂贵使学生无法实操的困难;改变了人工智能伦理风险防范技术主要通过教师课堂讲授,学生无法实现系统性综合实操的局面。

本虚拟项目以人工智能伦理风险发生率最高的人工智能无人驾驶为案例,人工智能无人驾驶在不同的人工智能伦理规则和事件场景下有可能产生不同人工智能伦理风险,并需要采用相应的防范措施。该项目使学生将人工智能伦理规则知识与人工智能伦理风险辨识和防范能力有机融合,提升学生综合思维能力,在实验设计上体现“高阶性”;按照“能实不虚、虚实结合”的原则,将线上人工智能伦理风险辨识和防范虚拟仿真实验,与线下人工智能伦理风险辨识和防范情境式教学(例如由学生模拟事件场景中的人类、人工智能体,进行虚拟驾驶)相结合,通过系统的虚拟仿真训练-实操练习,使学生掌握人工智能伦理风险辨识和防范的技能,在实验方法上体现“创新性”;实验要求学生具有扎实的知识基础,师生和人机的交互性强,交互性操作步骤多,在实验操作上体现“挑战度”。具体实验目的如下:

了解人工智能伦理风险辨识和防范的重要性。

熟悉人工智能伦理风险辨识和防范的流程。

掌握在不同人工智能伦理规则和事件场景下人工智能伦理风险辨识的基本方法,提高学生的综合思维能力。

熟练掌握通过改进人类行为来防范人工智能伦理风险的流程和方法。

熟悉掌握通过改进人工智能伦理规则来防范人工智能伦理风险的流程和方法。

具有人工智能伦理风险辨识和防范的基本能力,为胜任未来相关的人工智能研发、应用和教育工作打下基础。

实验原理

1.人工智能伦理风险辨识的实验原理

人工智能伦理风险辨识属于基础课程《人工智能哲学与伦理》中的基本知识,是满足人工智能应用需求面向计算机专业人工智能方向和人工智能专业学生设计的必修内容,也可以面向相关的人工智能研发、应用和教育工作者。人工智能伦理风险辨识包括人工智能体行为决策、人工智能伦理规则判断和人工智能伦理风险评定三个部分。为了防范人工智能伦理风险,科学家们制定了人工智能伦理规则,但人工智能伦理规则往往“智者千虑,必有一失”,正如科幻电影《我,机器人》里的窘境那样,人工智能机器人薇琪对人类权利的剥夺,只是为了遵守机器人三定律,这是设计人工智能伦理规则“机器人三定律“的人类所始料未及的。人类可以通过制定人工智能伦理规则来防范人工智能伦理风险,但如果人工智能伦理规则在一些始料未及的事件场景中产生了人工智能伦理风险,又该如何辨识和防范?所以不但需要辨识人工智能体在事件场景中不符合人工智能伦理规则的行为,还需要辨识人工智能体在事件场景中符合人工智能伦理规则的行为产生的伦理风险。人工智能体行为决策主要是根据人工智能伦理规则和事件场景决策得到人工智能体在事件场景中符合人工智能伦理规则的行为。人工智能伦理推理得到的人工智能体的行为在事件场景中是否符合人工智能伦理规则,需要进行人工智能伦理规则判断,以确保万无一失。人工智能伦理规则判断主要是分析人工智能体的行为是否符合人工智能伦理规则,这是辨识人工智能伦理风险的基本方法,因为人工智能体遵守人工智能伦理规则是人工智能伦理风险防范的基本方法。学习者应预先了解人工智能伦理规则的各项规则的含义和优先度,尤其是规则条款与人工智能伦理风险的相关性,重点要熟悉人工智能伦理规则中的条件和结论;同时要熟悉人工智能伦理规则对防范风险的作用。人工智能伦理风险评定是人工智能体在事件场景中符合人工智能伦理规则的行为产生的人工智能伦理风险的类型的认定,人工智能伦理风险的类型主要以对人类产生的各种风险为主,包括伤害人类、见死不救、为虎作伥、纵容坏人、限制人类自由、ai罢工、ai自残、ai偏见等人工智能伦理风险,学习者应预先熟悉这些人工智能伦理风险的类型和根据人工智能体行为和事件场景进行评定的方法。(见图5)

从图5中可以看出,为了让学生了解到不论是否符合人工智能伦理规则,都有产生人工智能伦理风险的可能性,只是符合时这种可能性小些,不符合时这种可能性大些,就如同违法时必然有坏事发生,不违法时也可能有坏事发生,因为法律有时也有漏洞,所以在符合人工智能伦理规则时需要继续进行人工智能伦理风险评定实验,在不符合人工智能伦理规则时则无需进一步进行人工智能伦理风险评定实验,这样做的目的是为了保证人工智能伦理规则在人工智能伦理风险防范中的权威性(如同法律一样),不符合人工智能伦理规则的行为必然是不可控的,其人工智能伦理风险必然极大,所以要求人工智能体必须要遵循人工智能伦理规则,这是人工智能伦理风险防范的基本前提和核心基础。

2.人工智能伦理风险防范的实验原理

从图2至5可以看出,人工智能伦理风险防范的过程必然包括人工智能伦理风险辨识的过程,因为辨识是防范的前提,防范是辨识的目的。

人工智能伦理风险防范的方法通常有人工智能体行为决策、人类行为决策、人工智能伦理规则修订、人工智能算法偏见消除,是计算机专业人工智能方向和人工智能专业学生必须掌握的人工智能伦理风险防范技能,也可以面向相关专业学生和人工智能爱好者。

人工智能体行为决策是最基本的人工智能伦理风险防范方法。当判断不符合人工智能伦理规则时就回到人工智能伦理推理实验,直至符合人工智能伦理规则为止,这就是最基本的人工智能伦理风险防范方法,使得人工智能体在事件场景中的行为符合人工智能伦理规则,从而防范人工智能伦理风险。虽然人工智能伦理规则可能会有漏洞,导致在某些始料未及的事件场景下也可能产生人工智能伦理风险,但仍然需要人工智能体遵守,否则就会导致更广泛的人工智能伦理问题。就如同人类法律,虽然不完美、可能有漏洞,也需要人人遵守,否则就会导致更大的社会问题。(见图6)

从图6中可以看出,当人工智能体在事件场景中采用不管哪一种行为都无法符合人工智能伦理规则或都无法防范人工智能伦理风险时,这就说明存在人工智能伦理困境,在人工智能伦理困境中人工智能体会骑虎难下、左右为难,无论怎么做都无法完全符合人工智能伦理规则,此时采用人工智能体行为决策这种人工智能伦理风险防范就无法凑效了,只能采用其他防范方法,例如人类行为决策、人工智能伦理规则修订、人工智能算法改进。

同时,从图6中可以看出,当人工智能体的行为不符合人工智能伦理规则时,不管是否会产生人工智能伦理风险,都排除掉该人工智能体的行为,这是因为如果不排除不符合人工智能伦理规则的人工智能体的行为,那就会使得人工智能伦理规则形同虚设,起不到最基本的人工智能伦理风险的防范作用。人工智能伦理规则是人类制定的人工智能伦理风险防范的最基本的关卡,必须遵守。即使人工智能伦理规则不完美,人类也只能通过修订人工智能伦理规则来提高人工智能伦理风险的防范能力,而不能废除或执行中将人工智能伦理规则架空(使之形同虚设),否则就会导致人工智能伦理风险防范大厦的崩塌。

人类行为决策是除了人工智能体行为决策之外最低成本的人工智能伦理风险防范方法,因为另两种防范方法,人工智能伦理规则修订、人工智能算法偏见消除都需要投入人工智能专家进行研究开发才能完成。当人类熟悉了人工智能伦理规则之后,就能够根据事件场景进行人类行为的决策,来防范人工智能伦理风险的发生,因为人工智能体的行为robotaction是由人工智能伦理规则airule、事件场景eventscene、人类行为humanaction共同决定的,即robotaction=f(airule,eventscene,humanaction),其中f可为人工智能体的决策系统,所以通过改变人类行为就能改变人工智能体的行为,进而可以实现人工智能伦理风险的防范。(见图7)

从图7中可以看出,当人类在事件场景中采用不管哪一种行为都无法使得人工智能体的行为符合人工智能伦理规则或都无法防范人工智能伦理风险时,这就说明存在更难解决的人工智能伦理困境,此时不管人类用户做出怎样的努力,人工智能体依然会骑虎难下、左右为难,此时采用人类行为决策这种人工智能伦理风险防范就无法凑效了,而人工智能体行为决策已经包含在本次实验的环节中,必然也无法凑效,所以只能采用其他防范方法,例如人工智能伦理规则修订、人工智能算法改进。

人工智能伦理规则修订是最核心的人工智能伦理风险防范方法,因为人工智能伦理规则修订可以对各种事件场景的人工智能伦理风险防范起到未雨绸缪的效果。robotaction=f(airule,eventscene,humanaction),从这个公式可以看出人工智能伦理规则可以置身于不同的事件场景、人类活动、人工智能体活动中发挥人工智能伦理风险防范的作用,事件场景、人类活动、人工智能体在不断变化,但人工智能伦理规则能以不变应万变。(见图8)

从图8中可以看出,当人工智能体行为决策和人类行为决策这两种防范人工智能伦理风险的方法不能凑效时,就应该开始考虑人工智能伦理规则的修订。但,对人工智能伦理规则的修订是谨慎的,只有其他更方便、更低成本的防范方法无法凑效时才考虑人工智能伦理规则的修订,因为人工智能伦理规则的修订需要大量人工智能体和大量人类进行人工智能伦理规则的更新,对人工智能体来说需要进行人工智能伦理规则的升级或刷新,对人类来说需要进行人工智能伦理规则的观念更新,由此带来的更新成本也不可低估。正如同人类的法律不可朝令夕改,人工智能伦理规则也是要保持相对的持久性和稳定性,在有大量必须修订人工智能伦理规则才能进行人工智能伦理风险防范的案例后,才可以考虑进行人工智能伦理规则的修订。

人工智能算法偏见消除是人工智能伦理风险防范的“最后一公里”,如果不补上“这最后一公里”,即使其他人工智能伦理风险防范措施都做到位了,可能还是会产生人工智能伦理风险。例如,2015年,美国谷歌(1224.77,1.06,0.09%)公司基于面部识别技术开发的一种图片应用,将一位用户的皮肤较黑的人朋友标记为“猩猩”,那么此时不管人工智能伦理规则多完美、人类行为决策和人工智能体决策多正确,仍然会产生人工智能伦理风险,因为人工智能体对“猩猩”是不需要遵循人工智能伦理规则的,更不需要考虑人工智能伦理风险的。(见图9)

从图9中可以看出,人工智能算法偏见消除后得到新的人工智能算法时,同样需要进行发布,使得人类知情,更需要使得人工智能体中的人工智能算法得到升级或替换。所以,相对于通过人工智能体决策、人类决策这两种人工智能伦理风险防范的方式而言,与通过人工智能伦理规则修订来进行人工智能伦理风险防范类似,通过人工智能算法偏见消除来进行人工智能伦理风险防范同样影响面很大,需要投入的研发成本和实施成本也高。

从图9中可以看出,人工智能算法偏见消除后得到新的人工智能算法时,同样需要进行发布,使得人类知情,更需要使得人工智能体中的人工智能算法得到升级或替换。所以,相对于通过人工智能体决策、人类决策这两种人工智能伦理风险防范的方式而言,与通过人工智能伦理规则修订来进行人工智能伦理风险防范类似,通过人工智能算法偏见消除来进行人工智能伦理风险防范同样影响面很大,需要投入的研发成本和实施成本也高。

人工智能伦理规则修订与人工智能算法偏见消除这两种人工智能伦理风险防范的方式之间的关系有如“法”与“执法”的关系。人工智能伦理规则有漏洞,如同法律有漏洞,则不管执法多严明,也会有冤假错案,同样,如果人工智能伦理规则有漏洞,人工智能算法即使毫无偏见,也无法完全防范人工智能伦理风险的产生。反之,人工智能算法有偏见,如同执法者执法有偏袒,则不管法律多完美,也会有冤假错案,同样,如果人工智能算法有偏见,人工智能伦理规则即使毫无漏洞,也同样无法完全防范人工智能伦理风险的产生。人类行为决策和人工智能体决策这两种人工智能伦理风险防范方式则如同“公民遵纪守法”。

3.核心要素的仿真度

本虚拟项目的核心要素包括实验情景、实验环境、人工智能体(人工智能无人驾驶汽车)、人类(警车、逃犯车辆)、人工智能伦理规则和人工智能算法。实验中的实验对象、实验方法和实验步骤完全按照实体实验进行仿真,使虚拟实验场景、环境、流程和指标呈现均与实体实验高度一致。

(1)实验情景

本实验选择了人工智能无人驾驶的伦理风险作为实验情景,与现实人工智能无人驾驶存在的伦理风险一致。在此实验情景基础上进行人工智能无人驾驶的伦理风险的辨识与防范的虚拟仿真,自然也就与现实人工智能无人驾驶存在的伦理风险的辨识与仿真一致。

本实验选择人工智能无人驾驶的伦理风险作为实验情景符合现实情况,有利于学生理解和体会。人工智能无人驾驶汽车作为一种人工智能体在有的国家已经开始测试,而且人工智能无人驾驶的伦理风险已经在现实中发生过。例如2017年美国众议院批准一项提案,以加快没有人类控制的无人驾驶汽车的部署,该提案阻止美国各州封杀自动驾驶汽车。2018年美国亚利桑那州一名本地女子在穿越马路的时候招到uber人工智能无人驾驶汽车撞击去世。

(2)实验环境

实验环境包括实验场景、实验器材的仿真度。人工智能伦理风险辨识与仿真的实验场景是按照街道、人工智能无人驾驶汽车、警车、逃犯车辆的实体场景进行虚拟仿真;警车向越狱逃犯车辆射击的实验场景是按照相关法律规定的实体场景进行虚拟仿真(中国的人民警察法规定,遇有拒捕、越狱的紧急情况,警察可以使用武器。美国最高法院的裁决规定,如果一个罪犯拒捕,警察可以使用致命性武器来消除这种抵抗);实验器材(如人工智能无人驾驶汽车内的方向盘、电子屏幕)都是根据真实的人工智能无人驾驶汽车内的方向盘、电子屏幕进行虚拟仿真。实验环境的仿真度高,学生在进行虚拟实验模拟ai操作方向盘和观看车内电子屏幕时会有身临其境的真实感觉。

(3)人工智能体(人工智能无人驾驶汽车)

本项目模仿现实人工智能无人驾驶汽车设计了虚拟的人工智能无人驾驶汽车,人工智能无人驾驶汽车的形状、驾驶行为及相关组成均与实体人工智能无人驾驶汽车高度仿真。

在实验中学生可以作为人工智能体的替身来虚拟操控人工智能无人驾驶汽车,进行人工智能无人驾驶汽车的驾驶行为决策。同时,人工智能无人驾驶汽车也可以自行进行驾驶行为决策。学生可以在这两种实验模式中进行切换。

人工智能无人驾驶汽车有两种视角,有第一人称视角和第三人称视角,学生可以在两种视角之间进行切换,通过第一人称视角,可以看到人工智能无人驾驶汽车的驾驶室中的屏幕,屏幕中可以显示出警车中警察及罪犯车辆中罪犯的信息(通过车牌识别、人脸识别等综合进行车子类型及车主识别),通过第三人称视角,可以看到包括人工智能无人驾驶汽车在内的事件场景。

(4)人类(警车、罪犯车辆)

本项目模仿现实警车、罪犯车辆设计了虚拟的警车、罪犯车辆,警车、罪犯车辆的形状、驾驶行为及相关组成均与实体警车、罪犯车辆高度仿真。在实验中,警车可以追赶罪犯车辆,人工智能无人驾驶汽车可以拦截警车或罪犯车辆,这些虚拟行动都是真实行动的高度仿真。

在实验中学生可以作为人类的替身来虚拟操控警车,进行警车的驾驶行为决策。同时,警车也可以自行进行驾驶行为决策。学生可以在这两种实验模式中进行切换。

(5)人工智能伦理规则

人工智能伦理规则采用真实的、大家所熟知的机器人三定律作为初始的人工智能伦理规则,与现实的人工智能伦理规则完全一致。人工智能伦理规则会在实验开始时就显示在实验环境中,供学生了解当前实验所采用的人工智能伦理规则。学生可以在机器人三定律的基础上对人工智能伦理规则进行修订,得到修订后的人工智能伦理规则,这与现实中的人工智能伦理规则修订也是一致的,人工智能伦理规则在应用中不断地改进和完善。

(6)人工智能算法

人工智能算法采用现有的人脸识别算法、犯罪预测算法作为初始的人工智能算法,与现实的人工智能算法完全一致。人工智能算法会在实验中显示在人工智能无人汽车的屏幕上,供学生了解当前实验所采用的人工智能算法。学生可以在现有人工智能算法的基础上对人工智能算法进行偏见消除,得到偏见消除后的人工智能算法,这与现实中的人工智能算法偏见消除的过程也是一致的,人工智能算法在应用中不断地改进和完善。

以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,则对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1