首页

第二届世界法学家论坛第一分论坛顺利举办
时间 : 2024-05-20       作者:       阅读数:

(图/宣传部 文/张煜明)5月16日下午,第二届世界法学家论坛第一分论坛于中国政法大学学院路校区图书综合楼813会议室举行,分论坛议题为“人工智能与法学理论更新”。法国国家科研中心资深研究员Danièle Bourcier,上海交通大学文科资深教授、中国法与社会研究院院长季卫东,英国班戈大学教授Andrew McStay,中国人民公安大学法学院教授苏宇,法国艾克斯-马赛大学法学院教授Denis Mouralis,中国政法大学法学院院长、教授雷磊,英国埃克塞特大学法学院教授Richard Moorhead,对外经济贸易大学法学院副教授张欣,中南财经政法大学Angelo Falsone以及中国政法大学法学院副教授沈伟伟10位专家学者进行专题报告。中国政法大学法学院副院长、教授袁钢担任主持人。


 

法国国家科研中心资深研究员Danièle Bourcier做了题为《人工智能与法律概要》的报告。她主要讲述了人工智能和透明度在公共决策中的应用与重要性。首先,她回顾了人工智能的发展历程,从模拟法官推理到认知计算机学的出现再到算法浪潮的兴起。其次,她聚焦于公共决策透明度问题,提出公共决策透明度的提升有助于解决算法带来的黑箱效应,增强公众对决策过程的信任。再次,她通过案例说明法国大学注册系统的透明度问题,强调了公开算法和代码的重要性。尽管法国教育部提供了解释文档,但缺乏真正的代码公开,仍引发了公众对系统透明性的质疑。最后,她强调了透明度在公共决策中的必要性,并呼吁相关部门和机构在推进人工智能应用时注重提升决策过程的透明度,以促进公众的理解和信任。

上海交通大学文科资深教授、中国法与社会研究院院长季卫东教授做了题为《AI治理立法时刻与法科3.0格局》的报告。他认为目前人工智能发展迅速,对话能力增强,对人类社会和经济发展具有重要意义,但同时也带来大量风险。他指出在人工智能立法方面,各国之间存在立场差异,欧盟倾向于硬法模式,而其他国家倾向于软法或软硬兼施模式。在中国目前的人工智能立法实践当中,更加强调人工智能研发全流程的监控和算法备案、检查、问责三位一体的监督机制,具有软硬兼施的特点。所以,他认为对于人工智能的技术监管,需要通过技术和智能技术的结合来进行,这对人工智能研发和社会安全之间保持平衡具有重要的现实意义。

英国班戈大学教授Andrew McStay做了题为《自动化移情:基于基础人工智能开发面向人工伙伴的跨文化软法标准》的发言。他介绍了自己在人工智能与人类情感交互方面的研究,特别是关于基础模型、大型语言模型以及情感识别等方面的研究成果。他认为人工智能在模拟人类情感方面存在挑战,需要更深入地理解和模拟人类的情感过程。同时,他提到了关于人工智能伙伴的概念,这些伙伴能够感知并回应人类的情感,从而增强人机交互的亲密性。此外,他还介绍了情感识别在法律和伦理方面的考量,特别是在欧洲地区,对于情感识别的定义和规定存在诸多争议和漏洞。最后,他强调当前研究的重要性和开放性,鼓励更多学者参与到这一领域的研究中来,共同推动人工智能与人类情感交互的发展。

中国人民公安大学法学院教授苏宇做了题为《未来法治的向量维度》的主题发言。他认为规范性概念的编码不再局限于传统文字法规表述,而是通过数据的结构性布局来体现,而其中实现张量空间法治化的关键措施便是要建立参与式的治理机制。他认为在现实的治理过程当中,需要建立高透明度的机制以及持续优化的算法检测模式,来促进公众信任以及加强公众理解。在对于模型的监管过程,他认为需要建立相应审查机制,确保模型的知识表示和决策过程可以通过一定的逻辑链条进行验证和审查,从而确保表达和决策的准确性和合理性。最后,苏宇教授认为需要建立正确的反馈和迭代机制,捕捉公众在张量空间中的体验,并将这些体验转化为模型调整的资源。

法国艾克斯-马赛大学法学院教授Denis Mouralis做了题为《数字化与商业纠纷解决:对人类行为者是补充还是威胁?》的发言。首先,他介绍数字化对商业区解决方案的影响,以及数字化可能对人类带来的威胁。其次,他提到了数字化在解决商业问题中的积极作用,并提出数字化可能对人类带来的威胁,特别是在决策过程中,机器决策可能存在较大的问题,如机器可能无法完全理解人类的精神和意图,以及机器决策可能带来的政治问题。再次,他还讨论了人们在行使权力时,需要考虑到其他多种因素,并强调需要将公众对决策过程的理解程度和理解能力纳入决策的过程当中。最后,他指出我们要清晰地认识到人类决策的复杂性,在决策过程当中,可以参考数字化的分析和建议,但是仍然要重视人类自身决策的重要性和独特性。

中国政法大学法学院院长、教授雷磊做了题为《ChatGPT与法律人的主体性危机》的主题发言。首先,他认为目前人工智能进入通用型时代,按照人工智能的发展过程可以将其分为弱人工智能、强人工智能和超能人工智能三个阶段。其次,他指出AI在法律领域或能够替代基础工作,但无法替代人类主体性。AI在运用过程中的主要挑战在于其运作依赖数据算法,且缺乏理性直观和创造性思考;人类真正的优势在于创新能力和想象力,人类观点与创造力具有真实价值。在当前阶段,无需担忧AI带来的挑战,因其与人类在真实优势方面尚难以匹敌。再次,他认为算法局限性导致机器人缺乏自由意志与道德能力,而过度依赖机器人可能出现削弱自我优化与创新能力、司法领域存在数据不准确、裁判反复等问题,进而影响法学的创新和研究。最后,他认为过度依赖AI可能导致主体性丧失,应保持独立思考与判断能力。法律从业者应充当审查者与监护者角色,人类参与是维护文明完整性的关键。

英国埃克塞特大学法学院教授Richard Moorhead做了题为《法律、技术与不公正:英国邮局丑闻》的主题发言。他主要讲述了律师等法律从业者在业务中存在的道德问题,特别是他们如何利用自身专业能力来掩盖或伪装事实,以及如何通过所谓的独立审查来为企业提供庇护而非深入审查。他提到,一些律师和组织领导者在保护关键决策者时,往往选择掩盖问题而非深入审查,这导致了问题的长期存在和关键决策者没有办法得到法律的惩治。他认为英国邮局丑闻中涉及审查技术的操作,并且揭示了律师和组织领导者在业务中可能存在的道德问题和不当行为,以及这些问题对公众和组织的潜在影响。

对外经济贸易大学法学院副教授张欣做了题为《人工智能体的法律风险与模块化治理》的主题发言。她主要介绍人工智能体的法律风险与模块化治理,指出人工智能体是由大模型作为核心控制器,是由记忆功能、规划技巧和工具使用所构成的代理系统。她指出,随着人工智能体的应用越来越广泛,其法律风险也逐渐显现,在控制端,大模型的幻觉问题和算法偏见问题尤为突出;在感知端,多模态信息的感知对个人隐私的侵犯非常巨大。因此,她认为我们需要在技术逻辑、产业逻辑和法律逻辑的有机融合下,对每个层级可能带来的法律风险进行梳理,并提出相应的应对措施。

中南财经政法大学Angelo Falsone做了题为《人工智能在高等教育中的运用:来自古代的法律启示》的发言。首先,他通过引入古罗马法律的示例,来论证目前AI与现实法律词汇之间的关联,进而指出AI在目前社会当中的普遍性和重要性,认为人们在生活当中无法避免AI,必须正视其发展。其次,他通过介绍英国大学的教育过程,来论证了AI在教育可持续化中的重要性,进而指出在未来教育过程当中,更好运用人工智能来促进高等教育的发展。

中国政法大学法学院副教授沈伟伟做了题为《技术视角下的中国人工智能司法》的主题发言。首先,他介绍了中国在人工智能司法领域的发展,包括司法改革、信息化、智慧法院等方面。其次,他认为人工智能司法也面临这一些挑战,如司法触达问题、机器判断的局限性、大数据带来的偏见等。最后,他指出人工智能司法的发展需要人类法官的参与,同时也需要解决数据偏见等问题。

第一分论坛主要探讨了人工智能应用与法学理论更新的关系。研讨会肯定了人工智能在司法领域的运用具有积极作用,并指出目前存在的一系列挑战,如司法覆盖范围的拓展、机器判断能力的局限以及大数据潜在的偏见,对于学界进一步加深人工智能应用与法学理论更新的研究具有重要意义。


版权所有:中国政法大学法学院|学校邮箱:cupl@cupl.edu.cn | 网站备案 /许可证号:京ICP备05004635号-1 | 京公网安备:110402430029 | 建设维护 : 网络安全和信息化办公室