2025年5月23日,由深圳市律师协会与深圳市人工智能行业协会联合主办、深圳市人工智能行业协会智慧法律专业委员会和深圳得理科技有限公司承办的“首届全国法律垂直大模型行业论坛”盛大开幕。
在圆桌论坛环节,论坛荣幸邀请到深圳大学法学院副院长、司法部“法治大数据与智能装备应用研究重点实验室”副主任宋旭光、深圳市律师协会副会长罗振辉、北大法宝智慧法务研究院秘书长蔡治、腾讯混元技术总监连凤宗、中国科学院深圳先进院助理研究员倪仕文等嘉宾,以“法律大模型发展与治理”为主题,围绕法律大模型的伦理边界、数据安全、行业标准、法律复合人才培养等议题展开深度探讨。
本次圆桌论坛由深圳市人工智能行业协会副会长、智慧法律专业委员会主任、深圳得理科技有限公司创始人贺倩明主持。
本文根据现场嘉宾的发言实录整理,以对话形式呈现,力求保留讨论的真实语境,以飨读者。
全文共5638字,阅读时间15分钟


本次圆桌论坛的主题是“法律大模型发展与治理”,首先感谢各位专家的参与,今天的嘉宾涵盖技术、法律和产业领域,我们将进行两轮讨论:第一轮请各位介绍所在领域的最新进展。
蔡治先生:
大家好,感谢邀请,很荣幸参与盛会。我是北京大学经济法学博士,毕业后在北大法宝从事智慧法务研究。我的工作可以理解为法律工程师,工作内容可以通俗理解为将法律业务问题转化为机器可自动化执行的技术路径,期待稍后与各位交流碰撞出火花。
宋旭光先生:
感谢邀请,我先简单介绍深圳大学法学院近年在法律科技领域的探索。当前法律AI研究存在理论与技术割裂的问题——学术著作多浅尝辄止,法学与技术人员话语体系分离,导致人才培养存在瓶颈。去年我们与得理科技合作开设法律人工智能课程,学生反响热烈,但部分学生表示理工科内容理解仍有难度。为此,我们成立法律与科技研究院,并参与司法部 “法律与人工智能、法制大数据与智能装备”重点实验室建设,联合港中文、司法局成立深圳市法治大数据与人工智能研究院,旨在推动学术研究与企业需求的深度融合,培养交叉型法律人才。
罗振辉先生:
感谢主持人与得理科技的邀请。我目前是深圳市律师协会副会长,分管信息化与数字化转型工作。深圳市律师协会高度关注人工智能进展,目前在“十五”规划中重点布局 AI 领域。近年来深圳市律师协会在法律科技培训、人才储备等方面也开展了系列工作,稍后可与大家进一步分享。
连凤宗先生:
目前大模型行业正从 “聊天机器人(Chat)” 向 “智能体(Agent)” 演进,核心在于推理能力的提升。自去年推理模型发布后,业界加速布局,今年上半年各大厂商均推出推理模型,推动千行百业应用落地。同时,模型迭代速度加快,多模态融合(如图像、视频、硬件机器人)成为趋势,将释放更大经济价值。
目前,腾讯混元大模型在内部业务沉淀后,正逐步向行业输出能力,服务产业需求。
倪仕文先生:
我们团队聚焦大模型全周期研究,既开发通用基座模型,也探索行业应用。今年是大模型行业应用爆发元年,随着基座模型能力提升(如长推理、多模态、长文本处理),法律等复杂场景的落地可行性显著增强。当前通用大模型竞争激烈,垂直领域亦百花齐放,未来智能体与多智能体系统可能成为发展方向——大模型作为 “大脑”,需与感知、决策、执行环节结合,实现具体任务的全流程自动化。

感谢各位的分享。当前 AI 发展既带来期待,也引发焦虑——技术替代风险、数据安全、隐私保护等问题交织。围绕 “AI 发展中的安全与治理”,请各位谈谈看法。
蔡治先生:
首先,我不从安全和数据角度切入,而是顺着各位老师的发言阐述想法。我所在单位为智慧法务领域,正如宋老师所言,当前智能学科培养存在文科生不懂理工科内容、理工科难以理解文科思维意义的问题。
法律解释与涵摄过程中的推理和智慧,远非大语言模型基于 Transformer 架构的统计式理解和概率生成所能覆盖。若大模型持续依赖该架构及预训练语料,其概念映射仍将基于大概率生成,而法律行业因与商业实践紧密关联,常需处理 “小概率映射” 的新型概念,这与现有模型技术原理存在本质矛盾。因此,仅关注长文本或多模态的法律 AI,尚未触及法律人 “如何用数据” 的核心问题。
其次, AI 当前的推理方式与演绎、归纳、类比、溯因(摄政)四种传统推理方法存在差异,其本质仍基于大数据预训练及人机交互确认,距真正的通用人工智能(AGI)仍有较长距离。正如杨立昆所言,大语言模型并非 AGI。欣慰的是,技术专家持续推进通用人工智能发展,而文科背景从业者则希望探索将法律思维 “编码化”(codification),梳理出可与技术路径协同执行的模式,而非单纯堆砌数据。数据的核心价值在于 “如何使用” 而非 “量与质”,合理的数据使用逻辑可从根本上降低安全风险。
最后,关于大模型发展与治理,北京大学法学院正参与人工智能立法调研。目前人工智能法尚未形成权威版本,此前《生成式人工智能管理办法》因仓促出台备受争议。“十五五” 规划将立法方向调整为 “人工智能健康促进”,经调研,北大法学教授认为现阶段立法条件不成熟:一是技术尚未成熟到需警惕 “算法法人” 等科幻风险;二是部门规章与行业规则已初步覆盖算法开发、知识产权等领域。因此,建议暂缓立法,待技术演进更清晰、行业共识更充分后再行讨论。

感谢蔡主任的分享,蔡主任从立法的视角认为无需操之过急,可以让行业的子弹再飞一会,这也代表了产业界的观点。但是掌握着子弹和技术的法律实务界的同仁们还是得建立起行业自律的一道防火墙,而法学院是其中一个非常重要的载体,请宋老师分享自己的观点。
宋旭光先生:
先分享我近两年来观察到两个有趣的现象:
其一,法学界的跨界包容性显著提升。近年参与多场类似圆桌论坛及中韩数字法学论坛发现,法律科技领域的讨论已突破学科与国界限制 —— 参会者涵盖法学院、科研机构、科技企业、律师实务等多领域,且中、韩、德、美等国从业者面临的技术伦理、立法挑战高度相似。但跨领域交流仍存在话语体系差异:法学与技术专家虽能基本理解彼此观点,但深层逻辑(如法律的 “规范推理” 与 AI 的 “概率计算”)存在本质区别,深入探讨时易出现沟通壁垒,这也正是行业持续加强交流的动力 —— 通过碰撞逐步拉近认知距离。
其二,技术乐观主义与法学保守主义的张力。五年前,学界对 “通用法律决策自动化” 普遍持怀疑态度,本人曾撰文质疑其可行性,却遭技术界反驳 —— 某研究中心主任认为 “只需加大资金、数据、算力投入即可实现”。这种分歧本质源于观察视角差异:法学专家因法律问题的复杂性(如个案情境权衡、价值判断)对技术替代持保守态度,而技术专家更关注 “投入 - 产出” 的工程逻辑。
面对人工智能发展的风险,核心解决方案仍在于 “技术与法学的深度交叉”。当前行业关注点多集中于 “机器如何模拟人类思维”,却忽视 “人类思维可能被机器重塑” 的反向风险。例如,当法律从业者过度依赖智能系统时,其决策逻辑可能被算法框架潜移默化地影响。正如美国最高法院大法官罗伯茨所言:“我们应警惕的不是机器像人一样思考,而是人像机器一样思考。”
在技术应用中,需主动将人文关怀注入系统设计—— 如在智能法务系统开发中,除技术功能实现外,更需纳入法学专家对 “人性化决策逻辑” 的规范指引。这一过程凸显文科在技术治理中的不可替代性:文科不仅是社会热点的响应者,更是技术伦理的建构者——从价值观校准到跨学科方法论整合,均需法学与技术专家协同完成。
蔡治先生:
我并不看衰法律人工智能,相反,我保持积极乐观的态度。但当前法律人工智能的最大障碍在于,其本质是概率式系统而非确定性系统。概率式系统意味着其如同需验算的计算器,若每一步计算结果均需人工确证验算,效率提升与否值得关注。

关于蔡主任提及的技术问题——究竟是概率型系统还是确定性系统,后续连总和倪博士两位技术专家可深入思考并探讨。对于法律从业者与技术人员沟通存在困难,我与宋老师对此感受一致,但自 2019 年起与AI专家沟通五六年,逐渐形成一些默契:对于需让对方理解的内容,务必不厌其烦地沟通;对于可懂可不懂的内容,尽量选择理解对方。这是我多年沟通的心得。
律师行业兼具参与立法、为政府提供决策意见及为客户提供解决方案的多重角色,在该场景中发挥关键作用,目前相关工作仍处于起步阶段,有请罗会长分享思考。
罗振辉先生:
关于主持人提及的伦理与开放性问题,我认同前两位嘉宾的观点,且认为其核心逻辑与实务界的困惑存在共通性。
当前阶段,我个人赞同 “让子弹飞一会” 的观点。目前行业样本积累不足,暴露的问题尚不充分,而法律法规天然具有滞后性。以《生成式人工智能管理办法》为例,其创新性不足,仅明确 “生成式人工智能” 概念,实操指引匮乏。
对律师实务界而言,样本缺失导致合规指引匮乏是现实困境。技术迭代周期短(如大模型每三至四个月更新一次),不仅催生新问题,还使传统数据安全、网络合规等领域的老问题更趋复杂。尽管《网络安全法》《数据安全法》《个人信息保护法》确立了 “分级分类” 治理框架,但除少数标准文件外,尚未形成可落地的操作细则。以跨国企业的数据流动为例,其业务往往跨越司法辖区,现行规则难以覆盖跨境数据治理需求,凸显治理空白。
因此,我支持给予行业更多时间积累实践样本,立法需等待技术演进与问题暴露的 “窗口期”,而非仓促推进。

感谢罗会长的分享。罗会长提出 “提出问题与解决问题” 的观点具有启发意义。律师行业在提出问题的同时,承担着为客户提供解决方案的重要职责。接下来有请腾讯混元技术总监连凤宗先生分享。谷歌提出 “不作恶”,腾讯倡导 “科技向善”,二者理念相通。在大模型技术中,“价值对齐” 是重要手段,技术领域正通过此类方式推动伦理建设,与法律规则形成协同。请连总就此分享自己的见解。
连凤宗先生:
首先,人工智能本质上是工具,主动权掌握在人类手中。人类具有很强的适应性,初次接触时可能会有过度想象,但很快会发现其价值并适应,因此无需过度神话或担忧。其次,工具的可控性是关键:企业需以向善价值观为导向,在模型训练中注重数据安全与隐私过滤,通过预训练后的对齐机制,将模型输出校准至符合人类理解方式与价值观。技术层面通过数据治理与强化学习保障安全,同时需要文科领域从立法和顶层设计角度引导技术发展方向,形成 “技术落实 + 制度指引” 的协同体系。
此外,大模型的概率性特征是技术核心属性 —— 其智能源于数据压缩与逻辑学习,本质是概率计算的结果。当前挑战在于:一是依赖大众语料可能引入错误信息,需通过高质量专业语料增强准确性;二是模型稳定性不足,需借助强化学习与人工标注提升回答一致性。
关于情感理解,当前模型依赖人类语料学习,尚未突破 “情感感知” 瓶颈,距离 “硅基生命” 尚远。但技术演进与算法创新可能突破瓶颈,未来或需面对 “人机共存” 甚至 “有情感的人机协作” 场景。现阶段应聚焦工具属性,在技术可控范围内推动应用,为伦理与法律框架的完善预留发展空间。

从当前讨论来看,蔡主任指出生成式人工智能本质是概率问题,而连总认为万事万物皆为概率问题,二者对 “概率性” 的技术定位视角不同。受时间限制,此处暂不深入展开。值得关注的是,连博士提及 AI 的情感问题——基于现有认知,无论AI是否具备情感,其已能实现对人类情感的识别与响应。对此,在情感计算领域有深入研究的倪博士,可结合技术逻辑对前述观点作进一步探讨。
倪仕文先生:
刚才各位老师的发言都非常具有启发性,我从理科生视角围绕相关话题展开探讨:
首先关于文科生与理科生在 AI 融合中的重要性的问题,在AI与行业结合的过程中,文科生与理科生的协同至关重要。AI 技术落地的核心逻辑是以行业需求为主导:例如 “AI + 法律” 的核心是法律逻辑,“AI + 心理学” 需以心理学理论为基础。AI 作为技术应用工具,其功能定义(如需要具备哪些知识、解决何种问题)需由行业专业人员主导。因此,法律从业者等文科人员在需求定义、逻辑校准中具有不可替代性,是推动 AI 垂直领域应用的关键环节。
其次关于AI 的概率性特征与人类思维的关联性的问题。针对蔡博士提出的 “AI 是概率性系统” 这一观点,从技术逻辑看,当前 AI 通用架构(如 Transformer)基于 “下一个 Token 预测” 机制,每一步计算均依赖概率分布生成结果。但值得思考的是,人类思维是否同样具有概率性?目前人脑神经网络的研究深度远不及人工神经网络,人类推理的 “不确定性” 与 AI 的 “概率性” 可能存在本质关联。当AI在特定任务(如法律检索、决策)中的准确率超越人类时,其 “概率性结果” 即可视为具有实用价值的 “确定性决策”。技术应用的核心在于效率阈值,而非追求绝对意义上的 “百分之百确定性”。
再者,关于AI 安全伦理的技术实践与立法滞后性的问题。AI安全伦理是技术落地的核心议题。以腾讯混元大模型为例,其研发流程需通过数据清洗、隐私过滤、价值对齐等多重机制保障安全性:预训练阶段排除敏感数据,通过指令微调与基于人类反馈的强化学习(RLHF),将模型输出校准至符合社会主义核心价值观与行业伦理要求。不同领域需嵌入专属价值观(如法律行业的公平正义原则),通过强化学习或直接偏好学习实现模型与行业规范的深度对齐。
关于立法问题,当前 AI 仍处于初级发展阶段,技术路径(如大语言模型的自回归架构)能否实现强人工智能尚无科学定论。以深度学习先驱辛顿为代表的保守派主张限制 AI 发展,而图灵奖得主杨立昆等激进派认为应优先推动技术演进,安全规范可滞后布局。鉴于此,我建议现阶段以技术自律为主导(如价值对齐、对抗性攻击防御),立法可暂缓——待AI技术路径收敛、潜在风险充分暴露后,再针对 “自我意识、人权界定” 等深层伦理问题构建法律框架更为适宜。

今天的圆桌论坛知识密度极高,既有观点分歧,也有核心共识:AI 是工具,科技向善是底线,技术与法律需在碰撞中寻求平衡。尽管治理路径待探索,但跨领域协作已是行业发展的必由之路。期待未来以更多沙龙、研讨深化共识,推动法律与科技融合向纵深发展。
