得克萨斯州州长格雷格・阿博特(Greg Abbott)近日签署《德州负责任人工智能治理法》(TRAIGA),这一举措成为 AI 监管领域的重要里程碑。该法案定于 2025 年 1 月 1 日正式施行,将为得克萨斯州人工智能系统的开发、部署及使用构建全面的道德管理框架,对商业机构、政府实体及医疗服务提供商产生深远影响。以下为法案核心要点的详细解读。
TRAIGA 的立法目的
TRAIGA 旨在推动负责任的 AI 技术创新,同时保护个人与群体免受可预见风险的侵害。法案着重强调透明度、权责清晰及合乎道德的 AI 应用原则,确保在得克萨斯州部署的人工智能系统,能以尊重隐私、避免损害且符合法律标准的方式运行。
TRAIGA 的适用范围
该法案的管辖范围广泛,涵盖以下主体:
-在得州境内开发、部署及营销 AI 系统的实体;
-向得克萨斯州用户提供 AI 驱动产品或服务的企业;
-使用 AI 系统的州政府机构。
TRAIGA 的豁免对象
部分实体不受该法案监管,具体包括:
-合法留存声纹数据的金融机构;
-将生物识别数据用于非身份识别用途的实体;
-应用于安保、防诈骗或执法领域的 AI 系统。
TRAIGA 的核心要求
透明度要求:当消费者与 AI 系统交互时,需进行清晰、明确的信息披露;
问责要求:开发者必须确保 AI 系统避免产生操控性结果、非法歧视及各类损害;
申诉机制:若 AI 驱动的决策对消费者的健康、安全或基本权利造成重大影响,消费者有权提出申诉。
TRAIGA 的禁止行为
-政府未经同意,利用 AI 开展 “社会信用评分” 或生物特征监控;
-开发或分发人工智能生成的儿童剥削内容,以及露骨的深度伪造内容;
-以蓄意煽动或鼓动他人自残、实施犯罪活动或歧视行为为目的,开发或部署人工智能系统。
TRAIGA 的核心机制
沙盒机制:允许实体在放宽的监管条件下测试 AI 系统,最长测试期限为 36 个月;
德州 AI 委员会:将设立由 10 名成员组成的委员会,负责监督 AI 伦理、公共安全及创新事务;
执法机制:德州总检察长拥有 TRAIGA 的专属执法权,对违规行为可处以 10,000 美元至 200,000 美元的罚款。
-END-