
欧盟委员会于7月10日正式公布《通用人工智能行为准则》最终版本,标志着全球首部针对通用人工智能(GPAI)的自律性监管框架落地。该准则旨在配合《人工智能法案》(AI Act)实施,为ChatGPT、Gemini、Llama等主流模型提供透明度、版权保护及安全保障三大领域的合规指引,覆盖模型开发、部署到下游应用的全链条。
三大核心领域:透明、版权、安全 透明度要求信息披露:模型提供者需公开功能限制、训练数据来源、能源消耗及高风险应用场景(如招聘、教育)的潜在用途。用户告知:AI生成内容必须明确标注,确保用户知晓交互对象为非人类。 版权保护训练数据合规:尊重权利人“选择退出权”,禁止使用声明禁止AI训练的内容;网络爬取需遵守《机器人排除协议》(robots.txt),不得规避付费墙等技术保护措施。侵权风险缓解:通过模型设计(如合理使用训练)及下游合同禁止侵权使用,设立投诉联络点。 安全与保障风险评估:最先进模型需定期评估被滥用于生成虚假信息、恶意软件的风险。技术治理:采用红队测试(模拟攻击)、异常检测等技术手段预防滥用,建立内部治理框架确保符合欧盟价值观。展开剩余53%行业反应:自愿签署与合规博弈
尽管准则为自愿性质,但未加入企业可能面临监管点名或合作障碍。目前:
微软、谷歌已确认加入自愿承诺,以建立监管信任; Meta、Mistral拒绝签署,优先专注《人工智能法案》合规工作,因其开源模型Llama的控制权较分散; xAI等新兴模型暂未表态,但需遵守准则以进入欧盟市场。《人工智能法案》背景:风险分级与严厉处罚
该准则是欧盟《人工智能法案》的配套措施,后者作为全球首部AI全面监管法案,将AI系统分为四级风险:
不可接受风险(如社会评分系统)直接禁止; 高风险(如医疗、执法)需通过严格评估; 有限风险(如聊天机器人)需履行透明度义务; 最小风险(如垃圾邮件过滤)基本不受限。
违反规定的企业将面临最高3500万欧元或全球年收入7%的罚款(以较高者为准)。法案条款分阶段实施,大部分规则将于2026年8月2日全面生效。
全球影响:“布鲁塞尔效应”再现
欧盟试图通过《人工智能法案》及行为准则确立全球AI监管标杆,类似GDPR对数据隐私的影响。分析指出,尽管面临技术可行性(如实时监控高风险场景)和国际协调(与美中法规冲突)的挑战,但欧盟的严格框架或推动全球AI治理标准统一。
欧盟内部市场委员蒂埃里·布雷顿表示:“准则既保障创新,又确保AI发展符合人类价值观。我们欢迎所有模型提供者加入,共同塑造可信AI的未来。”
发布于:河南省
倍悦网-新手炒股配资平台-普通人炒股票如何加杠杆-配资公司app提示:文章来自网络,不代表本站观点。