2025年1月13日,在“何以杨数浦”数字经济合规发展品牌沙龙上,由安永(中国)企业咨询有限公司与上海市人工智能社会发展研究会联合编写的《可信人工智能治理白皮书》正式发布。
白皮书共计八章节,重点探讨了人工智能的全球发展趋势、监管框架、可信原则、关键问题、企业合规要求、风险治理理论、进阶工具以及行业洞察等多个方面。
01 全球人工智能发展与监管体系
全球人工智能正处在一个技术创新、行业重塑、重新定义我们与技术互动方式的快速发展阶段。AI技术已经从实验室走向现实,逐渐融入医疗、金融、零售、制造、交通、娱乐等行业,引发社会深刻变革。
与此同时,各国的监管政策也在不断扩展。白皮书提出,截至2024年,全球已有69个国家和地区制定了人工智能相关政策和立法,这些政策和立法覆盖了AI治理、隐私保护、数据监管以及伦理规范等多个方面,体现了各国对AI技术发展的重视以及对潜在风险的管理需求。
图1 中美欧人工智能监管机制对比
02 可信人工智能的关键问题
各国人工智能法律法规的框架下,企业运用人工智能技术时仍面临众多风险和挑战。包括:
1.算法黑箱与信息茧房问题
由于直接影响人们的日常使用体验和信息获取路径,算法黑箱和信息茧房问题显得尤为突出。算法的不透明性常常让用户在使用搜索引擎、社交媒体和在线购物平台时感到困惑,因为他们无法透视背后的推荐逻辑,这无疑影响了用户体验。这一问题往往根源于大型机器学习模型的内在特性。与基础算法相比,人工智能模型所采用的神经网络算法的复杂性,源于其庞大的参数网络和处理高维数据的能力,其决策过程无法仅通过底层算法预测,而是基于训练数据深度学习到的复杂模式和规律。
2.算法偏见问题
由于训练数据的不平衡或算法设计的缺陷,系统输出的结果可能带有不公平性。这种偏见在招聘、司法、金融等关键领域中可能显现,对特定群体造成系统性的不公正影响。算法偏见的成因可以概括为三个主要方面:(1)训练数据的不平衡;(2)特征选择的偏差(3)算法设计的缺陷。
3.数据安全问题
数据安全是构建可信人工智能的根基。公众对人工智能的信任建立在坚固的数据安全基础之上,一旦发生安全事件,不仅用户隐私会受到侵犯,企业的声誉和信任度也会遭受严重打击。白皮书中指出,数据安全问题主要包括底层数据源安全问题、数据泄露,以及出海涉及的相关数据出境规则。
4.内生安全问题
人工智能技术的内生安全问题涵盖了从基础设施的脆弱性、数据处理的漏洞,到开发框架的缺陷、模型训练和部署的不规范,以及应用层和接口层的攻击风险。这些潜在的隐患不仅威胁到系统的安全性和用户隐私,还可能导致合规性问题和声誉损失。
5.科技伦理问题
AI深度生成、基因编辑、自动驾驶等前沿人工智能技术正接受着科技伦理的严格审视。人工智能大模型的训练、推理、应用等环节依赖于海量数据,而其决策过程的复杂性和不透明性可能引发一系列科技伦理问题:
1.自然人的知情权、选择权、公平交易权以及未成年人和老年人群体的合法权益可能受到侵害,导致大数据杀熟、沉迷消费、服务歧视等伦理问题;
2.特定行业和企业在应用人工智能技术时,若缺乏科技伦理审查,可能导致产品缺陷、侵犯用户合法权益、利用人工智能技术进行违法犯罪活动等法律风险;
3.人工智能技术的伦理问题还可能引发社会群体性失业、弱势群体遭受不公平待遇等问题,进一步加剧社会伦理挑战。
03 企业级AI的合规要求
全球人工智能监管日益趋强的背景下,为更好应对算法黑箱、算法偏见和外部攻击等纷繁复杂的内忧外患,相关企业也面临着从准入资质、算法合规义务到生成内容合规义务的一系列要求,以确保企业人工智能相关的发展和应用合法合规。
首先,关于资质监管的要求。人工智能相关企业的业务范围可能涵盖信息服务以及电子邮件、短信服务等增值电信业务,同时还可能包括网络新闻、网络文化、网络出版等内容,因此会牵涉到众多资质要求。基于这些情况,白皮书将相关资质划分为互联网信息服务提供者的基础资质和提供具体服务所需的特殊资质两大类,并重点阐述了相关企业应当留意的监管要求。
其次,关于算法合规的要求。在《中华人民共和国网络安全法》《中华人民共和国数据安全法》及《中华人民共和国个人信息保护法》的共同引领下,算法合规要求的核心依据主要源自《算法推荐管理规定》《深度合成管理规定》以及《生成式人工智能服务管理办法》的监管框架,进而初步构建了算法合规义务的清单。白皮书聚焦于算法备案、算法评估以及算法透明性等关键领域,阐释企业在基础合规方面的核心要点,并提供实践操作的指导。
图2 算法合规义务清单
最后,关于内容合规的要求。白皮书指出,我国高度重视内容治理,多部法规为生成内容的企业设定了明确的合规要求,具体涵盖了内容审核义务、内容标识义务以及投诉处理机制。
图3 人工智能生成内容的合规要求
04 人工智能风险治理
白皮书从风险治理架构、生命周期风险治理、人员风险治理三个维度提出对人工智能的风险治理。
图4 人工智能风险治理框架
其中,构建人工智能风险治理架构的核心目的在于打造一套详尽且立体化的体系,以强化对人工智能潜在风险的管理效能,并提升人工智能技术的可靠性与责任感。对人工智能生命周期中的风险管理则意味着企业必须从各个阶段出发,构建全面的风险治理架构,确保人工智能系统在设计、开发、部署及运行的每个环节均满足监管标准,以降低风险发生的概率,增强系统的稳定性和用户的信赖度。
针对人工智能系统的人员风险治理,其核心关注点在于确保系统开发者、使用者及监管者具备充分的知识储备与能力,以实现对人工智能系统的深入理解、有效管理和严格监督。
【扫描上方二维码,下载报告全文】
致力于成为面向数字经济时代的战略科技智库、服务数据要素市场的专业咨询机构和汇聚数智安全技术的协同创新平台。
© 2025. All Rights Reserved. 沪ICP备19027819号 沪公网安备31011002006159号