前情回顾:2024年9月5日,欧洲委员会在维尔纽斯举行的司法部长会议上开放了首个全球性人工智能(AI)条约——《人工智能和人权、民主及法治框架公约》(CETS No. 225)供签署。这是首个旨在确保AI系统使用与人类权利、民主和法治完全一致的国际法律约束性条约。该公约由安道尔、格鲁吉亚、冰岛、挪威、摩尔多瓦共和国、圣马力诺、英国以及以色列、美国和欧盟签署。公约旨在促进AI的进展和创新,同时管理其可能对人权、民主和法治构成的风险,且技术中立,以适应未来技术发展。
概览
《欧洲委员会人工智能与人类权利、民主和法治框架公约》(CETS 225),于2024年5月批准,并于今日9月5日开放签署,创建了一个法律框架,重点强调在人工智能的开发和使用中保护人权、民主和法治。该公约强调诸如透明度、可问责性、风险管理以及对弱势群体的特殊保护等关键原则,在很多方面与欧盟AI法案相一致,后者在按风险级别对AI系统进行分类和为高风险AI应用引入特定监管机制方面更为详细。
基于我们的分析,可以这样说:欧盟AI法案在市场导向的方法上表现突出,为企业提供了明确的监管指导,确保了既安全又有利于创新的环境,同时也保护了消费者权益。其风险分级框架清晰明确,允许根据AI应用可能带来的风险进行差异化监管,特别是在医疗保健和交通等高风险领域。这种细致的区分有助于促进合规性,并鼓励在明确的伦理边界内发展人工智能。
另一方面,欧洲委员会框架公约具有更广泛的适用范围,其主要优势在于对人类权利、民主和法治的坚定承诺。公约强调了透明度、可问责性和包容性在所有行业的重要性,这不仅超越了经济层面的考量,还确保了人工智能系统对基本人权的尊重。此外,公约对于保护弱势群体以及推动全球人工智能治理的国际合作的承诺,是其另一个关键优势,这有助于确保人工智能的发展与全球人权标准保持一致。
相似之处
人权关注:欧盟AI法案和欧洲委员会框架公约都强调在AI系统的发展、部署和使用中保护人权的重要性。这包括确保AI系统不侵犯隐私权、言论自由和非歧视等基本权利。
基于风险的方法:两个框架都采用基于风险的AI监管方法。它们要求根据AI系统对人权、民主和法治可能带来的风险来调整措施。这涉及对高风险AI系统的更严格监管和要求。
透明度和可问责性:透明度是两个文件中的关键原则,要求AI系统的设计和操作方式是可理解的和可解释的。它们还强调可问责性,要求部署AI系统的实体对其影响负责。
非歧视:欧盟AI法案和欧洲委员会框架公约均强调了预防和减轻人工智能系统使用过程中可能出现的歧视现象的重要性,特别是在妇女、少数群体和残疾人等弱势群体中。
国际合作:两个框架都认识到在人工智能治理中进行国际合作的重要性,目的是在不同司法管辖区之间建立一个协调一致的方法,以应对人工智能技术的全球性特征。
差异之处
法律范围和约束性:欧盟AI法案是针对欧盟及其成员国的监管框架,为在欧盟内运营的实体建立了具有约束力的法律义务。相比之下,欧洲委员会公约是一项可选批准的国际条约,它不仅适用于欧盟成员国,也适用于更广泛的国家。作为一项条约,它为成员国提供了一个广泛的指导框架,允许各国根据自身的法律体系来决定如何将公约的规定纳入国内法律。这种做法既保持了公约原则的一致性,同时也为各国提供了在实施过程中的灵活性。
对民主和法治的关注:欧洲委员会公约更加强调保护民主程序和法治。虽然欧盟AI法案也涉及这些问题,但它更专注于市场监管和将AI安全整合到内部市场。
实施机制:欧盟AI法案规定了具体的执行措施,包括对违规行为处以罚款,并明确指定了负责执行的现有国家机构。而欧洲委员会公约则设立了一个由各签署国组成的会议机构,负责监督公约的实施并促进各国之间的合作。尽管欧洲委员会公约对国家安全和国防领域有明确的例外规定,欧盟AI法案则明确将这些领域排除在其适用范围之外。
定义和范围:构成AI系统的定义以及涵盖的活动范围略有不同。例如,欧洲委员会公约包括对AI系统的广泛定义,并明确涵盖了从开发到退役的整个生命周期。欧盟AI法案也提到了AI生命周期,但更专注于按风险级别对AI系统进行分类。
公众咨询和参与:欧洲委员会公约特别强调在人工智能治理的讨论中必须进行公众咨询,并鼓励多方利益相关者的参与,这一点在欧盟AI法案中并未得到同等程度的重视。欧盟AI法案主要关注企业和公共部门实体在监管合规方面的要求。因此,欧洲委员会公约更加注重在全社会范围内提升数字素养和技能,而这一点在欧盟AI法案中并不明显。此外,欧洲委员会公约还明确要求采取特别措施来保护儿童、残疾人等特定弱势群体的权利,相比之下,欧盟AI法案在这一点上的表述则较为模糊。
救济和监管:欧洲委员会公约明确规定,若人工智能系统侵犯了人权,必须提供可获取的救济措施,具体内容在公约的第四章中有详细阐述。尽管欧盟AI法案同样强调了可问责性,但在实施救济的具体机制上可能与公约有所差异。
共同不足
人工智能的发展日新月异,这两个框架都极大地依赖于对当前创新的支持,这在短期内是有益的。然而,如果不妥善解决社会关注的问题和潜在风险,可能会损害公众信任,并妨碍人工智能在未来的更广泛接受和应用。另一个关键的遗漏是,在军事和国家安全领域,人工智能的符合伦理原则的使用问题。两个框架在很大程度上回避了这一议题,导致在确保这些领域的人工智能应用尊重人权和伦理原则方面留下了重要的空白。
此外,尽管两个框架都强调了可问责性和监管的重要性,但在实施清晰和实用的执行机制方面仍面临挑战,尤其是在处理跨境人工智能应用和非政府直接控制的私人行为者时。解决这些问题将有助于提高两个框架在负责任地治理人工智能方面的全面性和有效性。
极牛网精选文章《深度解读 | 欧盟AI法案vs欧洲委员会AI框架公约对比分析》文中所述为作者独立观点,不代表极牛网立场。如若转载请注明出处:https://geeknb.com/27851.html