分享

人工智能:欧盟是世界上第一个制定规则的司法管辖区

欧洲议会和理事会就监管欧盟人工智能的使用达成了政治协议。 然而,它还需要两年时间才能成为法律。 细节和注意事项

人工智能:欧盟是世界上第一个制定规则的司法管辖区

欧洲达成了一项协议,该协议将成为人工智能监管的法律:它是世界上第一个为人工智能制定规则的协议。 我是 六是主要禁止事项 可以在“的文本中识别IA法案“,使用该技术的软件的生产者和用户必须遵守的一揽子规则。 禁令不适用于执法机构、一些在安全部门运作的公共机构,以及在特殊情况下的一些司法机构。

Il 第一次禁令,如果需要的话,这可能足以包括所有其他的,这就是阻止系统使用的原因 生物识别 利用所谓的“分类”敏感数据“,即:种族和民族血统、宗教、哲学或政治信仰、政党、工会或协会成员身份、健康状况、性取向、遗传或生物特征数据。 因此,不可能通过收集此类数据来自动识别个人身份。

Il 第二次禁令 规定不能出于创建数据库的目的从互联网或其他视频源收集数据 面部识别 (它可以用于有针对性的情况),利用人工智能的能力。 这基本上是对人工智能技术最早的应用之一的具体排除。

In 第三 巴图塔,将不可能利用人工智能的能力 情绪识别 (通过从特定的人的图像和视频采集中提取的参数大致推导出来,例如体温、瞳孔扩张、面部表情、语气) 工作区, 都在现场 学校.

第四个障碍:在 社会分类 根据习惯或个人特征。

第五:在 行为操纵 人类。 是的,因为今天的人工智能系统可以迷惑一个人,甚至影响他们的自由意志。 它可以通过复制看似真实的图像和视频来实现这一点,改变现实并欺骗人们听到或看到完全人造的东西。

最后禁令 这就是可以防止的 利用人工智能 在所有这些技术成果的使用者被确定为 弱势主体,即取决于一个人的年龄、残疾、社会或经济状况。

事实上,所有的禁令都可以归结为一个障碍:人工智能的使用 敏感数据编目,与其他个人数据相关联。 很明显,通过个人数据和收入数据(仅举一个例子),已经可以提取弱势群体的样本。 现实的改变也发生在人工智能复制的属于个人的数据的基础上,这些数据部分按原样进行,部分通过从未做过的手势和从未说过的话语来丰富。 本质上,该规定转化为对“数据库”以及人工智能的使用关系抽取 否则无法识别它们。

欧洲禁令的例外情况

欧洲理事会在所有情况下都引入了多项豁免 恐怖主义威胁, 寻找受害者 e 打击犯罪 (尽管应该更好地指定犯罪程度)。 因此,警察在处理上述活动时完全不受禁令的约束,但有可能进行干预以限制其使用或 强制透明度由国家立法者。 无论如何,使用高风险数据库来操作人工智能系统将取决于司法授权。

此外,所有使用这些系统的供应商和公共机构必须以 欧盟数据库,以便始终可以追踪决定其使用的目的和情况。 对于警察和移民控制机构,将有一个专门的非公开部门,只有独立监管机构才能进入。

对法律有效性的质疑以及对欧洲国家经济的报复

该法律的出台计划分阶段进行。 它可能需要长达两年的时间才能完全生效。 与此同时,一旦实施,任何人都可以利用这些漫长的时间,利用人工智能来做规则不允许的一切事情。

看来欧洲确实没有考虑到全世界 开放源码 人工智能的。 从本质上讲,共同体法律要求在进入市场之前事前应用有关 IT 安全、培训流程透明度和技术文档共享的规则。 因此,在所有这些情况下,最终产品 它不适合市场,但对于研究来说,规则并不适用。 在这些折叠中,开源世界主要由私人之间的知识共享合作组成,可以被利用来避免遵守任何禁令。 还有必要了解欧洲在监管方面的意图生成式人工智能,也就是说,人工智能的最终产品是否也将受到监管,即人工智能在用于“训练”的编目数据下游生成的内容,以及 - 是的 - 受到义务和禁令的约束。 目前看来,欧洲只是打算迫使开发商确保所产生的声音、图像和文本是 明确认定为人工.

我们必须记住,欧洲正在其领土内施加限制,但众所周知,互联网是没有国界的,因此,正如他们所说:一旦制定了法律,欺骗就会被发现。 一个就够了 VPN 并且风险将被规避。 VPN 是一种虚拟专用网络,它“欺骗”提供服务的人,使他们相信请求该服务的用户来自并非请求实际发起国的国家/地区。 通过这种方式,该技术将可以不受任何禁止地完美利用。 其中,最大的人工智能公司都在美国。 欧洲没有微软、谷歌、Databricks、Anduril、Antropicic这样的巨头,甚至连中型企业都没有。

然而,也有人认为 新的欧洲立法可能会损害来自旧大陆的公司,因为欧洲以外的每个人都将能够开发和测试所有类型的基于人工智能的技术,而在这里,公司将不得不应对严格的欧洲法规。

评论