分享

Il Mulino, Cristianini:“如何与智能机器共处”

在机器越来越智能和“不可或缺”的世界里,社会和文化层面的风险和影响往往被低估。 Lettura del Mulino 的物理学家 Cristianini 坚信是时候“制定规则”了

Il Mulino, Cristianini:“如何与智能机器共处”

“我们需要反思我们创造了什么以及为什么。” 他们是的话 内洛·克里斯蒂亚尼尼, 布里斯托大学人工智能的物理学家、教授和研究员,在第 XNUMX 版题为“智能机器”的磨坊读物中。 了解他们才能与他们共处”。

从 50 年代到 90 年代,人工智能的方法非常“数学化”:有人想知道人类可以进行的最高智力活动是什么,而答案似乎是“证明定理”,他开始了布里斯托尔的讲师。 智能是逻辑推论和公理化规则的想法在那个时代非常流行,所有试图以此方式创造智能机器的努力都没有结果。 转折点是放弃这种有利于统计方法的方法:这种“范式转变”允许第一批翻译人员使用。 总而言之,我们已经从试图定义精确的规则并通过逻辑推论进行到遵循由统计推理指导的行为模型。

我们避免将人类作为智能模型:我们的想法是对智能行为而不是智能本身感兴趣,这也可能是系统的典型特征。 概念是模仿有用的行为,从例子中学习,抛开解决“智力问题”的尝试,也抛开给概念本身贴标签或明确定义的问题。 Amazon 设法在不了解人格模型的情况下提供建议,就像可以阻止不需要的电子邮件一样。

然而,除了这些机器带来的所有优势之外,我们的生存和自由以及隐私都面临着真实而具体的风险。 “公众舆论本身受制于算法”,克里斯蒂安尼强调说。 “我们已经创造了我们离不开的机器,但我们仍然没有与之共存的文化规范、法律和价值观”。 这是一个非常热门的文化结构问题。 “描绘”新问题的人需要将对这些风险的认识传递给后代,而对于尼洛来说,这项任务属于政治。

这是一个在意识到许多影响的同时管理变革的问题:在教育领域、社会层面以及我们的思想中。 机器是一种强大而必不可少的工具,想想在医疗、工业和科学领域取得的许多成就。 然而,我们需要考虑大规模使用智能机器将产生的伦理和文化后果。 这意味着需要修改立法以明确角色和责任。

问题不在机器,而是人自己,如果他没有从正确的角度解决问题。 人们想知道,在这个取代人类的过程中,全球范围内的伦理和文化后果是什么。 以及人失去部分身份的风险,将他的存在减少到机器可以做的事情,并满足新的、主要是诱导的需求。

欧洲议会就此事表达了自己的看法:“使用人工智能(AI) 它必须防止性别、社会和文化偏见,保护语言多样性,这是我们社会基本权利和价值观的基石”。 成员以 623 票赞成,他们希望在教育和文化领域使用人工智能开发的技术的基础上强调欧洲道德价值观的重要性。

通过这项决议,欧洲议会“邀请欧盟委员会和所有成员国在制定人工智能政策和立法时考虑伦理方面,包括从性别角度考虑,并在必要时调整现行立法,包括关于使用 AI 的联盟计划和道德准则”。

特别是,议员们呼吁制定具体指标来衡量多样性,并确保算法中包含的建议,尤其是音频和视频流服务中的建议,不会对联盟的文化和语言多样性产生负面影响。

传播也很受关注 假新闻,这是 Cristianini 教授在活动期间也强调的一个热门话题。 我们需要确定媒体如何使用人工智能技术,并对滥用这些技术传播虚假新闻保持警惕。

评论