分享

人工智能:ChatGPT之父在美参议院敲响警钟,呼吁成立核模机构

OpenAi 首席执行官萨姆奥特曼 (Sam Altman) 对人工智能发出了新的警告:“如果放任自流,它会伤害世界”。 我们需要规则和应用它们的机构

人工智能:ChatGPT之父在美参议院敲响警钟,呼吁成立核模机构

在两周前的峰会之前 白宫,那么美国参议院听证会. OpenAI 首席执行官兼 ChatGPT 之父山姆奥特曼 (Sam Altman) 正在参观美国顶级政客。 而只是他,不掩饰 人工智能的危险 留给自己,自由做和撤消。 不仅是就业方面的危险,这是政客们在面对人工智能的肆无忌惮的发展及其在工作和商业组织中的应用时最担心的问题之一。 危险和伟大的危险,Sam Altman 认为正确管理 民主选举社会冲突 这可能会受到假冒为真实的虚假信息的影响甚至扭曲。 «如果这项技术(人工智能, 编辑) 出了问题,事情可能会以非常糟糕的方式结束:我们必须大声说出来,并与政府合作以防止这种情况发生”,他在华盛顿的参议员面前非常明确地说。 这就是为什么他要求美国参议院议员制定新规则并委托 一个新的政府机构 为大型人工智能模型的开发分配许可证的任务,例如 ChatGPT o 谷歌吟游诗人,如果这些模型不符合政治权力设定的标准,则有权撤销它们。 一次非常重要和意义重大的听证会,它让我们了解新技术对我们生活的影响有多么复杂,它是在经济学家弗里德曼和哈拉里的呼吁以及喧嚣之后举行的 Geoffrey Everest Hinton 辞职,谷歌人工智能教父,他离开 Big G 正是为了能够畅所欲言地谈论与人工智能相关的风险。

另请阅读: 科技巨头对银行的报复被称为人工智能。 有没有危险? 这就是为什么它会扰乱市场

Sam Altman 在美国参议院所说的话

OpenAi 的首席执行官在美国参议院关于人工智能的演讲中更进一步,并假设一个监督规则并负责监督规则的国际机构的诞生,其模型是为核能所做的事情,其中国际原子能机构 (IAEA) 是全球所有运营商的参考点。 第二 山姆·奥特曼 这是一个为这些人工智能模型确定安全标准的问题,还要评估它们自我复制或通过自主行动或保持暴露于外部操纵来逃避管理者控制的能力。 这也意味着引入委托给独立专家的性能验证系统。 换句话说,奥尔特曼列出了一项监管计划的关键点,该计划能够在一个快速扩张的行业中制定游戏规则,其发展速度如此之快,以至于不仅让美国国会议员感到担忧,而且让新技术的主角们自己也感到担忧。

另一方面,奥尔特曼表示,他相信新的人工智能技术将为人类带来的优势远远超过风险和一些负面影响,例如自动化工作的流失,但他并没有低估其中的危险。 “人工智能的发展必须具有民主价值观。 我最大的恐惧是 AI 领域真的会伤害世界”,他的话令人震惊。

评论