Поделиться

Искусственный интеллект: отец ChatGPT бьет тревогу в Сенате США и призывает к созданию агентства ядерных моделей

Сэм Альтман, генеральный директор OpenAi, объявляет о новом предупреждении об искусственном интеллекте: «если оставить его свободным, он может навредить миру». Нам нужны правила и агентство, которое их применяет

Искусственный интеллект: отец ChatGPT бьет тревогу в Сенате США и призывает к созданию агентства ядерных моделей

Перед саммитом две недели назад на Белый дом, тослушания в Сенате США. Сэм Альтман, генеральный директор OpenAI и отец ChatGPT, участвует в турне по высокопоставленным американским политикам. И только он, не скрывает опасности искусственного интеллекта предоставленный самому себе, свободный делать и отменять. Не только опасности для занятости, один из вопросов, который больше всего беспокоит политиков перед лицом безудержного продвижения искусственного интеллекта и его приложений в мире труда и организации бизнеса. Опасности, и большие, Сэм Альтман видит в правильном управлении демократия, Из выборы, из социальные конфликты на которые могут повлиять или даже исказить ложные сообщения, выдаваемые за истинные. «Если эта технология (искусственный интеллект, издание) пойдет не так, все может закончиться очень плохо: мы должны сказать об этом вслух и работать с правительством, чтобы этого не произошло», — очень четко заявил он перед сенаторами в Вашингтоне. Поэтому он попросил членов Сената США принять новые правила и поручить новое государственное учреждение задача по выдаче лицензий на разработку крупных моделей искусственного интеллекта, таких как ChatGPT o Гугл бард, с правом отозвать их, если эти модели не соответствуют стандартам, установленным политической властью. Очень важное и значимое слушание, которое позволяет нам понять, насколько сложны последствия новой технологии для нашей жизни, и которое последовало после призывов экономистов Фридмана и Харари и после шумных Джеффри Эверест Хинтон уходит в отставку, крестный отец искусственного интеллекта в Google, который покинул Big G именно для того, чтобы иметь возможность свободно говорить о рисках, связанных с ИИ.

Читайте также: Месть Big Tech банкам называется ИИ. Это опасность или нет? Вот почему это может расстроить рынки

Что сказал Сэм Альтман в Сенате США

Генеральный директор OpenAi в своем выступлении об искусственном интеллекте в Сенате США пошел еще дальше и выдвинул гипотезу о рождении международного агентства, которое следит за соблюдением правил и заботится об их контроле, по образцу того, что делается для ядерной энергетики, гдеМеждународное агентство по атомной энергии (МАГАТЭ) является ориентиром для всех операторов на глобальном уровне. Второй Сэм Альтман речь идет об определении стандартов безопасности для этих моделей искусственного интеллекта, а также об оценке их способности воспроизводить себя или ускользать от контроля менеджера, действуя автономно или оставаясь подверженными манипулированию извне. Это также означает введение системы проверки эффективности, возложенной на независимых экспертов. Другими словами, Альтман перечислил ключевые моменты плана регулирования, способного установить правила игры в быстро расширяющемся секторе, причем настолько быстро, что это беспокоит не только членов американского парламента, но и самих сторонников новых технологий.

Альтман, с другой стороны, сказал, что он убежден, что новые технологии искусственного интеллекта предложат человечеству преимущества, которые намного превышают риски и некоторые негативные последствия, такие как потеря автоматизированных рабочих мест, но он не недооценивает опасности. «Важно, чтобы искусственный интеллект развивался с учетом демократических ценностей. Больше всего я боюсь, что поле ИИ действительно может навредить миру», — были его тревожные слова.

Обзор