Поделиться

Искусственный интеллект между космическими путешествиями и электромобилями: будущее впереди

Прогресс, достигнутый на сегодняшний день в области искусственного интеллекта, ошеломляет. Они заключаются как в достигнутых результатах, так и в скорости, с которой они достигаются. Но у нас мог бы быть ИИ, который намного, намного умнее самого умного человека на земле. Но, возможно, это была бы опасная ситуация.

Взгляды на будущее

Выступая на недавнем саммите Всемирного правительства в Дубае, посвященном продвижению электромобилей его компании, Илон Маск не преминул затронуть разрозненные вопросы, проиллюстрировав то, что, по его мнению, является проблемами и вызовами, с которыми человечеству придется столкнуться и преодолеть отсюда в ближайшее время. Миллионер южноафриканского происхождения, как обычно, колебался по всем направлениям: от неизвестных, связанных с развитием искусственного интеллекта и возможных социальных последствий, до мобильности, межпланетных и, почему бы и нет, даже межзвездных путешествий, до изложения возможных сценариев. на ближайшее будущее, не упустив, однако, некоторые идеи, также спроецированные на среднесрочную и долгосрочную перспективу.

Многие считают его провидцем, предвидителем того, что станет реальностью завтрашнего дня, пионером космических путешествий (SpaceX), пропагандистом электрической мобильности (Tesla), недавним сторонником экологически устойчивой энергетики (Solar City). настолько амбициозный, насколько он богат, Маск говорит, что ищет решения, которые могут принести пользу человечеству. Хотя в недоброжелателях недостатка нет, и благоразумие является обязательным условием, нельзя отказать ему в блестящем уме с постоянно устремленным вперед взглядом и, нравится нам это или нет, в какой-то роли в воображении и формировании судеб мира, которые он будет приходить.

Поэтому стоит выслушать то, что он хочет нам сказать, а затем, возможно, обдумать и подвергнуть сомнению поднятые темы, которые далеко не тривиальны. Здесь я углублю некоторые темы, связанные с искусственным интеллектом, и сделаю это, начав с некоторых предложений, экстраполированных из выступления Маска.

Одной из наиболее тревожных проблем является искусственный интеллект… глубокий искусственный интеллект, или то, что иногда называют общим искусственным интеллектом, когда у нас может быть ИИ, который намного, намного умнее самого умного человека на земле. Я думаю, это будет опасная ситуация.

Прогресс, достигнутый на сегодняшний день в области искусственного интеллекта, ошеломляет. Они важны как для достигнутых результатов, так и для скорости, с которой они достигаются. По-видимому, неудержимая и чрезвычайно быстрая походка, которая все больше и больше ускоряется, а не замедляется. На самом деле он имеет тенденцию следовать экспоненциальному тренду, в соответствии с тем, что предписывает закон Мура в отношении увеличения количества транзисторов в микропроцессорах. Ритм, который на самом деле скрывает ловушки для нашего разума.

Сингулярность ждет нас в 2047 году, слово Масаёси Сон

Дело в том, объясняют Эрик Бриньолфссон и Эндрю Макафи (The Second Machine Age, 2014), что прогресс в области искусственного интеллекта, хотя и постоянный с математической точки зрения, не кажется нам упорядоченным. Два автора иллюстрируют это, заимствуя у Хемингуэя фразу о спирали, ведущей человека к гибели: «постепенно и, наконец, внезапно».

Это означает, что экспоненциальная прогрессия фиксирует постепенный рост, сначала почти незначительный, до точки, где, по-видимому, происходит внезапное ускорение, и величины становятся неизмеримыми, даже невообразимыми и, следовательно, вообще неуправляемыми.

Другими словами, при сохранении такой скорости возникнет острое несоответствие между эффективной вычислительной мощностью машин (по мнению некоторых, способных развиваться до такой степени, что позволит им самостоятельно улучшать себя и, возможно, развивать собственное самосознание) и производительностью. способность человека постичь его, сдержать, предсказать и затем контролировать. Этот момент глубокой цезуры носит имя Сингулярности. Хотя сингулярность по-прежнему представляет собой предположение и не собирает единодушного консенсуса, она описывает возможность, которая кажется все более конкретной и, к сожалению, близкой.

Масаёси Сон, генеральный директор Softbank Robotics, выступая на недавнем Mobile World Congress, прошедшем в Барселоне, заявил, что через тридцать лет IQ, заключенный в одном микропроцессоре, будет намного выше, чем у самых умных из нас. «Любая фишка в наших ботинках через тридцать лет будет умнее нашего мозга. Мы будем стоить меньше, чем наша обувь».

Сон основывает свой прогноз на сравнении количества нейронов в нашем мозгу и количества транзисторов на чипе. По его расчетам, в 2018 году транзисторы сделают роковой обгон и цифры начнут расходиться. За относительно короткое время индивидуальные микропроцессоры приобретут IQ, оцениваемый примерно в 10.000 200, с другой стороны, самые блестящие умы в истории человечества вряд ли достигнут 2047. Поэтому нам придется соизмерять себя с тем, что Сон определяет как «сверхразум». «То есть интеллект, который находится за пределами человеческого воображения [независимо от того], насколько он разумен. Тем не менее я убежден, что в течение тридцати лет все это станет реальностью». Следовательно, у нас также есть дата появления сингулярности: XNUMX год.

Значит ли это, что мы близки и обречены на погибель? Сон говорит, что он оптимистичен и уверен в будущем, в котором человек и машина смогут сосуществовать и сотрудничать. «Я верю, что этот сверхразум станет нашим партнером. Если мы будем злоупотреблять этим, это будет представлять опасность. Если мы будем использовать его с честными намерениями [добрым настроением], он будет нашим спутником в лучшей жизни».

Я думаю, нам нужно обратить пристальное внимание на то, как внедряется искусственный интеллект… Поэтому я думаю, что для общественной безопасности важно, чтобы нам нужно правительство, которое внимательно следит за искусственным интеллектом и следит за тем, чтобы он не представлял опасности для людей.

Сингулярность представляет собой очень серьезную угрозу для человека

Недавно Google объявила о результатах исследования ИИ, разработанного ее DeepMind, который доказал свою способность преодолевать с помощью AlphaGo, обучаясь игра за игрой (глубокое обучение), сначала чемпиона Европы по Го и, наконец, чемпиона мира. Хотя это предварительные результаты и окончательное исследование еще не опубликовано, данные показывают, что продвинутый ИИ сможет адаптироваться и учиться в среде, в которой он работает. Более того, когда он загнан в угол и рискует проиграть, он предпочитает использовать стратегии, определенные как «чрезвычайно агрессивные», чтобы иметь возможность победить. «Исследователи предполагают, что чем умнее агент, тем больше он способен учиться у своего окружения, таким образом, он может использовать некоторые чрезвычайно агрессивные тактики, чтобы выйти на первое место».

Несколько авторитетных источников выразили опасения, что особенно продвинутый ИИ может представлять вполне конкретную угрозу. Среди них Стивен Хокинг, который считает, что даже непрерывность вида может быть под угрозой: «Развитие полноценного искусственного интеллекта может означать конец человечества».

Хокинг, Маск и другие важные личности, такие как например. Стив Возняк и Ноам Хомский подписали открытое письмо, в котором предупреждают о рисках, связанных с разработкой автономных систем вооружения, и просят ООН запретить их. «Технологии искусственного интеллекта достигли такого уровня, когда разработка автономного оружия является если не законной, то де-факто делом лет, а не десятилетий. И ставки высоки: автономное оружие называют третьей революцией в вооружении после порохового и ядерного оружия.

Сложный ИИ, разработанный DeepMind, показал, что он не только умеет быть агрессивным, чтобы победить, но также распознает и реализует, если это окажется полезным и необходимым, стратегии сотрудничества с другими искусственными интеллектами. «… посыл ясен, мы сталкиваем различные системы ИИ с конкурирующими интересами в реальных жизненных ситуациях, и может начаться полномасштабная война, если их цели не будут сбалансированы с конечной целью получения выгоды прежде всего для нас, людей». Огромная сложность, определяемая искусственным интеллектом, состоящим из бесчисленных взаимосвязанных сетей, сама по себе представляет собой вызов, который может оказаться далеко за пределами способности человека справиться с ним.

Побочные эффекты ИИ

Однако даже до того, как Суперинтеллект окажется смертельным на поле боя или даже решит выступить против человечества, как суперкомпьютер Скайнет в «Терминаторе», существуют другие, дополнительные опасности. Некоторое время назад Маск уже предупредил о возможных побочных эффектах, фатальных или во всяком случае неприятных, которые могут возникнуть в ситуациях и по причинам, если угодно, гораздо более тривиальным. Поэтому мы должны быть предельно осторожны и осторожны при программировании наших интеллектуальных устройств. Плохо запрограммированный ИИ, — с преувеличением говорит Маск, — «может прийти к выводу, что все несчастные люди должны быть устранены. …Или что мы все должны быть пойманы и обработаны дофамином и серотонином, введенными непосредственно в мозг, чтобы максимизировать счастье, потому что она пришла к выводу, что именно дофамин и серотонин вызывают счастье, поэтому он повышает его в наибольшей степени». Опять же, чем больше растет сложность интеллектуальных систем и увеличивается их способность соединяться и объединяться в сеть, тем больше становится трудность управления и прогнозирования результатов их работы.

Недавно большая группа ученых, исследователей и предпринимателей (на данный момент 3441) подписала открытое письмо, составленное по случаю Асиломарской конференции 2017 года Института будущего жизни, с целью указать набор руководящих принципов, в том числе этические, которыми они должны информировать исследования в области искусственного интеллекта. Принципы искусственного интеллекта Asilomar, содержащиеся в двадцати трех пунктах, «колеблются от исследовательских стратегий до защиты данных и будущих проблем, включая возможный сверхразум». Цель, опять же, состоит в том, чтобы попытаться направить развитие ИИ на общие интересы и обеспечить благополучное будущее для всего человечества. «Я не сторонник войны, и я думаю, что она может быть чрезвычайно опасной… Я, очевидно, верю, что технологии имеют огромный потенциал, и даже с теми возможностями, которыми мы обладаем сегодня, нетрудно представить, как их можно было бы использовать в особо вредных целях. способов», — сказал Стефано Эрмон с факультета компьютерных наук Стэнфордского университета, один из подписавших документ.

Стивен Хокинг, также подписавший Asilomar AI Principles, был автором ясной и искренней статьи, опубликованной в декабре прошлого года в «The Guardian» с многозначительным заголовком: «Это самая опасная эпоха для нашей планеты». Известный астрофизик подчеркивает, как человечеству придется бороться с огромными социальными и экономическими изменениями. Эффекты, вызванные глобализацией, усиление неравенства и концентрация богатства и ресурсов в руках немногих, будут добавлены «…ускорение технологических преобразований». Как будто этого было недостаточно: «Мы сталкиваемся с ошеломляющими экологическими проблемами: изменение климата, производство продуктов питания, перенаселение, истребление других видов, эпидемии, закисление океана».

Все эти свидетельства представляют собой как предупреждение, так и надвигающуюся угрозу. Последствия всем понятны: «Вместе они напоминают нам, что мы находимся в самом опасном моменте для развития человечества. В настоящее время у нас есть технология, позволяющая уничтожить планету, на которой мы живем, но мы еще не созрели для того, чтобы отказаться от нее».

Поэтому, заключает Хокинг, «Для меня действительно важным аспектом всего этого является то, что сегодня больше, чем когда-либо в нашей истории, наш вид нуждается в совместной работе». Поэтому сотрудничайте, сотрудничайте, заботьтесь о тех, кто остался и, тем более, о тех, кто останется, сокращайте неравенство, объединяйтесь, а не разделяйте, делитесь и работайте на общее благо, а не в интересах немногих. Развитие искусственного интеллекта будет играть важную роль в этом сценарии. Он сможет усугубить дисбаланс и неравенство, разрушить общество, каким мы его знаем сегодня, или помочь сгладить конфликты и разногласия.

Учитесь у истории

Возвращаются слова Масаёси Сона о будущем ИИ: «Если мы будем злоупотреблять им, это будет представлять собой риск. Если мы будем использовать его с честными намерениями [добрым настроением], он будет нашим спутником в лучшей жизни». Хокинг, несмотря ни на что, уверен: «Мы можем это сделать, я чрезвычайно оптимистичен в отношении своего вида; но все это потребует, чтобы элиты, от Лондона до Гарварда, от Кембриджа до Голливуда, усвоили уроки прошлого года. Прежде всего, пусть учатся щепотке смирения». Если оглянуться в прошлое, элиты почти никогда не блистали дальновидностью и уж тем более смирением. Однако продолжающиеся преобразования и конечный потенциальный риск возможного исчезновения требуют изменения направления, что также отвечает интересам тех немногих, кто получает выгоду от статус-кво. Нет сомнения, что элиты осознают это, но реальный вопрос заключается в том, знают ли они об этом и убеждены ли они в этом? Ведь урок, который приходит к нам из истории, призывает нас не оставаться ленивыми и медлить, потому что, как с сожалением признает сам Хокинг, «…будем откровенны, это по большей части история глупости».

Обзор