Стивен Хокинг: мы прошли точку невозврата

Стивен Хокинг: мы прошли точку невозврата
  • 09.11.17
  • 0
  • 9130
  • фон:

Стивен Хокинг считает, что у человечества в скором времени не останется выбора, как покинуть Землю и заняться поиском нового дома. С подобными заявлениями знаменитый физик-теоретик уже выступал и ранее. По его мнению, шанс на выживание у нас с вами появится только в том случае, если мы превратимся в межпланетный вид, в противном случае мы будем просто обречены на вымирание. В последнем интервью изданию WIRED Хокинг подчеркнул, что мы уже перешли так называемую «точку невозврата».

В интервью он еще раз напомнил, что его мысли о необходимости поиска второго дома для людей связаны сразу с двумя причинами: перенаселением нашей планеты и совсем не иллюзорной, а вполне реальной угрозой развития искусственного интеллекта (ИИ). Машины, по его мнению, очень скоро станут настолько умными, что в конечном итоге решат «заменить» человечество.

«Мы открываем настоящий ящик Пандоры. Боюсь, что ИИ сможет заменить всех людей», — прокомментировал Хокинг изданию WIRED.

Это определенно не первый раз, когда Хокинг пугает нас такими предупреждениями. В интервью издательству «Таймс» в марте этого года он также предупреждал всех об апокалипсисе и необходимости создания «новой формы мирового правительства», которое смогло бы держать эту технологию под контролем. Кроме того, физик-теоретик выражал беспокойство о том, что ИИ окажет существенное влияние на объем свободных рабочих мест для среднего класса, и даже призвал к запрету разработки и использования искусственного интеллекта в военных целях.

Как бы там ни было, его предупреждения практически полностью игнорируются технологическими компаниями, вовлеченными в создание и развитие ИИ. Однако уже сейчас некоторые отмечают, что интеллектуальные машины начинают постепенно отнимать рабочие места, заменяя живых людей, а в некоторых странах, включая США и Россию, преследуется цель создания вооружения, управляемого искусственным интеллектом. Чего греха таить, все мы в свое время смеялись над российским роботом Федором (он же FEDOR, или Final Experimental Demonstration Object Research), разработанным НПО «Андроидная техника» и Фондом перспективных исследований по заказу МЧС России. Однако на Западе люди к презентации этой машины отнеслись гораздо серьезнее, ведь российская разработка демонстрирует возможности, которых лишены даже роботы Boston Dynamics — одной из самых продвинутых робототехнических компаний в мире. Федора позиционируют как робота-спасателя, а также будущего космонавта, который должен будет отправиться в космос на новом космическом аппарате «Федерация» в 2021 году, но на Западе отмечают его явно боевой потенциал.

В последние годы разработка ИИ стала очень резонансной темой. Некоторые эксперты соглашаются с Хокингом и выдвигают аналогичные аргументы, взять хотя бы того же Илона Маска и Билла Гейтса. Оба видят в разработке искусственного интеллекта опасность для человечества. Ряд экспертов с «противоположной стороны баррикад» говорят о том, что подобные страхи в большей степени основаны на надуманных сценариях захвата мира сверхразумным ИИ, а потому очень вредны, так как имеют возможность негативно сказаться на восприятии общественностью истинной пользы от ИИ в будущем.

Хокинг, в свою очередь, непреклонен и уверен, что эти страхи имеют под собой вполне реальную основу.

«Если люди могут разрабатывать компьютерные вирусы, то кто-то определенно разработает ИИ, способный самостоятельно эволюционировать и реплицировать. Он сможет превратить себя в новую форму жизни, которая во всем будет превосходить людей», — прокомментировал Хокинг журналистам WIRED.

Здесь Хокинг, скорее всего, говорит о развитии ИИ до человеческого уровня мышления или даже превосходящего этот уровень мышления. Другими словами, он говорит о событии, которое предсказывают многие современные футурологи – технологической сингулярности. Касательно того, когда, по мнению Хокинга, это событие произойдет, физик-теоретик не предложил каких-либо конкретных дат. Можно лишь предположить, что речь идет о промежутке в течение 100 лет, которые нам выделил Хокинг для выживания на Земле.

Другие, такие как глава SoftBank Масаеси Сон и старший инженер Google Рэй Курцвейл, предполагают приход сингулярности еще раньше – в течение ближайших 30 лет.

Мы по-прежнему находимся очень далеко от развития по-настоящему полноценного искусственного интеллекта. Касаемо сингулярности — это тоже пока одно лишь гадание на кофейной гуще. По крайней мере с точки зрения того, что же эта сингулярность нам принесет. Станет ли это событие началом заката для человечества или, напротив, ознаменует начало новый эры, в которой люди и машины будут мирно сосуществовать? В любом случае потенциал ИИ может использован как для хороших, так плохих целей, поэтому неплохо было бы соблюдать необходимый уровень предосторожности.

Источник