Меню

Стивен Хокинг озвучил план по предотвращению ИИ-Апокалипсиса

26 марта 2017, воскресенье

Стивен Хокинг, безусловно один из величайших умов современности, поэтому многие люди обращают внимание, когда он делится своими мыслями о мире. Недавно он говорил о нашем будущем.

В частности Хокинг изложил свою позицию по такой теме, как искусственный интеллект (ИИ), по поводу которого он испытывает серьезные опасения. Нет, он не против развития технологии искусственного интеллекта. Ведь однажды он прямо заявил, что искусственный интеллект может стать величайшим событием в истории нашей цивилизации. Но, как и многие другие ученые и мыслители в современном мире, Хокинг обеспокоен тем, что бурное развитие технологии искусственного интеллекта может привести к разного рода негативным побочным эффектам.

Он уже предупредил нас о влиянии ИИ на рабочие места среднего класса, который может их потерять из-за внедрения этой технологии и вместе с генеральным директором Tesla Илоном Маском призвал к запрету на разработку роботов с искусственным интеллектом для использования их в военных целях. Он также обеспокоен тем, что искусственный интеллект может захватить мир или, что еще хуже, положить ему конец. И наш лучший ответ на подобный сценарий, как сказал Хокинг The Times — это создание: «той или иной формы мирового правительства», которая могла бы управлять этой технологией.

Кроме того, Хокинг обосновал необходимость подобного международного органа следующим:

«С момента зарождения человеческой цивилизации наша природная агрессия была полезной, поскольку она давала определенные преимущества для выживания. Дарвиновская эволюция жестко связана с нашими генами. Однако, теперь, технологии развиваются такими темпами, что эта агрессия может уничтожить нас всех в ядерной или биологической войне. Поэтому мы обязаны уметь контролировать этот природный инстинкт».

Чтобы идти в ногу с искусственным интеллектом, мы обязаны уметь адаптироваться. «Развитие искусственного интеллекта может означать конец человеческой расы», — сказал Хокинг в конце 2014 года.

«Он разовьется в суперинтеллект уже сам по себе без нашего участия и будет постоянно меняться. И люди, ограниченные медленной биологической эволюцией, не смогут с ним конкурировать и будут заменены».

Хокинг не думает, что машины уничтожат нас по какой-то эмоциональной причине:

«Реальный риск, связанный с искусственным интеллектом имеет под собой не злой умысел (эмоцию), а целесообразность (логику). Супер интеллектуальный ИИ будет очень хорош в достижении своих целей, и если эти цели не будут совпадать с нашими, то у нас возникнут проблемы».

По словам Хокинга, только новая форма управления (мировое правительство) и способность быстро адаптироваться — вот что нам действительно нужно, чтобы выжить в эпоху искусственного интеллекта или суперинтеллекта.

К счастью, уже есть несколько учреждений, которые работают над подобным проектом. Эти Partnership on AI и Этика и Ethics and Governance of Artificial Intelligence Fund, которые разрабатывают основные принципы и основы добросовестного развития ИИ. И уже выпущен первый «путеводитель» для этических систем искусственного интеллекта.

Но, несмотря на некоторые опасения, Хокинг по-прежнему очень оптимистично смотрит в будущее:

«Подобное видение будущего может показаться кому-то обреченным, но я оптимист. Я думаю, что человечество будет развиваться, в ответ на подобные вызовы».