Меню

Лучшие эксперты в области ИИ выступили против создания автономного оружия

19 июля 2018, четверг

Искусственный интеллект (ИИ) имеет огромный потенциал для спасения человеческой жизни: предсказывая стихийные бедствия, помогая прекратить торговлю людьми или диагностируя смертельные заболевания. К сожалению, у него также есть потенциал и для того, чтобы убивать людей. Разработка смертоносного автономного оружия — оружия, которое использует ИИ, чтобы самостоятельно решать, убить человека или нет, — уже ведется.


В среду Институт «Будущего Жизни» — организация, ориентированная на использование технологий для улучшения жизни человечества, выпустила документ, осуждающий развитие летального автономного оружия и призвала правительства предотвратить его появление.


"У ИИ (искусственного интеллекта) огромный потенциал, чтобы помочь миру — если мы сможем предотвратить его использование в области автономного оружия", — заявил президент института Макс Тегмарк в пресс-релизе.


"Оружие с ИИ, которое самостоятельно принимает решение убить человека, столь же отвратительно, как и биологическое оружие, и его следует запретить«.


Сто семьдесят организаций и 2464 человека подписали обещание, обязуясь «не участвовать и не поддерживать разработку, производство, торговлю или использование смертоносного автономного оружия». Подписавшими этот документ стали: основатель OpenAI Илон Маск, основатель Skype Яан Таллинн, и ведущий исследователь ИИ Стюарт Рассел.


Три сооснователя Google DeepMind (Демис Хасавис, Шейн Легг и Мустафа Сулейман) также поставили свои подписи под этим обещанием. DeepMind — лучшая исследовательская группа Google, компания, которая не так давно подверглась жесткой критике со стороны общественности за свое сотрудничество с Министерством обороны США.


Поэтому уже в июне компания Google пообещала, что не возобновит контракт с Министерством обороны США, а позже разработает и выпустит новые принципы для разработки ИИ, включая запрет на создание автономного оружия.


Пока неясно, приведет ли публикация этого документа к каким-либо окончательным действиям со стороны государств. Двадцать шесть членов Организации Объединенных Наций уже одобрили глобальный запрет на смертоносное автономное оружие, но некоторые мировые лидеры, включая Россию, Великобританию и Соединенные Штаты, еще не подтвердили свой запрет на разработку автономного оружия.


Это не первый раз, когда эксперты по искусственному интеллекту собрались вместе, чтобы подписать документ против разработки автономного оружия. Однако на этот раз среди них есть довольно значимые фигуры из области разработки ИИ.


К сожалению, даже если все страны мира согласятся запретить смертоносное автономное оружие, это не обязательно остановит отдельных лиц или даже правительства от продолжения разработки оружия втайне. Поэтому, когда мы окончательно войдем в новую эру (ИИ), похоже, у нас будет только одна надежда, что количество ответственных государств, организаций и разработчиков искусственного интеллекта перевесит чашу весов в сторону безопасного будущего для всего человечества.