Меню

Нам пора обновить наши законы робототехники

06 марта 2017, понедельник

К тому моменту, когда роботы интегрируются в наше общество, мы должны быть уверены в том, что они будут соблюдать правила, следуя которым они не смогут навредить нам, людям. Попытки разработать подобные правила мы можем проследить с 1942 года, когда писатель-фантаст Айзек Азимов изложил философскую и нравственную основу для безопасного сосуществования человека и робота, больше известную, как три закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред

2. Робот должен выполнять приказы, данные ему людьми, кроме случаев, когда такие приказы будут противоречить первому закону

3. Робот должен защищать свое собственное существование, пока такая защита не противоречит первому и второму законам

Прошло уже более 70 лет после того, как Азимова сформулировал свои законы робототехники, и сейчас у нас гораздо больше опыта работы с роботами, чем было раньше. Мы все ближе подходим к тому моменту, когда роботы станут принимать самостоятельные решения о том, как им действовать в повседневной жизни. А значит, стоит задуматься над тем, достаточно ли будет только трех законов Азимова, чтобы быть уверенными в том, что роботы нам не навредят.

Или нам стоит улучшить их, изменить или дополнить?

Позже Азимов вывел нулевой закон робототехники, который расширил понятие защиты человека до размеров всего человечества:

«Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред»

Правда, подобное определение теоретически может подменить собой первые три закона, и, потенциально, дает возможность роботу навредить человеку, если он, по мнению машины, угрожает своими действиями всему человечеству.

Роботы без этики

Поэтому, вполне разумно опасаться того, что без этических ограничений, роботы или другие искусственные интеллекты могут причинить вред, возможно, всей человеческой расе.

Например, как это было в фильме «Терминатор 2: Судный день» 1991 года. В котором система искусственного интеллекта под названием Skynet начинает ядерную войну. По сюжету Skynet начал учиться в геометрической прогрессии, что напугало его создателей, которые попытались отключить его. В ответ Skynet нанес ответный удар. А так как этот искусственный интеллект имел доступ к ядерному оружию, но не имел никаких этических ограничений, то он решил вопрос угрозы собственной безопасности самым радикальным способом — попытавшись уничтожить человечество (что ему практически удалось).

Роботоэтика

Хотя ни один простой фиксированный набор механических правил не способен обеспечивать соблюдение этических принципов поведения, мы можем сделать несколько замечаний о свойствах, которые морально-этическая система должна иметь для того, чтобы позволить автономным единицам (человеку или роботу) мирно сосуществовать вместе.

В перечисленных ниже пунктах дана некая усредненная позиция, следуя которой интеллектуальные роботы смогут научиться вести себя в соответствии со стандартами нашего общества:

1. Если роботы и другие системы искусственного интеллекта участвуют в жизни нашего общества, то они должны следовать морально-этическим правилам, которых придерживаются люди. Одни из этих правил закреплены в законах, например, наказание за убийство, воровство, ложь или нарушение правил дорожного движения. Другие правила менее очевидны, но, тем не менее, очень важно, чтобы и они также соблюдались.

2. В некоторых ситуациях требуется принятие мгновенного морального суждения или решения. Например, ребенок выбежал на проезжую часть (можно или нельзя) или поднял потерянный кем-то бумажник (хорошо это или плохо). Простые понятные правила могут обеспечить автоматический ответ в режиме реального времени, когда нет времени для размышлений и анализа о затратах и выгоде на то или иное действие.

3. Но мгновенно принятое решение не всегда может быть правильным. Таким образом, робот должен быть в состоянии учиться на собственном опыте, задействовав обратную связь и размышления, которые приведут в итоге к появлению новых и усовершенствованных правил.

4. Чтобы получить пользу от взаимодействия с другими роботами или людьми в обществе, робот должен быть в состоянии объяснить и обосновать свое решение с точки зрения этики, а также должен уметь понимать объяснения и критику других.

5. Учитывая, что искусственный интеллект учится на своих ошибках, мы должны быть очень осторожными с тем, сколько потенциальной силы мы ему доверим, чтобы не получилось в итоге так, как в фильме «Терминатор 2», в котором искусственному интеллекту без каких либо этических принципов и ограничений было доверено ядерное оружие.

6. Доверие должны быть заработано роботом. Доверие зарабатывается медленно, через накопление роботом все большего количества опыта, но может быть потеряно мгновенно, если робот примет неправильное (плохое) решение.

7. Как и люди, роботы должны уметь посылать ясные сигналы окружающим их людям, что решение, которое они принимают в данный момент, заслуживает доверия и не несет в себе никакой угрозы для них.

8. Если роботы определенного вида являются точными копиями друг друга, то доверие, которое заработал (или потерял) один робот может быть использовано к другим роботам этого вида.

Человеческая мораль и нравственность усваиваются детьми в течение многих лет, но природа морали и нравственности сама по себе зависит от общества и развивается на протяжении десятилетий и столетий. Ни один простой фиксированный набор моральных правил, будь то законы робототехники Азимова или десять заповедей, не могут быть адекватным руководством для людей или роботов в нашем сложном обществе и мире.

Поэтому, скорее всего, мы не сможем сразу же научить роботов вести себя и принимать решения так, как мы от них ожидаем, но благодаря правильно сформулированным пожеланиям мы сможем добиться того, что роботы придут не только к слепому исполнению приказов, но к пониманию морали, которой мы, люди, хотим их наделить. Правда, в таком случае возникает вопрос, а насколько мы вправе будем считать их своей собственностью, которая находится в подчиненном к нам положении, но это, как говорится, уже совсем другая история.