Ведущие мировые эксперты по искусственному интеллекту (ИИ), обеспокоенные тем, что их разработки могут использоваться для убийства, подписали соглашение не участвовать в создании автономного оружия.
Открытое письмо, опубликованное в сети 18 июля, подписали 2400 исследователей из 160 организаций и 36 стран. В их числе — основатели Deep Mind Демис Хассабис, Шейн Легг и Мустафа Сулейман, Илон Маск и другие именитые бизнесмены и ученые.
Подписанты высказались против разработки летального автономного оружия.
«Такие системы представляют серьезную угрозу для человечества, им нет места в нашем мире», — говорится в письме.
«Существует неотложная необходимость для граждан, политиков и лидеров разграничить приемлемое и неприемлемое использование ИИ.
Военное использование ИИ неприемлемо, и мы, нижеподписавшиеся, согласны с тем, что решение забрать человеческую жизнь никогда не должно быть передано машине.
Мы просим, чтобы технологические компании и организации, а также руководители, политики и другие лица присоединились к нам в этом обещании".
«Мы действительно хотим, чтобы развитие технологии ИИ было положительным и не привело к страшной гонке вооружений или антиутопии, в которой летающие роботы убивают людей», — сказал в комментарии CNN подписавший соглашение Энтони Агирре, преподаватель физики из Калифорнийского университета.
Летающие роботы-убийцы и «умное» оружие сегодня остаются научной фантастикой, но стремительный прогресс технологий компьютерного зрения и машинного обучения делает их создание более реалистичным. CNN пишет, что в национальной стратегии обороны, выпущенной Пентагоном, есть призыв увеличить инвестиции в искусственный интеллект.
«Новые технологии, такие как ИИ, дают возможность улучшить нашу способность сдерживать войны, защитить граждан, уменьшить число жертв среди гражданского населения и причинять меньше вреда гражданской инфраструктуре, — говорится в заявлении пресс-секретаря Министерства обороны США Мишель Балданза для CNNMoney. — Эта инициатива подчеркивает необходимость активного диалога между Министерством обороны, исследовательским сообществом ИИ, этиками, социологами и другими вовлеченными сообществами. Нам нужны открытые дискуссии по этике и безопасности в разработке и использовании ИИ».
Хороший пример для политиков, бизнесменов и разработчиков
Несмотря на оппозицию ведущих исследователей, развитие интеллектуальных систем для использования в военном деле едва ли остановится.
«Не думаю, что это существенно изменит то, как крупные державы, такие как США, Китай и Россия, подходят к технологиям ИИ», — говорит Пол Шарр, научный сотрудник Центра новой американской безопасности и автор книги об автономном оружии «Army of None».
Так или иначе, отказ DeepMind Technologies, Element AI и других ведущих мировых лабораторий «поддерживать развитие, производство, торговлю или использование» автономного оружия является хорошим примером для других исследователей ИИ.
Соглашение о запрете производства автономного оружия составила организация Future of Life Institute. Документ был представлен на международной конференции по искусственному интеллекту International Joint Conference on Artificial Intelligence, которая проходит в Стокгольме с 13 по 19 июля.