В американских университетах разрабатывают кодекс поведения боевых роботов
Самоуправляемые боевые роботы, которым в будущем предстоит участвовать в войнах и вооруженных конфликтах, должны "жить" в соответствии со строгими правилами, чтобы не представлять угрозу для человечества, а также учиться этике ведения войны. Такие выводы, как сообщает The Times, содержаться в докладе, подготовленном Калифорнийским государственным политехническим университетом для ВМС США.
Данное исследование, как уточняет издание, это первая серьезная работа, посвященная этике поведения боевых роботов, всерьез рассматривающая их в качестве солдат, способных принимать самостоятельные решения на поле боя.
В докладе содержатся выводы по поводу того, что познавательная деятельность робота в перспективе может превзойти человеческую. По словам представителя университета, мнение о том, что робот способен делать лишь то, на что он запрограммирован, является устаревшим. Современное программное обеспечение разрабатывается множеством специалистов. Отдельные участники таких проектов могут не знать особенностей программы в целом. Соответственно, отдельные элементы программного кода в сочетании могут дать самый неожиданный результат без соответствующей практической проверки.
Неплохой уровень представлений о природе разума: основанием разумности объявляются ошибки программирования. То, что программисты давно уже не могут писать сознательно - это давно известно. В большинстве случаев они просто не имеют представления о том, что делает каждая конкретная команда языка программирования, почему эти команды связываются между собой определенным образом - они просто не знают языка. Но это вряд ли можно считать достижением и шагом к изобретению искусственного интеллекта.