Например, критики боевой роботехники отмечают, что нельзя позволять роботам принимать свои собственные решения об атаке, потому что роботы не имеют технической возможности отличать сражающихся от тех, кто не участвует в сражении. То есть роботы не отвечают «принципу различения», который имеется в документах вроде Женевской конвенции.
Этот принцип требует, чтобы оружие никогда не было нацелено на тех, кто не участвует в сражении. Однако неоспоримо, что для робота чрезвычайно сложно отличить террориста, направившего на него свою пушку, от, скажем, девчушки, указывающей на него рожком с мороженым. Хуже того, в реальных условиях сегодняшних войн даже людям порой бывает чрезвычайно непросто соблюдать этот принцип, поскольку боевик в Афганистане, скажем, легко может выглядеть точно так же, как обычный местный пастух, нередко имеющий при себе автомат AK-47, чтобы защищать свое стадо коз.
Другой предмет для серьёзнейшего беспокойства — то, что использование летальных роботов легко оборачивается непропорциональным применением силы относительно масштаба военной задачи. Имеются в виду так называемые «сопутствующие потери» или непреднамеренные смерти оказавшихся поблизости и ни в чём не повинных гражданских людей. Сегодня на Ближнем Востоке такое происходит сплошь и рядом — при ударах ракетами Hellfire, запускаемыми с борта дрона-самолёта Reaper для уничтожения ещё кого-то из выслеженных предводителей противников.
Спрашивается: какова «приемлемая степень» соотношения убитых невинных людей за каждого ликвидированного таким вот манером «плохого человека»? Два к одному? Или десять к одному? А может быть, и пятьдесят к одному?
Мало того, что никто и нигде в международном законодательстве не зафиксировал это численное соотношение. И тянется эта неопределённость, естественно, неслучайно. По свидетельству Лина, руководители некоторых стран вполне допускают ситуацию, при которой уничтожение врага ценится настолько высоко, когда соотношение «тысяча к одному» или даже больше того кажется допустимым в качестве «сопутствующих потерь".
Переходя к теме, особо актуальной для разведывательного сообщества, эксперт подчёркивает, что линия раздела между войной и шпионажем ныне становится всё более и более размытой.
Исторически складывалось так, что шпионаж не принято рассматривать в качестве подобающей причины для вступления в войну, поскольку война традиционно определяется как вооружённый физический конфликт между политическими сообществами.
Однако по той причине, что ныне всё больше и больше ценностей государства оказывается или в цифровой форме, или основано на информации, то делается вывод и о возможностях теперь атаковать — и соответственно быть атакованными — с помощью «некинетических» средств вооружения, то есть посредством кибероружия, которое выводит из строя компьютерные системы противника или похищает важную для него информацию.
Непосредственным отражением этих идей стало то, что в 2011 году США объявили как часть своей киберполитики задекларированное право «реагировать применением кинетического оружия в ответ на некинетическую атаку».
Проецируя все эти тенденции на конкретную тему о роботехнике в войне и шпионаже, можно отметить следующие проблемы. Если линия раздела между шпионажем и войной становится всё более размытой, а для шпионажа используется робот, то при каких условиях это можно считать актом войны?
Например, вполне реалистичная ситуация: если шпионский робот, пытаясь избежать захвата, случайно нанесёт на чужой территории вред иностранному гражданину? Может ли это событие стать искрой для начала вооружённого конфликта? Или совсем правдоподобный сценарий: что было бы, если бы при недавнем случае с дроном ЦРУ, захваченным в Иране, он случайно упал на школу или военную базу?
Несчастные случаи с роботами — это абсолютно правдоподобный и вероятный сценарий происшествий, уже ныне случающихся повсеместно.
В сентябре 2011 небольшой разведывательный дрон-самолёт RQ-Shadow столкнулся с военным транспортным самолётом в Афганистане, заставив того совершить аварийную посадку. Летом нынешнего года при тестовом полёте боевого дрона-вертолёта MQ-8B Fire Scout в США его операторы потеряли управление роботом примерно на полчаса, в течение которых машина пролетела свыше 20 миль в направлении строго ограниченного для полётов воздушного пространства вокруг Вашингтона. Несколько лет тому назад в Южной Африке, при демонстрации новой пушки-робота «Эрликон», способной автоматически поражать цели ПВО, произошёл технический сбой, из-за которого робот открыл огонь по окружающим его людям, убив девять человек и ранив ещё четырнадцать.
Ошибки и несчастные случаи, как известно, происходят с технологиями все время. Поэтому было бы крайне наивно предполагать, что столь сложная вещь, как робот, может быть сделана с гарантированным иммунитетом к подобным проблемам.
Вильям Л Саймон , Вильям Саймон , Наталья Владимировна Макеева , Нора Робертс , Юрий Викторович Щербатых
Зарубежная компьютерная, околокомпьютерная литература / ОС и Сети, интернет / Короткие любовные романы / Психология / Прочая справочная литература / Образование и наука / Книги по IT / Словари и Энциклопедии