InoModerator (inomoderator) wrote in inosmi_ru,
InoModerator
inomoderator
inosmi_ru

Киберсолдат против Калаша ("Газета по-киевски", Украина)

Армия США разрабатывает боевых роботов, которые будут сами принимать решение убивать. Кроме морального аспекта этой проблемы, есть и другая опасность – ученые побаиваются, что в будущем машины взбунтуются против своих создателей.
До 2010 года США планируют потратить $4 млрд долларов на разработку принципиально новых боевых роботов, чтобы получить солдат, которые не испытывают страха, усталости, смогут четко различить врагов и союзников. Робототехника и сейчас широко используется в бою, но есть одно "но": ею дистанционно управляет человек, и именно он принимает решение: стрелять или нет. Ученые уже протестуют: робот, который сможет сам убивать, – это шаг в бездну, путь к многократно описанному фантастами бунту машин против людей.

Американские военные объясняют свое желание получить на вооружение боевых роботов совершенно благой целью – уменьшить потери среди мирного населения, сделать войну более милосердной. Ведь солдат-человек, как показывает опыт всех войн в истории человечества, на войне сильно подвержен эмоциям. Потеряв боевых товарищей, он начинает мстить – добивает раненых, пытает или расстреливает врага, который готов сдаться в плен.

Робот же не будет испытывать страха, ненависти, зато сможет различать солдат и мирное население, его реакция быстрее, чем у человека. В память машины-убийцы будет заложен огромный массив данных, сличая с которыми окружающую обстановку, он, к примеру, поймет: ага, человек с поднятыми руками – сдается в плен, стрелять нельзя. К тому же робот должен будет распознавать эмоции: увидит солдата во вражеской форме, у которого лицо искажено яростью, а рука к тому же тянется к кобуре – стрелять можно.

Тем не менее, согласно одной из международных конвенций о принципах ведения войны, решение, применять оружие или нет, должен принимать человек. Сейчас в исследовательскую группу, которая занимается разработкой новых боевых машин, приглашен эксперт по робототехнике, и ученые будут искать выход, как и не нарушить конвенцию, и создать самостоятельно действующего робота.

Как вариант, в программу киберсолдат заложат ограничение: они смогут уничтожать только такую же технику, без людей. Но для Пентагона этого мало, ведь подобных дорогих устройств у тех же иракских повстанцев нет, их основная ударная единица – боевик с автоматом Калашникова.

Планы Пентагона уже возмутили ученых, которые считают, что опасно и безнравственно давать машине в руки оружие. Так, профессор Шеффилдского университета Ноэл Шарки заявил: "Сама идея робота, который принимает решение об уничтожении человека, просто ужасна". Ведь сказав "а", военные могут сказать "б" – разработать для машин самообучающие программы, чтобы они развивались дальше. Что может случиться дальше, описывает сюжет фильма "Терминатор".
Специалист по этике из Йельского университета Вендела Уолок и философ из Университета штата Индиана Колин Ален сформулировали шесть правил, следуя которым человечество избежит того, что роботы смогут нанести ему вред.

Правило первое: не доверять роботам задач, которые связаны со значительным риском для общества.

Правило второе: ни при каких условиях не доверять роботам оружие. Это правило как раз хотят нарушить военные.
Правило третье: соблюдение трех законов робототехники фантаста Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Правило четвертое: Робот должен соблюдать принцип максимально полезных действий – то есть, выбирать из целого ряда возможных поступков лишь те, которые принесут пользу как можно большему количеству людей. Правда, это правило противоречит предыдущим – так, робот сможет убить одного человека, чтобы спасти жизнь нескольких.

Правило пятое: Роботы должны постоянно обучаться, анализировать собственные действия, выбирая из них правильные и ошибочные. Тут опять-таки таится опасность: к примеру, машина может со временем понять, к примеру, что автомобилисты выхлопами убивают здоровье сограждан, и начать их уничтожать. Впрочем, до создания таких умных машин пока далеко.

Правило шестое: Роботы должны понимать, что такое эмоции, распознавать их в поведении человека и строить, исходя из этого, свои действия. Работы по созданию такой технологии уже ведутся.

Автоматические боевые машины сейчас широко используются в Ираке. Например, робот, который определяет местонахождение снайпера и стреляет по нему; скоро на вооружении в американской армии будут боевые беспилотные самолеты и вертолеты, по улицам городов будут колесить автоматические танки и БТРы.

Если внимательно рассмотреть, как проходила война в Грузии, то окажется, что началась она даже не летом, а еще 18 марта текущего года. Тогда над территорией Абхазии был сбит грузинский беспилотный летательный аппарат-разведчик. Уже 20 апреля был сбит второй такой самолет. За май Грузия потеряла еще 7 самолетов – и их сбивали не только абхазские силы ПВО, но и российские истребители, а это фактически война. Почему вдруг абхазы и россияне начали отстреливать грузинских роботов? Вероятно, чтобы скрыть перемещения своих войск и подготовительные работы по их развертыванию в Абхазии.

Когда уже начался открытый конфликт в Южной Осетии, россияне сбили еще три таких самолета. Так что грузинская армия буквально «ослепла», в то время как россияне имели разведданные о противнике, полученные как с пилотируемых, так и автоматических самолетов. В свою очередь, грузинская армия заявила, что ей удалось уничтожить два российских беспилотных аппарата. Но все же войну в воздухе она проиграла.
Источник: Олег Бесараб, Давид Кобахидзе, "Убить Человека? Легко!" ("Газета по-киевски", Украина)
Subscribe

  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 65 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →