Автономные системы вооружения

Концепция искусственного интеллекта или машинного обучения заключается в том, что компьютерные программы или программное обеспечение должны быть такими же умными, как люди, и уметь выполнять задачи независимо. Люди стараются использовать тот факт, что машины или алгоритмы не испытывают эмоций и не устают, и что они должны быть в состоянии выполнять задачи быстрее и эффективнее, чем люди.

Таким образом, всю цель машинного обучения можно охарактеризовать как автоматизацию. Люди верят, что, если они смогут эффективно обучать алгоритмы, мы сможем создать мир, в котором машины смогут выполнять действия без присмотра.

Эта мечта уже претворяется в жизнь в некоторых из наших ближайших окружений благодаря использованию роботов в центрах гостеприимства, доступности устройств для умного дома и разработке и тестированию беспилотных автомобилей, которые могут перемещаться по городу без контроля человека. существа . Мысль о таком мире действительно захватывающая, и с учетом недавних инвестиций, сделанных крупнейшими технологическими гигантами в ИИ, было бы трудно делать ставку против достижения этой цели человечеством.

Однако автономия сама по себе сопряжена с ответственностью и риском. По мере того как Интернет открывает перед человечеством все новые и более быстрые возможности для продуктивной работы, он также создал свою долю изощренных врагов. Например, рост использования цифровых платежных каналов и финансовых технологий сопровождался массовым отмыванием преступных доходов, мошенничеством с кредитными картами и другими подобными видами кибермошенничества.

В 2021 году кибератаки обойдутся миру в 1 триллион долларов. Если рассматривать это в другом контексте, если бы кибератака проводилась по стране, ее ВВП составлял бы 1%. Это становится еще более тревожным, когда вы понимаете, что статистика, приведенная выше, относится к 2021 году. Да, кибератаки по-прежнему дорого обходятся нам в эту предполагаемую более безопасную и технологичную эпоху. Можно было бы ожидать, что цифровая безопасность должна быть жестче со всеми инновациями в области безопасности в нашем нынешнем мире, но некоторые из крупнейших и пользующихся наибольшим доверием организаций мира уже стали жертвами разрушительных кибератак, что подорвало их способность защищать критически важные данные.

Дело в том, что наши призывы к технологической изощренности также подкрепляются усилиями людей или организаций с негативными намерениями.

Следовательно, необходимо также изучить потенциальные негативные последствия мира, основанного на развитии ИИ и автономных решений. Мысль об апокалипсисе, в котором роботы захватят мир, всегда может показаться воображением или чем-то, что останется аргументом в пользу Голливуда, но признаки говорят об обратном. Например, двадцать лет назад было трудно по-настоящему представить, что автомобили, которые могут управлять собой, и столь же трудно представить, что люди могут« обмануть других, создавая видеоролики, на которых они разговаривают, но с точным изображением другого человека». Следовательно, как бы разочаровывающе это ни звучало, сложность технологий растет в обоих направлениях - в хорошем и в плохом.

Поэтому нет ничего удивительного в том, что роботы могут захватить мир или что их можно использовать, чтобы захватить мир. Очень важный пример был в 2017 году, когда исследователям Facebook пришлось закрыть эксперимент, который проводился с программами искусственного интеллекта. Программы искусственного интеллекта были разработаны, чтобы вести переговоры о сделках между двумя чат-ботами случайными предметами, такими как мячи, шляпы и книги. Однако по мере продвижения переговоров исследователи заметили, что боты создали упрощенную версию английского языка для общения друг с другом. Исследователи не могли понять язык, и больше всего их напугало то, что боты не были запрограммированы на создание для себя упрощенного языка . Поэтому, хотя это было признаком замечательных возможностей, которые Facebook и весь мир могут достичь с помощью искусственного интеллекта, исследователи Facebook запаниковали и закрыли программу AI.

Это может звучать как один из тех научно-фантастических фильмов, которые мы смотрим, и многие люди все еще могут утверждать, что исследователи Facebook слишком остро отреагировали. Однако отравить систему ИИ не так сложно, как думает большинство людей; злоумышленники также стали изощреннее и разработали средства для манипулирования наборами данных, используемых для обучения ИИ, и внесения тонких изменений в параметры. Они также могут разрабатывать сценарии, тщательно разработанные, чтобы не вызывать подозрений, постепенно направляя ИИ в желаемом, но неверном направлении.

Все это вызывает озабоченность по поводу того, не является ли долгожданная четвертая промышленная революция на самом деле платформой для отделения или передачи власти определенной группе людей. Опять же, это похоже на теорию заговора, но опять же, кто бы мог предсказать время, когда у нас будут проблемы с конфиденциальностью данных и слухи о том, что людей перехватывают через мощные платформы социальных сетей. Кроме того, никто не предсказал момент времени, когда закон будет серьезно рассматриваться в целях взлома крупных технологических гигантов, потому что они стали слишком могущественными. Реальность такова, что ценность, созданная Интернетом, также пришла с силой. И пока правительства и большинство из нас наблюдали за происходящим как зрители, некоторые люди создали себе силу и сделали все возможное, чтобы они стали движителями и потрясателями вселенной.

Поэтому неудивительно, что правительство недавно начало замечать потенциальную силу, которую Интернет еще может создать. Поэтому, помимо существующей борьбы за власть между технологическими гигантами, такими как Google и Apple, или изощренности киберпреступлений, правительства и государства также позиционируют себя так, чтобы не потерпеть неудачу в неизбежной глобальной смене власти. Поэтому правительства нескольких стран сделали создание современного оружия и систем защиты своей приоритетной задачей, и неудивительно, что эти новые оборонные предприятия строятся на автономии, впервые внедренной искусственным интеллектом (ИИ).

Технологии слишком прочно укоренились в человечестве, поэтому нет пути назад от мира, полностью построенного на огромных возможностях современных технологий. Это факт; направление технологий, скорее всего, является следующим направлением силы. Следовательно, мы должны спросить себя, не создают ли ИИ и автономные решения мир, управляемый группой людей, а также каковы возможные результаты стран, пытающихся выиграть эту потенциальную борьбу за власть.

Автономные системы оружия: оборона, власть и права человека

Шансы на то, что случится Третья мировая война, с каждым днем ​​сокращаются. Это связано не только с Женевской конвенцией или усилиями ООН, но и с развитием менталитета человека, стремящегося разрешать конфликты или вести свои сражения более гражданскими способами. Однако не дайте себя обмануть; нации все еще находятся в состоянии войны.

На Ближнем Востоке все еще сохраняется напряженность, некоторые страны все еще могут обижаться на события предыдущих мировых войн, а другие державы, такие как Соединенные Штаты, Китай и Россия, более вовлечены в борьбу за власть, чтобы выяснить, кто станет самым могущественным. наций.

Рост мятежей и терроризма в 21 веке также означает, что большинству стран необходимо сосредоточиться на разработке решений, которые могут помочь снизить уровень безопасности и преодолеть мятежи.

Таким образом, усилия по созданию сильных систем обороны не уменьшились, а военный потенциал большинства стран даже стал более сложным, чтобы гарантировать, что они не останутся позади в более передовых технологических структурах защиты, доступных другим странам. Таким образом, это желание было удовлетворено накоплением ядерного оружия мировыми лидерами и направлением исследований и ресурсов на разработку высокотехнологичного оружия и систем защиты.

Неудивительно, что эти ресурсы и исследования в основном были посвящены созданию решений, основанных на искусственном интеллекте, причем Израильский железный купол - один из последних примеров таких систем защиты от ИИ, о которых говорили. Считается, что военные действия станут более эффективными с помощью более автономных и независимых систем оружия. Это не удивительный мыслительный процесс, поскольку почти каждый сектор и отрасль, похоже, полагают, что развитие ИИ приведет к развитию операций человека в нескольких сферах жизни.

Автономные системы вооружения (AWS) - одна из самых обсуждаемых систем вооружений, поскольку страны продвигаются к достижению своих целей по усовершенствованию систем защиты и безопасности. Государственные военные и разработчики оборонной промышленности работают над созданием полностью автономных возможностей, так что технологические достижения в области искусственного интеллекта позволят беспилотным летательным аппаратам принимать и выполнять сложные решения, включая идентификацию человеческих целей и способность их уничтожать.

Это будет шагом вперед по сравнению с существующими боевыми дронами, которые, хотя и могут выполнять операции без участия человека, по-прежнему нуждаются в управлении и получении инструкций. AWS будет полностью автономной единицей и сможет принимать важные решения на поле боя. Очевидно, что, как и любое другое решение ИИ, мощность ИИ является первым определяющим фактором уровня и сложности данных, используемых для обучения алгоритмов. Но, как и любое другое сложное решение искусственного интеллекта, ожидается, что машина со временем должна учиться и развивать свою способность адаптироваться к новым и уникальным обстоятельствам.

Кроме того, несмотря на секретность разработки AWS, Международный комитет Красного Креста (МККК) дал четкое определение предполагаемых возможностей и стадии разработки автономной системы оружия:

«Исходя из того, что МККК понимает в экспертной литературе,« автономное оружие »- это оружие, которое запрограммировано на изучение или адаптацию своего функционирования в ответ на меняющиеся обстоятельства в среде, в которой оно используется. По-настоящему автономная система оружия была бы способна искать, идентифицировать и применять смертоносную силу к цели, включая человеческую цель (вражеские комбатанты), без какого-либо вмешательства или контроля со стороны человека. Это определение подразумевает мобильную систему с некоторой формой искусственного интеллекта, способную работать в динамической среде без контроля человека. Следует подчеркнуть, что такое «полностью» автономное оружие все еще находится на стадии исследований и еще не разработано, тем более что оно используется в вооруженных конфликтах. Однако технологические возможности в этой области развиваются высокими темпами ».

Это оружие предназначено для того, чтобы быть отделенным от любого человеческого вмешательства и действовать самостоятельно при выборе целей для атаки. Многие ученые и активисты теперь даже называют AWS« роботами-убийцами ». Некоторые технологии AWS уже используются. Яркими примерами использования AWS на полях являются робот SGR-A1, созданный корейцами для защиты своей демилитаризованной зоны (DMZ) на границе с Северной Кореей, а также Силы обороны Израиля (IDF). Армия обороны Израиля (ЦАХАЛ), именуемая Найди и стреляй или на иврите Ро-Йоре, стала предметом недавней проверки, поскольку, несмотря на похвальные сообщения о системе, используемой для уничтожения многих террористов, там были отрывочные сообщения о невинных фермерах и пастухах, которых по ошибке застрелили и убили .

Таким образом, полемика вокруг AWS возвращает нас к важным вопросам, которые задаются в начале этой статьи: какой ценой мы добиваемся прогресса в области искусственного интеллекта? »

Для AWS этот вопрос становится более важным, если перефразировать его так: «Какой ценой мы разрабатываем машину, которая может сама по себе отнять жизнь человека?» Все становится более серьезным, когда мы понимаем степень сложности, связанной с привлечением людей к ответственности, когда что-то идет не так. Несмотря на нынешнюю власть крупных корпораций и правительств, они по-прежнему несут ответственность по нескольким направлениям. Могут возникнуть споры о том, могут ли определенные корпорации когда-либо быть наказаны за свои проступки, но усилия все же предпринимаются: сотрудника могут уволить за халатность или потерпевшим может быть выплачен крупный сбор за урегулирование спора. Но по сравнению с тем, как должны выглядеть AWS и последующие решения, эта основная способность привлекать к ответственности людей исчезла бы.

Следовательно, всю концепцию Международного гуманитарного права защиты гражданских лиц и неучаствующих субъектов будет сложнее поддерживать. Например, мы видим, что в наши дни больше боевых столкновений ведется в городских районах, или более известных как« боевые столкновения в городских условиях для» солдат. Война в Ираке - яркий тому пример; в городах иногда не удается избежать гражданского залога даже лучшим из солдат. Это уже вызывает беспокойство, но теперь как следует беспокоиться о возможном развертывании AWS в такой боевой среде. Кто несет ответственность за появление машины, убивающей невиновное гражданское лицо? Могут ли эти роботы отличить раненого солдата, сдающегося, подняв руку и оружие, в знак капитуляции, а не принять это за акт агрессии? Вы заставляете робота предстать перед судом или вы заставляете судить разработчика программы, не забывая, что эти роботы обладают способностью принимать внутренние решения о том, кого убить? Или, что еще лучше, правительство штата предстанет перед судом, если все пойдет не так? Как вы измеряете ответственность, когда полная автономность этих машин - это, в первую очередь, вся цель?

Кроме того, мы уже установили рост изощренности кибератак и интернет-мошенничества. Следовательно, мы не можем исключить возможность взлома или угона этих автономных систем оружия киберпреступниками. Это становится еще страшнее, если принять во внимание сценарий, который уже обсуждался исследователями Facebook, и то, как эти роботы могут стать «мошенниками» сами по себе или подвергнуться вмешательству, чтобы вызвать хаос.

Последнее замечание: тонкие силовые схватки?

В этой статье уже упоминались существующие баталии за власть, которые существуют между большими странами мира, и критическое положение, которое технологии будут играть в следующий сдвиг власти. Но если принять во внимание деликатный характер AWS и нынешнее восстание против его реализации со стороны« Хьюман Райтс Вотч », возникает вопрос, почему подразделение вооружений МККК не сделало достаточно, чтобы прекратить исследование или назначить крупное ограничить его возможности. Единственной попыткой МККК взять ситуацию под контроль было опубликовано следующее заявление:

«Согласно МГП любое новое оружие или метод ведения войны должны быть пригодны для использования в соответствии с нормами МГП, регулирующими ведение боевых действий, в частности, с правилами проведения различия, соразмерности и мер предосторожности при нападении, направленных на защиту гражданского населения»… «Это Следует также напомнить, что МГП направлено на предотвращение или ограничение разработки и развертывания новых технологий ведения войны, которые могут быть запрещены при некоторых или всех обстоятельствах, требуя от каждого государства оценки законности нового оружия, которое они хотят разработать или приобрести. (в соответствии со статьей 36 Дополнительного протокола I к Женевским конвенциям) »…« В отношении любой новой технологии ведения войны, такой как автономное оружие, важно обеспечить информированное обсуждение всех затронутых вопросов, чтобы привлечь внимание к необходимость оценки их потенциальных человеческих издержек и последствий для МГП и обеспечения того, чтобы они не использовались преждевременно в условиях, в которых соблюдение МГП не может быть гарантировано »

Каким бы хорошо продуманным ни казалось приведенное выше утверждение, эта статья уже раскрывает изъян в ключевом аспекте утверждения. Правила различения, соразмерности и мер предосторожности при атаке не могут быть гарантированы, когда мы создаем машины, предназначенные для самостоятельного принятия решений об убийстве. Различные вопросы, заданные в этой статье, уже ставят под вопрос, могут ли эти три принципа быть гарантированы саморегулирующимся роботом или автономной машиной для убийства.

Поступают сообщения о том, что Весты являются первопроходцами большинства разработок AWS, и что прибыльный характер оружия для западного мира является основной причиной предвзятого отношения к оружейному подразделению МККК, особенно если учесть это подразделение МККК тоже западное. Корреляция также была проведена с комментариями Международного суда относительно использования ядерного оружия, которые не ограничивают и не сдерживают его, потому что это оружие создается западными странами и развертывается ими. Эти предложения верны? Это не мое дело. Однако факт остается фактом: ИИ окажется в центре следующей схватки за власть, и каждый будет искать средства, чтобы убедиться, что он откусил от вишни как можно больше.

Поэтому я считаю, что лучшее, что мы можем сделать, - это обеспечить, чтобы исследования и ресурсы, выделяемые на создание децентрализованных решений, не сокращались, а вместо этого увеличивались. Децентрализованные решения, такие как платформы с поддержкой блокчейнов, могут создать более безопасный и равноправный Интернет, и по мере того, как мир приближается к ИИ и обществу, основанному на данных, мы можем быть единственной надеждой на предотвращение перекоса власти в избранные еще раз. Недавние события предполагают, что Сеть 3 никуда не денется, но такие предложения, как AWS, говорят о том, что борьба за построение мира, основанного на равенстве, еще не окончена. Следовательно, борьба за господство и власть может оставаться самой большой угрозой децентрализованному, равному и справедливому миру.