ИИ и война: насколько допустимо его использование?

Министерство обороны США задействует искусственный интеллект в том числе и для ведения войны. Уже вовсю идёт сотрудничество с такими концернами, как xAI. Другая фирма-разработчик ИИ - Anthropic - недавно попала в чёрный список Пентагона, потому что отказалась предоставить свои технологии для военных целей. Обозреватели освещают возможности и риски применения ИИ.

показать/скрыть все цитаты
Expresso (PT) /

Прогресс обернётся тоталитаризмом технологий

Лиссабонская газета Expresso рассуждает о рисках задействования искусственного интеллекта:

«Недавнее исследование, проведённое Королевским колледжем Лондона, показывает, что если поставить перед самыми прогрессивными языковыми моделями задачу положить конец военным конфликтам, то те в девяноста пяти процентах случаев в конечном итоге выбирают ядерную опцию. У них, так сказать, отсутствует животный инстинкт выживания. ... Различие между системой, помогающей принять решение (к примеру, идентифицирующей подозреваемого или цели), и системой, решения принимающей (т. е. кого арестовать, депортировать или даже ликвидировать), лежит отнюдь не в области технологий. Различие - в том, что осталось от выстраивавшейся веками [этической] конструкции. Окончательный и всесокрушающий тоталитаризм станет порождением именно технологического 'гения'.»

Süddeutsche Zeitung (DE) /

Цель: смятение в умах противника

Фейки, сгенерированные искусственным интеллектом, превращают и интернет в поле боя, - констатирует мюнхенская Süddeutsche Zeitung:

«Кто бы ни распространял эти изображения - иранские спецслужбы, независимые интернет-тролли, третьи силы - те, кто этим занимается, преследуют в первую очередь одну цель. Важна не ложь сама по себе, а то долговременное воздействие, которое она оказывает, а именно - всеобщая путаница и смятение. ... Подобного рода тактики свидетельствуют в первую очередь о следующем: цифровой информационный мир - это зияющая брешь во фланге, который держат западные державы. Заделывание этой бреши станет одним из сложнейших вызовов в условиях будущих войн. Бесчисленные фейковые изображения, сгенерированные искусственным интеллектом, свидетельствуют о том, что в ходе войны заинтересованным группам зачастую гораздо скорее удаётся поставить новые технологии себе на службу, чем тем, кто занят задачами обороны.»

Habertürk (TR) /

Когда исчезает ответственность

Турецкий портал Habertürk указывает на опасность автоматизированных процессов:

«'Окончательное решение всегда принимает человек'. За этой фразой стоит очень многое. И в первую очередь следующий вопрос: если искусственный интеллект всего за несколько секунд составит список целей и положит его вам на стол, то будет ли в данном случае ваше согласие и в самом деле вашим решением - или же вы просто нажмёте кнопку, для того чтобы привести машину в движение? Эксперты в таких случаях говорят об 'автоматизированной предвзятости'. Когда перед вами кладут готовый список, вы, скорее всего, примете его на веру. ... На практике ответственность улетучивается. На ком вина - на дефектном программном обеспечении, на компании, его разработавшей, на военнослужащем, отдавшем распоряжение - или же на командире, отдавшем ему соответствующий приказ?»

Delfi (LV) /

Слово - экспертам!

В своей статье на латвийском портале Delfi публицист Марис Цандерс апеллирует к ответственности политиков:

«Проблема - в том, что те, кто ответственны за принятие политических решений, в силу недостатка знаний в области ИИ в первую очередь видят в нём шанс, а не риск. Учитывая тот факт, что военный аспект использования ИИ продолжит совершенствоваться (вплоть до того, как случится катастрофа), чрезвычайно важно, чтобы облачённые полномочиями политики не обладали единоличным правом решать вопрос использования технологий. Также должны иметь возможность высказать свою точку зрения представители промышленности и эксперты. С этой перспективы - даже если мы не будем питать иллюзий по поводу бескорыстности гигантов бигтеха! - весьма положительным является тот факт, что в этом конфликте Google, Amazon, Apple и Microsoft поддержали позицию Anthropic.»