Військовий штучний інтелект: дві книги, одна дилема

 2017 рік ознаменувався спалахом інтересу до застосування штучного інтелекту в військовій галузі. Про цей актуальний напрямок розвитку технологій говорили в минулому році всі: від журналістів і експертів до самих військових і президентів. Відповідно, цій «гарячої» тематиці присвячено безліч статей та інших матеріалів, але поки не так багато об'ємних праць. Тим не менш, вони є.

Влітку цього року вийшла книга Аміра Хусейна (Amir Husain), засновника і головного виконавчого директора «СпаркКогнішн» (SparkCognition), однієї з провідних компаній США по розробці штучного інтелекту, а навесні наступного року буде опублікована книга Пола Скарре (Paul Scharre), директора програми досліджень воєн майбутнього вашингтонського Центру нової американської безпеки.

Амір Хусейн - серед тих 116 експертів в галузі штучного інтелекту, хто в цьому році підписав відкритий лист в ООН, в якому говорилося, що «автономні системи летального озброєння можуть привести до третьої революції в прийомах ведення війни» і що «ми усвідомлюємо особливу відповідальність за наближення цієї грози».

Проте, Хусейн зазначив, що він виступає проти будь-яких дій, які могли б привести до уповільнення технічного прогресу. Лист, на його думку, мав на меті звернути увагу міжнародної громадськості на «потенційні небезпеки, які можуть таїти в собі автономні системи летальної зброї, і на відсутність широкої міжнародної дискусії з даного питання». Хусейн - оптиміст.

І книга Хусейна - це спроба розглянути з позитивного боку застосування штучного інтелекту в майбутніх війнах. Хусейн працював разом з колишнім командувачем силами США і НАТО в Афганістані генералом Джоном Алленом (John Allen) над створенням концепції «гіпервійни» і вважає тих, хто говорить про необхідність збереження людини в ланцюжку прийняття рішень або напівавтоматичних системах, «м'якотілими» людьми, які навіть не розуміють, що відбувається. 

Сама суть автономності - це виключення людини з ланцюжка, коли рішення треба приймати у найкоротший термін і в системи немає цього запасу секунд, щоб радитися з людиною, знищувати, наприклад, загрозу, що стрімко наближається чи ні. На полі бою виграє той, хто швидше прийме рішення і відреагує. Тут немає рівних машинам.

За словами Хусейна, автономні системи вже існують і працюють. Знаряддя «Фаланкс Гатлінг» (Phalanx Gatling) на кораблях ВМС США знищують як ракети противника, так і пілотовані літаки, розцінюючи їх як загрозу.

Система «Іджіс» (Aegis) також має автоматичний режим, який дозволяє їй відкривати вогонь не тільки по ракетам, а й по пілотованим об'єктам, і при цьому без будь-якого втручання операторів.

Так як Китай і Росія розробляють свої системи військового штучного інтелекту без огляду на моральні обмеження, то на думку автора, це не залишає шансу США і змушує Штати самим активно працювати в цьому напрямку, щоб не програти нову гонку озброєнь.

Хусейн вважає, що не треба концентруватися на обмеженнях дій автономних систем людиною, а необхідно вже з самого початку програмувати «моральні опції» в штучний інтелект.

Комментариев нет:

Отправить комментарий