Как пишет журнал National Defence, по мнению высшего руководства КМП у этого рода войск с искусственным интеллектом только одна серьезная проблема — недостаток доверия солдат и командования к нему. Как предложил комендант (высший по званию офицер) Корпуса морской пехоты, генерал Дэвид Бергер (Commandant Gen. David Berger), решить ее можно довольно простым способом. А именно — поручить тренировку машин морпехам.
На первый взгляд подобное заявление выглядит по-армейски упрощенным и топорным. Но в словах обладателя трех дипломов о высшем образовании (один из которых в области технических наук) — Бергера, — есть изрядная доля здравого смысла. Военные навряд ли будут доверять информации, предоставленной алгоритмами ИИ, который программировался пусть и профессионалами, но явно не бывавшими на передовой.
Современные технологии искусственного интеллекта требуют данных для обучения, отбор которых разумнее всего поручить людям, которые не по наслышке знают, что такое поле боя. К тому же, они имеют больше шансов быстро и корректно определить, насколько эффективно алгоритм будет действовать после обучения. То есть мысль не в том, чтобы отобрать разработку у «гражданских» подрядчиков, а выполнять ее совместно, тесно интегрированными командами из военных и специалистов по ИИ.
Своего коллегу поддерживает и бригадный генерал Эрик Остин (Eric Austin) глава подразделения Capabilities Development Directorate Корпуса морской пехоты. Он отметил, что КМП разрабатывает инструменты, использующие искусственный интеллект для обработки больших объемов информации. Они полезны для эффективного анализа разведывательных данных и быстрого формирования оперативных сводок. Такой ИИ способен существенно снизить когнитивное бремя, лежащее на морпехах. Алгоритмы будут анализировать входящую с множества источников информацию и выдавать удобную «выжимку», а освободившимся от избыточной нагрузки людям уже предстоит принимать критические решения.
Генерал-лейтенант Дэвид Бергер в 2018 году еще до назначения комендантом КМП и получения четвертой большой звезды на погоны. С тех пор он почему-то на фотографиях почти никогда не улыбается / ©Patrick Mahoney, U.S. Marines
По словам высокопоставленных офицеров, сейчас цепочка принятия решений между первичным сенсором (любым источником данных) и непосредственным исполнителем приказа может достигать полутора десятков человек. Просто потому, что люди до сих пор не готовы полностью доверять обработку столь важной информации машинам. И уж тем более принимать решения на основании данных, полученных от таких «аналитиков».
Все эти рассуждения, прозвучавшие из уст генералов КМП на закрытом мероприятии Industrial Association’s Expeditionary Warfare Conference, здорово дополняют происходящее в других родах войск США. В начале года, генерал-лейтенант Майкл Гроэн (Michael Groen), тоже морпех, хоть и бывший, обрисовал в профильном СМИ общую стратегию интеграции технологий искусственного интеллекта в американскую военную машину. Он возглавляет Объединенный центр искусственного интеллекта (JAIC) Министерства обороны (DOD) и видит общую картину изнутри.
А вопрос доверия людей к ИИ стоит важнейшим пунктом в повестке программы Air Combat Evolution (ACE). Его ведет Управление перспективных исследовательских проектов Министерства обороны США (DARPA) в интересах ВВС. В рамках ACE уже отработаны симуляции ближнего воздушного боя истребителей под управлением искусственного интеллекта. Алгоритмы показали высокую эффективность против единичных противников и групп самолетов, взаимодействовали с живыми пилотами и наземными силами. Через несколько лет уже настоящие самолеты, управляемые ИИ, будут летать в воздухе и проходить слаживание с людьми.