Пентагон інтегрує моделі штучного інтелекту у власні бойові системи
Пентагон розглядає можливість використання генеративного штучного інтелекту для допомоги у виборі військових цілей. Як повідомив представник Міноборони США виданню MIT Technology Review, йдеться про сценарій, коли список потенційних цілей завантажують у AI-систему, розгорнуту в засекреченому середовищі, а оператори просять її визначити пріоритети з урахуванням різних факторів, наприклад, розташування літаків. Остаточне рішення, наголошують у відомстві, все одно ухвалюють люди.
За даними медіа, Пентагон фактично поєднує два підходи. З 2017 року діє програма Maven, яка використовує алгоритми комп’ютерного зору для аналізу великих масивів даних і відео з дронів. Maven може автоматично виявляти цілі та позначати їх на карті, що пришвидшує процес погодження ударів.
Тепер до таких систем додають генеративний рівень — чатботи на кшталт ChatGPT, Claude чи Grok. Вони здатні швидше знаходити й узагальнювати дані, пропонуючи рекомендації щодо пріоритетності цілей. Водночас ці моделі менш перевірені в бойових умовах, а їхні відповіді складніше верифікувати, ніж дані, які показує інтерфейс Maven.
Питання використання військового ШІ набуло особливої уваги після трагедії в Ірані, де удар по школі призвів до загибелі понад сотні дітей. Попереднє розслідування виявило, що серед причин була помилка через застарілі дані. На цьому тлі Пентагон продовжує розширювати застосування AI: для мільйонів військовослужбовців доступні відкриті моделі для адміністративних завдань, а для засекреченого використання схвалено лише кілька систем.
Наразі першою офіційно інтегрованою моделлю була Claude від Anthropic, але після суперечок щодо обмежень її використання Міноборони США визнало компанію ризиком для постачання. Водночас OpenAI та xAI вже уклали угоди про застосування своїх моделей у засекречених середовищах, що свідчить про поступове розширення ролі генеративного ШІ у військовій сфері.
Источник: noworries.news