Технології штучного інтелекту стрімко розвиваються й використовуються в інформаційній війні та на полі бою.
Керівник ЦПД, офіцер Сил оборони України Андрій Коваленко відзначив головні тренди у використанні ШІ за останній місяць.
За його словами, на інформаційному фронті російські структури активізували методику «отруєння» великих мовних моделей (LLM): вони масово генерують фейкові сайти, новинні портали, псевдоаналітику, яку потім системно «згодовують» алгоритмам через SEO-оптимізацію. Мета — щоб ChatGPT, Gemini, Claude або інші боти у відповідях мимоволі відтворювали кремлівські меседжі: про «нацистську Україну», «американську біозброю», «окупований Донбас» тощо. Це новий рівень дезінформації — не через тролів, а через самі моделі.
«Паралельно ШІ масово використовується в когнітивній війні: мільйони постів аналізуються для побудови емоційних карт аудиторій. Алгоритми виявляють, де в суспільстві тривога, розчарування, втома, і саме туди запускаються фейкові меседжі. Це вже не просто пропаганда — це точковий психологічний тиск, підсилений нейронними мережами», — зазначив Андрій Коваленко.
Раніше Центр повідомляв, що від початку 2025 року зафіксував 191 інформаційну операцію росії, здійснену з використанням продуктів штучного інтелекту.
Також керівник ЦПД зауважив, що на полі бою скоро буде прорив у застосуванні автономних дронів: у США активно тестують дрони, які самостійно розпізнають ціль, ухвалюють рішення про атаку та виконують місію без участі людини.
«Платформи типу Fury, Ghost та Roadrunner уже демонструють ефективність у складних умовах — під час глушіння зв’язку чи втрати GPS. Все це вписується у ширшу концепцію JADC2 — єдиної цифрової системи управління всіма силами (повітря, земля, флот, кібер), де рішення ухвалюються за секунди, не хвилини», — зазначив він.
За словами Андрія Коваленка, Україна теж формує власний фронт AI: «FPV-дрони нового покоління, які використовують комп’ютерний зір. Вони можуть автономно розпізнати танк, БМП, бліндаж, облетіти перешкоди і вразити ціль навіть без прямого керування оператором».
Центр протидії дезінформації застосовує машинне навчання для виявлення координованих інформаційних атак. Моделі фіксують аномалії в поширенні певного меседжу, одночасне підключення бот-мереж, «накачку» Telegram-каналів, інших соцмереж та реакції на них. Виявлена інфраструктура росіян поступово припиняє своє існування.