Wojna kognitywna: gdy AI zaczyna zastępować człowieka
Nowe technologie pozwalają nie tylko wpływać na ludzi, ale tworzyć ich cyfrowe odpowiedniki. Granica między człowiekiem a AI zaczyna znikać.
Wojna poznawcza i modelowanie ludzkich zachowań
Randy Pugh z Naval Postgraduate School (NPS), ekspert ds. sztucznej inteligencji w grupie zadaniowej AI, przemawiał do liderów przypisanych do Naval Supply Systems Command (NAVSUP), w tym NAVSUP Weapon Systems Command oraz NAVSUP Business Systems Center podczas forum AI Leadership Forum dwudziestego szóstego lutego dwa tysiące dwudziestego szóstego roku w Naval Support Activity Mechanicsburg w Pensylwanii. Zdjęcie: Marynarka Wojenna USA, Karissa Murdock. Źródło: DVIDS.
Wojna poznawcza polega mniej na kontroli terytorium, a bardziej na kształtowaniu percepcji. Jej celem jest uzyskanie przewagi informacyjnej, która przekłada się na przewagę decyzyjną — wpływanie na to, jak jednostki i całe społeczeństwa interpretują wydarzenia i jak na ich podstawie działają.
Jak wyjaśniła Svitlana Volkova, dyrektor ds. sztucznej inteligencji w firmie Aptima w rozmowie z Military.com:
„wojna poznawcza oznacza przewagę informacyjną, która wspiera przewagę decyzyjną.”
Skupia się ona na domenach niekinetycznych — takich jak cyberprzestrzeń, środowiska społeczne i informacyjne — gdzie wpływ może zmieniać wyniki bez użycia siły fizycznej.
To podejście odzwierciedla szerszą zmianę doktrynalną. United States Department of Defense podkreśla strategiczne znaczenie informacji we współczesnych konfliktach, a NATO określa wojnę poznawczą jako działanie w „domenie ludzkiej”, gdzie celem stają się przekonania oraz procesy decyzyjne.
Zmienił się nie tyle sam cel, co zdolność do modelowania i testowania wpływu z dużo większą precyzją.
Od modeli poznawczych do symulacji opartych na danych
Technologicznym fundamentem wojny poznawczej jest próba modelowania ludzkiego zachowania. Svitlana Volkova opisała to jako problem wielopoziomowy, obejmujący jednostki, społeczności i całe populacje. Wcześniejsze podejścia opierały się na tradycyjnych modelach poznawczych oraz wąskich systemach AI, które nie radziły sobie z uchwyceniem złożoności rzeczywistego świata.
Wcześniejsze programy DARPA koncentrowały się na modelowaniu zachowań ludzi oraz interakcji człowiek–AI w środowiskach operacyjnych, w tym na projektach takich jak EMHAT (Exploratory Models of Human-AI Teams). Volkova zaznaczyła, że pracuje nad tymi zagadnieniami co najmniej od dwa tysiące siedemnastego roku, w tym nad programami mającymi symulować ludzkie zachowania społeczne i oceniać, jak dobrze te symulacje odzwierciedlają rzeczywistość.
W tamtym czasie wykorzystywano wcześniejsze architektury AI.
„Używaliśmy modeli LSTM (long short-term memory) oraz GRU (gated recurrent units), które nie były wystarczające” — powiedziała.
Ograniczenia tych systemów doprowadziły do kolejnego etapu rozwoju. Mimo to podkreśliła, że nie należy przeceniać możliwości obecnych technologii.
„Duże modele językowe (LLM) nie są wystarczające do modelowania ludzkiego zachowania” — zaznaczyła.
Zamiast tego opisała przejście w kierunku złożonych systemów AI (compound AI), które łączą modele językowe z autonomicznymi agentami, strukturami pamięci oraz uczeniem ze wzmocnieniem.
Tacy agenci „posiadają pamięć” oraz „działają i wchodzą w interakcje”, co pozwala symulacjom rozwijać się dynamicznie, zamiast generować statyczne wyniki.
Jej praca rozwija wcześniejsze programy DARPA, łącząc modelowanie cyfrowych bliźniaków ludzi z wielkoskalowymi symulacjami społecznymi, aby lepiej odwzorować rzeczywiste ludzkie zachowania.
Cyfrowe bliźniaki i rozwój symulacji
Jednym z najważniejszych osiągnięć w tej dziedzinie jest zastosowanie technologii cyfrowych bliźniaków do modelowania ludzkiego zachowania. Tradycyjnie wykorzystywane do odwzorowywania systemów fizycznych, cyfrowe bliźniaki są obecnie rozszerzane na obszar poznawczy.
Svitlana Volkova definiuje cyfrowego bliźniaka człowieka jako „cyfrową replikę człowieka, która uczy się i wymienia dane ze swoim fizycznym odpowiednikiem”.
Na poziomie jednostki oznacza to modelowanie tego, jak konkretna osoba wchodzi w interakcje z systemami i reaguje na różne scenariusze.
Takie modele pozwalają badaczom testować warunki, które w rzeczywistości byłyby niepraktyczne lub nieetyczne.
„Możemy ingerować i sprawdzać: co jeśli człowiek jest bardziej kompetentny albo mniej kompetentny, co jeśli AI jest bardziej lub mniej niezawodna” — wyjaśniła, opisując, jak symulacje umożliwiają analizę różnych wariantów działania.
Na poziomie populacji koncepcja ta rozszerza się na środowiska syntetyczne. Zamiast modelować jedną osobę, badacze tworzą sieci agentów reprezentujących rzeczywiste społeczności.
Volkova opisała dopasowywanie tych agentów do realnych populacji przy użyciu danych z platform takich jak Telegram, VK oraz X, a także danych z badań ankietowych i wiadomości.
Takie dopasowanie sprawia, że symulacje odzwierciedlają rzeczywiste przekonania, uwarunkowania kulturowe i perspektywy, zamiast opierać się na ogólnych modelach trenowanych głównie na danych zachodnich.
Badania potwierdzają znaczenie tego podejścia — modele dopasowane do konkretnych społeczności zachowują się inaczej niż uniwersalne systemy, co pokazuje ograniczenia podejścia „jednego modelu dla wszystkich”.
Walidacja i dokładność
Pomimo dużych postępów, kluczowym wyzwaniem pozostaje określenie, na ile dokładnie te systemy odwzorowują rzeczywiste ludzkie zachowania. Volkova określiła walidację jako „obszar zdecydowanie niedostatecznie zbadany”, szczególnie na poziomie populacji.
W tym kontekście walidacja oznacza sprawdzenie, czy model rzeczywiście odzwierciedla realny świat, a nie tylko generuje wiarygodnie brzmiące wyniki.
National Academies wskazują, że walidacja, weryfikacja oraz analiza niepewności są kluczowe dla budowania zaufania do cyfrowych bliźniaków i systemów symulacyjnych.
Zamiast polegać na jednym wskaźniku, badacze oceniają symulacje wielowymiarowo.
Volkova opisuje proces rozpoczynający się od dopasowania semantycznego — porównania, jak dane tematy są omawiane w rzeczywistości i w symulacjach.
Następnie modele analizowane są pod kątem wskaźników społeczno-emocjonalnych, takich jak:
- sentyment
- opinie
- subiektywność
Ocenia się także, czy trendy rozwijają się w podobny sposób w czasie.
Kolejnym poziomem walidacji jest struktura sieci — analiza przepływu informacji oraz interakcji między uczestnikami w rzeczywistych i symulowanych systemach.
Takie podejście jest zgodne z szerszym nurtem badań nad modelowaniem agentowym, gdzie porównanie z rzeczywistością stanowi kluczowy element oceny poprawności modeli.
Boty, autonomia i syntetyczne uczestnictwo
Zautomatyzowani agenci stanowią kolejny kluczowy element systemów wojny poznawczej. Mogą oni obserwować, analizować i uczestniczyć w środowiskach internetowych — często na dużą skalę.
Badania już wykazały ich wpływ. Boty odgrywają nieproporcjonalnie dużą rolę w rozpowszechnianiu dezinformacji, a skoordynowane sieci potrafią kształtować dyskurs w internecie.
Svitlana Volkova opisuje współczesnych agentów jako autonomiczne systemy posiadające pamięć i zdolność dynamicznej interakcji.
„Ci agenci działają autonomicznie” — podkreśliła, zaznaczając, że potrafią dostosowywać się do środowiska oraz do siebie nawzajem.
Tworzy to ekosystemy informacyjne, w których coraz trudniej odróżnić uczestników ludzkich od nieludzkich.
Ta niejednoznaczność utrudnia zarówno analizę, jak i obronę. Jeśli boty funkcjonują w tych samych sieciach co ludzie i zachowują się podobnie, oddzielenie naturalnego zachowania od sztucznego wpływu staje się stałym wyzwaniem.
Od symulacji do syntetycznej tożsamości
Najważniejszą konsekwencją tych technologii nie jest jedynie lepsza analiza czy skuteczniejsza komunikacja. Jest nią stopniowe powstawanie systemów przypominających poznawcze repliki człowieka.
Odnosząc się do możliwości symulowania konkretnych stylów komunikacji i zachowań, Volkova stwierdziła, że te zdolności „nie są science fiction” i „są jak najbardziej realne”.
To odzwierciedla kierunek rozwoju widoczny już dziś zarówno w badaniach, jak i w przemyśle.
W przyszłości — jak opisuje — systemy te mogą wyjść poza symulację i wejść w fazę fizycznej integracji, gdzie cyfrowe bliźniaki będą mogły działać w imieniu człowieka — funkcjonalnie jako „klony”, zdolne wykonywać zadania, uczestniczyć w pracy i interakcjach w świecie rzeczywistym.
Systemy cyfrowe potrafią już coraz dokładniej odwzorowywać:
- styl pisania
- wzorce zachowań
- interakcje społeczne
Niektóre firmy tworzą modele oparte na danych z mediów społecznościowych, a platformy takie jak Meta utrzymują cyfrową obecność użytkowników poprzez konta pamięciowe.
Badania nad cyfrową tożsamością po śmierci wskazują na problemy związane z:
- zgodą
- autentycznością
- możliwością manipulacji
Problemem nie jest to, że systemy idealnie odwzorowują ludzki umysł. Chodzi o to, że stają się wystarczająco przekonujące, by działać jako jego zastępstwo.
Cyfrowy bliźniak może zacząć jako narzędzie do symulacji lub treningu, ale z czasem może ewoluować w coś, co naśladuje sposób mówienia, reagowania i interakcji danej osoby.
Wraz z rosnącą autonomią i integracją z danymi rzeczywistymi, systemy te zaczynają działać mniej jak modele, a bardziej jak trwałe odpowiedniki człowieka — agenci zdolni do działania, interakcji i reagowania w sposób odzwierciedlający ludzi, których reprezentują.
W środowiskach wysokiego ryzyka pojawia się możliwość utrzymania pozoru obecności nawet wtedy, gdy dana osoba nie jest już aktywna — a nawet nie żyje.
Doprowadzone do logicznego końca, nie jest to już tylko symulacja, lecz funkcjonalna replikacja na dużą skalę — systemy, które nie tylko modelują ludzkie zachowanie, ale odwzorowują je na tyle dobrze, by zastępować człowieka w rzeczywistych interakcjach.
Dokąd zmierza wojna poznawcza
Kierunek rozwoju technologii wojny poznawczej jest jasny. Systemy stają się coraz bardziej realistyczne, adaptacyjne i zdolne do działania na dużą skalę. Z czasem zwiększy to zarówno ich użyteczność, jak i ryzyko.
Najbardziej bezpośrednim zagrożeniem nie jest nagły skok do perfekcyjnych cyfrowych replik ludzi, lecz stopniowa normalizacja systemów, które zacierają granicę między człowiekiem a maszyną. Wraz z postępem modelowania i rosnącą autonomią agentów, różnica między symulacją a rzeczywistym uczestnictwem będzie się coraz bardziej zacierać.
Ta zmiana rodzi fundamentalne pytania o:
- tożsamość
- zgodę
- zaufanie
Gdy systemy potrafią modelować całe populacje, naśladować jednostki i funkcjonować w środowiskach cyfrowych przez długi czas, problem przestaje dotyczyć wyłącznie wpływu.
Pojawia się pytanie, czy technologie te mogą zacząć zastępować ludzi — i co to oznacza, gdy faktycznie do tego dochodzi.