Barbu, Alida Monica Doriana (2022), Aplicații ale AI, machine learning, deep learning și big data în domeniul militar, Cunoașterea Științifică, 2:1, 160-175, https://www.cunoasterea.ro/aplicatii-ale-ai-machine-learning-deep-learning-si-big-data-in-domeniul-militar/
Applications of AI, machine learning, deep learning and big data in the military field
Abstract
AI could decisively influence international security and peace not necessarily through superintelligence or “killer robots,” but through the risks inherent in trusting computer-generated algorithms to make choices that humans used to make. Future research should focus on specific applications of AI, because AI is not a weapon or a weapon system, but a technology that can enhance other technologies. However, the multiple challenges and common risks of a range of AI applications, relevant for international security, such as biases (cognitive biases and lack of complete data), data sharing and poisoning (poisoning), responsible for the huge potential for misperceptions that can lead to misunderstandings that are difficult to quantify.
Keywords: military aplications, AI, Machine Learning, Deep Learning, Big Data
Rezumat
AI ar putea influența în mod decisiv securitatea și pacea internațională nu neapărat prin superinteligență sau „roboți ucigași”, ci prin riscurile inerente încrederii în algoritmi generați de computer pentru a face alegeri pe care mai demult obișnuiau oamenii să le facă. Cercetările viitoare ar trebui să se concentreze pe aplicații specifice ale AI, deoarece AI nu este o armă sau un sistem de arme, ci o tehnologie care poate îmbunătăți alte tehnologii. Nu sunt de neglijat însă multiplele provocări și riscuri comune ale unei game de aplicații AI, relevante pentru securitatea internațională, precum biases (cognitive biases – părtinire cognitivă și lack of complete data – lipsa datelor complete), data sharing (partajarea datelor) și poisoning (otrăvire), responsabile pentru uriașul potențial de percepții greșite ce pot duce la neînțelegeri greu de cuantificat.
Cuvinte cheie: aplicații militare, AI, Machine Learning, Deep Learning, Big Data
CUNOAȘTEREA ȘTIINȚIFICĂ, Volumul 2, Numărul 1, Martie 2023, pp. 160-175
ISSN 2821 – 8086, ISSN – L 2821 – 8086
URL: https://www.cunoasterea.ro/aplicatii-ale-ai-machine-learning-deep-learning-si-big-data-in-domeniul-militar/
© 2022 Alida Monica Doriana Barbu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.
Aplicații ale AI, machine learning, deep learning și big data în domeniul militar
Alida Monica Doriana Barbu
alida.barbu7@gmail.com
Introducere
Departamentul Apărării al SUA definește inteligența artificială ca fiind „capacitatea mașinilor de a îndeplini sarcini care necesită în mod normal inteligență umană”, cum ar fi „recunoașterea tiparelor, învățarea din experiență, extragerea de concluzii și formularea de predicții sau acțiunea – fie digitală, fie ca software inteligent din spatele sistemelor fizice autonome.”[1]
Caracterul războiului, ordinea globală, până și viitorul muncii pot fi modelate de progresele în inteligența artificială (AI).[2] Țările și instituțiile organizează această nouă lume a IA.[3] Colocviul intitulat „Cum refac tehnologiile emergente ordinea globală” al Centrului de Afaceri Globale al Universității din Pennsylvania „Perry World House” a încercat să evalueze efectele pe care le are AI în privința ordinii globale și politicii internaționale și să ajungă la un consens asupra a ceea ce constituie IA. Factori de decizie, cadre universitare, lideri din industrie și experți s-au concentrat pe tehnologiile emergente și pe securitatea internațională, aplecându-se asupra unor întrebări de genul „Cum este posibil ca progresele în IA să schimbe traiectoria competiției marilor puteri?” și „Cât de bine înțeleg militarii și/sau comunitatea de securitate internațională efectele militare și nemilitare ale inteligenței artificiale asupra securității internaționale?”
Militarii care folosesc tehnologii ce integrează inteligența artificială trebuie să fie precauți la prejudecățile sistemice din seturilor de date, deoarece ar putea împiedica aplicațiile militare să funcționeze în siguranță și eficient. Datele eronate, însă, nu sunt mereu întâmplătoare. Adversarii pot manipula algoritmii prin injectarea de date eronate în seturile de date de antrenament prin atacuri de „otrăvire a datelor”. Intelligence Advanced Research Projects Activity (IARPA), prin programe precum TrojAI[4] și SAILS[5], încearcă să identifice când algoritmii au fost antrenați pe date otrăvite, respectiv să împiedice atacatorii să găsească date de antrenament susceptibile la manipulare. Cu toate acestea, amenințarea rămâne, pe măsură ce datele de antrenament sunt mai voluminoase și algoritmii devin mai complecși.[6] Atacurile de otrăvire a datelor ar putea, de asemenea, exacerba alte riscuri în AI, cum ar fi fragilitatea sau incapacitatea acesteia de a gestiona medii incerte sau noi.
Sistemele de inteligență artificială ce gestionează o funcție limitată sau singulară (Narrow AI) pot învăța sarcini specifice, depășind oamenii prin algoritmii de joc încă din anii 1950. Mașinile și computerele excelează în medii controlate și simulate, cum ar fi în cazul AlphaGo și IBM Watson Jeopardy, depășind oamenii în căutarea opțiunilor și în respectarea parametrilor determiniști.[7] Acest progres incontestabil în AI și Machine Learning se aplică totuși doar în mediul atent controlat al jocului sau în sarcina specifică restrânsă.
Algoritmii AI în sine sunt adesea fragili atunci când sunt operați în afara unui domeniu determinist. Michael Horowitz și Paul Scharre susțin că sistemelor actuale de inteligență artificială „le lipsește raționamentul cu scop general pe care oamenii îl folosesc pentru a îndeplini în mod flexibil o serie de sarcini” și eșuează dacă sunt „desfășurate în afara contextului pentru care au fost concepute”.[8] În cazul AlphaZero, Scharre și Horowitz avertizează că diferite versiuni ale algoritmului trebuiau antrenate pentru fiecare joc și „nu putea transfera învățarea de la un joc la altul, așa cum ar putea un om”.[9] Scharre remarcă că, în ciuda capacității sistemelor AI de a „atinge performanțe supraomenești în anumite situații”, nu numai că nu pot transfera învățarea, dar pot „eșua catastrofal în altele”.[10] În mediile militare, acest lucru poate fi devastator. Funcționarea în afara unui laborator necesită, așa cum observă Cummings, extragerea de concluzii abstracte care necesită judecată în condiții de incertitudine.
În aplicațiile de securitate națională, aproape toate situațiile sunt întunecate de ceața războiului, generând incertitudine care face ca utilizarea eficientă a inteligenței artificiale să fie mai dificilă. Natura schimbătoare și imprevizibilă a conflictului poate fi incompatibilă cu sistemele fragile activate de IA, care nu se pot adapta așa cum ar putea un soldat uman antrenat. Similar cu mașinile cu conducere autonomă, Mary Cummings susține că aplicațiile militare avansate ale inteligenței artificiale necesită „un șofer de siguranță la volan”.[11] Multe aplicații militare ale inteligenței artificiale sunt încă mai mult teorie decât realitate.[12] Există puține sisteme militare desfășurate în mod activ care se bazează pe inteligența artificială” și cele care există, cum ar fi IA primitivă din sistemul de rachete Tomahawk, lupta cu incertitudinea și schimbările de scenă. Chiar și noua bombă proiectată de Rafael Advanced Defense care se mândrește cu o caracteristică AI și Deep-Learning Advanced Target Recognition, folosește AI doar în etapele finale de ghidare pentru a se ocupa de tinta predefinită.[13]
1. Machine learning, deep learning și big data
Machine Learning (Învățarea automată) ar putea fi una dintre cele mai perturbatoare tehnologii din ultimele decenii. Începând cu 2018, 47% dintre organizațiile din întreaga lume au încorporat AI în operațiunile lor, iar alte 30% pilotează astfel de proiecte.[14] Ratele de adoptare a aplicațiilor de inteligență artificială (AI) din partea fiecărei industrii reflectă încrederea în potențialul său, însă totodată cresc și pericolele poisoning-ului. Riscurile proeminente în IA rezultă din cerința din partea Machine Learning de a accesa cantități mari de date generate de oameni pentru instruire. Partajarea datelor se confruntă cu probleme politice și tehnice. Statele s-ar putea să nu fie dispuse să partajeze date sensibile nici măcar cu aliații, de teama de a nu dezvălui accidental prea multe informații, în special în ceea ce privește problemele de securitate.[15]
Chiar și atunci când datele sunt disponibile, totuși, acestea includ adesea, din neatenție, prejudecăți sistemice rasiale, de gen, etc. Tehnologiile de viziune computerizată, inclusiv cele de la companii precum Google, au identificat greșit oamenii de culoare drept gorile sau au eșuat complet în recunoașterea persoanelor care nu sunt albe[16]. Părtinirile algoritmice sunt mai greu de identificat. Algoritmii de învățare automată concepuți pentru a contribui la evaluările riscurilor penale pot dobândi bias-uri rasiale din datele istorice înțesate de părtiniri rasiale ale sistemului american de justiție penală. Un studiu al unui instrument utilizat în mod obișnuit pentru a identifica recidiva criminală a constatat că algoritmul avea cu 45 la sută mai multe șanse de a acorda scoruri de risc mai mari acuzaților de culoare decât albilor.[17]
Deep Learning (DL) este o subcategorie de algoritmi ML. Rețelele artificiale care au de regulă mai mult de două „straturi ascunse” sunt considerate sisteme de învățare profundă sau Deep Learning. Diferența dintre DL și ML este că DL este structurată în straturi ierarhice. Programatorul poate alimenta datele la algoritmul Deep Learning, nemaifiind constrâns să extragă manual caracteristici din date, căci algoritmul DL va găsi el caracteristicile relevante. Azi rețelele neuronale de tip DL au câteva zeci de straturi de nivel mare de abstractizare , reușind să descifreze realități complexe și să învețe caracteristicile reprezentative pentru o anumită problemă, ceea ce o diferențiază de ML.
Big Data este o consecință firească a numărului de obiecte conectate la Internet (Internet of Things) și a creșterii datelor digitale pe Internet. Dar când sunt mari datele? În principiu, atunci când capacitățile de calcul tradiționale (analiză, stocare, vizualizare, rețele de transfer) nu mai pot face față vitezei, complexității, cantității sau calității datelor.
Exemplele care ne copleșesc pe noi, ființele umane, sunt: date sociale, e-mail, date XML, fișiere audio, GPS, videoclipuri, fotografii, imagini din satelit, foi de calcul, date de senzor, date mobile, etichete RFID, date de jurnal web și documente PDF. A fost nevoie de investiții în arhitecturi software și hardware inovatoare (ex. sistemul de fișiere distribuit Hadoop standard deschis și aplicația asociată MapReduce) .
Sectorul privat utilizează Big Data pentru a previziona evenimente viitoare și a îmbunătăți procesul decizional. Companiile de telecomunicații și transport, folosind Big Data, pot înțelege profilul clienților, supermarketurile pot prezice ce produse vor vinde, iar companiile de asigurări auto au o perspectivă asupra cât de bine conduc clienții lor.
Capacitatea de a valorifica datele în continuă creștere transformă capacitatea noastră de a înțelege lumea și pe noi înșine. Progresele în analiza Big Data ne permit să decodificăm ADN-ul uman în câteva minute, să anticipăm cu exactitate comportamentul uman, să prevenim bolile, să găsim remedii pentru cancer, să dejucăm atacurile teroriste, să identificăm strategiile de marketing. Big Data este folosit pentru a înțelege mai bine clienții, preferințele și comportamentele acestora, obținând o imagine completă, generatoare de modele predictive.
2. Aplicații militare ale machine learning și deep learning
Harvard Belfer Center a întocmit un raport la cererea IARPA în care recunoștea impactul militarizării inteligenței artificiale asupra strategiilor militare, mediului de securitate și a relațiilor internaționale, similar cu cel al armelor nucleare, constituind un multiplicator de forță, îndeosebi pentru organizațiile non statale, pentru state mici sau grupuri restrânse de indivizi, care pot cauza pierderi semnificative corporațiilor transnaționale sau statelor dezvoltate. Se recomandă recurgerea la tratate internaționale pentru reglementarea folosirii sistemelor AI militarizate.[18]
Sistemele inteligente parțial autonome au fost folosite din punct de vedere militar inclusiv în timpul celui de-al Doilea Război Mondial[19], dar progresele în inteligența artificială (AI) și învățarea automată reprezintă un punct de cotitură în utilizarea automatizării în război.
Învățarea automată a devenit o componentă critică în sistemele moderne de război. În comparație cu sistemele convenționale, sistemele militare echipate cu Machine Learning/Deep Learning gestionează eficient volume mai mari de date. În plus, AI îmbunătățește autocontrolul și autoacționarea sistemelor de luptă datorită capacităților sale de calcul și de luare a deciziilor. Finanțarea sporită pentru cercetare și dezvoltare din partea agențiilor de cercetare militară promite adoptarea sistemelor bazate pe AI/ML în sectorul militar. DoD-ul SUA a cheltuit 7,4 miliarde pe inteligență artificială, Big Data și cloud în anul fiscal 2017, prefigurându-se ca dimensiunea pieței soluțiilor militare de ML să atingă 19 miliarde până în 2025.[20]
Printre aplicații ale ML în domeniul militar, se regăsesc platformele de război, securitatea cibernetică, logistică și transport, Target Recognition (Recunoașterea țintelor), Battlefield HealthCare (Îngrijirea medicală pe câmpul de luptă), Combat Simulation & Training (Antrenamentul și Simularea de luptă) și Threat Monitoring & Situational Awareness (Monitorizarea amenințărilor și conștientizarea situațională).
2.1. Platformele de război
Forțele de apărare ale diverselor țări de pe glob încorporează IA în arme și în alte sisteme utilizate pe platformele terestre, navale, aeriene și spațiale. Utilizarea inteligenței artificiale în sisteme bazate pe aceste platforme a permis dezvoltarea unor sisteme de război eficiente, care depind mai puțin de aportul uman. De asemenea, a condus la o sinergie sporită și la îmbunătățirea performanței sistemelor de război, necesitând în același timp mai puțină întreținere. Se așteaptă ca AI să împuternicească armele autonome și de mare viteză pentru a putea efectua atacuri în colaborare.
2.2. Securitatea cibernetică
Sistemele militare sunt adesea vulnerabile la atacurile cibernetice, ceea ce poate conduce la pierderea informațiilor militare clasificate și la deteriorarea sistemelor militare. Cu toate acestea, sistemele echipate cu AI pot proteja în mod autonom rețelele, computerele, programele și datele de orice fel de acces neautorizat. În plus, sistemele de securitate web cu AI pot înregistra tiparul atacurilor cibernetice și pot dezvolta instrumente de contraatac pentru a le combate.
2.3. Logistică și transport[21]
Transportul eficient al mărfurilor, muniției, armamentului și trupelor este o componentă esențială a operațiunilor militare de succes. Integrarea AI cu transportul militar poate reduce costurile de transport și eforturile operaționale umane, permițând flotelor militare să detecteze cu ușurință anomaliile și să prezică rapid defecțiunile componentelor. Recent, armata SUA a colaborat cu IBM pentru a utiliza platforma sa de inteligență artificială Watson pentru a ajuta la pre-identificarea problemelor de întreținere la vehiculele de luptă Stryker.
IBM va ajuta armata să prezică defecțiunile de întreținere a vehiculelor din peste 5 miliarde de puncte de date ale senzorilor IoT de la bord. În plus, armata adoptă serviciile Watson IoT și o nouă soluție Watson IoT Equipment Advisor[22] care analizează datele nestructurate, structurate și ale senzorilor direct din activele militare. Folosind aceste servicii, se poate înțelege mai bine starea de sănătate a vehiculelor și prezice defecțiuni critice. Oprind eșecurile înainte ca acestea să se producă, armata va realiza economii semnificative și va crește eficiența.
2.4. Target recognition (Recunoașterea țintelor)[23]
Tehnicile AI sunt dezvoltate pentru a îmbunătăți acuratețea recunoașterii țintei în medii complexe de luptă. Aceste tehnici permit forțelor de apărare să obțină o înțelegere aprofundată a potențialelor zone de operare prin analiza rapoartelor, documentelor, fluxurilor de știri și a altor forme de informații nestructurate. În plus, AI în sistemele de recunoaștere a țintelor îmbunătățește capacitatea acestor sisteme de a identifica poziția țintelor lor.
Capacitățile sistemelor de recunoaștere a țintelor activate de AI includ previziuni bazate pe probabilități ale comportamentului inamicului, agregarea condițiilor meteorologice și de mediu, anticiparea și semnalarea potențialelor blocaje sau vulnerabilități ale liniilor de aprovizionare, evaluări ale abordărilor misiunii și strategii de atenuare sugerate. Învățarea automată este, de asemenea, folosită pentru a învăța, urmări și descoperi ținte din datele obținute. Programul DARPA de recunoaștere și adaptare în medii contestate (TRACE)[24] utilizează tehnici de învățare automată pentru a localiza și identifica automat ținte cu ajutorul imaginilor radar cu deschidere sintetică (SAR)[25].
Într-un mediu dens cu ținte, adversarul are avantajul de a folosi momeli sofisticate și trafic de fundal pentru a degrada eficiența soluțiilor existente de recunoaștere automată a țintei (ATR). Operațiunile de lovitură aeriană împotriva țintelor relocabile necesită ca piloții să zboare suficient de aproape pentru a obține o identificare vizuală de confirmare înainte de lansarea armei, punând platforma cu echipaj la un risc extrem. Radarul oferă un mijloc de a vizualiza ținte terestre la distanțe mai sigure și mult mai mari, însă rata de alarmă falsă a recunoașterii imaginilor radar atât umane, cât și bazate pe mașini este considerabilă. Algoritmii ATR existenți necesită, de asemenea, resurse de calcul prea mari pentru aplicațiile aeropurtate. Prin urmare, abordările actuale pentru inserarea ATR în aplicațiile tactice fie mută procesarea către stații terestre la distanță, fie reduc drastic performanța pentru a se potrivi cu capacitățile de calcul vechi ale platformei aeriene.
Programul de recunoaștere și adaptare a țintei în medii contestate (TRACE) urmărește să dezvolte un sistem de recunoaștere a țintei precis, în timp real, cu putere redusă, care poate fi amplasat împreună cu radarul pentru a oferi țintire cu rază lungă de răspuns pentru supravegherea și lovirea tactică aeriană.
2.5. Battlefield Healthcare (Îngrijire medicală pe câmpul de luptă)[26]
În zonele de război, AI poate fi integrată cu sistemele robotizate chirurgicale (RSS) și cu platformele robotizate la sol (RGPs) pentru a oferi suport chirurgical la distanță și activități de evacuare. SUA, în special, este implicată în dezvoltarea RSS, RGP-uri și diverse alte sisteme pentru asistența medicală pe câmpul de luptă. În condiții dificile, sistemele echipate cu IA pot extrage fișele medicale ale soldaților și pot ajuta la diagnosticarea complexă.
Echipa de cercetare Watson a IBM a colaborat cu US Veterans Administration pentru a dezvolta un prototip de raționament clinic cunoscut sub numele de Electronic Medical Record Analyzer (EMRA). Această tehnologie preliminară este concepută pentru a utiliza tehnici de învățare automată pentru a procesa dosarele medicale electronice ale pacienților și pentru a identifica și clasifica automat problemele lor de sănătate cele mai critice.
2.6. Combat Simulation & Training (Simulare și Antrenament de luptă)[27]
Simularea și antrenamentul reprezintă un domeniu multidisciplinar care îmbină ingineria sistemelor, ingineria software-ului și informatica pentru a construi modele computerizate care familiarizează soldații cu diferitele sisteme de luptă desfășurate în timpul operațiunilor militare. SUA investește din ce în ce mai mult în aplicațiile de simulare și antrenament.
Marina și armata SUA au efectuat fiecare analiză de război, ceea ce a condus la inițierea mai multor programe de simulare a senzorilor. Marina SUA a înrolat astfel de companii precum Leidos, SAIC, AECOM și Orbital ATK pentru a-și susține programele, în timp ce programele Armatei SUA sunt susținute de firme precum SAIC, CACI, Torch Technologies și Millennium Engineering.[28]
2.7. Threat Monitoring & Situational Awareness (Monitorizarea amenințărilor și conștientizarea situațională)[29]
Monitorizarea amenințărilor și conștientizarea situației se bazează în mare măsură pe operațiunile de Inteligență, Supraveghere și Recunoaștere (ISR). Operațiunile ISR sunt utilizate pentru a obține și procesa informații pentru a sprijini o serie de activități militare.
Sistemele fără pilot utilizate pentru a îndeplini misiunile ISR pot fi operate de la distanță ori trimise pe o rută predefinită. Echiparea acestor sisteme cu inteligență artificială ajută personalul apărării în monitorizarea amenințărilor, sporind astfel conștientizarea situației acestora.
Vehiculele aeriene fără pilot (UAV) – cunoscute și sub numele de drone – cu IA integrată, pot patrula zonele de frontieră, pot identifica potențiale amenințări și pot transmite informații despre aceste amenințări echipelor de răspuns. Utilizarea UAV-urilor poate consolida astfel securitatea bazelor militare, precum și creșterea siguranței și eficacității personalului militar în luptă sau în locații îndepărtate.
3. Ce reprezintă big data pentru capacitățile de apărare?
Big Data a fost numit oxigenul revoluției ML în colectarea informațiilor militare. Intenția este de a oferi în timp util luptătorilor informații critice pentru misiune, prin intermediul capacităților concepute pentru a se completa reciproc.
„Big Data în mediile de modelare și simulare a apărării” (BIDADEMS) este Studiul EDA care a explorat domeniul Big Data pentru a înțelege cum tehnicile și instrumentele sale ar putea fi cel mai bine aplicate activităților de modelare și simulare (M&S) în mediul de apărare.
Scopul a fost înțelegerea impactulului M&S asupra viitoarelor sisteme militare. Rezultatul studiului atribuie instrumentele Big Data anumitor zone ale M&S pentru a putea dezvolta sistemele de simulare militară într-un mod care optimizează utilizarea instrumentelor și proceselor Big Data.
Acele zone sunt:
– Pregătirea programului și dezvoltarea viitoarelor concepte de operare și activități de management al capacităților;
– Analiza operațională: tehnici analitice utilizate pentru a informa luarea deciziilor de apărare;
– Dezvoltarea sistemului: achiziționarea, dezvoltarea și punerea în câmp a capacităților militare noi sau îmbunătățite;
– Instruire: dezvoltarea doctrinei în serviciu, analiză pentru identificarea lacunelor de pregătire, probleme de reținere, metode alternative de antrenament și antrenament militar live, virtual sau constructiv;
– Sprijin pentru operațiuni: sprijin pentru luarea deciziilor pentru planificarea și desfășurarea activităților operaționale.
Concluzii
Succesul în adoptarea sistemelor AI în contexte militare va necesita adaptarea structurilor de comandă și control pentru a integra o astfel de capacitate cognitivă în procesele de luare a deciziilor. Lipsă de integrare a IA poate provoca defecțiuni: între operatorii umani și factorii de decizie și sistemele AI; între sistemele AI noi și sistemele moștenite; între organizațiile care utilizează sisteme AI. Interoperabilitatea poate avea de suferit din cauza diferențelor în rata de difuzare a tehnologiei AI între țări, ceea ce face ca o țară să lucreze cu partenerii și aliații săi mai dificil.
Excesul de încredere în posibilitățile AI poate determina armatele să aplice Machine Learning (Învățarea automată) în situații care sunt prea complexe pentru algoritmi fragili. În echipele om-mașină, încrederea excesivă într-un sistem computerizat poate duce la „prejudecățile de automatizare”, în care oamenii delegă alegerea către algoritmi despre care nu își dau seama că au defecte.[30]
Percepția greșită se extinde și la evaluarea de către un stat a presupuselor capacități ale adversarilor săi, în condițiile în care capabilitățile AI sunt greu de verificat. Statele ar putea copia cu ușurință strategia Silicon Valley „fake it till you make it”[31], în care operatorii umani creează iluzia unei inteligențe superioare a mașinilor.[32]
O cursă a înarmărilor în privința aplicațiilor militare ale IA în următorii 15 ani este foarte probabilă, acest lucru putând genera riscuri dacă nu se fac investiții adecvate în transparență, siguranță, reglementare și etică. În cazul în care se acordă prioritate vitezei, se pot lansa sisteme potențial nefiabile și mai volatile decât s-ar putea produce într-un ritm măsurat. Percepția contează din nou la fel de mult ca și realitatea, căci „percepția unei curse va determina pe toată lumea să se grăbească să implementeze sisteme AI nesigure” (Paul Scharre).[33] În cazul dominanței în AI a unor state, precum China și Statele Unite, progresele în inteligența artificială pot exacerba inegalitățile globale, surclasa aliații și extinde decalajul digital.[34]
Investițiile naționale în IA în creștere sunt o dovadă a cursei înarmărilor în domeniul inteligenței artificiale. AI a fost identificată de către SUA drept o prioritate de cercetare și dezvoltare, fiind propusă o finanțare de 850 de milioane de dolari pentru Inițiativa americană de inteligență artificială, repartizată mai multor agenții în anul 2020.[35] Investițiile guvernului chinez, care și-a declarat intențiile de a conduce lumea în IA până în 2030, se estimează că vor depăși zeci de miliarde de dolari.[36]
Statele ar trebui nu doar să investească în aplicații militare bazate pe AI, ci și să înțeleagă punctele slabe ale războiului bazat pe inteligența artificială, precum modelele depășite utilizate pentru crearea mașinilor inteligente. Inovația fără siguranță și fără întreținere poate crește atât numărul accidentelor, cât și al vulnerabilităților. AI părtinitoare sau fragilă este vulnerabilă la înșelăciune, nu doar predispusă la accidente. O echipă de cercetare de la MIT a demonstrat cum un model de țestoasă poate fi modificat pentru a păcăli un algoritm de viziune computerizată, făcându-l să creadă că este o pușcă.[37] Programe precum Guaranteeing AI Robustness against Deception (GARD) de la Defense Advanced Research Projects Agency (DARPA)[38] urmăresc să facă IA mai rezistentă la înșelăciune, construind baze teoretice și „bancuri de testare” (imagini, apoi înregistrări audio și video).[39]
Acoperirea împotriva acestor riscuri în IA poate, de asemenea, să crească încrederea în utilizarea tehnologiilor militare benefice activate de AI. 74% dintre sud-coreeni și 72% dintre germani se opun armelor autonome, în comparație cu 52% dintre americani.[40] Diferențele de încredere publică pot tensiona alianțele, având ca rezultat o împărțire inegală a sarcinilor.
Succesul viitor în adoptarea AI implică concentrarea pe integrare și asigurarea interoperabilității și compatibilității între sisteme, oameni, organizații și state. AI folosită ca instrument de asistență, cum ar fi în command-and-control loops și dinamica echilibrată om-mașină, prin interacțiunea strânsă între oameni și mașini, exploatează tipurile lor distincte de inteligență și permite noi tipuri de analize și operații. Oamenii trebuie să fie educați și familiarizați cu AI și cum funcționează, care sunt limitările și beneficiile sale pentru a diminua temerile că tehnologiile avansate vor înlocui oamenii.
Pentru a impune integrarea și coeziunea între state, mașini și oameni, AI trebuie să poată lucra eficient cu tehnologiile existente sau sistemele moștenite, adoptând tehnologii noi și evitând disparitățile dintre forțele cu capacități AI diferite. Aliații care lucrează între ei pentru a asigura interoperabilitatea și militarii din întreaga lume care lucrează cu AI contribuie la creșterea securității internaționale.
Bibliografie
Abell, Nicholas, 7 Key Military Applications of Machine Learning, Oct 2, 2020, disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
Allen, Greg, Chan, Taniel, Artificial Intelligence and National Security. A study on behalf of Dr. Jason Matheny, Director of the U.S. Intelligence Advanced Research Projects Activity (IARPA), Belfer Center for Science and International Affairs, Harvard Kennedy School, July 2017, disponibil la https://www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf, p.5, accesat la data de 25 aprilie 2022.
Allen, Gregory C., „Understanding China’s AI Strategy,” Center for a New American Security, last modified Feb. 6, 2019, disponibil la https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy, accesat la data de 31.05.2021.
“Autonomous Weapons: An Open Letter from AI & Robotics Researchers”, Future of Life Institute, July 28, 2015, disponibil la https://futureoflife.org/open-letter-autonomous-weapons, accesat la data de 31.05.2021.
Bryant, Adam, Target Recognition and Adaption in Contested Environments (TRACE), Defense Advanced Research Projects Agency, disponibil la https://www.darpa.mil/program/trace, accesat la data de 25 aprilie 2022.
Butcher, Mike, „World Economic Forum Warns of AI’s Potential to Worsen Economic Inequality,” TechCrunch, Jan. 23, 2019, disponibil la https://techcrunch.com/2019/01/23/world-economic-forum-warns-of-ais-potential-to-worsen-global-inequality, accesat la data de 31.05.2021.
Corrigan, Jack, „The Pentagon Wants to Stop Enemies from ‘Poisoning’ AI,” Nextgov, last modified Jan. 25, 2019, disponibil la https://www.nextgov.com/emerging-tech/2019/01/pentagon-wants-stop-enemies-poisoning-ai/154431/, accesat la data de 31.05.2021.
Crawford, Kate, „Artificial Intelligence’s White Guy Problem”, New York Times, June 25, 2016, disponibil la https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html?ref=technology, accesat la data de 31.05.2021.
Deeney, Chris, „Six in Ten (61%) Respondents Across 26 Countries Oppose the Use of Lethal Autonomous Weapons Systems,” IPSOS, last modified Jan. 21, 2019, disponibil la https://www.ipsos.com/en-us/news-polls/human-rights-watch-six-in-ten-oppose-autonomous-weapons, accesat la data de 31.05.2021.
„Defending Against Adversarial Artificial Intelligence”, DARPA, last modified Feb. 6, 2019, disponibil la https://www.darpa.mil/news-events/2019-02-06, accesat la data de 31.05.2021.
Dugan, Cosmin Dragos, Neuroaugmentarea in epoca cognitizării, intre competiție și sinergie. Optimizarea performantelor umane pentru personalul de securitate națională și profesii de elită, Editura Militară, București, 2020, p. 100.
https://earthdata.nasa.gov/learn/backgrounders/what-is-sar, accesat la data de 25 aprilie 2022.
”Fake It Till You Make It: When Silicon Valley’s Culture Turns Criminal”, http://www.wakeforestlawreview.com/2022/01/fake-it-till-you-make-it-when-silicon-valleys-culture-turns-criminal/, accesat la data de 31.05.2021.
Horowitz, Michael C., Kahn Lauren, Ruhl Christian, Contributors: Cummings, Mary (Missy), Lin-Greenberg, Erik, Scharre, Paul, Slayton, Rebecca, ”Policy Roundtable: Artificial Intelligence and International Security”, Texas National Security Review, June 02, 2020, disponibil la https://tnsr.org/roundtable/policy-roundtable-artificial-intelligence-and-international-security/#essay4, accesat la data de 31.05.2021.
Horowitz, Michael C., „Artificial Intelligence, International Competition, and the Balance of Power”, Texas National Security Review 1, no. 3 (May 2018): 36–57, disponibil la https://doi.org/10.15781/T2639KP49, accesat la data de 22.05.2021.
Horowitz, Michael C., Scharre, Paul, Velez-Green, Alexander, “A Stable Nuclear Future? The Impact of Autonomous Systems and Artificial Intelligence”, arXiv, December 2019, disponibil la https://arxiv.org/pdf/1912.05291.pdf, accesat la data de 31.05.2021.
Knight, Will, „Military Artificial Intelligence Can Be Easily and Dangerously Fooled”, Wired, Oct. 21, 2019, disponibil la https://www.technologyreview.com/s/614497/military-artificial-intelligence-can-be-easily-and-dangerously-fooled, accesat la data de 31.05.2021.
Larson, Jeff, Mattu, Surya, Angwin, Julia, „How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, May 23, 2016, disponibil la https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm, accesat la data de 31.05.2021.
Markoff, John, “Computer Wins on ‘Jeopardy!’: Trivial, It’s Not,” New York Times, Feb. 16, 2011, disponibil la https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html, accesat la data de 31 mai 2022.
„National and International AI Strategies”, Future of Life Institute, disponibil la https://futureoflife.org/national-international-ai-strategies/, accesat la data de 22.05.2021.
O’Connor, Chris, ”Army Re-Ups with IBM for logistics, savings and vehicle health”, IBM Business Operations Blog, September 6, 2017, disponibil la https://www.ibm.com/blogs/internet-of-things/iot-army-reups/, accesat la data de 25 aprilie 2022.
Office of the Director of National Intelligence IARPA, Secure, Assured, Intelligent Learning Systems (SAILS) and Trojans in Artificial Intelligence (TrojAI) Proposers’ Day, disponibil la https://www.iarpa.gov/images/PropsersDayPDFs/TrojAI/SAILS-TrojAI_proposersday_briefing.pdf, accesat la data de 31.05.2021.
https://pages.nist.gov/trojai/, accesat la data de 31.05.2021.
“Rafael Unveils New Artificial Intelligence and Deep-Learning Technologies in SPICE-250 to Enable Automatic Target Recognition”, Rafael Advanced Defense Systems LTD., June 10, 2019, disponibil la https://www.rafael.co.il/press/elementor-4174, accesat la data de 31.05.2021.
„Research and Development”, The White House, disponibil la https://www.whitehouse.gov/wp-content/uploads/2019/03/ap_21_research-fy2020.pdf, accesat la data de 31.05.2021.
Scharre, Paul, Horowitz, Michael, “Artificial Intelligence: What Every Policymaker Needs to Know”, Center for a New American Security, June 19, 2018, disponibil la https://www.cnas.org/publications/reports/artificial-intelligence-what-every-policymaker-needs-to-know, accesat la data de 31.05.2021.
Scharre, Paul, „The Real Dangers of an AI Arms Race,” Foreign Affairs 98, no. 3 (May/June 2019), disponibil la https://www.foreignaffairs.com/articles/2019-04-16/killer-apps, accesat la data de 31.05.2021.
Solon, Olivia, „The Rise of ‘Pseudo-AI,'” The Guardian, July 6, 2018, disponibil la https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies, accesat la data de 31.05.2021.
”Summary of the 2018 Department of Defense Artificial Intelligence Strategy”, U.S. Department of Defense, last updated Feb. 12, 2019, disponibil la https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-
STRATEGY.PDF, accesat la data de 22.05.2021.
Note
[1] ”Summary of the 2018 Department of Defense Artificial Intelligence Strategy”, U.S. Department of Defense, last updated Feb. 12, 2019, disponibil la https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF, accesat la data de 22.05.2021.
[2] Michael C. Horowitz, „Artificial Intelligence, International Competition, and the Balance of Power”, Texas National Security Review 1, no. 3 (May 2018): 36–57, disponibil la https://doi.org/10.15781/T2639KP49, accesat la data de 22.05.2021.
[3] „National and International AI Strategies”, Future of Life Institute, disponibil la https://futureoflife.org/national-international-ai-strategies/, accesat la data de 22.05.2021.
[4] https://pages.nist.gov/trojai/, accesat la data de 31.05.2021.
[5] Office of the Director of National Intelligence IARPA, Secure, Assured, Intelligent Learning Systems (SAILS) and Trojans in Artificial Intelligence (TrojAI) Proposers’ Day, disponibil la https://www.iarpa.gov/images/PropsersDayPDFs/TrojAI/SAILS-TrojAI_proposersday_briefing.pdf, accesat la data de 31.05.2021.
[6] Jack Corrigan, „The Pentagon Wants to Stop Enemies from ‘Poisoning’ AI,” Nextgov, last modified Jan. 25, 2019, disponibil la https://www.nextgov.com/emerging-tech/2019/01/pentagon-wants-stop-enemies-poisoning-ai/154431/, accesat la data de 31.05.2021.
[7] John Markoff, “Computer Wins on ‘Jeopardy!’: Trivial, It’s Not,” New York Times, Feb. 16, 2011, disponibil la https://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html, accesat la data de 31 mai 2022.
[8] Paul Scharre and Michael Horowitz, “Artificial Intelligence: What Every Policymaker Needs to Know”, Center for a New American Security, June 19, 2018, disponibil la https://www.cnas.org/publications/reports/artificial-intelligence-what-every-policymaker-needs-to-know, accesat la data de 31.05.2021.
[9] Ibidem.
[10] Chair: Michael C. Horowitz, Lauren Kahn, and Christian Ruhl, Contributors: Mary (Missy) Cummings, Erik Lin-Greenberg, Paul Scharre, Rebecca Slayton, op. cit., June 02, 2020, disponibil la https://tnsr.org/roundtable/policy-roundtable-artificial-intelligence-and-international-security/#essay4, accesat la data de 31.05.2021.
[11] Chair: Michael C. Horowitz, Lauren Kahn, and Christian Ruhl, Contributors: Mary (Missy) Cummings, Erik Lin-Greenberg, Paul Scharre, Rebecca Slayton, op. cit., June 02, 2020, disponibil la https://tnsr.org/roundtable/policy-roundtable-artificial-intelligence-and-international-security/#essay4, accesat la data de 31.05.2021.
[12] “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”, Future of Life Institute, July 28, 2015, disponibil la https://futureoflife.org/open-letter-autonomous-weapons, accesat la data de 31.05.2021.
[13] “Rafael Unveils New Artificial Intelligence and Deep-Learning Technologies in SPICE-250 to Enable Automatic Target Recognition”, Rafael Advanced Defense Systems LTD., June 10, 2019, disponibil la https://www.rafael.co.il/press/elementor-4174, accesat la data de 31.05.2021.
[14] Ibidem.
[15] Chair: Michael C. Horowitz, Lauren Kahn, and Christian Ruhl, Contributors: Mary (Missy) Cummings, Erik Lin-Greenberg, Paul Scharre, Rebecca Slayton, ”Policy Roundtable: Artificial Intelligence and International Security”, Texas National Security Review, June 02, 2020, disponibil la https://tnsr.org/roundtable/policy-roundtable-artificial-intelligence-and-international-security/#essay4, accesat la data de 31.05.2021.
[16] Kate Crawford, „Artificial Intelligence’s White Guy Problem„, New York Times, June 25, 2016, disponibil la https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem.html?ref=technology, accesat la data de 31.05.2021.
[17] Jeff Larson, Surya Mattu and Julia Angwin, „How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, May 23, 2016, disponibil la https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm, accesat la data de 31.05.2021.
[18] Cosmin Dragos Dugan, Neuroaugmentarea in epoca cognitizării, intre competiție și sinergie. Optimizarea performantelor umane pentru personalul de securitate națională și profesii de elită, Editura Militară, București, 2020, p. 100.
[19] Greg Allen, Taniel Chan, Artificial Intelligence and National Security.A study on behalf of Dr. Jason Matheny, Director of the U.S. Intelligence Advanced Research Projects Activity (IARPA), Belfer Center for Science and International Affairs, Harvard Kennedy School, July 2017, disponibil lahttps://www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf, p.5, accesat la data de 25 aprilie 2022.
[20] Nicholas Abell, 7 Key Military Applications of Machine Learning, Oct 2, 2020, disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[21] Nicholas Abell, op.cit., disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[22] Chris O’Connor, ”Army Re-Ups with IBM for logistics, savings and vehicle health”, IBM Business Operations Blog, September 6, 2017, disponibil la https://www.ibm.com/blogs/internet-of-things/iot-army-reups/, accesat la data de 25 aprilie 2022.
[23] Nicholas Abell, ”7 Key Military Applications of Machine Learning”, Oct 2, 2020, disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[24] Dr. Adam Bryant, Target Recognition and Adaption in Contested Environments (TRACE), Defense Advanced Research Projects Agency, disponibil la https://www.darpa.mil/program/trace, accesat la data de 25 aprilie 2022.
[25] Oamenii de știință care folosesc imagini de teledetecție sunt familiarizați cu imaginile optice pasive din surse, inclusiv seria de misiuni comune NASA/USGS Landsat, instrumentul MODIS (Moderate Resolution Imaging Spectroradiometer) al NASA și misiunea Sentinel-2 a Agenției Spațiale Europene. Un alt tip de imagini este Radar cu deschidere sintetică sau SAR, un tip de colectare activă de date în care un senzor își produce propria energie și apoi înregistrează cantitatea de energie reflectată înapoi după interacțiunea cu Pământul. În timp ce imaginile optice sunt similare cu interpretarea unei fotografii, imaginile SAR necesită un mod diferit de gândire, deoarece semnalul se bazează pe caracteristicile suprafeței, cum ar fi structura și umiditatea. Locul de origine al NASA pentru date și imagini SAR din colecția Sistemului de date și informații ale sistemului de observare a Pământului (EOSDIS) este Centrul de arhivă activă distribuită Alaska Satellite Facility (ASF DAAC), disponibil la https://earthdata.nasa.gov/learn/backgrounders/what-is-sar, accesat la data de 25 aprilie 2022.
[26] Nicholas Abell, „7 Key Military Applications of Machine Learning”, Oct 2, 2020, disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[27] Nicholas Abell, op.cit., disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[28] Greg Allen, Taniel Chan, ”Artificial Intelligence and National Security”, Belfer Center for Science and International Affairs, Harvard Kennedy School, July 2017, disponibil la https://www.belfercenter.org/publication/artificial-intelligence-and-national-security, accesat la data de 25 aprilie 2022.
[29] Nicholas Abell, „7 Key Military Applications of Machine Learning”, Oct 2, 2020, disponibil la https://medium.com/@nqabell89/7-key-military-applications-of-machine-learning-9818dfa2ea86, accesat la data de 25 aprilie 2022.
[30] Michael C. Horowitz, Paul Scharre and Alexander Velez-Green, “A Stable Nuclear Future? The Impact of Autonomous Systems and Artificial Intelligence”, arXiv, December 2019, disponibil la https://arxiv.org/pdf/1912.05291.pdf, accesat la data de 31.05.2021.
[31]”Fake It Till You Make It: When Silicon Valley’s Culture Turns Criminal”, http://www.wakeforestlawreview.com/2022/01/fake-it-till-you-make-it-when-silicon-valleys-culture-turns-criminal/, accesat la data de 31.05.2021.
[32]Olivia Solon, „The Rise of ‘Pseudo-AI,'” The Guardian, July 6, 2018, disponibil la https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies, accesat la data de 31.05.2021.
[33] Paul Scharre, „The Real Dangers of an AI Arms Race,” Foreign Affairs 98, no. 3 (May/June 2019), disponibil la https://www.foreignaffairs.com/articles/2019-04-16/killer-apps, accesat la data de 31.05.2021.
[34] Mike Butcher, „World Economic Forum Warns of AI’s Potential to Worsen Economic Inequality,” TechCrunch, Jan. 23, 2019, disponibil la https://techcrunch.com/2019/01/23/world-economic-forum-warns-of-ais-potential-to-worsen-global-inequality, accesat la data de 31.05.2021.
[35]„Research and Development„, The White House, disponibil la https://www.whitehouse.gov/wp-content/uploads/2019/03/ap_21_research-fy2020.pdf, accesat la data de 31.05.2021.
[36] Gregory C. Allen, „Understanding China’s AI Strategy,” Center for a New American Security, last modified Feb. 6, 2019, disponibil la https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy, accesat la data de 31.05.2021.
[37] Will Knight, „Military Artificial Intelligence Can Be Easily and Dangerously Fooled„, Wired, Oct. 21, 2019, disponibil la https://www.technologyreview.com/s/614497/military-artificial-intelligence-can-be-easily-and-dangerously-fooled, accesat la data de 31.05.2021.
[38]„Defending Against Adversarial Artificial Intelligence„, DARPA, last modified Feb. 6, 2019, disponibil la https://www.darpa.mil/news-events/2019-02-06, accesat la data de 31.05.2021.
[39] Ibidem.
[40] Chris Deeney, „Six in Ten (61%) Respondents Across 26 Countries Oppose the Use of Lethal Autonomous Weapons Systems,” IPSOS, last modified Jan. 21, 2019, disponibil la https://www.ipsos.com/en-us/news-polls/human-rights-watch-six-in-ten-oppose-autonomous-weapons, accesat la data de 31.05.2021.
Lasă un răspuns