Principala tendință a secolului XXI
În ciuda întregii incertitudini a termenului „inteligență artificială” (denumită în continuare AI), toate condițiile prealabile pentru apariția sistemelor de luptă de înaltă performanță și auto-învățare în armatele lumii au fost create de mult timp.
Dacă IA nu ar exista, ar trebui să fie inventată. Acum, în aproape toate domeniile vieții umane, o cantitate imensă de informații este generată în fiecare secundă, care pur și simplu nu are nimic de procesat.
Și afacerile militare sunt departe de a fi o excepție aici - este suficient să ne amintim conflictul din Nagorno-Karabah pentru a înțelege adevărata amploare a bogăției informaționale a operațiunilor militare.
Fluxul de date foto, video și radar, precum și mesajele audio și text, devine principalul lucru pe teren. Abia acum putem reformula binecunoscuta expresie
„Cine deține informațiile, deține lumea”
în modern
„Cine știe să analizeze rapid informațiile, deține lumea.”
Iar pentru prelucrarea operațională a „big data” (sau big data) sunt necesare tehnologii foarte serioase. Cum ar fi rețelele neuronale artificiale capabile de auto-învățare fără participarea unui operator. Un avantaj important al rețelelor neuronale este capacitatea de a identifica modele pe baza datelor care nu sunt prezente în codul de antrenament original.
Pentru militari, capacitatea potențială a AI de a lucra cu date incomplete, „zgomotoase” sau distorsionate este de o importanță deosebită. De aceea, rețelele neuronale de învățare profundă așteaptă în prezent în sistemele de inteligență ale speciilor analiza rapidă a materialelor video și fotografice. După cum s-a menționat în departamentele militare, sarcini care au necesitat luni de muncă de zeci de decodoare, AI le rezolvă în câteva secunde.
Cu toate acestea, o simplă analiză a seturilor de date chiar și acum pare insuficientă pentru operațiuni militare - este necesară
„predicția acțiunilor posibile”
и
"predictia raspunsurilor"
țintă potențială.
Pe baza acestor „inferențe”, operatorul va lua decizia de a deschide focul. Acest lucru va accelera serios cursul operațiunilor ofensive.
De exemplu, în urmă cu câțiva ani, în timpul Operațiunii Enduring Freedom, drona MQ-1 Predator a intrat într-un convoi de vehicule inamice. Dar în timp ce operatorul evalua apartenența și decide să lanseze o rachetă, echipamentul a părăsit zona afectată. Și acesta este departe de singurul exemplu.
Utilizarea AI în acest caz ar face posibilă realizarea rapidă a unei previziuni cu privire la perspectivele și timpul grevei. Dar există și capcane aici.
Comitetul Crucii Roșii este serios îngrijorat de introducerea AI în vehiculele fără pilot și (cel mai important) nivelul de încredere în el din partea persoanei. De exemplu, o persoană care sapă în apropierea unui drum poate fi identificată în mod fiabil ca un plantator de dispozitive explozive improvizate pe baza exclusiv analizei unui semnal video de către rețelele neuronale?
Acum operatori de tobe trântor Destul de des ei nu realizează realitatea a ceea ce se întâmplă pe câmpul de luptă (mentalitatea Playstation). Dacă AI îi ajută cu asta?
Sarcina de distrugere deja vizibil simplificată va deveni și mai ușor de realizat.
Automatizează-l!
Provocările tehnologice și strategice forțează puterile mondiale să-și transfere treptat armatele pe șinele roboticii.
De exemplu, în Statele Unite, „A treia strategie de compensare” promite să transforme forțele armate într-o armată roboți deja peste treizeci de ani. Și în zece ani, fiecare a treia aeronavă a Pentagonului va fi fără pilot.
Rusia încearcă și ea să țină pasul. Și intenționează să accepte câteva zeci de noi modele de arme pentru control de la distanță în următorii ani. Cu toate acestea, nici SUA, nici Rusia nu au încă sisteme de recunoaștere și lovitură cu drepturi depline controlate de AI. Acest lucru se datorează în mare măsură crizei responsabilității. Dacă puteți suporta cumva erori de primul fel, adică lovituri anulate incorect asupra inamicului, atunci cu erori de al doilea fel totul este mult mai complicat. În acest din urmă caz, mașina decide fie să „foc prietenesc” (foc prietenesc), fie distruge civili, adică comite o crimă de război.
În această situație, nu este complet clar cine este responsabil pentru un astfel de act - dezvoltatorul de software sau comandantul care a ordonat utilizarea sistemului.
O situație similară există și în industria auto, care visează de câteva decenii la drone complet autonome. S-a dezvoltat chiar și o clasificare a nivelurilor de automatizare care este destul de aplicabilă sferei militare.
La nivelul zero, mașina este un UAZ-496 condiționat, în care totul este controlat de șofer și nu există asistenți mecatronici - ESP, ABS etc.
La cel mai înalt nivel, drona pe roți nici măcar nu are volan (sau este instalată ca opțiune cu plată). Și în toate situațiile, mișcarea este controlată de pilotul automat. În prezent, doar Honda din Japonia a fost capabilă să certifice un pilot automat de producție de Nivel XNUMX.
Această tehnică de „automatizare condiționată” este incapabilă să preia controlul într-o situație periculoasă. Și în condiții normale, nu funcționează întotdeauna. Sistemul Traffic Jam Pilot pilotează automat mașina în ambuteiaj, o menține în interiorul benzii de pe autostradă și o depășește. Vă puteți lua mâinile de pe volan, dar nu puteți privi în altă parte de la drum - camerele monitorizează acest lucru. Pilotul automat al celui de-al treilea nivel este foarte scump și crește costul final al mașinii de o ori și jumătate.
În același timp, merită să ne amintim că piloții automati pot fi deja introduși pe deplin în producția de masă. Și vor reduce într-adevăr serios rata mortalității pe drumuri. Dar problemele legale și etice din greșelile (inclusiv cele fatale) ale inteligenței artificiale pun companiile auto într-o fundătură.
AI nu ar trebui să fie armat
În sfera militară, situația cu dezvoltarea sistemelor de luptă complet autonome este, de asemenea, departe de a fi ideală.
Și nici măcar în aspectul tehnic al problemei.
Pe de o parte, experții sceptici subliniază capacitatea potențială a sistemelor de auto-învățare bazate pe rețele neuronale de a oferi lovituri preventive. De exemplu, AI va vedea o vulnerabilitate reală sau imaginară în inamic - de ce nu este acesta un motiv pentru a lansa prima lovitură de dezarmare? În plus, toate „creierele artificiale” sunt predispuse la concurență și la absența elementelor de gândire critică, care, de asemenea, nu adaugă încredere din partea unei persoane.
Analiștii de la Corporația RAND, în general, îndeamnă să nu încredem în niciun caz deciziile militar-strategice inteligenței artificiale - nici în prezent, nici în viitor. Dacă mai mulți necombatanți distruși de o eroare AI pot fi încă împăcați condiționat, atunci totul va fi mult mai tragic atunci când este aplicat forțelor de descurajare nucleară.
Nu totul este atât de simplu și cu operațional-tactic arme controlat de AI.
Să revenim la filmările din Nagorno-Karabah, care au ilustrat clar superioritatea tehnică a dronelor de atac față de armele tradiționale. Aici toată lumea a înțeles că pe cer nu existau decât mașini controlate de la distanță, deși foarte avansate.
Care ar fi reacția publicului dacă grevele ar fi făcute de Bayraktar, complet autonom?
Când ar trăi AI pe aer pentru ca întreaga lume să omoare oameni, deși cu armele în mână?
Latura morală a problemei nu a fost încă rezolvată. Și este puțin probabil să fie permis în viitorul apropiat.

Sursa: mil.ru
În general, roboții din armată sunt, desigur, buni.
Ele vă permit să retrageți soldații din focul direct al inamicului, transferând toată munca către unitățile de luptă cu o telecomandă. Pierderile și costurile sunt reduse. Și războiul pare să devină mai uman.
Roboții complet autonomi în sfera militară sau Lethal Autonomous Weapon System nu se referă deloc la umanitate și la reducerea pierderilor. Rețelele neuronale de învățare profundă fac războiul mult mai rapid și cu mai multe victime. De fapt, aceasta este exact ceea ce au asigurat cele două revoluții militare anterioare în afacerile militare - praful de pușcă și nuclearul.
Acest lucru este înțeles de multe corporații civile implicate cu statul în proiecte de apărare.
Astfel, Google s-a retras în 2018 din proiectul extrem de profitabil Maven în valoare de peste 7,5 miliarde de dolari. Specialiștii din Silicon Valley, împreună cu DARPA, au lucrat la un program de procesare a rețelelor video și foto de informații de la numeroase agenții de informații drone. Datele au fost procesate de o rețea neuronală. Și i-a oferit operatorului o „bibliotecă de ținte” în ordinea priorității pentru distrugere. Google a plecat povestiri. Și acum DARPA încearcă să facă față singură.
Un aspect important al IA în armată este utilizarea sa în războiul informațional.
Se poate spune cu un anumit grad de certitudine că, în viitorul foarte apropiat, Statele Unite vor ploua pur și simplu mai multe dezvăluiri despre Rusia și (într-o mai mare măsură) China în dezvoltarea inteligenței artificiale de luptă. Dacă nu este posibil să convingem publicul din interiorul țării de necesitatea unei minte militare autonome, atunci îi vom speria cu dușmani externi. Pentagonul a fost faimos pentru această logică încă din cele mai vechi timpuri. Să spunem, ei lucrează deja la AI la maximum și aici nu putem face față propriei noastre morale.
Și, în sfârșit, răspunsurile asimetrice la amenințările AI de luptă par destul de promițătoare. Acum, tehnologiile pentru mascarea obiectelor de ochiul atotvăzător al inteligenței artificiale și chiar denaturarea deliberată câștigă amploare.
În timp ce AI funcționează tolerabil în condiții pașnice, atunci când informațiile sunt servite pe un platou de argint.
Este foarte rău să funcționeze cu date incomplete și zgomotoase. Prin urmare, încercările de a induce în eroare inteligența mașinii cu date corectate în mod deliberat par destul de logice. Când timpul de reacție al AI armate este măsurat în secunde și nu depinde de opinia unei persoane, o astfel de informare greșită poate duce la consecințe greu de prezis.
A treia revoluție militară, într-un sens bun, este mai bine să o anulăm.
Sau să dezvolte măsuri restrictive comune pentru dezvoltarea și utilizarea IA în sfera militară. Ați reușit să faceți ceva asemănător în cazul armelor nucleare?