Revizuirea militară

A treia revoluție militară: inteligența mașinilor nu ar trebui să fie cu arme

48

Sursa: armflot.ru


Principala tendință a secolului XXI


În ciuda întregii incertitudini a termenului „inteligență artificială” (denumită în continuare AI), toate condițiile prealabile pentru apariția sistemelor de luptă de înaltă performanță și auto-învățare în armatele lumii au fost create de mult timp.

Dacă IA nu ar exista, ar trebui să fie inventată. Acum, în aproape toate domeniile vieții umane, o cantitate imensă de informații este generată în fiecare secundă, care pur și simplu nu are nimic de procesat.

Și afacerile militare sunt departe de a fi o excepție aici - este suficient să ne amintim conflictul din Nagorno-Karabah pentru a înțelege adevărata amploare a bogăției informaționale a operațiunilor militare.

Fluxul de date foto, video și radar, precum și mesajele audio și text, devine principalul lucru pe teren. Abia acum putem reformula binecunoscuta expresie

„Cine deține informațiile, deține lumea”

în modern

„Cine știe să analizeze rapid informațiile, deține lumea.”

Iar pentru prelucrarea operațională a „big data” (sau big data) sunt necesare tehnologii foarte serioase. Cum ar fi rețelele neuronale artificiale capabile de auto-învățare fără participarea unui operator. Un avantaj important al rețelelor neuronale este capacitatea de a identifica modele pe baza datelor care nu sunt prezente în codul de antrenament original.

Pentru militari, capacitatea potențială a AI de a lucra cu date incomplete, „zgomotoase” sau distorsionate este de o importanță deosebită. De aceea, rețelele neuronale de învățare profundă așteaptă în prezent în sistemele de inteligență ale speciilor analiza rapidă a materialelor video și fotografice. După cum s-a menționat în departamentele militare, sarcini care au necesitat luni de muncă de zeci de decodoare, AI le rezolvă în câteva secunde.


Sursa: i.pinimg.com

Cu toate acestea, o simplă analiză a seturilor de date chiar și acum pare insuficientă pentru operațiuni militare - este necesară

„predicția acțiunilor posibile”

и

"predictia raspunsurilor"

țintă potențială.

Pe baza acestor „inferențe”, operatorul va lua decizia de a deschide focul. Acest lucru va accelera serios cursul operațiunilor ofensive.

De exemplu, în urmă cu câțiva ani, în timpul Operațiunii Enduring Freedom, drona MQ-1 Predator a intrat într-un convoi de vehicule inamice. Dar în timp ce operatorul evalua apartenența și decide să lanseze o rachetă, echipamentul a părăsit zona afectată. Și acesta este departe de singurul exemplu.

Utilizarea AI în acest caz ar face posibilă realizarea rapidă a unei previziuni cu privire la perspectivele și timpul grevei. Dar există și capcane aici.

Comitetul Crucii Roșii este serios îngrijorat de introducerea AI în vehiculele fără pilot și (cel mai important) nivelul de încredere în el din partea persoanei. De exemplu, o persoană care sapă în apropierea unui drum poate fi identificată în mod fiabil ca un plantator de dispozitive explozive improvizate pe baza exclusiv analizei unui semnal video de către rețelele neuronale?

Acum operatori de tobe trântor Destul de des ei nu realizează realitatea a ceea ce se întâmplă pe câmpul de luptă (mentalitatea Playstation). Dacă AI îi ajută cu asta?

Sarcina de distrugere deja vizibil simplificată va deveni și mai ușor de realizat.

Automatizează-l!


Provocările tehnologice și strategice forțează puterile mondiale să-și transfere treptat armatele pe șinele roboticii.

De exemplu, în Statele Unite, „A treia strategie de compensare” promite să transforme forțele armate într-o armată roboți deja peste treizeci de ani. Și în zece ani, fiecare a treia aeronavă a Pentagonului va fi fără pilot.

Rusia încearcă și ea să țină pasul. Și intenționează să accepte câteva zeci de noi modele de arme pentru control de la distanță în următorii ani. Cu toate acestea, nici SUA, nici Rusia nu au încă sisteme de recunoaștere și lovitură cu drepturi depline controlate de AI. Acest lucru se datorează în mare măsură crizei responsabilității. Dacă puteți suporta cumva erori de primul fel, adică lovituri anulate incorect asupra inamicului, atunci cu erori de al doilea fel totul este mult mai complicat. În acest din urmă caz, mașina decide fie să „foc prietenesc” (foc prietenesc), fie distruge civili, adică comite o crimă de război.


Sursa: popmeh.ru

În această situație, nu este complet clar cine este responsabil pentru un astfel de act - dezvoltatorul de software sau comandantul care a ordonat utilizarea sistemului.

O situație similară există și în industria auto, care visează de câteva decenii la drone complet autonome. S-a dezvoltat chiar și o clasificare a nivelurilor de automatizare care este destul de aplicabilă sferei militare.

La nivelul zero, mașina este un UAZ-496 condiționat, în care totul este controlat de șofer și nu există asistenți mecatronici - ESP, ABS etc.

La cel mai înalt nivel, drona pe roți nici măcar nu are volan (sau este instalată ca opțiune cu plată). Și în toate situațiile, mișcarea este controlată de pilotul automat. În prezent, doar Honda din Japonia a fost capabilă să certifice un pilot automat de producție de Nivel XNUMX.

Această tehnică de „automatizare condiționată” este incapabilă să preia controlul într-o situație periculoasă. Și în condiții normale, nu funcționează întotdeauna. Sistemul Traffic Jam Pilot pilotează automat mașina în ambuteiaj, o menține în interiorul benzii de pe autostradă și o depășește. Vă puteți lua mâinile de pe volan, dar nu puteți privi în altă parte de la drum - camerele monitorizează acest lucru. Pilotul automat al celui de-al treilea nivel este foarte scump și crește costul final al mașinii de o ori și jumătate.

În același timp, merită să ne amintim că piloții automati pot fi deja introduși pe deplin în producția de masă. Și vor reduce într-adevăr serios rata mortalității pe drumuri. Dar problemele legale și etice din greșelile (inclusiv cele fatale) ale inteligenței artificiale pun companiile auto într-o fundătură.

AI nu ar trebui să fie armat


În sfera militară, situația cu dezvoltarea sistemelor de luptă complet autonome este, de asemenea, departe de a fi ideală.

Și nici măcar în aspectul tehnic al problemei.

Pe de o parte, experții sceptici subliniază capacitatea potențială a sistemelor de auto-învățare bazate pe rețele neuronale de a oferi lovituri preventive. De exemplu, AI va vedea o vulnerabilitate reală sau imaginară în inamic - de ce nu este acesta un motiv pentru a lansa prima lovitură de dezarmare? În plus, toate „creierele artificiale” sunt predispuse la concurență și la absența elementelor de gândire critică, care, de asemenea, nu adaugă încredere din partea unei persoane.

Analiștii de la Corporația RAND, în general, îndeamnă să nu încredem în niciun caz deciziile militar-strategice inteligenței artificiale - nici în prezent, nici în viitor. Dacă mai mulți necombatanți distruși de o eroare AI pot fi încă împăcați condiționat, atunci totul va fi mult mai tragic atunci când este aplicat forțelor de descurajare nucleară.

Nu totul este atât de simplu și cu operațional-tactic arme controlat de AI.

Să revenim la filmările din Nagorno-Karabah, care au ilustrat clar superioritatea tehnică a dronelor de atac față de armele tradiționale. Aici toată lumea a înțeles că pe cer nu existau decât mașini controlate de la distanță, deși foarte avansate.

Care ar fi reacția publicului dacă grevele ar fi făcute de Bayraktar, complet autonom?

Când ar trăi AI pe aer pentru ca întreaga lume să omoare oameni, deși cu armele în mână?

Latura morală a problemei nu a fost încă rezolvată. Și este puțin probabil să fie permis în viitorul apropiat.

A treia revoluție militară: inteligența mașinilor nu ar trebui să fie cu arme
Sursa: mil.ru

În general, roboții din armată sunt, desigur, buni.

Ele vă permit să retrageți soldații din focul direct al inamicului, transferând toată munca către unitățile de luptă cu o telecomandă. Pierderile și costurile sunt reduse. Și războiul pare să devină mai uman.

Roboții complet autonomi în sfera militară sau Lethal Autonomous Weapon System nu se referă deloc la umanitate și la reducerea pierderilor. Rețelele neuronale de învățare profundă fac războiul mult mai rapid și cu mai multe victime. De fapt, aceasta este exact ceea ce au asigurat cele două revoluții militare anterioare în afacerile militare - praful de pușcă și nuclearul.

Acest lucru este înțeles de multe corporații civile implicate cu statul în proiecte de apărare.

Astfel, Google s-a retras în 2018 din proiectul extrem de profitabil Maven în valoare de peste 7,5 miliarde de dolari. Specialiștii din Silicon Valley, împreună cu DARPA, au lucrat la un program de procesare a rețelelor video și foto de informații de la numeroase agenții de informații drone. Datele au fost procesate de o rețea neuronală. Și i-a oferit operatorului o „bibliotecă de ținte” în ordinea priorității pentru distrugere. Google a plecat povestiri. Și acum DARPA încearcă să facă față singură.

Un aspect important al IA în armată este utilizarea sa în războiul informațional.

Se poate spune cu un anumit grad de certitudine că, în viitorul foarte apropiat, Statele Unite vor ploua pur și simplu mai multe dezvăluiri despre Rusia și (într-o mai mare măsură) China în dezvoltarea inteligenței artificiale de luptă. Dacă nu este posibil să convingem publicul din interiorul țării de necesitatea unei minte militare autonome, atunci îi vom speria cu dușmani externi. Pentagonul a fost faimos pentru această logică încă din cele mai vechi timpuri. Să spunem, ei lucrează deja la AI la maximum și aici nu putem face față propriei noastre morale.

Și, în sfârșit, răspunsurile asimetrice la amenințările AI de luptă par destul de promițătoare. Acum, tehnologiile pentru mascarea obiectelor de ochiul atotvăzător al inteligenței artificiale și chiar denaturarea deliberată câștigă amploare.

În timp ce AI funcționează tolerabil în condiții pașnice, atunci când informațiile sunt servite pe un platou de argint.

Este foarte rău să funcționeze cu date incomplete și zgomotoase. Prin urmare, încercările de a induce în eroare inteligența mașinii cu date corectate în mod deliberat par destul de logice. Când timpul de reacție al AI armate este măsurat în secunde și nu depinde de opinia unei persoane, o astfel de informare greșită poate duce la consecințe greu de prezis.

A treia revoluție militară, într-un sens bun, este mai bine să o anulăm.

Sau să dezvolte măsuri restrictive comune pentru dezvoltarea și utilizarea IA în sfera militară. Ați reușit să faceți ceva asemănător în cazul armelor nucleare?
Autor:
48 comentarii
Anunț

Abonează-te la canalul nostru Telegram, în mod regulat informații suplimentare despre operațiunea specială din Ucraina, o cantitate mare de informații, videoclipuri, ceva ce nu intră pe site: https://t.me/topwar_official

informații
Dragă cititor, pentru a lăsa comentarii la o publicație, trebuie login.
  1. Geaca pe stoc
    Geaca pe stoc 18 martie 2021 05:11
    +3
    Când ar trăi AI pe aer pentru ca întreaga lume să omoare oameni, deși cu armele în mână?

    Latura morală a problemei încă nu este rezolvată aici.

    Acestea. când oamenii sunt uciși în aer de către alți oameni - este normal din punct de vedere moral?!
    1. A. Privalov
      A. Privalov 18 martie 2021 05:44
      0
      Citat: Jacheta pe stoc
      Acestea. când oamenii sunt uciși în aer de către alți oameni - este normal din punct de vedere moral?!

      Bineînțeles că nu, dar aici este, problema morală este evidentă! Suntem doar oameni moderni, „împovărați” cu o înțelegere modernă a moralității. Și asta e bine. hi
      1. pentru
        pentru 18 martie 2021 18:56
        0
        Citat: A. Privalov
        Și asta e bine

        Bună, profesore! Bineînțeles că este bine, dar AI îndepărtează această „povara”. Roboții vor fi extremi, cu ce vei lua fără suflet "fiare de calcat"...
        1. A. Privalov
          A. Privalov 18 martie 2021 20:33
          +4
          Și tu, salut. hi
          Nu sunt profesor, doar profesor asociat.

          Nu există nicio cerere de la bucata de fier. O bucată de fier nu are rușine. Cei care, fără motive serioase pentru asta, decid să le folosească vor lua rap-ul. Doar astăzi, în timp ce omenirea, neavând experiență în folosirea armelor de acest fel, își compune un basm dulce. Cu timpul, totul se va stabili. Poate că ceva va fi interzis, la fel de inuman, așa cum a fost cândva războiul militar. Poate că ceva va fi limitat, să zicem, roboții se vor pregăti, iar decizia de a deschide focul asupra oamenilor va fi luată de o persoană. etc. Oricum, vor fi greșeli, vor fi tot felul de conflicte juridice și filozofice. Nu se poate decât spera că omenirea cu inteligență artificială nu se lasă într-un fel de capcană, despre care scriitorii de science fiction au scris mult.
    2. Icar
      Icar 19 martie 2021 23:05
      0
      Citat: Jacheta pe stoc
      Când ar trăi AI pe aer pentru ca întreaga lume să omoare oameni, deși cu armele în mână?

      Latura morală a problemei încă nu este rezolvată aici.

      Acestea. când oamenii sunt uciși în aer de către alți oameni - este normal din punct de vedere moral?!

      Desigur, acest lucru nu este normal dacă nu a fost autoapărare sau acțiune militară, când uciderea este permisă din punct de vedere moral. Dar, în primul rând, ucigașul (dacă este sănătos) înțelege că responsabilitatea poate veni, în această lume (înaintea societății sau înaintea lui însuși) sau în altă lume, poate - înaintea lui Dumnezeu, iar în al doilea rând, ucigașul are riscul ca " victimă” poate ucide și ucigașul. Aceștia sunt toți factori limitatori. Și cei care urmăresc online înțeleg, de asemenea, că ucigașul este probabil să fie pedepsit (chiar dacă este nebun). Dacă ucigașul este AI, în primul rând, nu există elemente de descurajare specificate, iar în al doilea rând, telespectatorii online înțeleg și că un act este săvârșit cu impunitate, în fața umanității, dar în același timp este conștient, adică uciderea unui persoana este conștientă (nu este un meteorit) și impune. Valoarea vieții umane, în ochii oamenilor înșiși, se pierde treptat. Prin urmare, moralitatea se schimbă. Vom înțelege cu toții că există o entitate care decide singură cine trăiește și cine nu, la propria discreție și după propriile reguli, care se poate schimba la discreția sa (AI se dezvoltă singur). Și, în general, nu este clar dacă o IA care a primit sarcina de a ucide oameni (care nu are o interdicție programată de a ucide o persoană) este capabilă să cruțe o victimă umană, de exemplu, una care capitulează. Acestea sunt departe de toate întrebările despre utilizarea AI ca armă pentru a ucide oameni.
      În opinia mea, ar fi timpul ca ONU să numească cel puțin o comisie care să dezvolte reguli și reglementări (un robot sau IA nu ar trebui să ia o decizie de a ucide o persoană fără participarea unei alte persoane) sau să stabilească interdicții complete asupra IA, deoarece un instrument pentru uciderea oamenilor și a altor ființe vii.
  2. A. Privalov
    A. Privalov 18 martie 2021 05:31
    +4
    .Iar pentru prelucrarea operațională a „big data” (sau big bata) sunt necesare tehnologii foarte serioase.
    Excelent declinare a răspunderii. Aproape conform lui Freud: „big bata” este filipineză pentru „big child”.
    Desigur, omenirea va trebui să rezolve mai multe probleme legate de AI. Armata este doar una dintre multe. Mai mult, nu va fi posibil să te limitezi la niște restricții cu jumătate de inimă. Progresul nu mai poate fi oprit. „Calul de fier îl înlocuiește pe calul țăran” (c)
    . În 1865, Parlamentul britanic a adoptat o lege conform căreia viteza de transport era limitată la 6 km/h, iar o persoană trebuia să meargă în fața mașinii, fluturând un steag roșu. Ultima clauză a fost abolită în 1878. Potrivit altor surse, regula „steagul roșu” a fost abolită abia în 1896, împreună cu creșterea limitei de viteză la 23 km/h și eliminarea cerinței pentru un echipaj de trei (șofer, asistent și pompier) pentru lumină. motoare (până la 3 tone greutate proprie) vehicule fără cai, adică diferența dintre mașini și locomotive a fost recunoscută legal, ceea ce a dat impuls dezvoltării industriei auto britanice. Limita de viteză a fost ridicată din nou în 1903, iar legile din 1896 și 1903 au fost în cele din urmă abrogate în Marea Britanie abia în 1930.
  3. tasha
    tasha 18 martie 2021 05:48
    +1
    A treia revoluție militară, într-un sens bun, este mai bine să o anulăm.
    Ar fi frumos, dar vai...
    Sau să dezvolte măsuri restrictive comune pentru dezvoltarea și utilizarea IA în sfera militară
    Este puțin probabil. Avantajele prea evidente sunt oferite de dezvoltarea și implementarea sistemelor automatizate. Și este mult mai dificil să controlezi procesele de creare a IA decât crearea și distribuirea armelor nucleare.
    Cred că în viitorul apropiat nu vor exista acorduri în această direcție. Dacă Statele Unite și Rusia nu au semnat și ratificat încă Tratatul de la Ottawa privind minele antipersonal...
  4. sergo1914
    sergo1914 18 martie 2021 06:19
    0
    Aristotel este de vină pentru toate. Totul a pornit de la silogistica lui.
  5. parusnik
    parusnik 18 martie 2021 06:24
    +12
    Generalii au zâmbit obosiți.
    S-au privit unul la altul și au scos un strigăt de bucurie. Armaghedonul a fost câștigat și forțele lui Satana au fost învinse.
    Dar ceva se întâmpla pe ecranele lor de televiziune.
    - Cum! Este... este...” începu generalul McPhee și apoi tăcu.
    Căci peste câmpul de luptă, între grămezi de metal deformat și zdrobit, Grace a mărșăluit.
    Generalii au tăcut.
    Grace a atins robotul mutilat.
    Iar roboții s-au agitat prin deșertul fumegând. Bucăți de metal răsucite, arse, topite au fost reînnoite.
    Și roboții s-au ridicat.
    „McPhee”, șopti Comandantul Suprem Fetterer. - Apăsați pe ceva - lăsați-i, poate, să îngenuncheze.
    Generalul a apăsat, dar telecomanda nu a funcționat.
    Și roboții s-au înălțat deja spre cer. Erau înconjurați de îngerii lui Dumnezeu, iar tancurile robot, infanteriei robotizate, bombardierele automate urcau din ce în ce mai sus.
    El îi duce vii în rai! exclamă Ongin isteric. El duce roboții în rai!
    „A apărut o eroare”, a spus Fetterer. - Mai repede! Trimiteți un ofițer de legătură... Nu, vom merge singuri.
    Avionul a fost aruncat instantaneu și s-au repezit pe câmpul de luptă. Dar era prea târziu: Armaghedonul s-a încheiat, roboții au dispărut, iar Domnul cu armata lui a plecat acasă (c) R. Sheckley „Bătălia”
    1. infantryman2020
      infantryman2020 18 martie 2021 08:21
      +3
      Povestea mea preferată! :)
  6. Kolin
    Kolin 18 martie 2021 09:36
    +2
    Slavă roboților! Omoara toti oamenii! (c) Orihime Inoue
    1. vadimtt
      vadimtt 18 martie 2021 10:36
      +2
      Uh, dar care parte(e)? De fapt, traducătorii Futurama au devenit celebri râs
      1. Kolin
        Kolin 18 martie 2021 13:49
        0
        Știu, dar Orihime a pictat odată o imagine epică a viitorului... cu un robot. râs
    2. Minato2020
      Minato2020 18 martie 2021 15:32
      +4
      Citat din Kolin.

      Slavă roboților! Omoara toti oamenii! (c) Orihime Inoue


      Orihime era încă pașnică și, în măsura posibilităților ei,
      vindecat și chiar înviat.

      Dar dacă programatorii sunt capabili de orice, atunci la ce să se mai aștepte de la AI?



      Într-o scrisoare trimisă de la uzina de avioane „Irkut” din Irkutsk directorului general al Biroului de proiectare din Sankt Petersburg „Elektroavtomatika”, se spunea despre un buton ciudat fără nume, când a fost apăsat, inscripția „Glorie roboților! Ucideți toți oamenii” a fost afișat pe ecranul telecomenzii.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. Pandiurin
      Pandiurin 18 martie 2021 23:27
      +1
      Citat din Kolin.
      Slavă roboților! Omoara toti oamenii! (c) Orihime Inoue


      Trebuie să existe o lege
      Butonul „Ucide toți oamenii”.
      roşi.
      Acest lucru va preveni apăsarea accidentală.
  7. Trapp1st
    Trapp1st 18 martie 2021 10:55
    +7
    În următorul război mondial, nu vor exista crime de război și crime împotriva umanității, așa că, în ciuda unui număr de deficiențe, cine are un număr mare de ucigași autonomi tipăriți va fi câștigător.
    1. Icar
      Icar 19 martie 2021 23:11
      0
      În următorul război mondial, nu vor exista crime de război și crime împotriva umanității, așa că, în ciuda unui număr de deficiențe, cine are un număr mare de ucigași autonomi tipăriți va fi câștigător.

      Și apoi ucigașii autonomi îi vor ucide pe câștigători, sunt autonomi sau nu?
  8. Sakhalinets
    Sakhalinets 18 martie 2021 11:16
    +2
    O persoană aflată în război obosește, își pierde concentrarea, experimentează constant stres, poate fi confuză, este sete de răzbunare, vrea doar să omoare. Și totuși percepția umană este extrem de imperfectă și este supusă multor tulburări psihofiziologice. Dar poate lua decizii cu privire la deschiderea focului!
    Dar robotul impasibil și niciodată obosit - oh, nu, niciodată! râs
    Este clar că IA actuală pur și simplu nu va trage sarcina, dar în viitorul apropiat vor fi roboții care vor rezolva totul.
    1. Pandiurin
      Pandiurin 18 martie 2021 23:42
      +1
      Citat din: Sahalinets
      O persoană aflată în război obosește, își pierde concentrarea, experimentează constant stres, poate fi confuză, este sete de răzbunare, vrea doar să omoare. Și totuși percepția umană este extrem de imperfectă și este supusă multor tulburări psihofiziologice. Dar poate lua decizii cu privire la deschiderea focului!
      Dar robotul impasibil și niciodată obosit - oh, nu, niciodată! râs
      Este clar că IA actuală pur și simplu nu va trage sarcina, dar în viitorul apropiat vor fi roboții care vor rezolva totul.


      Pentru a câștiga ->
      trebuie să aplicați / folosiți cât mai mulți roboți ->
      pentru aceasta, producerea lor ar trebui să fie cât mai simplă ->
      cea mai simplă IA va putea identifica o persoană în viață, dar nu va putea identifica un civil sau un combatant.

      La ieșire obținem arme de distrugere în masă cu AI.
  9. Basarev
    Basarev 18 martie 2021 13:31
    +2
    AI are sens. Numai în primul rând ar trebui să insufle loialitate absolută față de țara sa. Și, desigur, inițial nu puneți în el posibilitatea de a deschide focul. Apăsarea butonului și luarea deciziei ar trebui să fie întotdeauna la latitudinea persoanei respective.
    1. tăietor de șuruburi
      tăietor de șuruburi 18 martie 2021 16:56
      0
      ar trebui să fie insuflat cu loialitate absolută față de țara sa
      Faceți energie din bateriile pe kvas wassat Sau pe coca cola râs
    2. Pandiurin
      Pandiurin 18 martie 2021 23:56
      +1
      Citat: Basarev
      AI are sens. Numai în primul rând ar trebui să insufle loialitate absolută față de țara sa. Și, desigur, inițial nu puneți în el posibilitatea de a deschide focul. Apăsarea butonului și luarea deciziei ar trebui să fie întotdeauna la latitudinea persoanei respective.


      Operatorul controlează 1000 de roboți,
      Pe ecran apar ferestre de interogare
      "țintă detectată. Distruge? Da / Nu"
      Operatorul apasă butonul „D”...

      Acum sunt folosite dronele
      decizia de grevă este luată de operator.
      În loc de o coloană de teroriști, se dă o lovitură în cortegiile de nuntă.

      Pentru militari, este mai ușor să elibereze roboți în teritoriu unde este garantat că nu există „prieteni”. După ce am stabilit că toate țintele dintr-un anumit perimetru sunt considerate inamic.
      Un analog al utilizării armelor grupate.

      Bombele cu dispersie nu sunt folosite de conștiința nimănui, iar această nouă „jucărie” pentru militari este aceeași, dar și mai eficientă. Le place asta.
  10. ironic
    ironic 18 martie 2021 13:43
    +1
    Și în timp ce unii se luptă cu întrebarea dacă este moral, alții se luptă cu întrebarea cum să intre rapid pe piața de consum cu asta... chiar știu cine va fi mai rapid.
    1. Viktor Tsenin
      Viktor Tsenin 18 martie 2021 17:41
      +1
      Va fi mai rapid să introducem masele pe piață, în vremea noastră, când omul a devenit din nou un lup pentru om, moralitatea amară vărsă o lacrimă liniștită.
      1. ironic
        ironic 18 martie 2021 18:01
        +1
        Morala este, de fapt, extrem de absolută, dar imoralitatea individuală nu are limită. Și da.
        1. Viktor Tsenin
          Viktor Tsenin 18 martie 2021 18:15
          +1
          Ar fi mai corect să spunem pe tema zilei despre imoralitatea colectivă, în absența unor valori și idei inteligibile. Vai, absolutul suprem s-a scufundat în uitare.
          1. ironic
            ironic 18 martie 2021 18:24
            +2
            Ei bine... este... prada învinge răul.
  11. evgen1221
    evgen1221 18 martie 2021 17:26
    +2
    Întrebarea este cu siguranță interesantă - în același vest, avertismente și previziuni au fost deja emise de multe ori din diferite părți ale societății cu privire la inadmisibilitatea înarmarii AI. Chiar și în jocurile video, acest lucru este reprezentat în mod clar (Zeroritul orizontului), pe scurt, fără uși din spate, prinde prostesc o eroare și planeta s-a grăbit la dispariție și a murit în piatră (ei bine, există o mulțime de simplificări și găuri, de bineînțeles), dar principalul lucru este că fără o ușă din spate fiabilă pentru a dezactiva AI nu este suficient. Și ceva ne spune că Yankees, desigur, vor eșua cu acest caz și vom revedea Skynet.
  12. Viktor Tsenin
    Viktor Tsenin 18 martie 2021 17:39
    +1
    Din nou, AI, este complet de neînțeles modul în care rețelele neuronale se potrivesc cu formidabila și puternică IA a viitorului. Nu există AI, mașinile și algoritmii nu cred, AI este potrivit pentru mass-media, de ce să-ți deranjezi camarazii aici?
  13. Smirnov Mihail
    Smirnov Mihail 18 martie 2021 20:20
    0
    O mizerie al naibii. Bayraktar complet autonom nu ar fi dat o singură lovitură, pentru că nu s-ar putea orienta în spațiu. Unde suntem, unde mergem. În primul rând, problema unei definiții banale a poziției cuiva nu a fost rezolvată. Următorul pas este rezolvarea problemei de recunoaștere. Aceasta este selecția detaliilor geometriei în obiecte separate, dându-le propriul nume. În continuare, va trebui să rezolvați problema interacțiunii cu obiectul selectat. Și cum rămâne cu latura morală, dacă problemele tehnice de bază nu sunt rezolvate?
  14. victor_47
    victor_47 20 martie 2021 10:19
    0
    Există un criteriu clar: de îndată ce se va dovedi că AI oferă o probabilitate semnificativ mai mică de decizii eronate decât nivelul minim de erori realizabil al unui operator uman, atunci va fi rațional să se transfere deciziile către AI.
  15. Podvodnik
    Podvodnik 21 martie 2021 22:05
    0
    A treia revoluție militară, într-un sens bun, este mai bine să o anulăm


    Umanitatea se va juca. Istoria se dezvoltă în spirală. Indiferent cum, după câteva sute de mii de ani, următorii cercetători și-au încrețit din nou frunțile cu întrebarea: „Și cine a construit astfel de piramide?” Și vor săpa în gropile noastre de gunoi, îngropate sub un strat de nisip de mai mulți metri, întrebând: „A fost o mare civilizație, dar a dispărut undeva.... Ce s-a întâmplat?”

    Și așa s-a întâmplat: lăcomia, vanitatea și invidia au câștigat. Și am pierdut. Toate.