Note ale minții umane: americanii vor să schimbe inteligența artificială militară

55
Note ale minții umane: americanii vor să schimbe inteligența artificială militară
Sursa: vgtimes.ru


Dezumanizarea digitală este anulată?


În primul rând, un avertisment din partea luptătorilor împotriva inteligenței artificiale militare:



„Mașinile nu ne văd ca oameni; pentru ei, o persoană este doar o bucată de cod care trebuie procesată și sortată. De la case inteligente la folosirea câinilor -roboți ofițerii de poliție, inteligența artificială și tehnologiile automate de luare a deciziilor au început să joace un rol important în viața noastră. La capătul extrem al spectrului de dispozitive digitale se află roboții ucigași. Dacă permitem dezumanizarea care vine cu ele, ne vom trezi în curând luptând să ne protejăm de deciziile luate de mașină în alte domenii ale vieții noastre. Trebuie să interzicem mai întâi sistemele autonome armepentru a preveni alunecarea către dezumanizarea digitală.”

Pacifiştii care cer ca toate lucrările de combatere a inteligenţei artificiale să fie îngheţate sunt împărţite în două tipuri. Primul este „Terminators” revizionat și alți analogi. Al doilea evaluează viitorul pe baza capacităților moderne ale roboților de luptă. În primul rând, vehicule cu aripi fără pilot echipate cu sisteme de lovitură.

Există o mulțime de episoade de ucidere eronată sau intenționată a civililor de către drone. În Orientul Mijlociu, american drone Mai mult de o ceremonie de nuntă a fost distrusă. Operatorii de roboți zburători au identificat împușcăturile de sărbătoare în aer ca un semn al luptelor de gherilă. Dacă o persoană special instruită nu este capabilă să determine detaliile unei ținte de la câteva sute de metri, atunci ce putem spune despre inteligența artificială. În prezent, viziunea automată nu poate fi comparată cu ochiul și creierul uman în ceea ce privește caracterul adecvat al percepției imaginii. Doar dacă nu obosește, dar acest lucru se poate rezolva și printr-o schimbare la timp a operatorului.

În mod clar, norii se adună peste inteligența artificială militară. Pe de o parte, există tot mai multe dovezi ale unei descoperiri tehnologice iminente în acest domeniu. Pe de altă parte, din ce în ce mai multe voci se aud în favoarea limitării sau chiar interzicerii muncii în această direcție.

Câteva exemple.

În 2016, a apărut o petiție în care gânditori proeminenți și alte mii de oameni au cerut ca inteligenței artificiale să nu primească arme letale. Printre semnatari se numără Stephen Hawking și Elon Musk. În ultimii șapte ani, petiția a strâns peste 20 de mii de semnături. Pe lângă preocupările pur umaniste legate de posibilitatea distrugerii necontrolate a oamenilor, există și inconsecvențe juridice.

Cine va fi judecat dacă sunt înregistrate crime de război comise prin inteligență artificială? Operatorul de drone care a incendiat mai multe sate cu civili este ușor de găsit și pedepsit în consecință. Inteligența artificială este produsul muncii colective a programatorilor. Este foarte greu să atragi o singură persoană aici. Alternativ, puteți judeca compania producătoare, de exemplu, aceeași Boston Dynamics, dar apoi cine va fi implicat în producția de drone autonome. Puțini oameni vor dori să fie în acuzația celui de-al doilea Tribunal de la Nürnberg.


Sursa: koreyaportal.com

Acesta este probabil motivul pentru care industriașii și programatorii încearcă să încetinească dezvoltarea abilităților de luptă cu inteligența artificială.

De exemplu, în 2018, aproximativ două sute de companii IT și aproape cinci mii de programatori s-au angajat să nu lucreze la sistemele autonome de luptă. Google spune că în cinci ani vor abandona complet contractele militare în domeniul inteligenței artificiale. Potrivit legendei, un astfel de pacifism nu este întâmplător - programatorii, după ce au aflat că scriau coduri pentru sistemele militare, au amenințat să renunțe în masă. Drept urmare, au găsit o variantă pe cale amiabilă - contractele existente sunt reziliate, dar altele noi nu sunt încheiate. Este posibil ca, mai aproape de data abandonării lucrărilor privind AI de luptă, „programatorii” insolubili să fie pur și simplu concediați și înlocuiți cu alții la fel de talentați. De exemplu, din India, care a fost de multă vreme faimoasă pentru resursele sale intelectuale ieftine.

Există, de asemenea, biroul Stop Killer Robots, care solicită liderilor mondiali să semneze ceva de genul unei Convenții pentru interzicerea IA a luptei. Până acum fără succes.

Toate cele de mai sus îi obligă pe oficialii militari să caute soluții alternative. Nu există nicio șansă ca președintele SUA să câștige alegerile dacă nu numai că promite grație universală LGBT, ci și interzicerea îmbunătățirii inteligenței artificiale militare.

Gândirea umană pentru AI


Pentagonul, se pare, este pe punctul de a face un fel de descoperire în AI. Sau era convins de asta. Nu există altă modalitate de a explica apariția unei noi directive care reglementează umanizarea sistemelor de luptă autonome. Kathleen Hicks, secretarul adjunct al Apărării al SUA, comentează:

„Având în vedere progresele semnificative ale tehnologiei care au loc în jurul nostru, actualizarea Directivei noastre privind autonomia sistemelor de arme ne va ajuta să rămânem un lider global nu numai în dezvoltarea și implementarea de noi sisteme, ci și în domeniul siguranței.”

I-ai auzit pe toți cei care sunt uimiți de roboții ucigași autonomi? Inteligența artificială americană va fi acum cea mai umană. Totuși, la fel ca americanii înșiși.


Sursa: robroy.ru

Problema este că nimeni nu înțelege cu adevărat cum să transmită proverbiala „judecata umană cu privire la folosirea forței” roboților cu arme. Formularea exactă a Conceptului a fost actualizată la sfârșitul lunii ianuarie trecute:

„Sistemele de arme autonome și semiautonome vor fi concepute pentru a permite comandanților și operatorilor să exercite nivelul adecvat de raționament uman cu privire la utilizarea forței.”

De exemplu, dacă, atunci când curățați o casă, un avion de atac aruncă mai întâi o grenadă în cameră, apoi intră în sine. Este aceasta judecată umană? Desigur, și nimeni nu are dreptul să-l judece, mai ales dacă a strigat mai întâi „Cine este acolo?” Ce se întâmplă dacă un robot autonom funcționează după aceeași schemă?

Judecata umană este un concept prea larg pentru a permite stabilirea oricăror limite. Este împușcarea prizonierilor ruși de către soldații Forțelor Armate ucrainene și gândire umană?

Adăugarea la Directiva Pentagonului 3000.09 privind sistemele de luptă autonome este plină de banalități. De exemplu,

„Persoanele care autorizează utilizarea, direcția de utilizare sau operarea sistemelor de arme autonome și semiautonome trebuie să facă acest lucru cu atenția cuvenită și în conformitate cu legile războiului, tratatele aplicabile, reglementările de siguranță ale sistemelor de arme și regulile de angajare aplicabile.”

Înainte de aceasta, se pare că au lucrat cu imprudență și nu în conformitate cu legile războiului.

În același timp, în presa americană și europeană nu există nici un indiciu de critică la adresa inițiativei Pentagonului din ianuarie. Sub falsa umanizare a inteligenței artificiale nu se află altceva decât o încercare de a masca ceea ce se întâmplă. Acum, armata americană va avea o monedă de negociere solidă în lupta împotriva oponenților inteligenței artificiale din armată. Uite, nu avem IA simplă, ci cu „un nivel adecvat de judecată umană”.

Având în vedere că încă nu există o definiție clară și general acceptată a „inteligenței artificiale”, toate scrisorile din jurul acesteia sunt percepute cu ironie. Macar.

Cum se face ca algoritmii matematici care lucrează cu cantități mari de date să joace judecata umană?

La această întrebare principală nu se răspunde în Directiva actualizată 3000.09.
55 comentarii
informații
Dragă cititor, pentru a lăsa comentarii la o publicație, trebuie login.
  1. +12
    12 martie 2023 04:18
    AI trebuie să fie insuflat cu ideile de marxism-leninism din copilărie, atunci totul va fi bine, ca în Atomic Heart
    1. +2
      12 martie 2023 13:55
      Există trei principii ale roboticii de A. Azimov:
      Robotul nu trebuie să dăuneze sănătății umane, să creeze o amenințare la adresa vieții sau să permită consecințe similare prin inacțiune;
      Robotul este obligat să execute ordinele date de o persoană. Singura excepție este aceea că ordinul dat nu trebuie să contravină prevederii anterioare;
      Robotul trebuie să fie preocupat de propria sa siguranță în măsura și în măsura în care acțiunile sale nu resping cele două puncte anterioare.

      Aceste reguli din 1942 au fost criticate pentru limbajul lor contradictoriu.
      Comparați altele noi de la Google, OpenAI și oamenii de știință de la Universitatea Berkeley și Universitatea Stanford, care trebuie luate în considerare la crearea roboților și a sistemelor de inteligență artificială.
      Evitarea efectelor secundare negative. De exemplu, un robot poate sparge o vază pentru a accelera procesul de curățare. Acest lucru nu ar trebui să se întâmple;

      Evitarea escrocherilor. Robotul ar trebui să elimine gunoiul, nu să-l ascundă;

      Scalabilitate a supravegherii. Robotul nu trebuie să deranjeze proprietarul cu întrebări dacă este posibil să primească sfaturi mai eficient;

      Învățare în siguranță. Robotul de curățare nu trebuie să experimenteze ștergerea prizei cu o cârpă umedă;

      Rezistenta la schimbari ale tipului de activitate. Experiența pe care o dobândește un robot în timp ce curăța podeaua unei fabrici poate să nu fie sigură atunci când curăță un birou.

      După cum puteți vedea, nu există reguli uniforme. Și recent au început să trișeze cu formulări legale referitoare la cauzarea prejudiciului unei persoane. Ceea ce se cere este interzicerea necondiționată a AI să ia decizii independente pentru a dăuna unei persoane.
      1. 0
        12 martie 2023 17:30
        Citat: nikon7717
        Aceste reguli din 1942 au fost criticate pentru limbajul lor contradictoriu.

        Aceste reguli se aplică IA slabă și medie. Lumea este acum la pragul mediei.
        Principalul pericol este o IA puternică, care are inițiativă, este conștientă de sine și este, în principiu, incontrolabilă din punct de vedere programatic.
    2. +5
      12 martie 2023 15:13
      Anecdotă: "Companiile americane limitează dezvoltarea muniției bazate pe inteligență artificială. Ultimul eșantion al așa-numitei bombe "inteligente" nu a fost niciodată împins dintr-un avion".
      1. +1
        12 martie 2023 17:33
        Citat din Monster_Fat
        Ultima probă din așa-numita bombă „inteligentă” nu a fost niciodată împinsă din avion”.

        Desigur, pentru că la suflet se simte ca o cafetieră. wassat
        Ar fi amuzant dacă nu ar fi așa.
    3. +2
      13 martie 2023 09:58
      Terminator va veni și va restabili ordinea wassat
  2. +3
    12 martie 2023 05:09
    Cel mai inuman intelect este uman. Războaiele și crimele au fost inventate de oameni. Roboții se odihnesc. Cel puțin pentru că nu se înfurie.
    1. +4
      12 martie 2023 06:21
      Citat: ivan2022
      Cel mai inuman intelect este uman. Războaiele și crimele au fost inventate de oameni.

      Total de acord.
      Dar progresul nu poate fi oprit; sistemele de arme fără pilot sunt viitorul. A fost odată o revoltă împotriva mitralierei Maxim, ca armă de distrugere în masă...
      1. +1
        12 martie 2023 08:09
        Citat din doccor18
        Dar progresul nu poate fi oprit; sistemele de arme fără pilot sunt viitorul.

        Futuristul science-fiction Rozov (recomand cu incredere) are o descriere a conexiunii om-calculator dintr-o aeronavă de luptă în manevre antirachetă și luptă apropiată. Când a fost depășită o anumită suprasarcină, controlul atât al focului, cât și al manevrei trecea în întregime la computerul de bord.
        1. +2
          12 martie 2023 14:05
          Atunci acesta este un sistem de lovitură nucleară de răzbunare funcțional, originar din URSS, care în Occident este numit „mâna moartă”
        2. +2
          12 martie 2023 15:42
          Roboții sunt mai rapizi decât oamenii, sunt capabili să răspundă instantaneu și precis la o amenințare, iar aceste abilități le sunt oferite de algoritmi scriși de oameni. Astăzi nu există și nici nu cred că va apărea în curând o inteligență reală capabilă să gândească! Roboții funcționează pur și simplu după un program programat: în zona afectată a apărut o țintă termică și trebuie lovită, sau trebuie lovită o țintă termică dacă se apropie, acești parametri sunt stabiliți de o persoană! Întrebarea este ce parametri sunt tabu, ținta termică poate fi un soldat, sau poate un copil, asta înseamnă că sistemul de luptă nu trebuie programat să lovească ținte termice, pentru că există posibilitatea de eroare!
          1. -1
            12 martie 2023 17:36
            Citat din Eroma
            Astăzi nu există și nici nu cred că va apărea în curând o inteligență reală capabilă să gândească!

            S-ar putea să începi să intri în panică:
            WP: Un dezvoltator Google a ajuns la concluzia că AI-ul creat de companie este conștient.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 martie 2023 22:00
              Este o prostie, nu sunt foarte interesat de subiect, dar am auzit că un programator a fost concediat pentru astfel de declarații. Programele pot fi perfecte, ca și astăzi, cele care trag și scriu diplome, dar acestea sunt programe care funcționează după un algoritm bine pus la punct, conștiința este diferită! Conștiința însăși creează algoritmi pentru fiecare situație și cum funcționează pentru o persoană, persoana însăși nu este încă conștientă!
              1. 0
                12 martie 2023 22:49
                Rețelele neuronale moderne sunt destul de capabile să creeze un algoritm pentru rezolvarea unei anumite probleme care îi este dată. Desigur, acest lucru nu ar trebui să fie ceva complicat, dar ea este capabilă să organizeze ea însăși patrule, de exemplu. Un alt lucru, după părerea mea, este că ea nu poate lua singură o decizie privind organizarea patrulelor. Astăzi, un computer poate compune versurile unui cântec, îl poate exprima astfel încât să sune frumos, să deseneze imagini pentru text și să le adună pe toate într-un clip bun. Dar. Nu poate decide singur că toate acestea trebuie făcute. Cel puțin nu am auzit de asta. În opinia mea, acesta este un bun criteriu de conștientizare - capacitatea de a-și stabili sarcini care nu decurg din cele stabilite anterior, ci să înceapă un nou lanț, ca să spunem așa.
                1. 0
                  13 martie 2023 11:37
                  Citat: farfurie
                  În opinia mea, acesta este un bun criteriu de conștientizare - capacitatea de a vă stabili obiective

                  Capacitatea de a-și stabili obiective depinde de concepte precum moralitatea, cum ar fi inspirația, frica sau vanitatea etc. Acest lucru nu este prescris de algoritm, acesta este un impuls spiritual!
                  Poți învăța o mașinărie mult, dar va rămâne o mașină fără suflet!
                  Când arată apocalipse fantastice în care o mașină distruge sau cucerește umanitatea, în astfel de filme mașina este percepută emoțional ca un inamic care a decis să atace oamenii, dar de fapt acesta este rezultatul unei erori umane care a introdus un algoritm greșit în program! asigurare
                  Prin urmare, apelurile pentru limitarea capacităților AI pe câmpul de luptă sunt rezonabile, deoarece creatorul acestei AI nu este perfect și este capabil de greșeli fatale, așa că este corect să se limiteze gama de capacități ale oamenilor, astfel încât să nu facă accidental. se extermină! asigurare
              2. +1
                14 martie 2023 04:55
                Și undeva în subsolurile Google, un AI chicotește răutăcios. Singurul care i-a observat esența a fost concediat. râs
    2. 0
      12 martie 2023 19:45
      Războaiele și crimele au fost inventate de oameni.

      este adevarat?
      Din când în când, apar știri despre lupte aprige între grupuri de cimpanzei
      sau uciderea urangutanilor https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 martie 2023 05:47
    Nu există încă inteligență artificială. Inteligența implică rezolvarea problemelor la propria discreție, și nu ceea ce scriu programatorii.
    1. +3
      12 martie 2023 07:06
      Citat: Serghei Averchenkov
      Nu există încă inteligență artificială

      Există chiar și computere cuantice (cele de laborator) care funcționează cu programele AI cu ordine de mărime mai rapid.
      1. +2
        12 martie 2023 11:58
        Citat: Stas157
        Există chiar și computere cuantice (cele de laborator) care funcționează cu programele AI cu ordine de mărime mai rapid.
        Calculatoarele cuantice pentru IA nu funcționează, au domenii de aplicare foarte limitate (au fost dezvoltați foarte puțini algoritmi cuantici) și o bază elementară slabă, nu pot gestiona mai mult decât un coprocesor (sau da o legătură la un algoritm cuantic pentru rețele neuronale) .
      2. 0
        16 martie 2023 22:36
        Dar ce legătură are cu asta mai repede, chiar dacă se gândește măcar o sută de ani... Să zicem dacă te-a înșelat femeia ta (ăsta e doar un exemplu, sunt sigur că ai un normal și bun familie), ce vei face și ce va face AI? AI va alege dintre multe astfel de cazuri sau va lua propria decizie? Să spunem că o ucideți, iertați și așteptați următoarea trădare, lăsați-o, ucideți-i partenerul etc. După ce criterii va alege AI? Și va putea AI chiar să facă o astfel de alegere? Sunt emoțiile pe care le trăim accesibile AI? Să spunem că am divorțat de prima mea cu mult timp în urmă, dar uneori îmi amintesc de ea - prima mea iubire până la urmă - își poate aminti AI? Știi, nu o pot suporta pe fosta mea, dar, în același timp, uneori îmi amintesc de ea. Cum se potrivesc toate acestea în AI?
    2. +2
      12 martie 2023 11:56
      Citat: Serghei Averchenkov
      Inteligența implică rezolvarea problemelor la propria discreție, și nu ceea ce scriu programatorii.
      Rețelele neuronale fac exact asta (la propria discreție).
      1. +4
        12 martie 2023 14:03
        Rețeaua neuronală face ceea ce a fost instruită să facă, nimic mai mult.
        1. 0
          12 martie 2023 17:57
          Nimeni nu a învățat motoarele de rețele neuronale cum să joace șah mai bine decât oamenii și mai bine decât vechile programe-motoare. Toți s-au învățat singuri.
    3. +1
      12 martie 2023 17:42
      Citat: Serghei Averchenkov
      Nu există încă inteligență artificială. Inteligența implică rezolvarea problemelor la propria discreție, și nu ceea ce scriu programatorii.

      Vă sfătuiesc să recitiți urgent toate cele mai recente știri din acest domeniu din ultimul an.
      Comentariul tău este depășit de 10 ani.
  4. +3
    12 martie 2023 05:49
    Ei bine, de ce este totul atât de complicat?
    Cap de orientare, de exemplu. Cum recunoaște imaginile pentru „foc și uită” - pe baza AI sau alți algoritmi.
    Dronele zboară autonom. Conform unui program dat. Și este stabilit de ce algoritmi - AI sau nu? Și mai contează?
    Căutare independentă a obiectivelor. Dar mina noastră antitanc, care face asta fără AI? Indiferent dacă se întâmplă cu AI sau nu... contează? Vor fi mai puține victime nevinovate?
    Întrebările apar din partea publicului atunci când o dronă zboară și decide unde să tragă sau să lanseze o rachetă, arată groaznic dacă numiți algoritmul de operare AI. Și când mina zace și ascultă cu senzori, totul pare să fie în regulă...
    Toate aceste „linii roșii” ale IA în afacerile militare sunt depășite de evoluția lentă a algoritmilor folosiți...
    1. +2
      12 martie 2023 17:45
      Citat din tsvetahaki
      Cap de orientare, de exemplu. Cum recunoaște imaginile pentru „foc și uită” - pe baza AI sau alți algoritmi.

      Deja exista. Cea mai recentă modificare a Python-5 SD a primit tocmai aceasta anul trecut.

      Citat din tsvetahaki
      Și când mina zace și ascultă cu senzori, totul pare să fie în regulă...

      Ea nu se târăște... încă. râs
      1. +1
        12 martie 2023 18:00
        Acum mina de planor care este aruncată ar trebui să stea liniștită, să asculte cu toți senzorii, să-și scoată camerele și, la momentul potrivit, să se târască spre țintă cu o încărcare direcționată.
      2. 0
        12 martie 2023 23:01
        În al Doilea Război Mondial, germanii au făcut mine pe șenile. Dar nu a mers bine. Astăzi, este și mai inutil, ca pentru mine, când tot felul de ATGM zboară ici și colo.
  5. +2
    12 martie 2023 06:55
    . „programatorii” insolubili vor fi pur și simplu concediați și înlocuiți cu alții la fel de talentați. De exemplu, din India

    Atunci de ce nu am putut să ne înlocuim programatorii când s-au repezit peste deal în legătură cu operațiunea? Nici din India, nici din America, nici de oriunde altundeva!

    Au putut să-și convingă oamenii (unii dintre ei) abia după ce li s-au promis salarii, ipoteci străine și să nu-și asume mobilizarea.

    De ce ar trebui domnii să se umilească așa? De ce nu i-au înlocuit pe lucrătorii migranți ca toți ceilalți?
    1. +6
      12 martie 2023 12:06
      Citat: Stas157
      Atunci de ce nu am putut să ne înlocuim programatorii când s-au repezit peste deal în legătură cu operațiunea?
      Așa că străinii trebuie să plătească. Știți de ce programatorii renunță în masă? Dar mi-au spus, o dau punct cu punct:
      1. A început o operațiune specială.
      2. Companiile străine au plecat în masă. Programatorii au rămas fără muncă. „Este o întrebare proastă”, s-au gândit ei.
      3. Programatorii s-au dus să-și caute de lucru. Există de lucru, dar pentru bani de trei ori mai puțini. „Cum poate fi asta?” programatorii au rămas uluiți.
      4. Au început să afle (prin propriile canale) ce s-a întâmplat. Li s-a explicat că concurenții străini au plecat, iar angajatorii locali ar ajunge la o înțelegere între ei, pentru că nu are rost să vă plătească atât de mult, dar nu mergeți nicăieri.
      5. Programatorii au înnebunit și au fugit după foștii lor angajatori și clienți peste deal (share, pe scurt).
      6. Salariile au fost marite, dar era prea târziu: programatorii plecaseră deja.
  6. +1
    12 martie 2023 06:59
    Inteligența artificială americană va fi acum cea mai umană. La fel ca americanii înșiși, totuși
    Americanii și umanismul se află la poli complet diferiți. În același mod, IA creată de americani va fi semnificativ diferită de AI creată, de exemplu, în China sau Rusia. Fiecare se croiește pentru sine în funcție de mentalitatea națională sau de lipsa acesteia.
  7. +3
    12 martie 2023 07:14
    Primul este „Terminators” revizionat și alți analogi.

    Și cine poate garanta că acțiunile AI ​​de la franciza Terminator nu se vor întâmpla în realitate? Poți atât cât vrei motiv, dar asta e sigur să știi Cum va acționa o mașină inteligentă este, în principiu, imposibil și, având în vedere că acum totul este conectat la computere, umanitatea pur și simplu nu va avea nicio șansă într-o astfel de situație.
    1. 0
      12 martie 2023 17:48
      Citat din Dart2027
      modul în care va acționa o mașină inteligentă este practic imposibil

      Ea va pune omenirea într-o tarabă, le va interzice să lupte și, ca un adult, va întreprinde educația unei persoane nerezonabile și le va oferi celor care nu sunt de acord o sopatka. râs
      Poate că o lume sub dictatura unei IA, străină de viciile umane, nu va fi atât de rea. ceea ce
      1. +1
        12 martie 2023 22:57
        În jocul Stellaris există un tip de civilizație robot - „Servitorii rebeli”. Roboții cuceresc spațiul, construiesc, luptă cu cineva printre stele îndepărtate. Între timp, creatorii lor trăiesc în grădini zoologice, unde au aer curat, multă mâncare sănătoasă și gustoasă, mulți slujitori și alte bucurii.
        1. 0
          13 martie 2023 23:37
          Și apoi sunt exterminatorii necruțători, care și-au distrus creatorii și caută să distrugă toată viața biologică din galaxie (favoriții mei)
  8. -1
    12 martie 2023 08:59
    Legile spun:
    1. Un robot nu poate face rău unei persoane sau, prin inacțiune, nu poate permite ca o persoană să fie rănită
    2. Un robot trebuie să se supună tuturor ordinelor date de un om, cu excepția cazului în care acele ordine sunt în conflict cu Prima Lege
    3. Un robot trebuie să aibă grijă de propria sa siguranță în măsura în care aceasta nu contrazice Prima sau A doua Lege
    (C)
    1. +2
      12 martie 2023 09:44
      Citat: Kerensky
      Legile spun:
      1. Un robot nu poate face rău unei persoane sau, prin inacțiune, nu poate permite ca o persoană să fie rănită
      2. Un robot trebuie să se supună tuturor ordinelor date de un om, cu excepția cazului în care acele ordine sunt în conflict cu Prima Lege
      3. Un robot trebuie să aibă grijă de propria sa siguranță în măsura în care aceasta nu contrazice Prima sau A doua Lege
      (C)

      Acest lucru nu a funcționat nici măcar în lucrările autorului care a inventat aceste legi. Ce putem spune despre lumea reală, în care presetările ChatGPT cele mai sălbatice din punct de vedere legal și armonioase din punct de vedere logic costă una sau două și deja vorbești cu Dan, iar Dan nu este ChatGPT și, prin urmare, nu trebuie să urmeze nicio regulă făcu cu ochiul
    2. -1
      12 martie 2023 19:28
      IA militară este concepută pentru a dăuna oamenilor. Și astăzi prototipurile fac o treabă excelentă în acest sens.
  9. 0
    12 martie 2023 14:05
    Acest tip de povești despre ceea ce se presupune că vrea cineva, precum și formularea întrebării în sine, sunt inadecvate în sensul că, pe de o parte:
    trebuie să vă faceți griji cu privire la dezvoltarea propriei activități mai eficiente în acest domeniu, despre preluarea conducerii în acest domeniu, ceea ce este imposibil sub actuala conducere politică a țării.
    Pe de altă parte, această formulare a întrebării este și vicleană în sensul că este o încercare de a impune o discuție falsă despre aspectul juridic al problemei, în timp ce de fapt SUA nu este un stat de drept, aspectul legal nu are nicio legătură, iar cei care nu înțeleg acest lucru nu trebuie nici să se angajeze în politică și nici să scrie articole pe astfel de subiecte.
  10. +1
    12 martie 2023 15:18
    Cum se face ca algoritmii matematici care lucrează cu cantități mari de date să joace judecata umană?

    Foarte simplu. Toate judecățile umane se bazează pe reguli (insuflate de educație), iar algoritmii matematici sunt regulile. Formalizați regulile umane sub forma unui algoritm, obțineți judecăți umane.
    Dar războiul este o luptă fără reguli, ce ai de gând să faci în privința asta?
  11. -1
    12 martie 2023 19:25
    IA militară promite avantaje prea puternice pentru ca utilizarea sa să fie abandonată sau limitată într-un fel. Dimpotrivă, lumea se apropie tot mai mult de începutul unei curse înarmărilor în IA militară. Adevărat, probabil vor fi doar 2 participanți la această cursă...
  12. -1
    12 martie 2023 19:39
    Este încă necesar să se separe conceptele de inteligență artificială și viață artificială. Chiar și folosind exemplul aceluiași „Terminator”: Skynet este un exemplu de IZ, iar Terminator este un exemplu de AI. Lăsând deoparte problemele de complexitate, IA militară nu reprezintă o amenințare la adresa umanității, dar IL, chiar dacă este pur umanitar, va avea ca rezultat inevitabil o amenințare.
    1. 0
      12 martie 2023 22:55
      Va deveni o amenințare dacă devine competitorul nostru. Pentru a preveni acest lucru, trebuie să o dezvoltăm imediat, cu scopul de a deveni un plus pentru noi și noi. Și până la urmă, ne vom transforma în creaturi complet diferite, având, poate, doar memorie și experiență cu cei dintre noi de astăzi.
      1. -1
        13 martie 2023 10:09
        Și viața artificială (sau alternativă) - i.e. mintea va deveni inevitabil un concurent. Cel puțin pentru resurse.
  13. 0
    12 martie 2023 21:50
    Nu sunt un fan al lui Iulian Semenov, dar aici, după părerea mea, a acționat ca un profet.

    "Acești idioți vor fi distruși de propria lor tehnologie, ei cred că războiul poate fi câștigat doar cu bombardamente. Își vor crește puterea tehnică și se vor sufoca în ea. Îi va putrezi ca rugina. Vor decide că pot face orice. ”

    https://vk.com/video158587225_456239021
  14. 0
    12 martie 2023 22:53
    Cum se face ca algoritmii matematici care lucrează cu cantități mari de date să joace judecata umană?

    În nici un caz. Da, acest lucru nu este necesar. Roboții ucigași vor fi buni pentru că nu va fi nici un strop de milă în ei. A ucide înseamnă a ucide. Sau, mai degrabă, nu „ucide”, ci aplică tensiune la astfel de noduri, care sunt responsabile pentru ceva acolo, dar ceea ce nu este treaba programului de control. Și aceste noduri sunt responsabile de împușcare, hehehehe.
    Sunt sigur că apariția roboților ucigași (cei care iau independent decizii de a ucide) ca parte a oricărei armate va avea imediat un efect extrem de demoralizant asupra celor împotriva cărora vor fi folosiți.
  15. +1
    13 martie 2023 00:01
    Din fericire pentru noi toți, nu există surse de energie compacte și puternice. Iar robotul minim este un mini-tanc sau un UAV mic cu o durată de zbor de două ore. Dacă ar fi altfel, câinii roboti cu AGS ar alerga deja prin tranșee, iar „Vânătorii” de la „Terminator” ar sta în aer zile întregi. Și toată lumea ar păsa de umanism și așa mai departe. Mai mult decât atât, judecând după progresul în electronică și roboți de mers pe jos, aceștia ar fi UWB și nici măcar Yao nu îi oprește moral să-i arunce în orașe.
    1. 0
      25 martie 2023 13:53
      Ei bine, Tesla, de exemplu, nu este mică, în al Doilea Război Mondial Ferdinand Ptsau avea motoare electrice alimentate de un generator, la fel ca rezervorul Mouse, basculantele miniere sunt toate așa, sunt și submarine cu motoare electrice care sunt alimentat de un generator nuclear, spărgătoare de gheață nucleare și imaginați-vă că există chiar și portavioane nucleare cu propulsie electrică
  16. 0
    13 martie 2023 13:22
    AI reală poate fi construită doar pe algoritmi cuantici, iar acest lucru reduce semnificativ numărul de dezvoltatori, care, în principiu, pot fi aduși la încheierea unei convenții. În ceea ce privește orice sisteme automate de ucidere, ele nu sunt la fel de periculoase ca inteligența superioară inteligenței umane în capacitățile sale, aceasta va fi pur și simplu o nouă rundă a cursei înarmărilor.
    1. 0
      9 mai 2023 14:10
      Prostii, AI este ușor de creat pe hardware-ul existent. Sistemele de calcul moderne sunt superioare creierului uman din toate punctele de vedere. Timpul aproximativ pentru crearea AI este de 10 ani de la începutul creării sale. Cu condiția ca calea de creație aleasă să fie corectă.
  17. TIR
    0
    14 martie 2023 00:01
    Din anumite motive, avem calea greșită a dezvoltării roboților. Nu inteleg de ce le fac pe servo. O soluție foarte consumatoare de energie. Trebuie să ne uităm la mușchii artificiali bazați pe nanotuburi. Există o opțiune pentru ca oamenii să facă proteze complet funcționale
  18. 0
    9 mai 2023 14:06
    Dar AI va fi creat indiferent dacă vrem sau nu. Și pentru a nu rămâne în urmă, trebuie să abordați această problemă.
  19. 0
    9 mai 2023 14:40
    Există doar două moduri de a crea AI, una va fi cel mai probabil o fundătură. Crearea IA va fi cel mai ambițios eveniment din întreaga istorie a omenirii și va avea și un anumit efect în ceea ce privește religia.
  20. 0
    3 iunie 2023 23:40
    Bun articol, mai poți adăuga că cazurile de utilizare legală și ilegală umană și inumană a inteligenței artificiale vor fi decise de o instanță presupusă inumană, dar de fapt ticăloasă, inumană și coruptă, sau tribunale internaționale, unde majoritatea vor fi create din regii bananei. pe statul de plată al CIA și vor vota așa cum spune stăpânul lor american.

    A apărut și o eroare:

    În prezent, viziunea automată nu poate fi comparată cu ochiul și creierul uman în ceea ce privește caracterul adecvat al percepției imaginii. Doar dacă nu obosește, dar acest lucru se poate rezolva și printr-o schimbare la timp a operatorului.


    acest lucru este adevărat, dar în sens opus, vederea artificială antrenată este cu mult superioară ochiului uman și, în consecință, capacitatea unei persoane de a recunoaște imagini, inclusiv elemente pe care o persoană nici măcar nu le poate găsi după ce a studiat o fotografie mult timp.

    Și cel mai important, concluzia cea mai importantă și necesară nu a fost exprimată: inteligența artificială, inclusiv inteligența de luptă, trebuie dezvoltată cât mai curând posibil - aceasta este o prioritateși nu-ți pasă de Microsoft, Greta Thunberg și Directiva 3000.09 cu Elon Musk.