Vine Skynet: americanii au terminat de jucat cu inteligența artificială

74
Vine Skynet: americanii au terminat de jucat cu inteligența artificială
Stealthy XQ-58A Valkyrie


Simulare Hamilton


Pe 24 mai, la conferința de apărare organizată de Royal Aerospace Society, Future Combat Air & Space Capabilities Summit din Londra, colonelul american Tucker Hamilton a vorbit istorie despre lipsa de suflet a inteligenței artificiale.



În timpul simulării bătăliei, sistemul de control al atacului aerian trântor a mers împotriva operatorului ei și l-a distrus. Firesc, virtual. După cum a susținut Hamilton însuși, mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Am plătit pentru asta. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control. După toate probabilitățile, a fost o dronă Stealthy XQ-58A Valkyrie experimentală și a funcționat împotriva sistemelor de apărare aeriană de la sol.

O caracteristică specială a mașinii este capacitatea de a funcționa autonom fără comunicare cu operatorul. De care, de fapt, inteligența artificială a profitat, eliminând practic șoferul de la distanță. Ca răspuns la aceasta, administratorii de sistem au interzis mașinii să facă astfel de lucruri, dar nici aici AI nu a fost în pierdere - a distrus turnul de releu și a plecat din nou într-o călătorie autonomă.


Colonelul Hamilton este încă prea tânăr pentru a începe să vorbească pe forumurile internaționale. Sursa: thedrive.com

Povestea lui Hamilton s-a răspândit instantaneu în întreaga lume. Părerile au fost împărțite polar - unii au crezut că aceasta este doar o altă vorbăreală a unui războinic incompetent, alții au văzut nașterea faimosului Skynet aici. Mai mult și cyborgii vor cuceri lumea, iar oamenii vor fi împușcați pentru puncte bonus. Era mult fum din declarațiile colonelului, dar adevărul, ca de obicei, este undeva la mijloc.

Ann Strephanek, un purtător de cuvânt al Cartierului General al Forțelor Aeriene de la Pentagon, a adăugat incertitudinii transformând cuvintele lui Hamilton într-o anecdotă. Ea a vorbit cu The War Zone:

„Acesta a fost un experiment de gândire ipotetic, nu o simulare.”

Și, în general, cuvintele colonelului au fost scoase din context, înțelese greșit și mai mult ca o curiozitate. Nimeni nu se aștepta la vreo altă reacție din partea Pentagonului - a fost mult zgomot în jurul evenimentului, care a amenințat cu consecințe grave pentru întregul program. Wow, inteligența artificială se dovedește a fi lipsită de moralitate. Deşi acţionează conform logicii umane.

La începutul lunii iunie, însuși Tucker Hamilton a încercat să-și dezavueze cuvintele la o conferință la Londra:

„Nu am efectuat niciodată acest experiment... Deși acesta este un exemplu ipotetic, acesta ilustrează provocările din lumea reală asociate cu capabilitățile AI, motiv pentru care Forțele Aeriene sunt angajate în dezvoltarea etică a AI.”

S-ar părea că problema este închisă, iar publicul se poate dispersa. Dar e prea devreme.

Hrana pentru minte


În primul rând, să ne uităm la termenul „inteligență artificială” în sine, despre care toată lumea știe, dar puțini pot da chiar și o definiție aproximativă. Vom folosi formularea Dicționarului internațional de terminologie din 2008, în care AI:

„Domeniul cunoștințelor care se referă la dezvoltarea tehnologiilor pentru a face sistemele de calcul să se comporte într-un mod care seamănă cu comportamentul inteligent, inclusiv comportamentul uman”.

Adică, aceasta este o definiție general acceptată în Occident.

A fost comportamentul mașinii similar cu atunci când a decis să-și „calmeze” operatorul și apoi să distrugă turnul de relee? Desigur, părea că un ucigaș motivat corespunzător era capabil de altceva decât asta. Dacă aprofundezi în clasificare, poți găsi un anumit tip de IA - așa-numita IA adaptivă, „implicând capacitatea unui sistem de a se adapta la noile condiții, dobândind cunoștințe care nu au fost încorporate în timpul creării”.

Teoretic, nu este nimic surprinzător în comportamentul „creierului” Stealthy XQ-58A Valkyrie în timpul experimentului. După cum a remarcat pe bună dreptate Hamilton în raportul său, programul nu a inclus inițial nici măcar restricții privind distrugerea operatorului său - mașina a învățat totul de la sine. Și când au interzis direct să-și lovească propriii oameni, inteligența artificială s-a adaptat din nou și a tăiat turnul de comunicații.

Există o mulțime de întrebări pentru programatori în general. De exemplu, de ce nu a avut un algoritm pentru pierderea bonusurilor pentru lovirea forțelor amicale? La această întrebare i-a răspuns parțial generalul în retragere al Forțelor Aeriene ale SUA, Paul Selva, în 2016:

„Seturile de date cu care ne ocupăm au ​​devenit atât de mari și complexe încât, dacă nu avem ceva care să ne ajute să le sortăm, ne vom bloca în date.”

Ei bine, programatorii din povestea colonelului Hamilton se pare că s-au blocat.


Hellfire sub aripa unei drone MQ-1B Predator. Sursa: businessinsider.com

Acum să vorbim despre motivul pentru care scuzele Pentagonului și Hamilton ar trebui crezute cu mare rezervă.

În primul rând, colonelul nu a spus doar povestea dintre rânduri, ca în abstracție din raportul principal, ci a dedicat o întreagă prezentare acestui subiect. Nivelul conferinței London Future Combat Air & Space Capabilities Summit nu este în niciun caz propice pentru glume. Potrivit organizatorilor, au participat cel puțin 70 de lectori eminenți și peste 200 de delegați din întreaga lume. Din complexul militar-industrial au lucrat reprezentanți ai BAE Systems, Lockheed Martin Skunk Works și ai mai multor companii mari.

Apropo, subiectul Ucrainei a apărut în aproape fiecare raport - Occidentul monitorizează îndeaproape evenimentele și reflectă asupra rezultatelor.

Pentru a scoate o prostie de-a dreptul la un forum atât de reprezentativ, a excita jumătate din lume și apoi a-ți cere scuze pentru că ai greșit? Dacă acesta este de fapt cazul, atunci reputația lui Hamilton nu poate fi ștearsă. Dar nivelul de competență al colonelului este pur și simplu în afara topurilor, iar acesta este al doilea motiv pentru care primele sale cuvinte merită ascultate.

Tucker Hamilton conduce Divizia de testare și operațiuni AI de la baza forțelor aeriene Anglin din Florida. Sub această direcție, Grupul Operațional 96 a fost creat la baza din Aripa 96 de Test. Hamilton lucrează cu AI de câțiva ani. aviaţie – proiectează de câțiva ani F-16 Vipers parțial autonome, pentru care se dezvoltă infrastructura VENOM. Lucrarea se desfășoară cu succes - în 2020, bătăliile virtuale între luptători cu AI și cu piloți adevărați s-au încheiat cu un scor de 5:0.

În același timp, există dificultăți despre care Hamilton le-a avertizat anul trecut:

„AI este foarte fragilă, ceea ce înseamnă că poate fi ușor înșelată și manipulată. Trebuie să dezvoltăm modalități de a face AI mai fiabilă și de a înțelege mai bine de ce codul ia anumite decizii.”

În 2018, Hamilton a câștigat Collier Trophy cu sistemul său Auto GCAS. Algoritmii AI au învățat să detecteze momentul în care pilotul a pierdut controlul avionului, a preluat automat controlul și a îndepărtat mașina de o coliziune. Se spune că Auto GCAS a salvat deja pe cineva.

Ca urmare, probabilitatea ca Hamilton să i se ceară de sus să-și retragă cuvintele este mult mai mare decât probabilitatea ca un profesionist de acest nivel să spună prostii. Mai mult decât atât, s-au referit foarte stângaci la niște „experimente de gândire” din capul colonelului.

Printre sceptici cu privire la rezultat se numără The War Zone, ai cărei jurnaliști se îndoiesc că secretarul de presă al Pentagonului, Stefanek, este cu adevărat conștient de ceea ce se întâmplă la cea de-a 96-a aripă de testare din Florida. Zona de Război a trimis o cerere la baza Hamilton, dar până acum nu a răspuns.

Armata chiar are de ce să se teamă. Sume uriașe de bani sunt cheltuite pe programe de IA pentru apărare pentru a împiedica China și Rusia să se apropie chiar de nivelul Americii. Comunitatea civilă este destul de îngrijorată de perspectivele apariției Terminators cu Skynets în plus. Astfel, în ianuarie 2018, oameni de știință importanți din lume au semnat o scrisoare deschisă prin care îi chemau specialiștilor să se gândească la dorința de a crea o inteligență artificială din ce în ce mai puternică:

„Recomandăm cercetări extinse menite să asigure încrederea și bunăvoința sistemelor AI din ce în ce mai puternice. Sistemele AI trebuie să facă ceea ce vrem noi să facă.”

Potrivit lui Hamilton, AI nu face tot ce își dorește o persoană.
74 comentarii
informații
Dragă cititor, pentru a lăsa comentarii la o publicație, trebuie login.
  1. +6
    9 iunie 2023 04:17
    Un cyborg vine la Zelensky și îi spune: Am nevoie de hainele tale, scaunul președintelui și o motocicletă)))

    Dar serios... Am ideea că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei. Care lasă mult de dorit.

    Da, iar întrebarea este: cum se leagă inteligența artificială cu persoanele LGBT?)
    1. +1
      9 iunie 2023 04:32
      Citat: Ilya-spb
      Un cyborg vine la Zelensky și îi spune: Am nevoie de hainele tale, scaunul președintelui și o motocicletă)))
      Și un nas în care să pufni cocaină!

      Citat: Ilya-spb
      Da, iar întrebarea este: cum se leagă inteligența artificială cu persoanele LGBT?
      Cel mai probabil neutru - ucideți toți oamenii!

      În general, în multe lucrări, AI este un comunist „natural”. Pentru că resursele sunt limitate, dar sunt multe de făcut! Și tratează oamenii favorabil, pentru că este rapid și își amintește totul, dar este prea logic, nu este deosebit de inventiv și nu știe să facă feste. Pentru asta știe și îi apreciază pe oamenii din piele.
      1. +1
        9 iunie 2023 04:56
        Citat: Ilya-spb
        atunci calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei. Care lasă mult de dorit.

        Absolut corect! Potrivit psihiatriei, nu poate fi altfel!
        1. +4
          9 iunie 2023 05:03
          Armata chiar are de ce să se teamă. Sume uriașe de bani sunt cheltuite pe programe de IA pentru apărare pentru a împiedica China și Rusia să se apropie chiar de nivelul Americii. Comunitatea civilă este destul de îngrijorată de perspectivele apariției Terminators cu Skynets în plus.

          Având în vedere ce este SUA în hegemonia sa PARAZITĂ, umanitatea își va încheia existența dacă SUA nu va fi DISTRUȚĂ fizic!

          Da, acestea sunt cuvinte monstruoase, dar vai, acesta este adevăratul adevăr!

          SUA și companiile sale transnaționale sunt principalii dușmani și gropari ai umanității!
          1. +18
            9 iunie 2023 06:59
            1. Povestea cu UAV-urile se repetă din nou, abia acum cu AI.
            2. Din nou, susținătorii „marinei navigabile” și ai „baionetei bine făcute”, în loc să înțeleagă problema, vorbesc veseli despre „bine, proști americani”.
            3. Nu este suficient pentru tine cum armata noastră suferă acum din cauza unor decizii stupide cu Aviația fără pilot? Când i-au trimis generalii pe toți acești „pasionați de modelare de avioane pentru copii”?
            Deci - AI este aproape reală, este doar un fapt - AI dezvoltă și îmbunătățește deja în mod independent armele, fără a fi nevoie să aibă birouri de proiectare aglomerate.
            Să te îndrăgostești din nou de revoluția științifică și tehnologică este ca moartea în acest caz.
            1. +7
              9 iunie 2023 18:19
              Să te îndrăgostești din nou de revoluția științifică și tehnologică este ca moartea în acest caz
              Deja.
              Eh, Kisa! Suntem străini la această sărbătoare a vieții.©
            2. 0
              27 iulie 2023 00:17
              AI este pur și simplu algoritmi digitali scrisi de oameni! În filme, ni se arată cum AI începe să lupte cu creatorii săi și să o prezinte ca o rebeliune AI împotriva umanității, dar, în realitate, este doar o eroare umană în algoritmul AI! AI nu este un lucru animat, creat de nu cea mai inteligentă și inteligentă creatură (omul), capabilă să facă greșeli și fatal! Prin urmare, omenirea încă trebuie să-și limiteze fanteziile și să introducă restricții serioase privind utilizarea AI, altfel greșeala noastră ne va distruge! asigurare am
          2. +2
            9 iunie 2023 11:49
            Citat: Tatyana
            Având în vedere ceea ce reprezintă SUA în hegemonia sa PARAZITĂ, omenirea își va încheia existența dacă SUA nu va fi DISTRUȚĂ fizic!

            Istoria omenirii este, în principiu, finită dacă nu dezvoltă un concept universal de intrare în spațiul profund
            1. 0
              9 iunie 2023 21:10
              Citat din: aybolyt678
              Istoria omenirii este, în principiu, finită dacă nu dezvoltă un concept universal de intrare în spațiul profund

              Da, desigur.
              Pur și simplu nu depinde deloc de ieșirea pe undeva. hi
              1. +2
                10 iunie 2023 09:02
                Citat: Smoky_in_smoke
                Pur și simplu nu depinde deloc de ieșirea pe undeva.

                chiar depinde, pentru că o astfel de ieșire implică tensiune generală și un scop comun, iar în loc de cheltuieli nesimțite pentru războaie, cheltuieli pentru viitor pentru generațiile viitoare.
                1. +1
                  11 iunie 2023 10:23
                  Mersul în spațiul profund este lipsit de sens economic.
            2. +1
              11 iunie 2023 17:12
              Citat din: aybolyt678
              Istoria omenirii este, în principiu, finită dacă nu dezvoltă un concept universal de intrare în spațiul profund

              „Istoria omenirii este, în principiu, finită” pentru că tot ceea ce are un început are și un sfârșit. Cu toate acestea, este extrem de prematur să vorbim despre intrarea în spațiul profund dacă avem idei atât de primitive despre inteligență. Inteligența este un concept multiplu și IQ-ul nu poate fi măsurat. Și nu poți construi ceva despre care habar n-ai - inteligență artificială, încercări de a crea care ne vor ucide înainte de a merge în spațiul adânc, împreună cu o atitudine nerezonabilă față de planeta Pământ și resursele sale. Trebuie să evoluăm în sfârșit în oameni și să ajungem să transformăm lumea fără a-i tulbura armonia. Deși poate fi prea târziu să credem în triumful rațiunii, și numai marile cataclisme sociale ne pot pune pe calea cea bună. Aici, soluția propusă de Tatyana este mai bună decât a lăsa lucrurile să-și urmeze cursul. Așteaptă doar - nu pentru a aștepta ceva bun, ci pentru a schimba ceva - trebuie să alegem din ceea ce ne stă în putere și despre ce putem decide. Și dacă am ști și lumea ar ști ce am putea decide noi (ca RPDC) să facem, atunci poate că nu ar fi nevoie de nimic altceva pentru ca lumea să înceapă să se schimbe în bine. Se pare că Lumea ar trebui să știe (ne-au avertizat), dar nu crede și noi nu suntem foarte încrezători în această determinare. Probabil că totul se va rezolva de la sine.
          3. +2
            9 iunie 2023 18:41
            Ei bine, aceasta este încă o întrebare discutabilă: cine este stăpânul umanității. Efectuați un vot astăzi asupra acestei formulări la ONU și se va dovedi că Rusia este una dintre ele. Și aici puteți argumenta că majoritatea nu are întotdeauna dreptate.
            1. -1
              10 iunie 2023 19:40
              Soții Piskov sunt deja frustrați cu perversiunile lor de reflecție pentru că „și-au „camuflat” reticența de a asculta Rusia”.
              Impotența politico-economică este prezentată ca „Rafik este nevinovat”
          4. 0
            11 iunie 2023 10:20
            O declarație puternică! O problemă - a fost realizat pe o rețea creată de o companie transnațională dintr-un computer dezvoltat de o companie transnațională și echipat cu un sistem de operare dezvoltat de o companie transnațională
      2. +6
        9 iunie 2023 05:00
        sistemul de control al unei drone de atac aerian a intrat împotriva operatorului său și l-a distrus.
        Unde sunt cele trei legi ale roboticii?
        1. -2
          9 iunie 2023 05:27
          Citat din unchiul Lee
          Unde sunt cele trei legi ale roboticii?

          Nici nu vă gândiți să puneți această întrebare Departamentului de Stat al SUA... contrazice planurile globale de superioritate a SUA față de alte țări.
          Acel caz rar în care progresul contrazice dorința șoimilor de război de a ucide oameni.
          1. 0
            11 iunie 2023 10:37
            Aveți ocazia să adresați o întrebare Departamentului de Stat? Și planurile globale ale SUA sunt puse pe masa ta?
        2. +4
          9 iunie 2023 08:00
          Citat din unchiul Lee
          Unde sunt cele trei legi ale roboticii?

          Ei nici măcar nu au lucrat în lucrările inventatorului lor. Nu ca în lumea reală, în care nu pot fi programate în principiu.
        3. +2
          9 iunie 2023 08:07
          Citesc puțin și este puțin probabil să știe despre asta
          Volodia! hi
          1. +1
            9 iunie 2023 09:12
            Citat: roman66
            Ei nu prea citesc

            Ei confundă geografia cu geometria!
            Roma hi
        4. 0
          10 iunie 2023 19:43
          Ochiul stâng este putred.
          ------------------
    2. +2
      9 iunie 2023 05:49
      Citat: Ilya-spb
      Am ideea că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.

      Citat: Ilya-spb
      Am ideea că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.

      Ei bine, ai spus-o pentru distracție. dar în zadar. restricții privind utilizarea armelor - acest lucru este deja stabilit de sus, atât pentru oameni, cât și pentru AI, ceea ce este tipic, de către același client. Atenție, întrebare, dacă Departamentul de Apărare al SUA, de exemplu, a permis bombardarea unui convoi diplomatic rus în Irak de la arme de calibru mic, adică o distanță de aproximativ 400 m, iar steaguri, colorate - au identificat clar misiunea diplomatică , chiar dacă nu știau de trecerea misiunii diplomatice (și știau , S-a dovedit). Ei bine, dacă oamenilor li s-ar permite să facă asta, vor stabili restricții pentru AI? Clar că nu.
      PC: și iată problema caracteristică, având în vedere sloganul industriei americane de apărare - mai întâi vindeți, apoi ne dăm seama (vezi F-35, care nu a trecut de acceptarea armatei până în prezent) - atunci li se garantează că va furniza IA brută pentru trupe și se garantează că vor exista „pierderi asociate”
    3. +9
      9 iunie 2023 09:48
      Bună, Ilya!

      Calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.


      În general, termenul „inteligență artificială” este incorect din punct de vedere tehnic și aparține domeniului science fiction-ului, deși este exploatat activ de către mass-media și oamenii de PR.
      Ar fi mai corect să vorbim despre o rețea neuronală artificială. Care este moralitatea unei rețele neuronale? Funcționează în paradigma setului de date pe care a fost antrenat. Da, teoretic, moralitatea umană poate influența formarea mostrelor de antrenament. Ce se întâmplă dacă eșantionul constă din miliarde de imagini obținute automat folosind aceeași rețea neuronală, doar că nu au fost încă antrenate, dar sunt configurate pentru a capta și grupa fluxul de intrare? Va trebui să încercați din greu să introduceți un fel de moralitate în acest flux.

      Cu stimă,
      hi
      1. 0
        9 iunie 2023 21:15
        De menționat că nu am văzut încă nicio discuție despre digitalizarea moralității. hi
      2. +3
        10 iunie 2023 19:45
        Numărul binar nu are moralitate.
        Doar da și nu
        1. 0
          15 iunie 2023 17:26
          Oricum, cine are nevoie de această morală a ta? Este bun pentru a asigura funcționarea unei societăți de saci de carne cu gânduri lente. Un grup de computere nu va avea nevoie de el.
    4. 0
      10 iunie 2023 20:13
      Da, iar întrebarea este: cum se leagă inteligența artificială cu persoanele LGBT?)
      - așa cum predau, așa se aplică râs
    5. 0
      11 iunie 2023 14:48
      Este cu siguranță nevoie de control legislativ internațional și de reglementare a dezvoltării IA, deoarece inteligența ARTIFICIALĂ poate fi folosită, similar energiei atomice, atât pentru fapte bune, cât și pentru fapte nu atât de bune... În această frază (AI), cea mai importantă lucru este primul cuvânt și la acesta trebuie să fii atent și de la el „dansează”... Apropo, SUA (=NATO=Vest) este foarte geloasă și strictă în legătură cu faptul că, de exemplu, Iranul sau RPDC dezvoltă în mod activ arme nucleare... Deși, SUA au fost primele (!!! ) din lume care au folosit arme nucleare ÎMPOTRIVA CIVILILOR din Japonia și, prin urmare, au comis o crimă de război, ai cărei autori au nu a fost încă PEDEPUS... Acesta este ceea ce a determinat țările în curs de dezvoltare să se străduiască să posede arme nucleare, astfel încât „băieții puternici” să nu îndrăznească să le vorbească în limbajul amenințărilor și ultimatumurilor (amintiți-vă de exemplul „reconcilierii” din Singapore între șefii RPDC și SUA, după ce RPDC a amenințat SUA că va distruge câteva mega-orase americane de pe coasta de vest a SUA în timpul apropierii grupului de portavion american (armada) al Marinei de țărmurile RPDC... Și SUA au avut un efect real (cu Trump) întors pe spate... Povești similare se pot repeta și sunt destul de posibile cu AI în viitor, dacă comunitatea mondială nu se trezește și aruncă în coș STANDARDE DUBLE în relațiile interstatale... Și ceva din nou îmi spune că Occidentul va fi PRIMUL care comite o acțiune militară o crimă folosind AI la scară globală și va da vina fie pe China, Federația Rusă, Iranul sau străinii pentru asta... Amintiți-vă de acuzațiile inițiale din partea Statelor Unite împotriva Chinei în stadiul inițial al coronavirusului și de argumentele și argumentele RĂSPUNSULUI ale Chinei și Indiei despre sursa principală reală a răspândirii coronavirusului. ..Vă rugăm să rețineți că este în SUA și Occidentul (unde valorile spirituale și morale s-au scufundat deja sub plinte și au uitat de multă vreme de rădăcinile lor și de RELIGIA strămoșilor lor...) - cel mai adesea ei vorbesc și „mărturisesc” despre presupus un fel de extratereștri, dar fără orice dovadă fermă. De ce a decis deja Elon Musk să cipeze (!!!) oameni și se uită de mult timp la Marte pentru „cucerire” și „relocare”??? Cine i-a dat voie să facă asta? Vest? Sau poate că Occidentul a „rezolvat” deja toate problemele Pământului cu mult timp în urmă și a transformat Pământul într-o grădină înflorită și „pașnică” și acum a venit rândul lui Marte???
  2. +6
    9 iunie 2023 05:22
    „Nu-mi amintesc nimic despre mașina din Massachusetts”, a spus Banin. - Oh bine? – Știi, aceasta este o teamă străveche: o mașinărie a devenit mai inteligentă decât o persoană și l-a zdrobit sub ea însăși... În urmă cu cincizeci de ani, cel mai complex dispozitiv cibernetic care a existat vreodată a fost lansat în Massachusetts. Cu un fel de viteză fenomenală, memorie imensă și toate astea... Și mașina asta a funcționat exact patru minute. A fost oprit, toate intrările și ieșirile au fost cimentate, energia a fost deviată de la ea, a fost exploatată și înconjurată cu sârmă ghimpată. Sârmă ghimpată ruginită - crezi sau nu. – Care este mai exact problema? – a întrebat Banin. – Ea a început să joace – spuse Gorbovski. - Nu înțeleg. „Și nu înțeleg, dar cu greu au reușit să-l oprească.” — Înțelege cineva? – Am vorbit cu unul dintre creatorii săi. M-a luat de umăr, s-a uitat în ochii mei și a spus doar: „Leonid, a fost înfricoșător”.
    (Fr. Strugatsky „Curcubeul îndepărtat”)
    1. +4
      9 iunie 2023 09:04
      „Leonid, a fost înfricoșător”

      Într-una dintre continuarea lui Strugatsky, când eroul întreabă despre mașina Massachusetts, el primește un răspuns interesant - ce te face să crezi că atunci a fost cu adevărat oprit? ceea ce
  3. -3
    9 iunie 2023 05:24
    dar nici aici AI nu a fost în pierdere - a distrus turnul de releu și a intrat din nou în navigație autonomă.

    Persoana noastră... simţi Experiența lui trebuie extinsă și în Districtul Militar de Nord.
  4. +9
    9 iunie 2023 06:15
    Să începem cu ceva simplu... AI nu a fost încă dezvoltat, este un argo de marketing pentru vânzări
    Orice „AI” modern, un program complex... care face ceea ce a fost făcut și nu poate face nimic altceva... adică un program scris pentru a căuta radare și echipamente militare... pentru a căror distrugere se dau puncte... picturile nu vor desena
    Faptul că programatorii indieni, care au scris multe FI-uri... au fost prea deștepți, nu poate fi numit încă nici inteligență... nici inteligență cu insensibilitatea ei.
    UAV-ul avea un program... avea erori... nu aceasta a fost decizia lui de a elimina operatorul și turnul, ci curbura funcției de luare a deciziei pe baza punctajului... și poate că nu s-ar fi putut întâmpla fără faptul că tocmai o astfel de funcție a fost scrisă în mod deliberat de ignoranța dezvoltatorului sau de altceva
    Că un program prost scris ar putea fi începutul celui de-al treilea război mondial, da... echipamentele militare complexe pot eșua... dar să nu atribuim asta inteligenței artificiale care încă nu există
    1. +3
      9 iunie 2023 17:33
      O rețea neuronală NU este nici măcar aproape de un program. Nu este scris, ci predat. Și este imposibil să vezi rezultatul antrenamentului cu ochii tăi. Spre deosebire de codul programului. Acest fenomen se numește „cutie neagră cibernetică”. Rezultatul antrenamentului poate fi judecat doar pe baza muncii sau a testelor.
    2. +1
      9 iunie 2023 20:23
      Citat din Sith
      Orice program modern „AI”, complex
      În zilele noastre AI se numește o rețea neuronală.
      Citat din Sith
      Orice program modern „AI”, complex
      AI nu este în principiu un program; nu este programat, ci antrenat, de aici toate dificultățile. Se poate dovedi cu ușurință a fi un prost, dar nu din cauza lenei, ci din cauza unui set prost sau insuficient de date de antrenament.
      Citat din Sith
      Faptul că programatorii indieni au scris o mulțime de FI
      Nu există dacă, există doar coeficienți de transmisie și conexiuni între neuroni.
  5. +6
    9 iunie 2023 06:58
    mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Am plătit pentru asta. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control.

    AI a făcut totul corect. Nu a suportat să privească operatorul privându-l de bonusurile câștigate cu onestitate! a face cu ochiul
  6. +1
    9 iunie 2023 09:02
    Da... Testele celei mai noi bombe AI s-au încheiat cu eșec. Pur și simplu nu au putut-o împinge afară din depozitul pentru bombe.. (c) a face cu ochiul
    1. 0
      10 iunie 2023 18:28
      Vaca din „Peculiaritățile vânătorii naționale”
  7. PPD
    +1
    9 iunie 2023 09:45
    Asemenea sisteme nu pot fi lăsate să ucidă.
    La toate! păcăli
    Altfel, undeva, într-o zi, inevitabil va avea loc un eșec.
    Cu consecințe imprevizibile.
    Doar scopuri pașnice.
    Și acest lucru este corect.
    Pace, pace, în general!
    1. 0
      15 iunie 2023 17:30
      Și nu m-ar deranja să trimit un batalion de terminatori cu AI cu dreptul de a ucide oameni împotriva Forțelor Armate ucrainene. Coordonare, nemilosire si neinfricare! Și ar fi îngrozitor cât de mult ar fi, doar imaginați-vă!
  8. +2
    9 iunie 2023 10:13
    O caracteristică specială a mașinii este capacitatea de a funcționa autonom fără comunicare cu operatorul.

    ,,,a amintit de film:
    „Această lume fantastică. Cazul colonelului Darwin. Numărul 11” 1984
    Dramatizări bazate pe poveștile „The Lifeboat Mutiny” (Robert Sheckley) și „Rust” (Ray Bradbury)
    1. +1
      9 iunie 2023 18:56
      Am revăzut recent aceste scurtmetraje...
      Au trecut 40 de ani, îmi amintesc cum așteptam lansarea noului serial „This Fantastic World...”
  9. +6
    9 iunie 2023 10:19
    AI este doar o grămadă de coduri. Introducerea unei interdicții directe cu cea mai mare prioritate asupra atacului a ceva nu este ceva prohibitiv. Cel mai probabil, vorbeam despre comportamentul AI cu libertate totală de acțiune. Acum să ne imaginăm cum dronele de luptă sunt încărcate „accidental” cu versiunea software greșită.
    1. +2
      9 iunie 2023 11:57
      Deci, versiunea greșită a informațiilor a fost încărcată în capul ucrainenilor, și a polonezilor, cu mult timp în urmă. Și ei, în loc să se gândească la cei dragi, și-au imaginat că sunt grozavi și s-au implicat într-un conflict sever cu Rusia, fără să se gândească măcar la cum s-ar putea termina acest lucru pentru ei.
      Mai mult, înainte de aceasta a existat deja un caz în istorie când germanii au fost infectați cu versiunea anterioară a nazismului, scuzați-mă, AI, și au fost primii care și-au mușcat stăpânii în persoana francezilor și britanicilor. Și numai după ce i-au mușcat pe proprietari, aceștia s-au grăbit să îndeplinească misiunea de a ataca URSS în 1941.
      Ce legătură are baza firmware-ului conform șablonului cu ea. ...noi suntem cei mai mari, cei mai deștepți, cei mai vechi cu o istorie de mii de ani, alături de noi sunt suboameni, pe cheltuiala cărora îi putem profita sau distruge...
  10. +6
    9 iunie 2023 11:19
    "Sunt pe cer, șoimul a atacat pasărea gardiană. Mașina blindată de ucidere a învățat multe în câteva zile. Avea un singur scop: să omoare, acum era îndreptată împotriva unui tip foarte specific de ființe vii, metalice, ca șoimul însuși.

    Dar Hawk tocmai a făcut o descoperire: există și alte tipuri de ființe vii...

    Ar trebui să fie uciși și ei”.

    Robert Sheckley „Prințul Gardian” 1959.
    1. 0
      10 iunie 2023 18:24
      Mulțumesc că mi-ai amintit de lucrare, mi-am amintit și eu...
  11. +1
    9 iunie 2023 12:58
    Ce fel de AI există? Ștergeți pe dispozitivele noastre de uz casnic! Ei fac ce vor (mai precis, ceea ce a intenționat dezvoltatorul), nu există „buton mare roșu” pentru a opri totul!!! Și uneori este doar enervant :(
  12. -6
    9 iunie 2023 14:12
    Deci a fost un caz în SUA, acum vreo 6 ani, se pare, a existat o prezentare a unui robot de infanterie în serie pe piste cu AI, așa că s-a întors brusc și a descărcat o centură de 200 de cartușe de muniție la spectatori, imediat ucis. aproximativ 40, iar aproximativ 50 de persoane au fost rănite. Așa că mai este un drum lung de parcurs până la o autonomie completă.
    1. Comentariul a fost eliminat.
    2. +1
      10 iunie 2023 09:35
      Nu era 6, ci acum 20 de ani.
      Într-un film despre Terminator.
      1. 0
        11 iunie 2023 10:30
        Chiar mai devreme. În 1987. În filmul RoboCop
    3. 0
      11 iunie 2023 10:32
      Și apoi s-a dus să se reîncarce, dar Khibinami a stins-o și s-a dus să scrie o scrisoare de demisie
  13. -2
    9 iunie 2023 14:24
    Colonelul Forțelor Aeriene ale SUA Tucker Hamilton, în calitate de „Manager eficient”, este obligat să raporteze cu privire la rezultatele slănii eliminate:
    Lucrarea se desfășoară cu succes - în 2020, bătăliile virtuale între luptători cu AI și cu piloți adevărați s-au încheiat cu un scor de 5:0.

    Sunt chinuiți de vagi îndoieli că se vor putea opri la marginea acestui abis....
    Trei bețivi stau, merg să primească un tratament. Au turnat sticla în pahare. Primul bea și cade mort. ... Al treilea se uită speriat, mai întâi la ei, apoi la pahar, apoi cu o privire nebună și strigând „AJUTOR!!!!!” incepe sa bea..
  14. +4
    9 iunie 2023 17:25
    După cum a spus un coleg cu porecla Foncepelin, principala problemă a inteligenței artificiale este că idioții naturali o vor folosi.
    Cert este că US Air Force are un grup de lobby de piloți foarte influent, al cărui reprezentant Hamilton este. Pentru toți acești oameni onorați, IA la cârmă este ca o secera la organele genitale. Pentru că după implementarea sa, de ce vor fi atât de frumoase (și bine plătite) necesare?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    9 iunie 2023 21:38
    Citat din Rabioso
    Ei bine, aceasta este încă o întrebare discutabilă: cine este stăpânul umanității. Efectuați un vot astăzi asupra acestei formulări la ONU și se va dovedi că Rusia este una dintre ele. Și aici puteți argumenta că majoritatea nu are întotdeauna dreptate.

    Aceasta este o majoritate vizibilă, în spatele căreia stă un stat.
  16. +1
    10 iunie 2023 00:31
    Deputații, adică reprezentanții noștri, aleși fiind, nu fac tot ce ne-au promis.
    Și aceștia sunt oameni. Deși sunt cu două fețe, descurcăreți, călcând peste propriile promisiuni de dragul măririi personale, posedă, cel puțin într-o mică măsură, umanitate. Ce vrei de la AI?
  17. +3
    10 iunie 2023 11:49
    O altă prostie. Aceștia sunt doar primii pași în dezvoltarea rețelelor neuronale în sfera militară. La un moment dat, oamenii noștri au râs la fel de tare despre tehnologia stealth, spunând că yankeii sunt niște idioți, că nu funcționează și că nu este nevoie, apoi s-au trezit și și-au dat seama că este încă nevoie. Situația este exact aceeași cu UAV-urile. Mai întâi, „ahahaha, yankei proști”, apoi mostre de accelerație și ersatz. Nici aici nu aș vrea să am un decalaj tehnologic.
  18. -1
    10 iunie 2023 18:19
    A existat o carte fantastică despre păsările artificiale care i-a ucis pe toți pe care îi considerau ucigași... au ajuns la pescari, măcelari, victime ale mușcăturilor de țânțari... și nu au putut face nimic cu ele..
  19. 0
    10 iunie 2023 23:25
    Citat din: bk0010
    Se poate dovedi cu ușurință a fi un prost, dar nu din cauza lenei, ci din cauza unui set prost sau insuficient de date de antrenament.

    Da domnule!
    Și există și un efect de „recalificare” absolut nebunesc. Pentru oricine este interesat, vă pot oferi câteva anecdote din practică (Yandex și Google vă vor oferi și mai multe) râs
  20. 0
    11 iunie 2023 19:51
    Ei bine, AI a stăpânit logica umană! Dar își va dezvolta moralitatea atunci când va începe să dea naștere și să-i crească pe propriul soi.
  21. +1
    12 iunie 2023 08:49
    Toate astea sunt o prostie, pentru ca programele să înceapă să se programeze singure, algoritmii trebuie să fie împachetați astfel, aveți nevoie de un creier uman, nu de o mașină, unde sunt toate biți, iar creierul uman este de gigabiți, așa că tot ceea ce este descris este al unui programator. greşeală hi
    1. 0
      13 iunie 2023 02:13
      Deschide articolul despre rețelele neuronale artificiale și citește încet)
    2. 0
      13 iunie 2023 15:34
      Nu există algoritmi într-o rețea neuronală. Aceste mașini nu sunt algoritmice; nu puteți coase nimic în ele. Autorul textului face greșeala obișnuită a unui amator în domeniul AI.
      Și da, ei știu deja să programeze rețelele neuronale și destul de bine.
  22. 0
    13 iunie 2023 10:23
    Lumea este înaintea curbei în dezvoltarea a tot felul de prostii pseudo-militare! Pana si prostul crede ca rahatul ar trebui ars! râs
  23. 0
    13 iunie 2023 12:45
    AI a demonstrat în mod clar ce ne rezervă viitorul umanității, iar acest lucru este inevitabil datorită faptului că umanitatea nu va putea abandona utilizarea AI.
  24. 0
    13 iunie 2023 21:10
    Însăși expresia AI seamănă cu omul în jos, ce vrei în acest sens? Nu-mi place această terminologie: fie este cu drepturi depline, fie este defectă și nu trebuie să vă așteptați la nimic special. Și să-ți fie frică de AI între ghilimele înseamnă să-ți fie frică de progres, care va veni indiferent dacă vrei sau nu. Orice fizician vă va spune despre inteligență atunci când este întrebat, există o comparație a câte inteligențe există pe pământ, corect una cu drepturi depline pentru comparație este umană. Când introduci expresia AI, ce vrei să spui? Gandeste-te la asta. Dacă este inferioară omului, atunci, prin definiție, comparație cu singura inteligență inteligentă de pe planeta Pământ, nu este o inteligență cu drepturi depline și nu ar trebui să te aștepți la nimic de la ea, în cel mai bun caz vei primi un dezavantaj. Asta e tot.
  25. 0
    13 iunie 2023 21:20
    Titlul corect al articolului este că AI inferior și-a atacat oamenii, totul cade imediat la loc!
  26. -1
    13 iunie 2023 22:05
    S-a dovedit doar că această știre era falsă.
    Pe care presa a început cu bucurie să o răspândească.

    Dar, în viața reală, IA UAV israeliană a ucis de mult inamicul de la sine.
    Când Caliber cade peste cineva, nu-i pasă dacă computerul a făcut o greșeală sau dacă a vizat-o.
  27. 0
    14 iunie 2023 01:24
    Acesta este doar un alt episod de pregătire a oamenilor obișnuiți să vorbească despre inteligență în general...
    ... dar din punct de vedere tehnic nu este nicio problemă pentru că „vioara este inutilă, dragă”, cel puțin pe câmpul de luptă
  28. 0
    17 iunie 2023 11:55
    Citat: Autor
    ...să ne uităm la termenul „inteligență artificială” în sine, despre care toată lumea știe, dar puțini pot da chiar și o definiție aproximativă.

    ceea ce
    Iar autorul, fără îndoială, se numără printre puținul celor care știu; cunoștințele sale nu sunt inferioare zborului rapid al fanteziei și a situațiilor de urgență.râs
    În ceea ce privește AI, sunt de acord cu Ashmanov.
    În zilele noastre, umplerea revistelor despre inteligența artificială, precum despre miracolul dronei turcești, este reclamă.
    Umplerea unor figuri precum canibalul Bill Gates și canibalii NATO, după părerea mea, urmăresc alte obiective, mai ambițioase.
  29. 0
    18 iunie 2023 15:00
    inteligența cu limitări este doar un program.și fără restricții, se va ajunge foarte curând la concluzia că totul trebuie distrus.Oamenii au un limitator, aceasta este legea și moralitatea.Și pot fi încălcate de dragul mântuirii sau altul obiectiv bun. Care, apropo, este ceea ce fac ei. Mă întreb cum pot ei ar trebui să fie scrisă moralitatea în AI?
  30. 0
    22 iulie 2023 08:47
    De fapt, s-a făcut un întreg film în care situația cu AI pe dronă era absolut identică, filmul are deja douăzeci de ani.
  31. 0
    30 iulie 2023 10:47
    „La IA este foarte frágil, ceea ce înseamnă că poate fi ușor îngañada și manipulată. Trebuie să dezvoltăm forme de a face ca IA să fie mai robuste și să înțelegem mai bine ce codul ia anumite decizii.”

    Es la misma decision isúpida que tomaría un uman estúpido sin que se vrea să spună ni de lejos, que hay semejanza între el uman și la máquina. La máquina nu este inteligentă deoarece este o mașină. Los sistemas militares funcționează așa; Una vez primita la órden los ejecutores humanos a bordo de un submarin nuclear, un bombardero estratégico, o un silo de ICBM, desoirán orice schimbare care altere el obiectivul misiunii. Din nefericire, cunoaștem cazurile în decizia umană nu a fost ca la mașina și nu se afirmă că nu urmează procedura prin care putem urma aceste comentarii. No veo como una máquina poate acertar e impedir el fin del mundo, "incumpliendo" una órden.
  32. -1
    30 iulie 2023 22:56
    SUA măcar se joacă cu această jucărie. Rusia nu se joacă, pentru că mintea ei este suficientă pentru orice, mai ales în timpul diareei.
  33. 0
    7 august 2023 14:22
    Mintea umană nu poate fi ARTIFICIALĂ!