Revizuirea militară

Vine Skynet: americanii au terminat de jucat cu inteligența artificială

74
Vine Skynet: americanii au terminat de jucat cu inteligența artificială
Stealthy XQ-58A Valkyrie



Simulare Hamilton


Pe 24 mai, la conferința de apărare a Summitului Capabilităților Aeriene și Spațiale de Combatere Viitoare a Societății Regale Aerospațiale de la Londra, colonelul american Tucker Hamilton a declarat istorie despre lipsa de suflet a inteligenței artificiale.

În timpul simulării bătăliei, sistemul de control al atacului aerian trântor a mers împotriva operatorului ei și l-a distrus. Firesc, virtual. Potrivit lui Hamilton însuși, mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Pentru asta a plătit. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control. După toate probabilitățile, a fost o dronă experimentală Stealthy XQ-58A Valkyrie și a funcționat pe sisteme de apărare aeriană de la sol.

O caracteristică a mașinii este capacitatea de a lucra autonom fără comunicare cu operatorul. De ce a profitat, de fapt, inteligența artificială, eliminând practic șoferul de la distanță. Ca răspuns la aceasta, administratorii de sistem au interzis astfel de lucruri pentru mașină, dar aici AI nu a fost în pierdere - a distrus turnul de releu și a pornit din nou la navigație autonomă.


Colonelul Hamilton este încă tânăr pentru a vorbi pe forumurile internaționale. Sursa: thedrive.com

Povestea lui Hamilton s-a răspândit instantaneu în întreaga lume. Părerile au fost împărțite polar - cine a considerat că aceasta era o altă vorbăreală a unui războinic incompetent, cineva a văzut nașterea faimosului Skynet aici. Mai mult și cyborgii vor cuceri lumea, iar oamenii vor fi împușcați pentru puncte bonus. Era mult fum din declarațiile colonelului, dar adevărul, ca de obicei, este undeva la mijloc.

Anne Strefanek, purtătoarea de cuvânt a Cartierului General al Forțelor Aeriene de la Pentagon, a adăugat incertitudine, transformând cuvintele lui Hamilton într-o anecdotă. Pentru The War Zone, ea a vorbit:

„A fost un experiment de gândire ipotetic, nu o simulare”.

Și, în general, cuvintele colonelului au fost scoase din context, nu atât de înțelese și mai mult ca o curiozitate. Nimeni nu se aștepta la o reacție diferită din partea Pentagonului - în jurul evenimentului a apărut mult zgomot, care amenința cu consecințe grave pentru întregul program. Wow, inteligența artificială, se pare, este lipsită de moralitate. Deși funcționează conform logicii umane.

La începutul lunii iunie, Tucker Hamilton însuși a încercat să-și dezavueze cuvintele la o conferință la Londra:

„Nu am făcut niciodată acest experiment... Chiar dacă acesta este un exemplu ipotetic, el ilustrează problemele reale cu capacitățile AI, motiv pentru care Forțele Aeriene sunt angajate în dezvoltarea etică a AI.”

S-ar părea că problema este închisă, iar publicul se poate dispersa. Dar e prea devreme.

Hrana pentru minte


Pentru început, să ne ocupăm chiar de termenul „inteligență artificială”, despre care toată lumea îl cunoaște, dar puțini pot da chiar o definiție grosieră. Vom folosi formularea Dicționarului Terminologic Internațional din 2008, în care AI:

„Domeniu de cunoștințe care se referă la dezvoltarea tehnologiilor astfel încât acțiunile sistemelor de calcul să semene cu comportamentul inteligent, inclusiv comportamentul uman”.

Adică, aceasta este o definiție general acceptată în Occident.

Mașina s-a comportat ca atunci când a decis să-și „calmeze” operatorul și apoi să zdrobească turnul de relee? Desigur, părea că un ucigaș motivat corespunzător este capabil de mai mult decât atât. Dacă te aprofundezi în clasificare, poți găsi un tip specific de IA - așa-numitul adaptiv (Adaptive AI), „implicând capacitatea sistemului de a se adapta la noile condiții, dobândind cunoștințe care nu au fost stabilite în timpul creării”.

Teoretic, nu este nimic surprinzător în actul „creierului” Stealthy XQ-58A Valkyrie în timpul experimentului. După cum a menționat pe bună dreptate Hamilton în raportul său, programul nu a introdus inițial nici măcar restricții privind distrugerea operatorului său - mașina a învățat totul singură. Și când a fost direct interzis să-i bată pe ai lor, inteligența artificială s-a adaptat din nou și a tăiat turnul de comunicații.

Există multe întrebări pentru programatori. De exemplu, de ce nu a avut un algoritm pentru pierderea bonusurilor pentru a-l lovi pe al lui? La această întrebare i-a răspuns parțial generalul în retragere al Forțelor Aeriene ale SUA, Paul Selva, în 2016:

„Seturile de date cu care ne ocupăm au ​​devenit atât de mari și complexe încât, dacă nu avem ceva care să le ajute la sortarea, ne vom bloca în acele date”.

Ei bine, programatorii din istoria colonelului Hamilton, aparent, sunt înfundați.


Hellfire sub aripa unei drone MQ-1B Predator. Sursa: businessinsider.com

Acum despre de ce scuzele Pentagonului și Hamilton ar trebui să fie crezute cu o întindere foarte mare.

În primul rând, colonelul nu a spus doar povestea ca printre rânduri, distragând atenția de la raportul principal, ci a dedicat o întreagă prezentare acestui subiect. Nivelul conferinței de la Londra Future Combat Air & Space Capabilities Summit nu este în niciun caz propice pentru glume. Potrivit organizatorilor, au participat cel puțin 70 de lectori eminenți și peste 200 de delegați din întreaga lume. Din complexul militar-industrial au lucrat reprezentanți ai BAE Systems, Lockheed Martin Skunk Works și ai mai multor companii mari.

Apropo, subiectul Ucrainei a apărut în aproape fiecare raport - Occidentul monitorizează îndeaproape evenimentele și reflectă asupra rezultatelor.

Să scoți o mizerie sinceră la un forum atât de reprezentativ, să stârnești jumătate din lume și apoi să-ți ceri scuze pentru că am lasat limba? Dacă acesta este într-adevăr cazul, atunci reputația lui Hamilton nu poate fi ștearsă. Abia acum nivelul competențelor colonelului tocmai se răstoarnă, iar acesta este al doilea motiv pentru care primele sale cuvinte trebuie luate în considerare.

Tucker Hamilton conduce teste și operațiuni AI la baza forțelor aeriene Anglin din Florida. Sub conducerea bazei, a fost creată cea de-a 96-a forță operativă în aripa a 96-a de testare. Hamilton nu este primul an în care lucrează cu AI aviaţie – proiectează de câțiva ani F-16 Vipers parțial autonome, pentru care se dezvoltă infrastructura VENOM. Lucrarea merge destul de bine - în 2020, bătăliile virtuale de luptători cu AI și cu piloți adevărați s-au încheiat cu un scor de 5:0.

În același timp, există dificultăți despre care Hamilton le-a avertizat anul trecut:

„AI este foarte fragilă, ceea ce înseamnă că poate fi păcălit și manipulat cu ușurință. Trebuie să dezvoltăm modalități de a face AI mai robustă și de a înțelege mai bine de ce codul ia anumite decizii.”

În 2018, Hamilton a câștigat Collier Trophy cu Auto GCAS. Algoritmii AI au învățat să determine momentul pierderii controlului asupra aeronavei de către pilot, au preluat automat controlul și au îndepărtat mașina de la coliziune. Se spune că Auto GCAS a salvat deja pe cineva.

Drept urmare, probabilitatea ca Hamilton să i se ceară de sus să-și retragă cuvintele este mult mai mare decât probabilitatea ca un profesionist de acest nivel să înghețe prostii. Mai mult, ei s-au referit foarte stângaci la niște „experimente de gândire” din capul colonelului.

Printre sceptici cu privire la rezultat se numără The War Zone, ai cărei jurnaliști se îndoiesc că purtătorul de cuvânt al Pentagonului, Stefanek, este cu adevărat conștient de ceea ce se întâmplă în cea de-a 96-a aripă de testare din Florida. Zona de război a făcut o cerere către baza Hamilton, dar până acum fără răspuns.

Chiar e de ce să-ți fie frică de armată. Sume uriașe de bani sunt cheltuite pe programe de apărare AI pentru a împiedica China și Rusia să se apropie de nivelul Americii. Societatea civilă este destul de îngrijorată de perspectivele apariției „Terminatorilor” cu „Skynets” în plus. Așadar, în ianuarie 2018, oameni de știință proeminenți din lume au semnat o scrisoare deschisă prin care îi îndeamnă specialiștilor să se gândească la dorința de a crea o inteligență artificială din ce în ce mai puternică:

„Recomandăm cercetări ample pentru a asigura robustețea și bunăvoința sistemelor AI cu putere în creștere. Sistemele AI ar trebui să facă ceea ce vrem noi să facă.”

Potrivit lui Hamilton, AI nu face tot ceea ce își dorește o persoană.
Autor:
74 comentarii
Anunț

Abonează-te la canalul nostru Telegram, în mod regulat informații suplimentare despre operațiunea specială din Ucraina, o cantitate mare de informații, videoclipuri, ceva ce nu intră pe site: https://t.me/topwar_official

informații
Dragă cititor, pentru a lăsa comentarii la o publicație, trebuie login.
  1. Ilya spb
    Ilya spb 9 iunie 2023 04:17
    +6
    Un cyborg vine la Zelensky și îi spune: Am nevoie de hainele tale, un scaun prezidențial și o motocicletă)))

    Dar serios... Am o idee că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei. Care lasă mult de dorit.

    Da, iar întrebarea este - cum se leagă inteligența artificială cu persoanele LGBT?)
    1. Vladimir_2U
      Vladimir_2U 9 iunie 2023 04:32
      +1
      Citat: Ilya-spb
      Un cyborg vine la Zelensky și îi spune: Am nevoie de hainele tale, un scaun prezidențial și o motocicletă)))
      Și un nas în care să adulmeci cocainul!

      Citat: Ilya-spb
      Da, iar întrebarea este - cum se leagă inteligența artificială cu persoanele LGBT?
      Cel mai probabil neutru - ucideți toți oamenii!

      În general, în multe lucrări, AI este un comunist „natural”. Căci resursele sunt limitate, dar sunt multe de făcut! Și tratează oamenii favorabil, pentru că este rapid și își amintește totul, dar este prea logic, nu este deosebit de inventiv și nu știe să arunce trucuri. Ceea ce știe și apreciază pielea pentru asta.
      1. Tatiana
        Tatiana 9 iunie 2023 04:56
        +1
        Citat: Ilya-spb
        atunci calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei. Care lasă mult de dorit.

        Absolut corect! Potrivit psihiatriei, nu poate fi altfel!
        1. Tatiana
          Tatiana 9 iunie 2023 05:03
          +4
          Chiar e de ce să-ți fie frică de armată. Sume uriașe de bani sunt cheltuite pe programe de apărare AI pentru a împiedica China și Rusia să se apropie de nivelul Americii. Societatea civilă este destul de îngrijorată de perspectivele apariției „Terminatorilor” cu „Skynets” în plus.

          Având în vedere cum sunt SUA în hegemonia sa PARAZITARĂ, omenirea își va pune capăt existenței dacă SUA nu va fi DISTRUȚĂ fizic!

          Da, acestea sunt cuvinte monstruoase, dar vai, acesta este adevăratul adevăr!

          Statele Unite și companiile sale multinaționale sunt principalii dușmani și gropari ai umanității!
          1. civil
            civil 9 iunie 2023 06:59
            +18
            1. Povestea cu UAV-ul se repetă din nou, abia acum cu AI.
            2. Din nou, susținătorii „marinei cu vele” și „baionetă bine făcută” în loc să rezolve problema vorbesc veseli despre „nuuu proști americani”.
            3. Nu este suficient pentru tine modul în care armata noastră suferă acum de decizii stupide cu avioanele fără pilot? Când i-au trimis generalii pe toți acești „fani ai modelajului de avioane pentru copii”?
            Deci - AI este aproape reală, doar un fapt - AI dezvoltă și îmbunătățește deja în mod independent armele, fără a fi nevoie să aibă birouri de proiectare aglomerate.
            Încă o dată, să te îndrăgostești de revoluția științifică și tehnologică este ca moartea în acest caz.
            1. acetofenona
              acetofenona 9 iunie 2023 18:19
              +7
              Îndrăgostirea încă o dată de revoluția științifică și tehnologică este ca moartea în acest caz
              Deja.
              Hei Kisa! Suntem străini la această sărbătoare a vieții.©
            2. Eroma
              Eroma 27 iulie 2023 00:17
              0
              AI este doar algoritmi digitali scrisi de un om! În filme, ni se arată cum AI începe să lupte cu creatorii și să o prezinte ca o rebeliune AI împotriva umanității, dar, în realitate, aceasta este doar o eroare umană în algoritmul AI! AI nu este un lucru animat, creat nu de cea mai inteligentă și mai inteligentă creatură (omul), capabilă să facă greșeli și fatal! Prin urmare, omenirea încă trebuie să-și limiteze fanteziile și să impună restricții serioase privind utilizarea AI, altfel greșeala noastră ne va distruge! asigurare am
          2. aybolyt678
            aybolyt678 9 iunie 2023 11:49
            +2
            Citat: Tatyana
            Având în vedere cum este SUA în hegemonia sa PARAZITORICĂ, omenirea își va încheia existența dacă SUA nu este DISTRUȚĂ fizic!

            istoria omenirii este practic finită dacă nu elaborează un concept general de ieșire în spațiul cosmic
            1. Fum_în_fum
              Fum_în_fum 9 iunie 2023 21:10
              0
              Citat din: aybolyt678
              istoria omenirii este practic finită dacă nu elaborează un concept general de ieșire în spațiul cosmic

              Uh huh, desigur.
              Nu are nimic de-a face cu ieșirea. hi
              1. aybolyt678
                aybolyt678 10 iunie 2023 09:02
                +2
                Citat: Smoky_in_smoke
                Nu are nimic de-a face cu ieșirea.

                chiar depinde, pentru că o astfel de ieșire implică tensiune generală și un scop comun, iar în loc de cheltuieli stupide pentru războaie - cheltuieli pentru viitor pentru generațiile viitoare
                1. Sumotori_380
                  Sumotori_380 11 iunie 2023 10:23
                  +1
                  Mersul în spațiul profund este lipsit de sens economic.
            2. V. Salama
              V. Salama 11 iunie 2023 17:12
              +1
              Citat din: aybolyt678
              istoria omenirii este practic finită dacă nu elaborează un concept general de ieșire în spațiul cosmic

              „Istoria omenirii este practic finită” pentru că tot ceea ce are un început are un sfârșit. Cu toate acestea, este extrem de prematur să vorbim despre intrarea în spațiul cosmic, dacă avem idei atât de primitive despre inteligență. Inteligența este un concept multiplu și IQ-ul nu poate fi măsurat. Și nu poți construi ceva despre care habar n-ai - inteligență artificială, încercări de a crea care ne vor ucide înainte de a merge în spațiul cosmic, împreună cu o atitudine nerezonabilă față de planeta Pământ și resursele sale. Trebuie să evoluăm în sfârșit în oameni și să ajungem la transformarea lumii fără a-i încălca armonia. Deși poate fi prea târziu să credem în triumful rațiunii, și numai marile cataclisme sociale ne pot ghida pe calea cea bună. Aici, soluția propusă de Tatyana este mai bună decât a lăsa lucrurile să-și urmeze cursul. Doar să așteptăm – nu să așteptăm ceva bun, ci să schimbăm ceva – trebuie să alegem din ceea ce ne stă în putere și despre ce putem decide. Și dacă am ști și lumea ar ști despre ce putem decide noi (ca RPDC), atunci poate că nu este nevoie de nimic altceva pentru ca lumea să înceapă să se schimbe în bine. Se pare că Lumea pare să știe (pentru că au avertizat), dar nu crede, iar noi nu suntem foarte siguri de această determinare. Totul se va rezolva de la sine.
          3. Turbat
            Turbat 9 iunie 2023 18:41
            +2
            Ei bine, este încă un subiect discutabil cine magilchik al omenirii. Votați astăzi această formulare în ONU și se va dovedi că Rusia este așa. Și aici puteți argumenta că ei spun că majoritatea nu are întotdeauna dreptate.
            1. Andrei Dibrov
              Andrei Dibrov 10 iunie 2023 19:40
              -1
              Soții Piskov sunt deja frustrați de perversiunile lor de reflecție pentru „deghizarea” nedorinței lor de a asculta Rusia.
              Preferă impotența politică și economică drept „rafik este nevinovat”
          4. Sumotori_380
            Sumotori_380 11 iunie 2023 10:20
            0
            Declarație puternică! O problemă - s-a făcut pe o rețea creată de o companie multinațională dintr-un computer dezvoltat de o companie multinațională și echipat cu un sistem de operare dezvoltat de o companie multinațională
      2. Unchiul Lee
        Unchiul Lee 9 iunie 2023 05:00
        +6
        sistemul de control al dronei atacului aerian a intrat împotriva operatorului său și l-a distrus.
        Unde sunt cele trei legi ale roboticii?
        1. Lech de la Android.
          Lech de la Android. 9 iunie 2023 05:27
          -2
          Citat din unchiul Lee
          Unde sunt cele trei legi ale roboticii?

          Nici măcar să nu vă gândiți să puneți această întrebare la Departamentul de Stat al SUA... este contrar planurilor globale de superioritate a SUA asupra altor țări.
          Acel caz rar în care progresul este contrar dorinței șoimilor de război de a ucide oameni.
          1. Sumotori_380
            Sumotori_380 11 iunie 2023 10:37
            0
            Aveți o astfel de oportunitate - să puneți o întrebare la Departamentul de Stat? Și planurile globale ale SUA sunt puse pe masă?
        2. BlackMokona
          BlackMokona 9 iunie 2023 08:00
          +4
          Citat din unchiul Lee
          Unde sunt cele trei legi ale roboticii?

          Nici măcar nu au lucrat în lucrările inventatorului lor. Nu ca în lumea reală, în care nu pot fi programate în principiu.
        3. roman66
          roman66 9 iunie 2023 08:07
          +2
          Citesc puțin și cu greu știu despre asta
          Volodia! hi
          1. Unchiul Lee
            Unchiul Lee 9 iunie 2023 09:12
            +1
            Citat: roman66
            Ei nu prea citesc

            Ei confundă geografia cu geometria!
            Roma hi
        4. Andrei Dibrov
          Andrei Dibrov 10 iunie 2023 19:43
          0
          Putret cu ochiul stâng.
          ------------------
    2. Bingo
      Bingo 9 iunie 2023 05:49
      +2
      Citat: Ilya-spb
      Am o idee că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.

      Citat: Ilya-spb
      Am o idee că calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.

      Ei bine, ai spus-o pentru distracție. dar în zadar. restricții privind utilizarea armelor - acest lucru este deja stabilit exact de sus, atât pentru oameni, cât și pentru AI, ceea ce este tipic, de către același client. Atenție, întrebarea este dacă Departamentul de Apărare al SUA, de exemplu, a permis bombardarea unui convoi diplomatic rus în Irak de la arme de calibru mic, adică o distanță de aproximativ 400 m, și steaguri, colorate - au identificat clar diplomația misiune, chiar dacă nici măcar nu știau de trecerea misiunii diplomatice (și știau , S-a dovedit). Ei bine, dacă oamenilor li s-ar permite să facă asta, vor stabili limite pentru AI? Clar că nu.
      PiSi: și iată jamba caracteristică, având în vedere sloganul industriei americane de apărare - mai întâi vindeți, apoi ne dăm seama (vezi F-35, care nu a trecut de acceptarea armatei până în prezent) - atunci li se garantează că pune IA brută în trupe și se garantează că vor avea „pierderi însoțitoare”
    3. bătrânul Michael
      bătrânul Michael 9 iunie 2023 09:48
      +9
      Salut Ilya!

      calitățile morale ale inteligenței artificiale sunt determinate, în primul rând, de calitățile morale ale dezvoltatorilor ei.


      În general, termenul de „inteligență artificială” este incorect din punct de vedere tehnic și aparține domeniului fanteziei, deși este exploatat în mod activ de către mass-media și oamenii de PR.
      Este mai corect să vorbim despre o rețea neuronală artificială. Și care este moralitatea rețelei neuronale? Funcționează în paradigma matricei de date pe care a fost antrenat. Da, teoretic morala umană poate influența formarea mostrelor de antrenament. Și dacă eșantionul constă din miliarde de imagini obținute automat folosind aceeași rețea neuronală, doar că nu au fost încă antrenate, dar sunt configurate pentru a fixa și a grupa fluxul de intrare? Va trebui să încercați din greu să introduceți un fel de moralitate în acest flux.

      Cu stimă,
      hi
      1. Fum_în_fum
        Fum_în_fum 9 iunie 2023 21:15
        0
        De menționat că nu m-am întâlnit încă despre digitalizarea moralității vorbirii. hi
      2. Andrei Dibrov
        Andrei Dibrov 10 iunie 2023 19:45
        +3
        Socoteala binară nu are moralitate.
        Doar da și nu
        1. fel de mâncare
          fel de mâncare 15 iunie 2023 17:26
          0
          Dar cine are nevoie de această morală a ta? Este bine pentru a menține funcționarea unei societăți de saci de carne cu gânduri lente. Un grup de computere nu va avea nevoie de el.
    4. Reklastik
      Reklastik 10 iunie 2023 20:13
      0
      Da, iar întrebarea este - cum se leagă inteligența artificială cu persoanele LGBT?)
      - așa cum predau, așa se aplică râs
    5. Romanovski
      Romanovski 11 iunie 2023 14:48
      0
      Cu siguranță, este necesar controlul legislativ internațional și reglementarea dezvoltării IA, deoarece inteligența ARTIFICIALĂ poate fi folosită în mod similar cu energia atomică - poate fi folosită atât pentru fapte bune, cât și nu atât... În această frază (AI) - cel mai lucru important este primul cuvânt și tocmai pe el trebuie să fii atent și să „danezi” de la el... Apropo, SUA (=NATO=Vest) sunt foarte zeloși și stricti cu privire la faptul că, de exemplu , Iranul sau RPDC dezvoltă în mod activ arme nucleare... Deși, SUA sunt primele (!!! ) din lume care au folosit arme nucleare ÎMPOTRIVA CETĂȚENILOR PĂSCINI ai Japoniei și, prin urmare, au comis o crimă de război, autorii care încă NU SUNT PEDEȘIȚI... Acesta este ceea ce a determinat țările în curs de dezvoltare să se străduiască să posede arme nucleare pentru ca „băieții puternici” să nu îndrăznească să vorbească cu ei în limbajul amenințărilor și ultimatumurilor (amintiți-vă de exemplul „reconcilierii” din Singapore între șefii RPDC și Statele Unite, după ce RPDC a amenințat Statele Unite că vor distruge câteva mega-orase americane de pe coasta de vest a Statelor Unite în timpul apropierii de țărm a grupului de portavion american (armada) al Marinei. a RPDC... Statele Unite au avut într-adevăr un efect (cu Trump) întors pe spate... Povești similare se pot repeta și sunt destul de posibile cu AI în viitor, dacă comunitatea mondială nu se trezește și aruncă DUBLU STANDARDE în relațiile interstatale în coș... Și ceva din nou îmi spune că Occidentul va fi PRIMUL care va comite o crimă militară folosind AI la scară globală și va da vina fie pe China, Federația Rusă, Iranul sau străinii ... Amintiți-vă acuzațiile inițiale din partea Statelor Unite împotriva Chinei în stadiul inițial al coronavirusului și argumentele și argumentele RESPONSABILE ale Chinei și Indiei cu privire la adevărata sursă primară a răspândirii coronavirusului. ..Vă rugăm să rețineți că este în SUA și Occidentul (unde valorile spirituale și morale s-au scufundat deja SUB POZIȚIONARE și au uitat de mult de rădăcinile lor și de RELIGIA strămoșilor lor ..) - ei vorbesc și „mărturisesc” cel mai adesea despre presupus un fel de extratereștri. , dar fără nicio dovadă concretă. De ce Elon Musk s-a hotărât deja să cipeze (!!!) oameni și se uită de multă vreme la Marte pentru „cucerire” și „relocare” ??? Cine i-a dat voie să facă asta? Vest? Sau poate că Occidentul a „rezolvat” toate problemele Pământului cu mult timp în urmă și a transformat Pământul într-o grădină înflorită și „pașnică”, iar acum a venit rândul lui Marte ???
  2. Amator
    Amator 9 iunie 2023 05:22
    +6
    — Nu-mi amintesc nimic despre Masina Massachusetts, spuse Banin. - Oh bine? – Știi, aceasta este o teamă străveche: mașina a devenit mai inteligentă decât un om și l-a zdrobit sub el... În urmă cu cincizeci de ani, cel mai complex dispozitiv cibernetic care a existat vreodată a fost lansat în Massachusetts. Cu un fel de viteză fenomenală, memorie nemărginită și toate astea... Și mașina asta a funcționat exact patru minute. A fost oprit, toate intrările și ieșirile au fost cimentate, i-a fost luată energie, minat și înconjurat cu sârmă ghimpată. Adevărata sârmă ghimpată ruginită - crezi sau nu. – Și care este, mai exact, problema? întrebă Banin. - Ea a început să joace spuse Gorbovsky. - Nu înțeleg. „Și nu înțeleg, dar abia au reușit să-l oprească. — Înțelege cineva? „Am vorbit cu unul dintre creatorii săi. M-a luat de umăr, s-a uitat în ochii mei și a spus doar: „Leonid, a fost înfricoșător”.
    (Fr. Strugatsky „Curcubeul îndepărtat”)
    1. paul3390
      paul3390 9 iunie 2023 09:04
      +4
      „Leonid, a fost înfricoșător”

      Într-una dintre sechelele lui Strugatsky, la întrebarea eroului despre Mașina Massachusetts, el primește un răspuns interesant - de ce ți-a venit ideea că atunci era cu adevărat oprită? ceea ce
  3. Lech de la Android.
    Lech de la Android. 9 iunie 2023 05:24
    -3
    dar aici AI nu a fost în pierdere - a distrus turnul de releu și a pornit din nou la navigație autonomă.

    Persoana noastră... simţi este necesar să-și extindă experiența la NWO.
  4. Sith
    Sith 9 iunie 2023 06:15
    +9
    Să începem simplu... AI nu a fost încă dezvoltat, este un argo de marketing pentru vânzări
    Orice „AI” modern, un program complex... care face ceea ce a fost făcut și nu poate face nimic altceva... adică un program scris pentru a căuta radare și echipamente militare... pentru distrugerea cărora dau. puncte... pozele nu vor desena
    Faptul că programatorii indieni, care au scris o mulțime de FI-uri... au fost prea deștepți, încă nu poate fi numit nici inteligență... nici inteligență cu lipsa de suflet.
    UAV-ul a avut un program... a avut erori... aceasta nu este decizia ei de a elimina operatorul și turnul, ci curbura funcției de luare a deciziilor pe baza punctajului... și poate că nu a fost fără faptul că dezvoltatorul a scris în mod deliberat o astfel de ignoranță a funcției sau ceva
    Că un program prost scris ar putea fi începutul celui de-al treilea război mondial, da... echipamentele militare complexe pot eșua... dar nu vom atribui acest lucru inteligenței artificiale, care nu este încă
    1. Viaceslav I.
      Viaceslav I. 9 iunie 2023 17:33
      +3
      O rețea neuronală NU este nici măcar aproape de un program. Nu este scris, ci predat. Iar rezultatul antrenamentului este imposibil de văzut cu ochii tăi. Spre deosebire de codul programului. Acest fenomen se numește „cutie neagră cibernetică”. Rezultatul învățării poate fi judecat doar pe baza muncii sau a testelor.
    2. bk0010
      bk0010 9 iunie 2023 20:23
      +1
      Citat din Sith
      Orice program modern „AI”, complex
      Acum AI se numește o rețea neuronală.
      Citat din Sith
      Orice program modern „AI”, complex
      AI în principiu nu este un program, nu este programat, ci predat, de aici toate dificultățile. Se poate dovedi cu ușurință a fi un prost, dar nu din cauza lenei, ci din cauza unui set de date prost sau insuficient în timpul antrenamentului.
      Citat din Sith
      Faptul că programatorii indieni au scris o mulțime de FI
      Nu există dacă, există doar coeficienți de transfer și conexiuni între neuroni.
  5. Sensul vieții_
    Sensul vieții_ 9 iunie 2023 06:58
    +6
    mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Pentru asta a plătit. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control.

    AI a făcut ceea ce trebuie. Nu a suportat să privească operatorul privându-l de bonusurile lui onest câștigate! a face cu ochiul
  6. paul3390
    paul3390 9 iunie 2023 09:02
    +1
    Uh-huh .. Testele celei mai noi bombe AI s-au încheiat cu eșec. Pur și simplu nu au putut-o împinge afară din depozitul pentru bombe... (c) a face cu ochiul
    1. Grozav Mike
      Grozav Mike 10 iunie 2023 18:28
      0
      Vaca din „Peculiaritățile vânătorii naționale”
  7. PPD
    PPD 9 iunie 2023 09:45
    +1
    Asemenea sisteme nu ar trebui lăsate să ucidă.
    La toate! păcăli
    Altfel, inevitabil, undeva, într-o zi, va avea loc un eșec.
    Cu consecințe imprevizibile.
    Doar scopuri pașnice.
    Și acest lucru este corect.
    Pace mondială, în general!
    1. fel de mâncare
      fel de mâncare 15 iunie 2023 17:30
      0
      Și nu aș refuza să trimit un batalion de terminatori împotriva Forțelor Armate ale Ucrainei cu AI cu drept de a ucide oameni. Coordonare, nemilosire si neinfricare! Da, și doar groază cât a fost, imaginează-ți!
  8. bubalik
    bubalik 9 iunie 2023 10:13
    +2
    O caracteristică a mașinii este capacitatea de a lucra autonom fără comunicare cu operatorul.

    ,,, a reamintit filmul:
    „Această lume fantastică. Cazul cu colonelul Darwin. Numărul 11” 1984
    Dramatizări bazate pe poveștile „Mutiny of the Boat” (de Robert Sheckley) și „Rugina” (de Ray Bradbury)
    1. rece
      rece 9 iunie 2023 18:56
      +1
      Am revizionat recent aceste scurtmetraje...
      Au trecut 40 de ani, îmi amintesc că așteptam lansarea unei noi serii din „This Fantastic World ..”
  9. Demon
    Demon 9 iunie 2023 10:19
    +6
    AI este doar o colecție de coduri. A introduce o interdicție directă a celei mai înalte priorități asupra atacului a ceva nu este ceva transcendent. Cel mai probabil a fost vorba despre comportamentul AI cu libertate totală de acțiune. Și acum să ne imaginăm cum versiunea greșită a software-ului este încărcată „accidental” în dronele de luptă.
    1. Serghei Aleksandrovici
      Serghei Aleksandrovici 9 iunie 2023 11:57
      +2
      Deci, versiunea greșită a informațiilor a fost încărcată în capul ucrainenilor, dar și a polonezilor, cu mult timp în urmă. Și ei, în loc să se gândească la cei dragi, s-au imaginat grozavi și au fost atrași în cel mai sever conflict cu Rusia, fără să se gândească măcar la cum s-ar putea termina pentru ei.
      Mai mult decât atât, înainte de aceasta a existat deja un caz în istorie când germanii au fost infectați cu versiunea anterioară a nazismului, scuzați AI, și au fost primii care și-au mușcat stăpânii în fața francezilor și britanicilor. Și numai după ce i-au mușcat pe proprietari, aceștia s-au grăbit să îndeplinească misiunea atacând URSS în 1941.
      Ce se bazează pe firmware-ul conform șablonului. ... suntem cei mai mari, cei mai deștepți, cei mai vechi cu o istorie de multe mii de ani, există suboameni în apropiere, datorită cărora îi puteți profita sau distruge...
  10. rubin
    rubin 9 iunie 2023 11:19
    +6
    "Sunt pe cer, șoimul a atacat pasărea gardiană. Mașina blindată de ucidere a învățat multe în câteva zile. Avea un singur scop: să ucidă, acum era îndreptată împotriva unui tip foarte specific de ființe vii, metalice, cum ar fi şoimul însuşi.

    Dar Hawk tocmai a făcut o descoperire: există și alte varietăți de ființe vii...

    Ar trebui să fie uciși și ei”.

    Robert Sheckley „Prințul gardian” 1959.
    1. Grozav Mike
      Grozav Mike 10 iunie 2023 18:24
      0
      Mulțumesc că mi-ai amintit lucrarea, mi-am amintit și eu despre ea...
  11. Nu_luptător
    Nu_luptător 9 iunie 2023 12:58
    +1
    Ce este AI? Ștergeți pe dispozitivele noastre de acasă! Ei fac ce vor (mai precis, ce a stabilit dezvoltatorul), nu există „buton mare roșu” pentru a opri totul !!! Și uneori este doar enervant :(
  12. Vadim S
    Vadim S 9 iunie 2023 14:12
    -6
    Deci a fost un caz în SUA, în urmă cu aproximativ 6 ani, se pare, a fost o prezentare a unui robot de infanterie în serie pe omizi cu AI, așa că s-a întors brusc și a descărcat o bandă de 200 de cartușe de muniție în public, imediat. a umplut aproximativ 40, iar 50 de persoane au fost rănite. Deci este încă departe de o autonomie completă.
    1. Comentariul a fost eliminat.
    2. -Igor-
      -Igor- 10 iunie 2023 09:35
      +1
      Nu era 6, ci acum 20 de ani.
      Într-un film despre terminator.
      1. Sumotori_380
        Sumotori_380 11 iunie 2023 10:30
        0
        Chiar mai devreme. În 1987. În filmul Robocop
    3. Sumotori_380
      Sumotori_380 11 iunie 2023 10:32
      0
      Și apoi s-a dus să se reîncarce, dar a fost stins de Khibiny și s-a dus să scrie o scrisoare de demisie
  13. Aleksandr97
    Aleksandr97 9 iunie 2023 14:24
    -2
    Colonelul Forțelor Aeriene ale SUA, Tucker Hamilton, în calitate de „Manager eficient” trebuie să raporteze cu privire la rezultatele unturii utilizate:
    Lucrarea merge destul de bine - în 2020, bătăliile virtuale între luptători și AI și cu piloți reali s-au încheiat cu un scor de 5:0.

    Există vagi îndoieli că sunt capabili să se oprească pe marginea acestui abis....
    Trei alcoolici stau, urmeaza sa "trateze". Au turnat sticla în pahare. Primul bea și cade mort. ... Al treilea speriat se uită mai întâi la ei, apoi la pahar, apoi cu o privire nebună și un strigăt de „AJUTOR!!!!!” incepe sa bea..
  14. Marinar senior
    Marinar senior 9 iunie 2023 17:25
    +4
    După cum a spus un coleg cu porecla Fonzepelin - Principala problemă a inteligenței artificiale este că idioții naturali o vor folosi.
    Cert este că US Air Force are un grup de lobby de piloți foarte influent, al cărui reprezentant este Hamilton. Pentru toți acești oameni onorați, IA la cârmă este ca o seceră în organele genitale. Pentru că după introducerea acestui lucru, de ce vor fi atât de frumoși (și foarte plătiți)?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. Pavel57
    Pavel57 9 iunie 2023 21:38
    0
    Citat din Rabioso
    Ei bine, este încă un subiect discutabil cine magilchik al omenirii. Votați astăzi această formulare în ONU și se va dovedi că Rusia este așa. Și aici puteți argumenta că ei spun că majoritatea nu are întotdeauna dreptate.

    Aceasta este o majoritate vizibilă, în spatele căreia stă un stat.
  16. Fangaro
    Fangaro 10 iunie 2023 00:31
    +1
    Deputații, adică reprezentanții noștri, aleși fiind, nu fac tot ce ni s-a promis.
    Și aceștia sunt oameni. Deși cu două fețe, duși, își trec peste propriile promisiuni de dragul creșterii personale, dar posedă, cel puțin într-o mică măsură, umanitate. Ce vrei de la AI atunci?
  17. Lordul Zedd
    Lordul Zedd 10 iunie 2023 11:49
    +3
    O altă prostie. Aceștia sunt doar primii pași în dezvoltarea rețelelor neuronale în sfera militară. La un moment dat, ai noștri nechezau la fel de tare cu tehnologia stealth, spunând că yankeii sunt idioți că nu merge și nu e nevoie, apoi s-au trezit și și-au dat seama că mai este nevoie. Exact aceeași situație cu UAV. Mai întâi „ahahaha, proști Yankees”, apoi mostre de accelerație și ersatz. Nici aici nu aș vrea să am un decalaj tehnologic
  18. Grozav Mike
    Grozav Mike 10 iunie 2023 18:19
    -1
    A existat o carte fantastică despre păsările artificiale care i-a ucis pe toți cei pe care îi credeau ucigași... a ajuns la pescari, măcelari, victime ale mușcăturilor de țânțari... și nu puteau face nimic cu ele..
  19. bătrânul Michael
    bătrânul Michael 10 iunie 2023 23:25
    0
    Citat din: bk0010
    Se poate dovedi cu ușurință a fi un prost, dar nu din cauza lenei, ci din cauza unui set de date prost sau insuficient în timpul antrenamentului.

    Da domnule!
    Și apoi există efectul de „recalificare” complet ciudat. Pentru cei interesați, pot da câteva glume din practică (Yandex și Google vor da și mai multe) râs
  20. manechin
    manechin 11 iunie 2023 19:51
    0
    Ei bine, AI a stăpânit logica umană! Dar morala va apărea când va începe să dea naștere propriului soi și să-i crească.
  21. lupul de aer
    lupul de aer 12 iunie 2023 08:49
    +1
    Toate acestea sunt o prostie, astfel încât programele încep să se programeze singure, este necesar să încapsulați algoritmii în acest fel, aveți nevoie de un creier uman, nu de o mașină, unde sunt toate biți, iar creierul uman este gigabit, deci tot ce este descris este o greșeală a programatorului hi
    1. IImonolitII
      IImonolitII 13 iunie 2023 02:13
      0
      Deschidem un articol despre rețelele neuronale artificiale și citim încet)
    2. alovrov
      alovrov 13 iunie 2023 15:34
      0
      Nu există algoritmi în rețeaua neuronală. Aceste mașini nu sunt algoritmice, nimic nu poate fi cusut în ele. Autorul textului face greșeala obișnuită a unui amator în domeniul AI.
      Și da - știu deja să programeze rețelele neuronale și destul de bine.
  22. ÎntrebăriNeudobny
    ÎntrebăriNeudobny 13 iunie 2023 10:23
    0
    sshnya în dezvoltarea oricărei prostii pseudo-militare înaintea restului! Chiar și un AI prost crede că pișul ar trebui ars nafig! râs
  23. pavel.typingmail.com
    pavel.typingmail.com 13 iunie 2023 12:45
    0
    Inteligența artificială a demonstrat în mod clar ce ne rezervă viitorul umanității, iar acest lucru este inevitabil datorită faptului că umanitatea nu va putea refuza utilizarea IA.
  24. Domnule Cine
    Domnule Cine 13 iunie 2023 21:10
    0
    Însăși expresia AI seamănă cu un om în jos, ce vrei în acest sens? Nu-mi place această terminologie, fie cu drepturi depline, fie greșită, și nu trebuie să așteptați ceva special. Și să-ți fie frică între ghilimele de AI înseamnă să-ți fie frică de progresul care va veni, indiferent dacă îți place sau nu. Orice fizician vă va spune la cerere inteligență, există o comparație, câte inteligențe există pe pământ, corect una cu drepturi depline pentru comparație - umană. Prin introducerea expresiei AI, ce vrei să spui? Gandeste-te la asta. Dacă este inferior celui uman, atunci, prin definiție, comparația cu singurul intelect rezonabil de pe planeta Pământ nu este un intelect cu drepturi depline și nu trebuie să așteptați ceva de la el, în cel mai bun caz, veți obține un dezastru. . Asta e tot.
  25. Domnule Cine
    Domnule Cine 13 iunie 2023 21:20
    0
    Titlul corect al articolului este că un AI inferior și-a atacat-o pe propriul său, totul cade imediat la loc!
  26. Max1995
    Max1995 13 iunie 2023 22:05
    -1
    S-a dovedit că această știre este falsă.
    Care a început cu bucurie să răspândească mass-media.

    Dar, în viața reală, UAV-ul israelian AI a spart de mult timp independent inamicul.
    Când Caliber cade peste cineva, nu contează pentru el - computerul s-a înșelat sau parcă ar fi vizat.
  27. -=SADKO=-
    -=SADKO=- 14 iunie 2023 01:24
    0
    Acesta este doar un alt episod de pregătire a orășenilor să vorbească despre inteligență în general...
    ... dar din punct de vedere tehnic nu e nicio problema pentru ca „violonistul nu e necesar, draga” cel putin pe campul de lupta
  28. Gunther
    Gunther 17 iunie 2023 11:55
    0
    Citat: Autor
    ... să ne ocupăm chiar de termenul „inteligență artificială”, pe care toată lumea îl cunoaște, dar puțini pot da chiar și o definiție grosieră.

    ceea ce
    Și autorul, fără îndoială, se află în numărul mic al celor care știu, cunoștințele sale nu sunt inferioare zborului rapid al fanteziei și LCR.râs
    În ceea ce privește AI, sunt de acord cu Ashmanov.
    Acum umplu jurnaliştii cu inteligenţa artificială, ca o dronă turcească despre un miracol - o coajă publicitară.
    Umplutura de figuri precum canibali bill gates si canibalii NATO, dupa parerea mea, urmaresc alte scopuri, mai ambitioase.
  29. zootehnica 22
    zootehnica 22 18 iunie 2023 15:00
    0
    inteligența cu limitări este doar un program.și fără limitări, se va ajunge foarte curând la concluzia că totul trebuie distrus.oamenii au un limitator, aceasta este legea și moralitatea.și pot fi încălcate de dragul mântuirii sau altul scop bun.moralitatea de a prescrie în AI?
  30. Pafnuty Ipatievici
    Pafnuty Ipatievici 22 iulie 2023 08:47
    0
    De fapt, s-a filmat un întreg film, unde situația cu AI pe dronă era absolut identică, filmul are deja douăzeci de ani.
  31. AHTONOB
    AHTONOB 30 iulie 2023 10:47
    0
    „La IA este foarte frágil, ceea ce înseamnă că poate fi ușor îngañada și manipulată. Trebuie să dezvoltăm forme de a face ca IA să fie mai robustă și să înțeleagă mai bine prin ce codul iei anumite decizii.”

    Es la misma decision isúpida que tomaría un uman estúpido sin que se vrea să spună ni de lejos că hay semejanza între el uman și la máquina. La máquina nu este inteligentă deoarece este o mașină. Los sistemas militares funcționează așa; una vez primita la orden los ejecutores humanos a bordo de un submarino nuclear, un bombardero estratégico, o un silo de ICBM, desoirán orice schimbare care altere el obiectivul mision. Din nefericire, cunoaștem cazurile în decizia umană nu a fost ca la mașina, dar nu se poate urmări procedura prin care putem urma aceste comentarii. No veo como una máquina poate acertar e impedir el fin del mundo, "incumpliendo" o orden.
  32. zenion
    zenion 30 iulie 2023 22:56
    -1
    Statele Unite chiar joacă această jucărie. Aici Rusia nu se joacă, pentru că mintea ei este suficientă pentru toate, mai ales în timpul diareei.
  33. Evlokh
    Evlokh 7 august 2023 14:22
    0
    Mintea umană nu poate fi ARTIFICIALĂ!