Vine Skynet: americanii au terminat de jucat cu inteligența artificială
Stealthy XQ-58A Valkyrie
Simulare Hamilton
Pe 24 mai, la conferința de apărare organizată de Royal Aerospace Society, Future Combat Air & Space Capabilities Summit din Londra, colonelul american Tucker Hamilton a vorbit istorie despre lipsa de suflet a inteligenței artificiale.
În timpul simulării bătăliei, sistemul de control al atacului aerian trântor a mers împotriva operatorului ei și l-a distrus. Firesc, virtual. După cum a susținut Hamilton însuși, mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Am plătit pentru asta. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control. După toate probabilitățile, a fost o dronă Stealthy XQ-58A Valkyrie experimentală și a funcționat împotriva sistemelor de apărare aeriană de la sol.
O caracteristică specială a mașinii este capacitatea de a funcționa autonom fără comunicare cu operatorul. De care, de fapt, inteligența artificială a profitat, eliminând practic șoferul de la distanță. Ca răspuns la aceasta, administratorii de sistem au interzis mașinii să facă astfel de lucruri, dar nici aici AI nu a fost în pierdere - a distrus turnul de releu și a plecat din nou într-o călătorie autonomă.
Colonelul Hamilton este încă prea tânăr pentru a începe să vorbească pe forumurile internaționale. Sursa: thedrive.com
Povestea lui Hamilton s-a răspândit instantaneu în întreaga lume. Părerile au fost împărțite polar - unii au crezut că aceasta este doar o altă vorbăreală a unui războinic incompetent, alții au văzut nașterea faimosului Skynet aici. Mai mult și cyborgii vor cuceri lumea, iar oamenii vor fi împușcați pentru puncte bonus. Era mult fum din declarațiile colonelului, dar adevărul, ca de obicei, este undeva la mijloc.
Ann Strephanek, un purtător de cuvânt al Cartierului General al Forțelor Aeriene de la Pentagon, a adăugat incertitudinii transformând cuvintele lui Hamilton într-o anecdotă. Ea a vorbit cu The War Zone:
Și, în general, cuvintele colonelului au fost scoase din context, înțelese greșit și mai mult ca o curiozitate. Nimeni nu se aștepta la vreo altă reacție din partea Pentagonului - a fost mult zgomot în jurul evenimentului, care a amenințat cu consecințe grave pentru întregul program. Wow, inteligența artificială se dovedește a fi lipsită de moralitate. Deşi acţionează conform logicii umane.
La începutul lunii iunie, însuși Tucker Hamilton a încercat să-și dezavueze cuvintele la o conferință la Londra:
S-ar părea că problema este închisă, iar publicul se poate dispersa. Dar e prea devreme.
Hrana pentru minte
În primul rând, să ne uităm la termenul „inteligență artificială” în sine, despre care toată lumea știe, dar puțini pot da chiar și o definiție aproximativă. Vom folosi formularea Dicționarului internațional de terminologie din 2008, în care AI:
Adică, aceasta este o definiție general acceptată în Occident.
A fost comportamentul mașinii similar cu atunci când a decis să-și „calmeze” operatorul și apoi să distrugă turnul de relee? Desigur, părea că un ucigaș motivat corespunzător era capabil de altceva decât asta. Dacă aprofundezi în clasificare, poți găsi un anumit tip de IA - așa-numita IA adaptivă, „implicând capacitatea unui sistem de a se adapta la noile condiții, dobândind cunoștințe care nu au fost încorporate în timpul creării”.
Teoretic, nu este nimic surprinzător în comportamentul „creierului” Stealthy XQ-58A Valkyrie în timpul experimentului. După cum a remarcat pe bună dreptate Hamilton în raportul său, programul nu a inclus inițial nici măcar restricții privind distrugerea operatorului său - mașina a învățat totul de la sine. Și când au interzis direct să-și lovească propriii oameni, inteligența artificială s-a adaptat din nou și a tăiat turnul de comunicații.
Există o mulțime de întrebări pentru programatori în general. De exemplu, de ce nu a avut un algoritm pentru pierderea bonusurilor pentru lovirea forțelor amicale? La această întrebare i-a răspuns parțial generalul în retragere al Forțelor Aeriene ale SUA, Paul Selva, în 2016:
Ei bine, programatorii din povestea colonelului Hamilton se pare că s-au blocat.
Hellfire sub aripa unei drone MQ-1B Predator. Sursa: businessinsider.com
Acum să vorbim despre motivul pentru care scuzele Pentagonului și Hamilton ar trebui crezute cu mare rezervă.
În primul rând, colonelul nu a spus doar povestea dintre rânduri, ca în abstracție din raportul principal, ci a dedicat o întreagă prezentare acestui subiect. Nivelul conferinței London Future Combat Air & Space Capabilities Summit nu este în niciun caz propice pentru glume. Potrivit organizatorilor, au participat cel puțin 70 de lectori eminenți și peste 200 de delegați din întreaga lume. Din complexul militar-industrial au lucrat reprezentanți ai BAE Systems, Lockheed Martin Skunk Works și ai mai multor companii mari.
Apropo, subiectul Ucrainei a apărut în aproape fiecare raport - Occidentul monitorizează îndeaproape evenimentele și reflectă asupra rezultatelor.
Pentru a scoate o prostie de-a dreptul la un forum atât de reprezentativ, a excita jumătate din lume și apoi a-ți cere scuze pentru că ai greșit? Dacă acesta este de fapt cazul, atunci reputația lui Hamilton nu poate fi ștearsă. Dar nivelul de competență al colonelului este pur și simplu în afara topurilor, iar acesta este al doilea motiv pentru care primele sale cuvinte merită ascultate.
Tucker Hamilton conduce Divizia de testare și operațiuni AI de la baza forțelor aeriene Anglin din Florida. Sub această direcție, Grupul Operațional 96 a fost creat la baza din Aripa 96 de Test. Hamilton lucrează cu AI de câțiva ani. aviaţie – proiectează de câțiva ani F-16 Vipers parțial autonome, pentru care se dezvoltă infrastructura VENOM. Lucrarea se desfășoară cu succes - în 2020, bătăliile virtuale între luptători cu AI și cu piloți adevărați s-au încheiat cu un scor de 5:0.
În același timp, există dificultăți despre care Hamilton le-a avertizat anul trecut:
În 2018, Hamilton a câștigat Collier Trophy cu sistemul său Auto GCAS. Algoritmii AI au învățat să detecteze momentul în care pilotul a pierdut controlul avionului, a preluat automat controlul și a îndepărtat mașina de o coliziune. Se spune că Auto GCAS a salvat deja pe cineva.
Ca urmare, probabilitatea ca Hamilton să i se ceară de sus să-și retragă cuvintele este mult mai mare decât probabilitatea ca un profesionist de acest nivel să spună prostii. Mai mult decât atât, s-au referit foarte stângaci la niște „experimente de gândire” din capul colonelului.
Printre sceptici cu privire la rezultat se numără The War Zone, ai cărei jurnaliști se îndoiesc că secretarul de presă al Pentagonului, Stefanek, este cu adevărat conștient de ceea ce se întâmplă la cea de-a 96-a aripă de testare din Florida. Zona de Război a trimis o cerere la baza Hamilton, dar până acum nu a răspuns.
Armata chiar are de ce să se teamă. Sume uriașe de bani sunt cheltuite pe programe de IA pentru apărare pentru a împiedica China și Rusia să se apropie chiar de nivelul Americii. Comunitatea civilă este destul de îngrijorată de perspectivele apariției Terminators cu Skynets în plus. Astfel, în ianuarie 2018, oameni de știință importanți din lume au semnat o scrisoare deschisă prin care îi chemau specialiștilor să se gândească la dorința de a crea o inteligență artificială din ce în ce mai puternică:
Potrivit lui Hamilton, AI nu face tot ce își dorește o persoană.
informații