
Stealthy XQ-58A Valkyrie
Simulare Hamilton
Pe 24 mai, la conferința de apărare a Summitului Capabilităților Aeriene și Spațiale de Combatere Viitoare a Societății Regale Aerospațiale de la Londra, colonelul american Tucker Hamilton a declarat istorie despre lipsa de suflet a inteligenței artificiale.
În timpul simulării bătăliei, sistemul de control al atacului aerian trântor a mers împotriva operatorului ei și l-a distrus. Firesc, virtual. Potrivit lui Hamilton însuși, mașina a primit bonusuri pentru obiectele distruse, dar operatorul nu a confirmat întotdeauna lucrul la ținte. Pentru asta a plătit. Pentru a rezolva problema, drona a trimis o rachetă la centrul de control. După toate probabilitățile, a fost o dronă experimentală Stealthy XQ-58A Valkyrie și a funcționat pe sisteme de apărare aeriană de la sol.
O caracteristică a mașinii este capacitatea de a lucra autonom fără comunicare cu operatorul. De ce a profitat, de fapt, inteligența artificială, eliminând practic șoferul de la distanță. Ca răspuns la aceasta, administratorii de sistem au interzis astfel de lucruri pentru mașină, dar aici AI nu a fost în pierdere - a distrus turnul de releu și a pornit din nou la navigație autonomă.

Colonelul Hamilton este încă tânăr pentru a vorbi pe forumurile internaționale. Sursa: thedrive.com
Povestea lui Hamilton s-a răspândit instantaneu în întreaga lume. Părerile au fost împărțite polar - cine a considerat că aceasta era o altă vorbăreală a unui războinic incompetent, cineva a văzut nașterea faimosului Skynet aici. Mai mult și cyborgii vor cuceri lumea, iar oamenii vor fi împușcați pentru puncte bonus. Era mult fum din declarațiile colonelului, dar adevărul, ca de obicei, este undeva la mijloc.
Anne Strefanek, purtătoarea de cuvânt a Cartierului General al Forțelor Aeriene de la Pentagon, a adăugat incertitudine, transformând cuvintele lui Hamilton într-o anecdotă. Pentru The War Zone, ea a vorbit:
„A fost un experiment de gândire ipotetic, nu o simulare”.
Și, în general, cuvintele colonelului au fost scoase din context, nu atât de înțelese și mai mult ca o curiozitate. Nimeni nu se aștepta la o reacție diferită din partea Pentagonului - în jurul evenimentului a apărut mult zgomot, care amenința cu consecințe grave pentru întregul program. Wow, inteligența artificială, se pare, este lipsită de moralitate. Deși funcționează conform logicii umane.
La începutul lunii iunie, Tucker Hamilton însuși a încercat să-și dezavueze cuvintele la o conferință la Londra:
„Nu am făcut niciodată acest experiment... Chiar dacă acesta este un exemplu ipotetic, el ilustrează problemele reale cu capacitățile AI, motiv pentru care Forțele Aeriene sunt angajate în dezvoltarea etică a AI.”
S-ar părea că problema este închisă, iar publicul se poate dispersa. Dar e prea devreme.
Hrana pentru minte
Pentru început, să ne ocupăm chiar de termenul „inteligență artificială”, despre care toată lumea îl cunoaște, dar puțini pot da chiar o definiție grosieră. Vom folosi formularea Dicționarului Terminologic Internațional din 2008, în care AI:
„Domeniu de cunoștințe care se referă la dezvoltarea tehnologiilor astfel încât acțiunile sistemelor de calcul să semene cu comportamentul inteligent, inclusiv comportamentul uman”.
Adică, aceasta este o definiție general acceptată în Occident.
Mașina s-a comportat ca atunci când a decis să-și „calmeze” operatorul și apoi să zdrobească turnul de relee? Desigur, părea că un ucigaș motivat corespunzător este capabil de mai mult decât atât. Dacă te aprofundezi în clasificare, poți găsi un tip specific de IA - așa-numitul adaptiv (Adaptive AI), „implicând capacitatea sistemului de a se adapta la noile condiții, dobândind cunoștințe care nu au fost stabilite în timpul creării”.
Teoretic, nu este nimic surprinzător în actul „creierului” Stealthy XQ-58A Valkyrie în timpul experimentului. După cum a menționat pe bună dreptate Hamilton în raportul său, programul nu a introdus inițial nici măcar restricții privind distrugerea operatorului său - mașina a învățat totul singură. Și când a fost direct interzis să-i bată pe ai lor, inteligența artificială s-a adaptat din nou și a tăiat turnul de comunicații.
Există multe întrebări pentru programatori. De exemplu, de ce nu a avut un algoritm pentru pierderea bonusurilor pentru a-l lovi pe al lui? La această întrebare i-a răspuns parțial generalul în retragere al Forțelor Aeriene ale SUA, Paul Selva, în 2016:
„Seturile de date cu care ne ocupăm au devenit atât de mari și complexe încât, dacă nu avem ceva care să le ajute la sortarea, ne vom bloca în acele date”.
Ei bine, programatorii din istoria colonelului Hamilton, aparent, sunt înfundați.

Hellfire sub aripa unei drone MQ-1B Predator. Sursa: businessinsider.com
Acum despre de ce scuzele Pentagonului și Hamilton ar trebui să fie crezute cu o întindere foarte mare.
În primul rând, colonelul nu a spus doar povestea ca printre rânduri, distragând atenția de la raportul principal, ci a dedicat o întreagă prezentare acestui subiect. Nivelul conferinței de la Londra Future Combat Air & Space Capabilities Summit nu este în niciun caz propice pentru glume. Potrivit organizatorilor, au participat cel puțin 70 de lectori eminenți și peste 200 de delegați din întreaga lume. Din complexul militar-industrial au lucrat reprezentanți ai BAE Systems, Lockheed Martin Skunk Works și ai mai multor companii mari.
Apropo, subiectul Ucrainei a apărut în aproape fiecare raport - Occidentul monitorizează îndeaproape evenimentele și reflectă asupra rezultatelor.
Să scoți o mizerie sinceră la un forum atât de reprezentativ, să stârnești jumătate din lume și apoi să-ți ceri scuze pentru că am lasat limba? Dacă acesta este într-adevăr cazul, atunci reputația lui Hamilton nu poate fi ștearsă. Abia acum nivelul competențelor colonelului tocmai se răstoarnă, iar acesta este al doilea motiv pentru care primele sale cuvinte trebuie luate în considerare.
Tucker Hamilton conduce teste și operațiuni AI la baza forțelor aeriene Anglin din Florida. Sub conducerea bazei, a fost creată cea de-a 96-a forță operativă în aripa a 96-a de testare. Hamilton nu este primul an în care lucrează cu AI aviaţie – proiectează de câțiva ani F-16 Vipers parțial autonome, pentru care se dezvoltă infrastructura VENOM. Lucrarea merge destul de bine - în 2020, bătăliile virtuale de luptători cu AI și cu piloți adevărați s-au încheiat cu un scor de 5:0.
În același timp, există dificultăți despre care Hamilton le-a avertizat anul trecut:
„AI este foarte fragilă, ceea ce înseamnă că poate fi păcălit și manipulat cu ușurință. Trebuie să dezvoltăm modalități de a face AI mai robustă și de a înțelege mai bine de ce codul ia anumite decizii.”
În 2018, Hamilton a câștigat Collier Trophy cu Auto GCAS. Algoritmii AI au învățat să determine momentul pierderii controlului asupra aeronavei de către pilot, au preluat automat controlul și au îndepărtat mașina de la coliziune. Se spune că Auto GCAS a salvat deja pe cineva.
Drept urmare, probabilitatea ca Hamilton să i se ceară de sus să-și retragă cuvintele este mult mai mare decât probabilitatea ca un profesionist de acest nivel să înghețe prostii. Mai mult, ei s-au referit foarte stângaci la niște „experimente de gândire” din capul colonelului.
Printre sceptici cu privire la rezultat se numără The War Zone, ai cărei jurnaliști se îndoiesc că purtătorul de cuvânt al Pentagonului, Stefanek, este cu adevărat conștient de ceea ce se întâmplă în cea de-a 96-a aripă de testare din Florida. Zona de război a făcut o cerere către baza Hamilton, dar până acum fără răspuns.
Chiar e de ce să-ți fie frică de armată. Sume uriașe de bani sunt cheltuite pe programe de apărare AI pentru a împiedica China și Rusia să se apropie de nivelul Americii. Societatea civilă este destul de îngrijorată de perspectivele apariției „Terminatorilor” cu „Skynets” în plus. Așadar, în ianuarie 2018, oameni de știință proeminenți din lume au semnat o scrisoare deschisă prin care îi îndeamnă specialiștilor să se gândească la dorința de a crea o inteligență artificială din ce în ce mai puternică:
„Recomandăm cercetări ample pentru a asigura robustețea și bunăvoința sistemelor AI cu putere în creștere. Sistemele AI ar trebui să facă ceea ce vrem noi să facă.”
Potrivit lui Hamilton, AI nu face tot ceea ce își dorește o persoană.