Inteligenţă artificială. Partea a doua: extincție sau nemurire?

Iată a doua parte a articolului din seria „Stai, cum pot fi toate acestea reale, de ce încă nu se vorbește despre asta la fiecare colț”. În seria anterioară, a devenit cunoscut faptul că o explozie de inteligență se strecoară treptat asupra oamenilor de pe planeta Pământ, încearcă să se dezvolte de la o inteligență umană concentrată în rest la universală și, în sfârșit, superinteligență artificială.
Prima parte a articolului a început destul de nevinovat. Am discutat despre inteligența artificială (AI, care este specializată în rezolvarea unei sarcini specifice, cum ar fi determinarea rutelor sau jocul de șah), în lumea noastră există o mulțime de ele. Apoi am analizat de ce este atât de dificil să crești inteligența artificială de uz general (GAI, sau AI, care din punct de vedere al capacităților intelectuale poate fi comparată cu o persoană în rezolvarea oricărei probleme) din AII. Concluzionăm că ritmul exponențial al progresului tehnologic sugerează că AGI ar putea veni în curând. În cele din urmă, am decis că odată ce mașinile au atins nivelul de inteligență uman, s-ar putea întâmpla imediat următoarele:




Ca de obicei, ne uităm la ecran, fără să credem că superinteligența artificială (AI, care este mult mai inteligentă decât orice persoană) poate apărea deja în timpul vieții noastre și alegând emoțiile care ne-ar reflecta cel mai bine părerea despre această problemă.
Înainte de a ne aprofunda în specificul ASI, să ne reamintim ce înseamnă pentru o mașină să fie superinteligentă.
Principala diferență constă între superinteligența rapidă și superinteligența calitativă. Adesea, primul lucru care îți vine în minte când te gândești la un computer superinteligent este că poate gândi mult mai repede decât o persoană - de milioane de ori mai rapid și în cinci minute să înțeleagă ce i-ar trebui unei persoane să facă zece ani. ("Știu kung fu!")
Sună impresionant, iar ASI-ul ar trebui să gândească mai repede decât oricare dintre oameni - dar principala trăsătură de separare va fi calitatea inteligenței sale, care este cu totul alta. Oamenii sunt mult mai deștepți decât maimuțele, nu pentru că gândesc mai repede, ci pentru că creierul uman conține o serie de module cognitive ingenioase care realizează reprezentări lingvistice complexe, planificare pe termen lung, gândire abstractă, de care maimuțele nu sunt capabile. Dacă overclockați creierul unei maimuțe de o mie de ori, aceasta nu va deveni mai inteligentă decât noi - nici în zece ani nu va putea asambla proiectantul conform instrucțiunilor, ceea ce i-ar lua unei persoane maximum câteva ore. Există lucruri pe care o maimuță nu le va învăța niciodată, indiferent de câte ore își depune sau cât de repede funcționează creierul său.
În plus, maimuța nu știe să fie om, deoarece creierul său pur și simplu nu este capabil să realizeze existența altor lumi - maimuța poate ști ce este o persoană și ce este un zgârie-nori, dar nu va înțelege niciodată că un zgârie-nori a fost construit de oameni. În lumea ei, totul aparține naturii, iar macacul nu numai că nu poate construi un zgârie-nori, dar înțelege și că oricine îl poate construi. Și acesta este rezultatul unei mici diferențe în calitatea inteligenței.
În schema generală a inteligenței despre care vorbim, sau pur și simplu după standardele ființelor biologice, diferența de calitate a inteligenței umane și a maimuțelor este mică. În articolul anterior, am plasat cunoașterea biologică pe o scară:

Pentru a înțelege cât de serioasă ar fi o mașină superinteligentă, așezați-o cu două trepte mai sus decât un om pe această scară. Această mașină poate fi puțin suprainteligentă, dar superioritatea ei față de abilitățile noastre cognitive va fi aceeași cu a noastră față de maimuțe. Și așa cum un cimpanzeu nu poate înțelege niciodată că un zgârie-nori poate fi construit, s-ar putea să nu înțelegem niciodată ce va înțelege o mașină cu câțiva pași mai înaltă, chiar dacă mașina încearcă să ne explice. Și sunt doar câțiva pași. O mașină mai inteligentă ne va vedea ca niște furnici - ne va învăța ani de zile cele mai simple lucruri din poziția sa, iar aceste încercări vor fi complet fără speranță.
Tipul de superinteligență despre care vom vorbi astăzi se află cu mult dincolo de această scară. Aceasta este o explozie de inteligență - când mașina devine mai inteligentă, cu atât mai repede își poate crește propria inteligență, crescând treptat impulsul. Poate dura ani ca o astfel de mașină să depășească cimpanzeii în inteligență, dar poate câteva ore pentru a ne învinge cu un pas sau doi. Din acest moment, mașina poate sări deja peste patru trepte în fiecare secundă. De aceea ar trebui să înțelegem asta foarte curând după prima știri că mașina a atins nivelul de inteligență umană, s-ar putea să ne confruntăm cu realitatea de a coexista pe Pământ cu ceva care va fi mult mai sus decât noi pe această scară (poate de milioane de ori mai sus):

Și din moment ce am stabilit că este complet inutil să încercăm să înțelegem puterea unei mașini care se află la doar două crestături deasupra noastră, să stabilim odată pentru totdeauna că nu există nicio modalitate de a înțelege ce va face ASI și care sunt consecințele asta va fi pentru noi. Oricine susține altfel pur și simplu nu înțelege ce înseamnă superinteligență.
Evoluția a dezvoltat încet și treptat creierul biologic pe parcursul a sute de milioane de ani, iar dacă oamenii creează o mașină super-inteligentă, în anumite privințe vom depăși evoluția. Sau va face parte din evoluție - poate că modul în care funcționează evoluția este că inteligența se dezvoltă treptat până când ajunge la un punct de cotitură care anunță un nou viitor pentru toate ființele vii:
Din motive pe care le vom discuta mai târziu, o mare parte a comunității științifice consideră că întrebarea nu este dacă vom ajunge la acest punct critic, ci când.
Unde vom fi după asta?
Nu cred că nimeni din lumea asta, eu sau tu, va fi capabil să spună ce se va întâmpla când vom ajunge la punctul de vârf. Filosoful de la Oxford și teoreticianul principal al inteligenței artificiale, Nick Bostrom, consideră că putem reduce toate rezultatele posibile în două mari categorii.
În primul rând, privind istorie, știm următoarele despre viață: apar specii, există o anumită perioadă de timp și apoi cad inevitabil din bilanțul echilibrului vieții și se sting.

„Toate speciile mor” a fost o regulă la fel de sigură în istorie precum „toți oamenii mor cândva”. 99,9% dintre specii au căzut din bușteanul vieții și este clar că, dacă o specie rămâne pe acest buștean prea mult timp, o rafală de vânt natural sau un asteroid brusc va răsturna acel buștean. Bostrom numește extincția o stare de atracție, un loc în care toate speciile se echilibrează pentru a evita căderea într-un loc din care nicio specie nu s-a întors încă.
Și în timp ce majoritatea oamenilor de știință recunosc că ASI va avea capacitatea de a condamna oamenii la dispariție, mulți cred, de asemenea, că valorificarea puterii ASI va permite indivizilor (și speciei în ansamblu) să atingă a doua stare a atractorului, nemurirea speciei. . Bostrom crede că nemurirea unei specii este la fel de atrăgătoare ca și dispariția speciilor, adică dacă ajungem în acel punct, vom fi sortiți existenței eterne. Astfel, chiar dacă toate speciile de până astăzi au căzut din acest băț în bazinul dispariției, Bostrom crede că bușteanul are două laturi și pur și simplu nu a existat pe Pământ o astfel de inteligență care să înțeleagă cum să cadă pe cealaltă parte.

Dacă Bostrom și alții au dreptate și din toate informațiile pe care le avem la dispoziție ar putea foarte bine să fie, trebuie să acceptăm două fapte foarte șocante:
Apariția ASI pentru prima dată în istorie va deschide posibilitatea unei specii de a atinge nemurirea și de a ieși din ciclul fatal al dispariției.
Apariția ASI va avea un impact atât de inimaginabil de uriaș încât, cel mai probabil, va împinge umanitatea din acest jurnal într-o direcție sau alta.
Este foarte posibil ca atunci când evoluția atinge un astfel de punct de cotitură, să pună întotdeauna capăt relației oamenilor cu fluxul vieții și să creeze o lume nouă, cu sau fără oameni.
Acest lucru duce la o întrebare interesantă pe care doar o persoană leneșă nu și-ar pune-o: când vom ajunge la acest punct critic și unde ne va plasa? Nimeni în lume nu știe răspunsul la această dublă întrebare, dar atât de mulți oameni inteligenți încearcă să-l dea seama de zeci de ani. În restul articolului vom afla la ce au ajuns.
Să începem cu prima parte a acestei întrebări: când ar trebui să ajungem la punctul de vârf? Cu alte cuvinte: cât timp mai rămâne până când prima mașină ajunge la superinteligență?
Opiniile variază de la caz la caz. Mulți, inclusiv profesorul Vernor Vinge, omul de știință Ben Goertzel, co-fondatorul Sun Microsystems Bill Joy și futuristul Ray Kurzweil, au fost de acord cu expertul în învățarea automată Jeremy Howard când a prezentat următorul grafic la TED Talk:

Acești oameni împărtășesc opinia că ASI va veni în curând - această creștere exponențială, care ni se pare lentă astăzi, va exploda literalmente în următoarele câteva decenii.
Alții, precum co-fondatorul Microsoft Paul Allen, psihologul cercetător Gary Marcus, expertul în calculatoare Ernest Davis și antreprenorul în tehnologie Mitch Kapor, cred că gânditori precum Kurzweil subestimează serios amploarea problemei și cred că nu suntem atât de aproape de o răsturnare. punct.
Tabăra de la Kurzweil răspunde că singura subestimare care are loc este ignorarea creșterii exponențiale, iar cei care se îndoiesc pot fi comparați cu cei care s-au uitat la Internetul care crește lentă în 1985 și au susținut că acesta nu va avea niciun impact asupra lumii în viitorul apropiat. .
„Cei îndoielnici” ar putea contracara că este mai greu pentru progres să facă fiecare pas când vine vorba de inteligența exponențială, care anulează natura exponențială tipică a progresului tehnologic. Si asa mai departe.
A treia tabără, care îl include pe Nick Bostrom, nu este de acord cu prima și cu cea din urmă, argumentând că a) toate acestea se pot întâmpla absolut în viitorul apropiat; și b) nu există nicio garanție că acest lucru se va întâmpla deloc sau că va dura mai mult.
Alții, precum filozoful Hubert Dreyfus, cred că toate aceste trei grupuri cred naiv că va exista un punct de basculanță și că, cel mai probabil, nu vom ajunge niciodată la ASI.
Ce se întâmplă când adunăm toate aceste opinii împreună?
În 2013, Bostrom a realizat un sondaj în care a intervievat sute de experți în inteligență artificială în cadrul unei serii de conferințe pe următorul subiect: „Care va fi prognoza ta pentru atingerea AGI la nivel uman?” și a cerut un an optimist (în care vom avea AGI cu șanse de 10%), o presupunere realistă (un an în care vom avea șanse de 50% să avem AGI) și o presupunere puternică (cel mai devreme an în care AGI va apărea cu 90 - probabilitate procentuală). Iată rezultatele:
* An optimist mediu (10%): 2022
* Anul mediu realist (50%): 2040
* An pesimist mediu (90%): 2075
Respondenții medii consideră că în 25 de ani vom avea mai multe șanse să avem AII decât nu. O șansă de 90% de a avea AIS până în 2075 înseamnă că, dacă ești încă destul de tânăr acum, este probabil să se întâmple în timpul vieții.
Un studiu recent separat al lui James Barratt (autor al apreciatei și foarte bune cărți Our Latest Invention, extras din Am prezentat în atenția cititorilor Hi-News.ru) și Ben Herzel la conferința anuală AGI, Conferința AGI, tocmai au arătat părerile oamenilor despre anul în care ajungem la AGI: până în 2030, 2050, 2100, mai târziu sau niciodată. Iată rezultatele:
* 2030: 42% dintre respondenți
* 2050: 25%
* 2100: 20%
După 2100: 10%
Niciodată: 2%
Similar cu rezultatele lui Bostrom. În sondajul Barratt, mai mult de două treimi dintre cei chestionați cred că AGI va fi aici până în 2050 și mai puțin de jumătate cred că AGI va fi aici în următorii 15 ani. De asemenea, este izbitor că doar 2% dintre cei chestionați nu văd deloc AGI în viitorul nostru.
Dar AGI nu este un schimbător de jocuri ca ASI. Când, conform experților, vom avea ASI?
Bostrom i-a întrebat pe experți când vom ajunge la ASI: a) la doi ani de la ASI (adică aproape instantaneu din cauza unei explozii de inteligență); b) după 30 de ani. Rezultate?
Opinia medie a fost că o tranziție rapidă de la AGI la ASI s-ar întâmpla cu o șansă de 10 la sută, dar în 30 de ani sau mai puțin s-ar întâmpla cu o șansă de 75 la sută.
Din aceste date, nu știm la ce dată ar da respondenții ca șansă de 50% de ASI, dar pe baza celor două răspunsuri de mai sus, să presupunem că este de 20 de ani. Adică, cei mai mari experți ai lumii în domeniul AI cred că punctul de cotitură va veni în 2060 (AII va apărea în 2040 + va dura 20 de ani pentru a trece de la AGI la ASI).

Desigur, toate statisticile de mai sus sunt speculative și reprezintă pur și simplu opiniile experților AI, dar indică, de asemenea, că majoritatea persoanelor în cauză sunt de acord că până în 2060 ASI este probabil să sosească. Doar 45 de ani mai târziu.
Să trecem la a doua întrebare. Când ajungem la punctul culminant, de ce parte a alegerii fatale vom fi determinați?
Superinteligența va avea cea mai puternică putere, iar întrebarea critică pentru noi va fi următoarea:
Cine sau ce va controla această putere și care va fi motivația lor?
Răspunsul la această întrebare va depinde dacă ASI obține o dezvoltare incredibil de puternică, o dezvoltare incomensurabil de terifiantă sau ceva între ele.
Desigur, comunitatea de experți încearcă să răspundă și la aceste întrebări. Sondajul Bostrom a analizat probabilitatea unor posibile consecințe ale impactului AGI asupra umanității și a constatat că, cu o șansă de 52 la sută totul va merge foarte bine și cu o șansă de 31 la sută totul va merge fie prost, fie extrem de prost. Sondajul atașat la sfârșitul părții anterioare a acestui subiect, realizat între voi, dragi cititori ai Hi-News, a arătat cam aceleași rezultate. Pentru un rezultat relativ neutru, probabilitatea a fost de numai 17%. Cu alte cuvinte, cu toții credem că apariția AGI va fi o mare problemă. De asemenea, este de remarcat faptul că acest sondaj este despre apariția AGI - în cazul ASI, procentul de neutralitate va fi mai mic.
Înainte de a aprofunda și mai mult în părțile bune și rele ale întrebării, să combinăm ambele părți ale întrebării - „când se va întâmpla asta?” și „este bine sau rău?” într-un tabel care cuprinde punctele de vedere ale majorității experților.

Vom vorbi despre tabăra principală într-un minut, dar mai întâi decide-ți poziția. Cel mai probabil, sunteți în același loc în care mă aflu și eu, înainte de a începe să mă ocup de acest subiect. Există mai multe motive pentru care oamenii nu se gândesc deloc la acest subiect:
* După cum sa menționat în prima parte, filmele au confundat serios oamenii și faptele, prezentând scenarii nerealiste cu inteligență artificială, ceea ce a condus la faptul că nu ar trebui să luăm deloc AI în serios. James Barrat a comparat această situație cu faptul că Centrele pentru Controlul Bolilor au emis un avertisment serios despre vampirii din viitorul nostru.
* Din cauza așa-ziselor părtiniri cognitive, ne este foarte greu să credem în realitatea a ceva până când avem dovezi. Ne putem imagina cu siguranță că oamenii de știință în domeniul informaticii din 1988 discutau în mod regulat despre implicațiile de anvergură ale internetului și ce ar putea deveni, dar oamenii cu greu credeau că le va schimba viața până când a făcut-o cu adevărat. Doar că computerele nu puteau face asta în 1988, iar oamenii doar s-au uitat la computerele lor și s-au gândit: „Serios? Acesta este ceea ce va schimba lumea?" Imaginația lor era limitată de ceea ce învățaseră din experiența personală, știau ce este un computer și era greu de imaginat de ce va fi capabil computerul în viitor. Același lucru se întâmplă și acum cu AI. Am auzit că va deveni un lucru serios, dar din moment ce încă nu l-am întâlnit față în față și, în general, vedem manifestări destul de slabe ale AI în lumea noastră modernă, ne este destul de greu să credem că va fi drastic. ne schimbă viețile. Aceste prejudecăți se opun numeroși experți din toate taberele, precum și oameni interesați: ei încearcă să ne atragă atenția prin zgomotul egocentrismului colectiv de zi cu zi.
* Chiar dacă am crede toate acestea, de câte ori astăzi te-ai gândit la faptul că vei petrece restul eternității în neant? Puțin, de acord. Chiar dacă acest fapt este mult mai important decât orice faci în fiecare zi. Acest lucru se datorează faptului că creierul nostru tinde să se concentreze asupra lucrurilor mici, de zi cu zi, indiferent cât de nebunească este situația pe termen lung în care ne aflăm. Doar așa suntem.
Unul dintre scopurile acestui articol este să te scoată din tabăra „Îmi place să mă gândesc la alte lucruri” și să te pună în tabăra de experți, chiar dacă stai doar la răscrucea dintre cele două linii punctate din pătrat. mai sus, complet indecis.
În cursul cercetărilor, devine clar că opiniile majorității oamenilor se îndreaptă rapid către „tabăra principală”, iar trei sferturi dintre experți se încadrează în două subtabere în tabăra principală.

Vom vizita în totalitate ambele tabere. Să începem cu distracția.
De ce poate fi viitorul cel mai mare vis al nostru?
Pe măsură ce explorăm lumea AI, găsim un număr surprinzător de oameni în zona lor de confort. Oamenii din pătratul din dreapta sus zumzăie de entuziasm. Ei cred că vom cădea pe partea bună a grinzii și, de asemenea, cred că vom ajunge inevitabil la asta. Pentru ei, viitorul este doar cel mai bun la care se poate visa.
Punctul care îi deosebește pe acești oameni de alți gânditori nu este că vor să fie de partea fericită, ci că sunt siguri că o așteptăm.
Această încredere provine din controverse. Criticii cred că vine dintr-o entuziasm orbitor care eclipsează potențialele negative. Dar susținătorii spun că prognozele sumbre sunt întotdeauna naive; tehnologia continuă și ne va ajuta întotdeauna mai mult decât să ne dăuneze.
Ești liber să alegi oricare dintre aceste opinii, dar lasă-ți deoparte scepticismul și aruncă o privire atentă la partea fericită a grinzii de echilibru, încercând să accepți faptul că tot ce ai citit poate s-a întâmplat deja. Dacă ar fi să le arătați vânătorilor-culegători lumea noastră de confort, tehnologie și abundență nesfârșită, li s-ar părea o fantezie magică - și ne comportăm destul de modest, incapabili să admitem că aceeași transformare de neînțeles ne așteaptă și în viitor.
Nick Bostrom descrie trei căi pe care le poate parcurge un sistem AI superinteligent:
* Un oracol care poate răspunde la orice întrebare bine definită, inclusiv întrebări dificile la care oamenii nu pot răspunde, cum ar fi „Cum faci un motor de mașină mai eficient?” Google este un tip primitiv de „oracol”.
* Un geniu care va executa orice comandă de nivel înalt - folosește asamblatorul molecular pentru a crea o versiune nouă, mai eficientă a unui motor de mașină - și așteaptă următoarea comandă.
* Un suveran care va avea acces larg și capacitatea de a funcționa liber în lume, luând propriile decizii și îmbunătățind procesul. El va inventa un mod de transport privat mai ieftin, mai rapid și mai sigur decât mașina.
Aceste întrebări și sarcini, care ni se par dificile, vor părea sistemului suprainteligent ca și cum cineva ar fi cerut să îmbunătățească situația „Am căzut un creion de pe masă”, în care pur și simplu l-ai ridica și l-ai pune înapoi.
Eliezer Yudkowsky, un specialist american în inteligență artificială, a remarcat bine:
Există mulți oameni de știință, inventatori și antreprenori nerăbdători care au ales o zonă de confort încrezător pe masa noastră, dar pentru o plimbare către cele mai bune din această lume cea mai bună dintre toate posibilele, avem nevoie de un singur ghid.
Ray Kurzweil este ambivalent. Unii îi idolatrizează ideile, alții disprețuiesc. Unii stau la mijloc - Douglas Hofstadter, discutând despre ideile cărților lui Kurzweil, a remarcat elocvent că „parcă iei multă mâncare bună și puțină caca de câine și apoi amesteci totul, astfel încât să nu poți spune ce este bun. și ce este rău.”
Indiferent dacă vă plac sau nu ideile lui, este imposibil să treceți pe lângă ele fără o umbră de interes. A început să inventeze lucruri în adolescență, iar în anii următori a inventat câteva lucruri importante, inclusiv primul scaner plat, primul scaner text-to-speech, binecunoscutul sintetizator de muzică Kurzweil (primul pian electric adevărat) și primul recunoaștere a vorbirii de succes comercial. De asemenea, este autorul a cinci cărți apreciate. Kurzweil este apreciat pentru predicțiile sale îndrăznețe, iar istoricul său este destul de bun - la sfârșitul anilor 80, când Internetul era încă la început, el a sugerat că până în anii 2000 Web-ul va deveni un fenomen global. The Wall Street Journal l-a numit pe Kurzweil un „geniu neliniștit”, Forbes o „mașină de gândire globală”, Inc. Magazine – „moștenitorul de drept al lui Edison”, Bill Gates – „cel mai bun dintre cei care prezic viitorul inteligenței artificiale”. În 2012, co-fondatorul Google, Larry Page, l-a angajat pe Kurzweil pentru a fi CTO. În 2011, a co-fondat Universitatea Singularity, găzduită de NASA și sponsorizată parțial de Google.
Biografia lui contează. Când Kurzweil vorbește despre viziunea lui despre viitor, sună ca o persoană nebună, dar lucrul cu adevărat nebun este că este departe de a fi nebun - este o persoană incredibil de inteligentă, educată și sănătoasă. S-ar putea să crezi că greșește în predicții, dar nu este un prost. Previziunile lui Kurzweil sunt împărtășite de mulți experți în „zona de confort”, Peter Diamandis și Ben Herzel. Iată ce se va întâmpla, după părerea lui.
cronologie
Kurzweil crede că calculatoarele vor atinge nivelul de inteligență generală artificială (AGI) până în 2029, iar până în 2045 nu vom avea doar superinteligență artificială, ci și o lume complet nouă - timpul așa-numitei singularități. Cronologia lui AI este încă considerată exagerat de exagerat, dar în ultimii 15 ani, dezvoltarea rapidă a sistemelor Narrow AI (AI) a făcut ca mulți experți să dezerteze la Kurzweil. Predicțiile sale sunt încă mai ambițioase decât sondajul Bostrom (ARI până în 2040, ASI până în 2060), dar nu cu mult.
Potrivit lui Kurzweil, trei revoluții simultane în biotehnologie, nanotehnologie și, mai important, AI duc la singularitatea anului 2045. Dar înainte de a continua - iar nanotehnologia urmărește în mod indisolubil inteligența artificială - să ne luăm un minut la nanotehnologie.

Câteva cuvinte despre nanotehnologie
Nanotehnologia este ceea ce de obicei numim tehnologii care se ocupă de manipularea materiei în intervalul 1-100 nanometri. Un nanometru este o miliardime dintr-un metru sau o milioneme dintr-un milimetru; în termen de 1-100 nanometri, puteți încadra viruși (100 nm în diametru), ADN (10 nm lățime), molecule de hemoglobină (5 nm), glucoză (1 nm) și multe altele. Dacă nanotehnologia devine vreodată a noastră, următorul pas va fi manipularea atomilor individuali, care sunt cu doar un ordin de mărime mai mici (~.1 nm).
Pentru a înțelege unde oamenii se confruntă cu probleme în încercarea de a manipula materia la o asemenea scară, să trecem rapid la o scară mai mare. Stația Spațială Internațională este situată la 481 de kilometri deasupra Pământului. Dacă oamenii ar fi giganți și ar lovi ISS cu capul, ar fi de 250 de ori mai mari decât sunt acum. Dacă măriți ceva de la 000 la 1 de nanometri cu un factor de 100, obțineți 250 centimetri. Nanotehnologia este echivalentul unui om la fel de înalt ca ISS, care încearcă să controleze lucruri de mărimea unui grăunte de nisip sau a unui glob ocular. Pentru a ajunge la următorul nivel - controlul atomilor individuali - gigantul va trebui să poziționeze cu atenție obiecte cu un diametru de 000/2,5 de milimetru. Oamenii obișnuiți ar avea nevoie de un microscop pentru a-i vedea.
Richard Feynman a vorbit pentru prima dată despre nanotehnologie în 1959. Apoi a spus: „Principiile fizicii, din câte îmi pot da seama, nu vorbesc împotriva posibilității de a controla lucrurile atom cu atom. În principiu, un fizician ar putea sintetiza orice substanță chimică scrisă de un chimist. Cum? Prin plasarea atomilor acolo unde chimistul spune că se face o substanță.” Toate acestea sunt simplitate. Dacă știi cum să muți molecule sau atomi individuali, poți face aproape orice.
Nanotehnologia a devenit un domeniu științific serios în 1986, când inginerul Eric Drexler și-a prezentat bazele în cartea sa fundamentală Machines of Creation, totuși Drexler însuși crede că cei care doresc să afle mai multe despre ideile actuale în nanotehnologie ar trebui să citească cartea sa din 2013 „Full Abundance” (Radical Abundenţă).
Câteva cuvinte despre „slime gri”
Ne aprofundăm în nanotehnologie. În special, subiectul „gray goo” este unul dintre cele mai neplăcute subiecte din domeniul nanotehnologiei, care nu poate fi ignorat. În versiunile mai vechi ale teoriei nanotehnologiei, a fost propusă metoda de nanoasamblare, care implică crearea a trilioane de nanoroboți mici care ar lucra împreună pentru a crea ceva. O modalitate de a crea trilioane de nanoroboți este de a crea unul care se poate reproduce singur, adică de la unu - doi, de la doi - patru și așa mai departe. Câteva trilioane de nanoroboți vor apărea într-o zi. Aceasta este puterea creșterii exponențiale. E amuzant, nu-i așa?
E amuzant, dar exact până când duce la apocalipsă. Problema este că puterea creșterii exponențiale, care face destul de convenabilă crearea rapidă a unui trilion de nanoboți, face ca auto-replicarea să fie un lucru înfricoșător pe termen lung. Ce se întâmplă dacă sistemul se prăbușește și, în loc să oprească replicarea la câteva trilioane, nanoboții continuă să se înmulțească? Ce se întâmplă dacă întregul proces depinde de carbon? Biomasa Pământului conține 10^45 atomi de carbon. Un nanobot ar trebui să fie de ordinul a 10^6 atomi de carbon, așa că 10^39 nanoboți ar înghiți toată viața de pe Pământ în doar 130 de replicări. Un ocean de nanoboți („slime gri”) va inunda planeta. Oamenii de știință cred că nanoboții se pot replica în 100 de secunde, ceea ce înseamnă că o simplă greșeală ar putea ucide toată viața de pe Pământ în doar 3,5 ore.
Ar putea fi și mai rău dacă mâinile teroriștilor și specialiștilor nefavorabili ajung la nanotehnologii. Ei ar putea crea câteva trilioane de nanoboți și să-i programeze să se răspândească în tăcere în întreaga lume în câteva săptămâni. Apoi, la o apăsare de buton, în doar 90 de minute, vor mânca totul, fără nicio șansă.
Deși această poveste de groază a fost discutată pe larg de ani de zile, vestea bună este că este doar o poveste de groază. Eric Drexler, cel care a inventat termenul „grey goo”, a spus zilele trecute: „Oamenii iubesc poveștile înfricoșătoare, iar aceasta aparține categoriei poveștilor de groază cu zombi. Această idee în sine deja mănâncă creierul.
Odată ce ajungem la fundul nanotehnologiei, o putem folosi pentru a crea dispozitive tehnice, haine, alimente, bioproduse - celule sanguine, luptători de virusuri și cancer, țesut muscular etc. - orice. Și într-o lume care folosește nanotehnologia, costul unui material nu va mai fi legat de deficitul său sau de complexitatea procesului său de fabricație, ci mai degrabă de complexitatea structurii sale atomice. În lumea nanotehnologiei, un diamant ar putea deveni mai ieftin decât o radieră.
Nici măcar nu suntem aproape încă. Și nu este complet clar dacă subestimăm sau supraestimăm complexitatea acestei căi. Totuși, totul se referă la faptul că nanotehnologia nu este departe. Kurzweil sugerează că până în anii 2020 le vom avea. Guvernele lumii știu că nanotehnologiile pot promite un viitor mare și, prin urmare, investesc multe miliarde în ele.
Imaginează-ți ce fel de capabilități ar obține un computer superinteligent dacă ar ajunge la un asamblator de încredere la scară nanometrică. Dar nanotehnologia este ideea noastră și încercăm să o folosim, este dificil pentru noi. Dacă pentru sistemul ASI vor fi doar o glumă, iar ASI însuși va veni cu tehnologii care vor fi de multe ori mai puternice decât orice ne putem imagina în principiu? Am fost de acord: nimeni nu poate ghici de ce va fi capabilă superinteligența artificială? Există o opinie că creierul nostru nu este capabil să prezică nici măcar cel puțin ceea ce se va întâmpla.
Ce ar putea face AI pentru noi?

Înarmat cu superintelligence și cu toate tehnologiile pe care le-ar putea crea, ASI va fi probabil capabil să rezolve toate problemele umanității. Încălzire globală? CSI va înceta mai întâi să emită dioxid de carbon, venind cu o serie de moduri eficiente de a genera energie care nu implică combustibili fosili. El va veni apoi cu o modalitate eficientă și inovatoare de a elimina excesul de CO2 din atmosferă. Cancer și alte boli? Nu este o problemă - asistența medicală și medicina se vor schimba în moduri care sunt de neimaginat. Foamete în lume? ISI va folosi nanotehnologia pentru a crea carne identică cu carnea naturală, de la zero, adevărată.
Nanotehnologia va putea transforma o grămadă de gunoi într-o cuvă de carne proaspătă sau alte alimente (nici măcar în forma obișnuită - imaginați-vă un cub de măr uriaș) și să distribuie toate aceste alimente în întreaga lume folosind sisteme avansate de transport. Desigur, acest lucru va fi grozav pentru animalele care nu vor mai trebui să moară pentru mâncare. ASI poate face, de asemenea, multe alte lucruri, cum ar fi salvarea speciilor pe cale de dispariție sau chiar aducerea înapoi a celor care sunt deja dispărute din ADN-ul conservat. ASI ne poate rezolva cele mai dificile probleme macroeconomice – cele mai dificile dezbateri economice, probleme de etică și filozofie, comerț mondial – toate acestea vor fi dureros de evidente pentru ASI.
Dar există ceva special pe care ISI ar putea face pentru noi. Ademenitoare și tachinare care ar schimba totul: ASI ne poate ajuta să facem față mortalității. Înțelegând treptat posibilitățile AI, este posibil să vă reconsiderați toate ideile despre moarte.
Nu a existat niciun motiv ca evoluția să ne prelungească durata de viață dincolo de ceea ce este acum. Dacă trăim suficient de mult pentru a purta și crește copiii până la punctul în care ei se pot descurca singuri, evoluția este suficientă. Din punct de vedere evolutiv, 30+ ani sunt suficienți pentru dezvoltare și nu există niciun motiv pentru mutații care prelungesc viața și reduc valoarea selecției naturale. William Butler Yeats a numit specia noastră „un suflet atașat unui animal pe moarte”. Nu prea distractiv.
Și din moment ce murim cu toții cândva, trăim cu gândul că moartea este inevitabilă. Ne gândim la îmbătrânirea în timp – să continuăm să mergem înainte și să nu putem opri acest proces. Dar gândul morții este perfide: prinși de ea, uităm să trăim. Richard Feynman a scris:
„Există un lucru minunat în biologie: în această știință nu există nimic care să vorbească despre necesitatea morții. Dacă vrem să creăm o mașină cu mișcare perpetuă, ne dăm seama că am descoperit destule legi în fizică care fie indică faptul că acest lucru este imposibil, fie că legile sunt greșite. Dar nu există nimic în biologie care să indice inevitabilitatea morții. Acest lucru mă face să cred că nu este atât de inevitabil și este doar o chestiune de timp până când biologii descoperă cauza acestei probleme, a acestei boli universale teribile, ea se va vindeca.
Cert este că îmbătrânirea nu are nimic de-a face cu timpul. Îmbătrânirea este uzura materialelor fizice ale corpului. Piesele auto se degradează și ele - dar este această îmbătrânire inevitabilă? Dacă vă reparați mașina pe măsură ce piesele se uzează, aceasta va dura pentru totdeauna. Corpul uman nu este diferit, doar mai complex.
Kurzweil vorbește despre nanoboți inteligenți, conectați la Wi-Fi în fluxul sanguin, care ar putea îndeplini nenumărate sarcini pentru sănătatea umană, inclusiv repararea sau înlocuirea regulată a celulelor uzate din orice parte a corpului. Dacă este îmbunătățit acest proces (sau o alternativă sugerată de ASI-urile mai inteligente), nu numai că va menține corpul sănătos, ci poate inversa îmbătrânirea. Diferența dintre corpul unui bărbat de 60 de ani și cel al unui bărbat de 30 de ani constă într-o mână de probleme fizice care ar putea fi corectate cu tehnologia potrivită. ASI ar putea construi o mașină în care o persoană să intre la 60 de ani și să iasă la 30 de ani.
Chiar și un creier degradant ar putea fi reînnoit. ASI ar ști cu siguranță cum să facă acest lucru fără a afecta datele creierului (personalitate, amintiri etc.). Un bărbat în vârstă de 90 de ani, care suferă de degradare completă a creierului, ar putea fi recalificat, modernizat și reîntors la începutul carierei sale. Poate părea absurd, dar corpul este o mână de atomi, iar ASI-ul le-ar putea manipula cu ușurință, orice structură atomică. Nu este chiar atât de absurd.
Kurzweil crede, de asemenea, că materialele artificiale vor deveni din ce în ce mai integrate în organism pe măsură ce trece timpul. Pentru început, organele ar putea fi înlocuite cu versiuni ultra-avansate de mașini care ar dura pentru totdeauna și nu ar da niciodată greș. Apoi am putea face o reproiectare completă a corpului, înlocuind celulele roșii din sânge cu nanoboți perfecți care se mișcă singuri, eliminând cu totul nevoia unei inimi. De asemenea, am putea să ne îmbunătățim abilitățile cognitive, să începem să gândim în miliarde mai repede și să accesăm toate informațiile disponibile umanității prin cloud.
Posibilitățile de a atinge noi orizonturi ar fi cu adevărat nelimitate. Oamenii au reușit să ofere sexului un nou scop, o fac din plăcere, și nu doar pentru reproducere. Kurzweil crede că putem face același lucru cu mâncarea. Nanoboții ar putea furniza nutriția ideală direct celulelor corpului, permițând substanțelor nesănătoase să treacă prin corp prin și prin corp. Teoreticianul în nanotehnologie Robert Freitas a dezvoltat deja un înlocuitor pentru celulele sanguine care, atunci când este implementat într-un corp uman, îi poate permite să nu respire timp de 15 minute - și acest lucru a fost inventat de un bărbat. Imaginați-vă când ISI primește puterea.
În cele din urmă, Kurzweil crede că oamenii vor ajunge într-un punct în care devin complet artificiali; momentul în care ne vom uita la materialele biologice și ne vom gândi cât de primitivi am fost; momentul în care vom citi despre primele etape ale istoriei omenirii, minunându-ne de modul în care germenii, accidentele, bolile sau doar bătrânețea ar putea ucide o persoană împotriva voinței sale. În cele din urmă, oamenii își vor depăși propria biologie și vor deveni eterni - așa este calea pe partea fericită a jurnalului de echilibru, despre care am vorbit de la bun început. Și oamenii care cred în asta sunt, de asemenea, siguri că un astfel de viitor ne așteaptă foarte, foarte curând.
Cu siguranță nu veți fi surprinși că ideile lui Kurzweil au atras critici grele. Singularitatea sa din 2045 și viața veșnică ulterioară pentru oameni a fost numită „ascensiunea tocilar” sau „crearea inteligentă a oamenilor cu un IQ de 140”. Alții au pus la îndoială intervalul de timp optimist, înțelegând corpul uman și creierul, amintind de legea lui Moore, care încă nu a dispărut. Pentru fiecare expert care crede în ideile lui Kurzweil, sunt trei care cred că el greșește.
Dar cel mai interesant lucru este că majoritatea experților care nu sunt de acord cu el, în general, nu spun că acest lucru este imposibil. În loc să spună „prostii, asta nu se va întâmpla niciodată”, ei spun ceva de genul „toate astea se vor întâmpla dacă ajungem la ASI, dar asta e prinderea”. Bostrom, unul dintre experții recunoscuți în IA care avertizează despre pericolele AI, admite și:
„Nu va exista aproape nicio problemă pe care superinteligența să nu o poată rezolva sau chiar să ne ajute să o rezolvăm. Boala, sărăcia, distrugerea mediului, suferința de tot felul - toată această superinteligență cu ajutorul nanotehnologiei se poate rezolva într-un moment. De asemenea, superinteligenta ne poate oferi o durata de viata nelimitata prin oprirea si inversarea procesului de imbatranire folosind nanomedicina sau capacitatea de a ne incarca in cloud. Superinteligența poate crea și oportunități pentru o creștere infinită a capacității intelectuale și emoționale; el ne poate ajuta să creăm o lume în care vom trăi în bucurie și înțelegere, apropiindu-ne de idealurile și realizându-ne regulat visele.
Acesta este un citat al unuia dintre criticii lui Kurzweil, care recunoaște însă că toate acestea sunt posibile dacă reușim să creăm un ASI sigur. Kurzweil a definit pur și simplu ce ar trebui să fie superinteligența artificială, dacă ar deveni posibil. Și dacă este un zeu bun.
Cea mai evidentă critică la adresa susținătorilor zonei de confort este că aceștia pot greși al naibii cu privire la viitorul ASI. În cartea sa The Singularity, Kurzweil a dedicat 20 de pagini din 700 potențialelor amenințări ASI. Întrebarea nu este când ajungem la ASI, întrebarea este care va fi motivația lui. Kurzweil răspunde la această întrebare cu precauție: „ASI apare din multe eforturi disparate și va fi profund integrat în infrastructura civilizației noastre. De fapt, va fi strâns încorporat în corpul și creierul nostru. Va reflecta valorile noastre pentru că va fi una cu noi.”
Dar dacă răspunsul este, de ce sunt atât de mulți oameni inteligenți din această lume îngrijorați de viitorul inteligenței artificiale? De ce spune Stephen Hawking că dezvoltarea ASI „ar putea însemna sfârșitul rasei umane”? Bill Gates spune că „nu înțelege oamenii care nu sunt îngrijorați” de asta. Elon Musk se teme că „invocăm un demon”. De ce mulți experți consideră ASI cea mai mare amenințare la adresa umanității?
Vom vorbi despre asta data viitoare.
Adaptare după waitbutwhy.com, compilație de Tim Urban. Articolul folosește materiale din lucrările lui Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nielsson, Steven Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog și Kai Sotal, Susan Schneider, Stuart Russell și Peter Norvig, Theodore. Modis, Gary Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Kelly, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Goertzel, Arthur C. Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
- ILYA HEL
- http://hi-news.ru/technology/iskusstvennyj-intellekt-chast-vtoraya-vymiranie-ili-bessmertie.html
informații