Inteligenţă artificială. Partea a doua: extincție sau nemurire?

60
Inteligenţă artificială. Partea a doua: extincție sau nemurire?


Iată a doua parte a articolului din seria „Stai, cum pot fi toate acestea reale, de ce încă nu se vorbește despre asta la fiecare colț”. În seria anterioară, a devenit cunoscut faptul că o explozie de inteligență se strecoară treptat asupra oamenilor de pe planeta Pământ, încearcă să se dezvolte de la o inteligență umană concentrată în rest la universală și, în sfârșit, superinteligență artificială.

„Poate că avem o problemă extrem de dificilă în fața noastră și nu se știe cât timp este alocat soluționării acesteia, dar viitorul omenirii poate depinde de soluția ei.” — Nick Bostrom.


Prima parte a articolului a început destul de nevinovat. Am discutat despre inteligența artificială (AI, care este specializată în rezolvarea unei sarcini specifice, cum ar fi determinarea rutelor sau jocul de șah), în lumea noastră există o mulțime de ele. Apoi am analizat de ce este atât de dificil să crești inteligența artificială de uz general (GAI, sau AI, care din punct de vedere al capacităților intelectuale poate fi comparată cu o persoană în rezolvarea oricărei probleme) din AII. Concluzionăm că ritmul exponențial al progresului tehnologic sugerează că AGI ar putea veni în curând. În cele din urmă, am decis că odată ce mașinile au atins nivelul de inteligență uman, s-ar putea întâmpla imediat următoarele:






Ca de obicei, ne uităm la ecran, fără să credem că superinteligența artificială (AI, care este mult mai inteligentă decât orice persoană) poate apărea deja în timpul vieții noastre și alegând emoțiile care ne-ar reflecta cel mai bine părerea despre această problemă.

Înainte de a ne aprofunda în specificul ASI, să ne reamintim ce înseamnă pentru o mașină să fie superinteligentă.

Principala diferență constă între superinteligența rapidă și superinteligența calitativă. Adesea, primul lucru care îți vine în minte când te gândești la un computer superinteligent este că poate gândi mult mai repede decât o persoană - de milioane de ori mai rapid și în cinci minute să înțeleagă ce i-ar trebui unei persoane să facă zece ani. ("Știu kung fu!")

Sună impresionant, iar ASI-ul ar trebui să gândească mai repede decât oricare dintre oameni - dar principala trăsătură de separare va fi calitatea inteligenței sale, care este cu totul alta. Oamenii sunt mult mai deștepți decât maimuțele, nu pentru că gândesc mai repede, ci pentru că creierul uman conține o serie de module cognitive ingenioase care realizează reprezentări lingvistice complexe, planificare pe termen lung, gândire abstractă, de care maimuțele nu sunt capabile. Dacă overclockați creierul unei maimuțe de o mie de ori, aceasta nu va deveni mai inteligentă decât noi - nici în zece ani nu va putea asambla proiectantul conform instrucțiunilor, ceea ce i-ar lua unei persoane maximum câteva ore. Există lucruri pe care o maimuță nu le va învăța niciodată, indiferent de câte ore își depune sau cât de repede funcționează creierul său.

În plus, maimuța nu știe să fie om, deoarece creierul său pur și simplu nu este capabil să realizeze existența altor lumi - maimuța poate ști ce este o persoană și ce este un zgârie-nori, dar nu va înțelege niciodată că un zgârie-nori a fost construit de oameni. În lumea ei, totul aparține naturii, iar macacul nu numai că nu poate construi un zgârie-nori, dar înțelege și că oricine îl poate construi. Și acesta este rezultatul unei mici diferențe în calitatea inteligenței.

În schema generală a inteligenței despre care vorbim, sau pur și simplu după standardele ființelor biologice, diferența de calitate a inteligenței umane și a maimuțelor este mică. În articolul anterior, am plasat cunoașterea biologică pe o scară:



Pentru a înțelege cât de serioasă ar fi o mașină superinteligentă, așezați-o cu două trepte mai sus decât un om pe această scară. Această mașină poate fi puțin suprainteligentă, dar superioritatea ei față de abilitățile noastre cognitive va fi aceeași cu a noastră față de maimuțe. Și așa cum un cimpanzeu nu poate înțelege niciodată că un zgârie-nori poate fi construit, s-ar putea să nu înțelegem niciodată ce va înțelege o mașină cu câțiva pași mai înaltă, chiar dacă mașina încearcă să ne explice. Și sunt doar câțiva pași. O mașină mai inteligentă ne va vedea ca niște furnici - ne va învăța ani de zile cele mai simple lucruri din poziția sa, iar aceste încercări vor fi complet fără speranță.

Tipul de superinteligență despre care vom vorbi astăzi se află cu mult dincolo de această scară. Aceasta este o explozie de inteligență - când mașina devine mai inteligentă, cu atât mai repede își poate crește propria inteligență, crescând treptat impulsul. Poate dura ani ca o astfel de mașină să depășească cimpanzeii în inteligență, dar poate câteva ore pentru a ne învinge cu un pas sau doi. Din acest moment, mașina poate sări deja peste patru trepte în fiecare secundă. De aceea ar trebui să înțelegem asta foarte curând după prima știri că mașina a atins nivelul de inteligență umană, s-ar putea să ne confruntăm cu realitatea de a coexista pe Pământ cu ceva care va fi mult mai sus decât noi pe această scară (poate de milioane de ori mai sus):



Și din moment ce am stabilit că este complet inutil să încercăm să înțelegem puterea unei mașini care se află la doar două crestături deasupra noastră, să stabilim odată pentru totdeauna că nu există nicio modalitate de a înțelege ce va face ASI și care sunt consecințele asta va fi pentru noi. Oricine susține altfel pur și simplu nu înțelege ce înseamnă superinteligență.

Evoluția a dezvoltat încet și treptat creierul biologic pe parcursul a sute de milioane de ani, iar dacă oamenii creează o mașină super-inteligentă, în anumite privințe vom depăși evoluția. Sau va face parte din evoluție - poate că modul în care funcționează evoluția este că inteligența se dezvoltă treptat până când ajunge la un punct de cotitură care anunță un nou viitor pentru toate ființele vii:



Din motive pe care le vom discuta mai târziu, o mare parte a comunității științifice consideră că întrebarea nu este dacă vom ajunge la acest punct critic, ci când.

Unde vom fi după asta?

Nu cred că nimeni din lumea asta, eu sau tu, va fi capabil să spună ce se va întâmpla când vom ajunge la punctul de vârf. Filosoful de la Oxford și teoreticianul principal al inteligenței artificiale, Nick Bostrom, consideră că putem reduce toate rezultatele posibile în două mari categorii.

În primul rând, privind istorie, știm următoarele despre viață: apar specii, există o anumită perioadă de timp și apoi cad inevitabil din bilanțul echilibrului vieții și se sting.



„Toate speciile mor” a fost o regulă la fel de sigură în istorie precum „toți oamenii mor cândva”. 99,9% dintre specii au căzut din bușteanul vieții și este clar că, dacă o specie rămâne pe acest buștean prea mult timp, o rafală de vânt natural sau un asteroid brusc va răsturna acel buștean. Bostrom numește extincția o stare de atracție, un loc în care toate speciile se echilibrează pentru a evita căderea într-un loc din care nicio specie nu s-a întors încă.

Și în timp ce majoritatea oamenilor de știință recunosc că ASI va avea capacitatea de a condamna oamenii la dispariție, mulți cred, de asemenea, că valorificarea puterii ASI va permite indivizilor (și speciei în ansamblu) să atingă a doua stare a atractorului, nemurirea speciei. . Bostrom crede că nemurirea unei specii este la fel de atrăgătoare ca și dispariția speciilor, adică dacă ajungem în acel punct, vom fi sortiți existenței eterne. Astfel, chiar dacă toate speciile de până astăzi au căzut din acest băț în bazinul dispariției, Bostrom crede că bușteanul are două laturi și pur și simplu nu a existat pe Pământ o astfel de inteligență care să înțeleagă cum să cadă pe cealaltă parte.



Dacă Bostrom și alții au dreptate și din toate informațiile pe care le avem la dispoziție ar putea foarte bine să fie, trebuie să acceptăm două fapte foarte șocante:

Apariția ASI pentru prima dată în istorie va deschide posibilitatea unei specii de a atinge nemurirea și de a ieși din ciclul fatal al dispariției.
Apariția ASI va avea un impact atât de inimaginabil de uriaș încât, cel mai probabil, va împinge umanitatea din acest jurnal într-o direcție sau alta.
Este foarte posibil ca atunci când evoluția atinge un astfel de punct de cotitură, să pună întotdeauna capăt relației oamenilor cu fluxul vieții și să creeze o lume nouă, cu sau fără oameni.

Acest lucru duce la o întrebare interesantă pe care doar o persoană leneșă nu și-ar pune-o: când vom ajunge la acest punct critic și unde ne va plasa? Nimeni în lume nu știe răspunsul la această dublă întrebare, dar atât de mulți oameni inteligenți încearcă să-l dea seama de zeci de ani. În restul articolului vom afla la ce au ajuns.

* * *


Să începem cu prima parte a acestei întrebări: când ar trebui să ajungem la punctul de vârf? Cu alte cuvinte: cât timp mai rămâne până când prima mașină ajunge la superinteligență?

Opiniile variază de la caz la caz. Mulți, inclusiv profesorul Vernor Vinge, omul de știință Ben Goertzel, co-fondatorul Sun Microsystems Bill Joy și futuristul Ray Kurzweil, au fost de acord cu expertul în învățarea automată Jeremy Howard când a prezentat următorul grafic la TED Talk:



Acești oameni împărtășesc opinia că ASI va veni în curând - această creștere exponențială, care ni se pare lentă astăzi, va exploda literalmente în următoarele câteva decenii.

Alții, precum co-fondatorul Microsoft Paul Allen, psihologul cercetător Gary Marcus, expertul în calculatoare Ernest Davis și antreprenorul în tehnologie Mitch Kapor, cred că gânditori precum Kurzweil subestimează serios amploarea problemei și cred că nu suntem atât de aproape de o răsturnare. punct.

Tabăra de la Kurzweil răspunde că singura subestimare care are loc este ignorarea creșterii exponențiale, iar cei care se îndoiesc pot fi comparați cu cei care s-au uitat la Internetul care crește lentă în 1985 și au susținut că acesta nu va avea niciun impact asupra lumii în viitorul apropiat. .

„Cei îndoielnici” ar putea contracara că este mai greu pentru progres să facă fiecare pas când vine vorba de inteligența exponențială, care anulează natura exponențială tipică a progresului tehnologic. Si asa mai departe.

A treia tabără, care îl include pe Nick Bostrom, nu este de acord cu prima și cu cea din urmă, argumentând că a) toate acestea se pot întâmpla absolut în viitorul apropiat; și b) nu există nicio garanție că acest lucru se va întâmpla deloc sau că va dura mai mult.

Alții, precum filozoful Hubert Dreyfus, cred că toate aceste trei grupuri cred naiv că va exista un punct de basculanță și că, cel mai probabil, nu vom ajunge niciodată la ASI.

Ce se întâmplă când adunăm toate aceste opinii împreună?

În 2013, Bostrom a realizat un sondaj în care a intervievat sute de experți în inteligență artificială în cadrul unei serii de conferințe pe următorul subiect: „Care va fi prognoza ta pentru atingerea AGI la nivel uman?” și a cerut un an optimist (în care vom avea AGI cu șanse de 10%), o presupunere realistă (un an în care vom avea șanse de 50% să avem AGI) și o presupunere puternică (cel mai devreme an în care AGI va apărea cu 90 - probabilitate procentuală). Iată rezultatele:

* An optimist mediu (10%): 2022
* Anul mediu realist (50%): 2040
* An pesimist mediu (90%): 2075

Respondenții medii consideră că în 25 de ani vom avea mai multe șanse să avem AII decât nu. O șansă de 90% de a avea AIS până în 2075 înseamnă că, dacă ești încă destul de tânăr acum, este probabil să se întâmple în timpul vieții.

Un studiu recent separat al lui James Barratt (autor al apreciatei și foarte bune cărți Our Latest Invention, extras din Am prezentat în atenția cititorilor Hi-News.ru) și Ben Herzel la conferința anuală AGI, Conferința AGI, tocmai au arătat părerile oamenilor despre anul în care ajungem la AGI: până în 2030, 2050, 2100, mai târziu sau niciodată. Iată rezultatele:

* 2030: 42% dintre respondenți
* 2050: 25%
* 2100: 20%
După 2100: 10%
Niciodată: 2%
Similar cu rezultatele lui Bostrom. În sondajul Barratt, mai mult de două treimi dintre cei chestionați cred că AGI va fi aici până în 2050 și mai puțin de jumătate cred că AGI va fi aici în următorii 15 ani. De asemenea, este izbitor că doar 2% dintre cei chestionați nu văd deloc AGI în viitorul nostru.

Dar AGI nu este un schimbător de jocuri ca ASI. Când, conform experților, vom avea ASI?

Bostrom i-a întrebat pe experți când vom ajunge la ASI: a) la doi ani de la ASI (adică aproape instantaneu din cauza unei explozii de inteligență); b) după 30 de ani. Rezultate?

Opinia medie a fost că o tranziție rapidă de la AGI la ASI s-ar întâmpla cu o șansă de 10 la sută, dar în 30 de ani sau mai puțin s-ar întâmpla cu o șansă de 75 la sută.

Din aceste date, nu știm la ce dată ar da respondenții ca șansă de 50% de ASI, dar pe baza celor două răspunsuri de mai sus, să presupunem că este de 20 de ani. Adică, cei mai mari experți ai lumii în domeniul AI cred că punctul de cotitură va veni în 2060 (AII va apărea în 2040 + va dura 20 de ani pentru a trece de la AGI la ASI).



Desigur, toate statisticile de mai sus sunt speculative și reprezintă pur și simplu opiniile experților AI, dar indică, de asemenea, că majoritatea persoanelor în cauză sunt de acord că până în 2060 ASI este probabil să sosească. Doar 45 de ani mai târziu.

Să trecem la a doua întrebare. Când ajungem la punctul culminant, de ce parte a alegerii fatale vom fi determinați?

Superinteligența va avea cea mai puternică putere, iar întrebarea critică pentru noi va fi următoarea:

Cine sau ce va controla această putere și care va fi motivația lor?

Răspunsul la această întrebare va depinde dacă ASI obține o dezvoltare incredibil de puternică, o dezvoltare incomensurabil de terifiantă sau ceva între ele.

Desigur, comunitatea de experți încearcă să răspundă și la aceste întrebări. Sondajul Bostrom a analizat probabilitatea unor posibile consecințe ale impactului AGI asupra umanității și a constatat că, cu o șansă de 52 la sută totul va merge foarte bine și cu o șansă de 31 la sută totul va merge fie prost, fie extrem de prost. Sondajul atașat la sfârșitul părții anterioare a acestui subiect, realizat între voi, dragi cititori ai Hi-News, a arătat cam aceleași rezultate. Pentru un rezultat relativ neutru, probabilitatea a fost de numai 17%. Cu alte cuvinte, cu toții credem că apariția AGI va fi o mare problemă. De asemenea, este de remarcat faptul că acest sondaj este despre apariția AGI - în cazul ASI, procentul de neutralitate va fi mai mic.

Înainte de a aprofunda și mai mult în părțile bune și rele ale întrebării, să combinăm ambele părți ale întrebării - „când se va întâmpla asta?” și „este bine sau rău?” într-un tabel care cuprinde punctele de vedere ale majorității experților.



Vom vorbi despre tabăra principală într-un minut, dar mai întâi decide-ți poziția. Cel mai probabil, sunteți în același loc în care mă aflu și eu, înainte de a începe să mă ocup de acest subiect. Există mai multe motive pentru care oamenii nu se gândesc deloc la acest subiect:

* După cum sa menționat în prima parte, filmele au confundat serios oamenii și faptele, prezentând scenarii nerealiste cu inteligență artificială, ceea ce a condus la faptul că nu ar trebui să luăm deloc AI în serios. James Barrat a comparat această situație cu faptul că Centrele pentru Controlul Bolilor au emis un avertisment serios despre vampirii din viitorul nostru.

* Din cauza așa-ziselor părtiniri cognitive, ne este foarte greu să credem în realitatea a ceva până când avem dovezi. Ne putem imagina cu siguranță că oamenii de știință în domeniul informaticii din 1988 discutau în mod regulat despre implicațiile de anvergură ale internetului și ce ar putea deveni, dar oamenii cu greu credeau că le va schimba viața până când a făcut-o cu adevărat. Doar că computerele nu puteau face asta în 1988, iar oamenii doar s-au uitat la computerele lor și s-au gândit: „Serios? Acesta este ceea ce va schimba lumea?" Imaginația lor era limitată de ceea ce învățaseră din experiența personală, știau ce este un computer și era greu de imaginat de ce va fi capabil computerul în viitor. Același lucru se întâmplă și acum cu AI. Am auzit că va deveni un lucru serios, dar din moment ce încă nu l-am întâlnit față în față și, în general, vedem manifestări destul de slabe ale AI în lumea noastră modernă, ne este destul de greu să credem că va fi drastic. ne schimbă viețile. Aceste prejudecăți se opun numeroși experți din toate taberele, precum și oameni interesați: ei încearcă să ne atragă atenția prin zgomotul egocentrismului colectiv de zi cu zi.

* Chiar dacă am crede toate acestea, de câte ori astăzi te-ai gândit la faptul că vei petrece restul eternității în neant? Puțin, de acord. Chiar dacă acest fapt este mult mai important decât orice faci în fiecare zi. Acest lucru se datorează faptului că creierul nostru tinde să se concentreze asupra lucrurilor mici, de zi cu zi, indiferent cât de nebunească este situația pe termen lung în care ne aflăm. Doar așa suntem.
Unul dintre scopurile acestui articol este să te scoată din tabăra „Îmi place să mă gândesc la alte lucruri” și să te pună în tabăra de experți, chiar dacă stai doar la răscrucea dintre cele două linii punctate din pătrat. mai sus, complet indecis.

În cursul cercetărilor, devine clar că opiniile majorității oamenilor se îndreaptă rapid către „tabăra principală”, iar trei sferturi dintre experți se încadrează în două subtabere în tabăra principală.



Vom vizita în totalitate ambele tabere. Să începem cu distracția.

De ce poate fi viitorul cel mai mare vis al nostru?

Pe măsură ce explorăm lumea AI, găsim un număr surprinzător de oameni în zona lor de confort. Oamenii din pătratul din dreapta sus zumzăie de entuziasm. Ei cred că vom cădea pe partea bună a grinzii și, de asemenea, cred că vom ajunge inevitabil la asta. Pentru ei, viitorul este doar cel mai bun la care se poate visa.

Punctul care îi deosebește pe acești oameni de alți gânditori nu este că vor să fie de partea fericită, ci că sunt siguri că o așteptăm.

Această încredere provine din controverse. Criticii cred că vine dintr-o entuziasm orbitor care eclipsează potențialele negative. Dar susținătorii spun că prognozele sumbre sunt întotdeauna naive; tehnologia continuă și ne va ajuta întotdeauna mai mult decât să ne dăuneze.

Ești liber să alegi oricare dintre aceste opinii, dar lasă-ți deoparte scepticismul și aruncă o privire atentă la partea fericită a grinzii de echilibru, încercând să accepți faptul că tot ce ai citit poate s-a întâmplat deja. Dacă ar fi să le arătați vânătorilor-culegători lumea noastră de confort, tehnologie și abundență nesfârșită, li s-ar părea o fantezie magică - și ne comportăm destul de modest, incapabili să admitem că aceeași transformare de neînțeles ne așteaptă și în viitor.

Nick Bostrom descrie trei căi pe care le poate parcurge un sistem AI superinteligent:

* Un oracol care poate răspunde la orice întrebare bine definită, inclusiv întrebări dificile la care oamenii nu pot răspunde, cum ar fi „Cum faci un motor de mașină mai eficient?” Google este un tip primitiv de „oracol”.

* Un geniu care va executa orice comandă de nivel înalt - folosește asamblatorul molecular pentru a crea o versiune nouă, mai eficientă a unui motor de mașină - și așteaptă următoarea comandă.

* Un suveran care va avea acces larg și capacitatea de a funcționa liber în lume, luând propriile decizii și îmbunătățind procesul. El va inventa un mod de transport privat mai ieftin, mai rapid și mai sigur decât mașina.

Aceste întrebări și sarcini, care ni se par dificile, vor părea sistemului suprainteligent ca și cum cineva ar fi cerut să îmbunătățească situația „Am căzut un creion de pe masă”, în care pur și simplu l-ai ridica și l-ai pune înapoi.

Eliezer Yudkowsky, un specialist american în inteligență artificială, a remarcat bine:

„Nu există probleme grele, ci doar probleme dificile pentru un anumit nivel de inteligență. Treci cu un pas (din punct de vedere al inteligenței), iar unele probleme trec brusc de la categoria „imposibil” la tabăra „evident”. Un pas înainte și toate vor deveni evidente.”


Există mulți oameni de știință, inventatori și antreprenori nerăbdători care au ales o zonă de confort încrezător pe masa noastră, dar pentru o plimbare către cele mai bune din această lume cea mai bună dintre toate posibilele, avem nevoie de un singur ghid.

Ray Kurzweil este ambivalent. Unii îi idolatrizează ideile, alții disprețuiesc. Unii stau la mijloc - Douglas Hofstadter, discutând despre ideile cărților lui Kurzweil, a remarcat elocvent că „parcă iei multă mâncare bună și puțină caca de câine și apoi amesteci totul, astfel încât să nu poți spune ce este bun. și ce este rău.”

Indiferent dacă vă plac sau nu ideile lui, este imposibil să treceți pe lângă ele fără o umbră de interes. A început să inventeze lucruri în adolescență, iar în anii următori a inventat câteva lucruri importante, inclusiv primul scaner plat, primul scaner text-to-speech, binecunoscutul sintetizator de muzică Kurzweil (primul pian electric adevărat) și primul recunoaștere a vorbirii de succes comercial. De asemenea, este autorul a cinci cărți apreciate. Kurzweil este apreciat pentru predicțiile sale îndrăznețe, iar istoricul său este destul de bun - la sfârșitul anilor 80, când Internetul era încă la început, el a sugerat că până în anii 2000 Web-ul va deveni un fenomen global. The Wall Street Journal l-a numit pe Kurzweil un „geniu neliniștit”, Forbes o „mașină de gândire globală”, Inc. Magazine – „moștenitorul de drept al lui Edison”, Bill Gates – „cel mai bun dintre cei care prezic viitorul inteligenței artificiale”. În 2012, co-fondatorul Google, Larry Page, l-a angajat pe Kurzweil pentru a fi CTO. În 2011, a co-fondat Universitatea Singularity, găzduită de NASA și sponsorizată parțial de Google.

Biografia lui contează. Când Kurzweil vorbește despre viziunea lui despre viitor, sună ca o persoană nebună, dar lucrul cu adevărat nebun este că este departe de a fi nebun - este o persoană incredibil de inteligentă, educată și sănătoasă. S-ar putea să crezi că greșește în predicții, dar nu este un prost. Previziunile lui Kurzweil sunt împărtășite de mulți experți în „zona de confort”, Peter Diamandis și Ben Herzel. Iată ce se va întâmpla, după părerea lui.

cronologie

Kurzweil crede că calculatoarele vor atinge nivelul de inteligență generală artificială (AGI) până în 2029, iar până în 2045 nu vom avea doar superinteligență artificială, ci și o lume complet nouă - timpul așa-numitei singularități. Cronologia lui AI este încă considerată exagerat de exagerat, dar în ultimii 15 ani, dezvoltarea rapidă a sistemelor Narrow AI (AI) a făcut ca mulți experți să dezerteze la Kurzweil. Predicțiile sale sunt încă mai ambițioase decât sondajul Bostrom (ARI până în 2040, ASI până în 2060), dar nu cu mult.

Potrivit lui Kurzweil, trei revoluții simultane în biotehnologie, nanotehnologie și, mai important, AI duc la singularitatea anului 2045. Dar înainte de a continua - iar nanotehnologia urmărește în mod indisolubil inteligența artificială - să ne luăm un minut la nanotehnologie.



Câteva cuvinte despre nanotehnologie

Nanotehnologia este ceea ce de obicei numim tehnologii care se ocupă de manipularea materiei în intervalul 1-100 nanometri. Un nanometru este o miliardime dintr-un metru sau o milioneme dintr-un milimetru; în termen de 1-100 nanometri, puteți încadra viruși (100 nm în diametru), ADN (10 nm lățime), molecule de hemoglobină (5 nm), glucoză (1 nm) și multe altele. Dacă nanotehnologia devine vreodată a noastră, următorul pas va fi manipularea atomilor individuali, care sunt cu doar un ordin de mărime mai mici (~.1 nm).

Pentru a înțelege unde oamenii se confruntă cu probleme în încercarea de a manipula materia la o asemenea scară, să trecem rapid la o scară mai mare. Stația Spațială Internațională este situată la 481 de kilometri deasupra Pământului. Dacă oamenii ar fi giganți și ar lovi ISS cu capul, ar fi de 250 de ori mai mari decât sunt acum. Dacă măriți ceva de la 000 la 1 de nanometri cu un factor de 100, obțineți 250 centimetri. Nanotehnologia este echivalentul unui om la fel de înalt ca ISS, care încearcă să controleze lucruri de mărimea unui grăunte de nisip sau a unui glob ocular. Pentru a ajunge la următorul nivel - controlul atomilor individuali - gigantul va trebui să poziționeze cu atenție obiecte cu un diametru de 000/2,5 de milimetru. Oamenii obișnuiți ar avea nevoie de un microscop pentru a-i vedea.

Richard Feynman a vorbit pentru prima dată despre nanotehnologie în 1959. Apoi a spus: „Principiile fizicii, din câte îmi pot da seama, nu vorbesc împotriva posibilității de a controla lucrurile atom cu atom. În principiu, un fizician ar putea sintetiza orice substanță chimică scrisă de un chimist. Cum? Prin plasarea atomilor acolo unde chimistul spune că se face o substanță.” Toate acestea sunt simplitate. Dacă știi cum să muți molecule sau atomi individuali, poți face aproape orice.

Nanotehnologia a devenit un domeniu științific serios în 1986, când inginerul Eric Drexler și-a prezentat bazele în cartea sa fundamentală Machines of Creation, totuși Drexler însuși crede că cei care doresc să afle mai multe despre ideile actuale în nanotehnologie ar trebui să citească cartea sa din 2013 „Full Abundance” (Radical Abundenţă).

Câteva cuvinte despre „slime gri”
Ne aprofundăm în nanotehnologie. În special, subiectul „gray goo” este unul dintre cele mai neplăcute subiecte din domeniul nanotehnologiei, care nu poate fi ignorat. În versiunile mai vechi ale teoriei nanotehnologiei, a fost propusă metoda de nanoasamblare, care implică crearea a trilioane de nanoroboți mici care ar lucra împreună pentru a crea ceva. O modalitate de a crea trilioane de nanoroboți este de a crea unul care se poate reproduce singur, adică de la unu - doi, de la doi - patru și așa mai departe. Câteva trilioane de nanoroboți vor apărea într-o zi. Aceasta este puterea creșterii exponențiale. E amuzant, nu-i așa?

E amuzant, dar exact până când duce la apocalipsă. Problema este că puterea creșterii exponențiale, care face destul de convenabilă crearea rapidă a unui trilion de nanoboți, face ca auto-replicarea să fie un lucru înfricoșător pe termen lung. Ce se întâmplă dacă sistemul se prăbușește și, în loc să oprească replicarea la câteva trilioane, nanoboții continuă să se înmulțească? Ce se întâmplă dacă întregul proces depinde de carbon? Biomasa Pământului conține 10^45 atomi de carbon. Un nanobot ar trebui să fie de ordinul a 10^6 atomi de carbon, așa că 10^39 nanoboți ar înghiți toată viața de pe Pământ în doar 130 de replicări. Un ocean de nanoboți („slime gri”) va inunda planeta. Oamenii de știință cred că nanoboții se pot replica în 100 de secunde, ceea ce înseamnă că o simplă greșeală ar putea ucide toată viața de pe Pământ în doar 3,5 ore.

Ar putea fi și mai rău dacă mâinile teroriștilor și specialiștilor nefavorabili ajung la nanotehnologii. Ei ar putea crea câteva trilioane de nanoboți și să-i programeze să se răspândească în tăcere în întreaga lume în câteva săptămâni. Apoi, la o apăsare de buton, în doar 90 de minute, vor mânca totul, fără nicio șansă.

Deși această poveste de groază a fost discutată pe larg de ani de zile, vestea bună este că este doar o poveste de groază. Eric Drexler, cel care a inventat termenul „grey goo”, a spus zilele trecute: „Oamenii iubesc poveștile înfricoșătoare, iar aceasta aparține categoriei poveștilor de groază cu zombi. Această idee în sine deja mănâncă creierul.

Odată ce ajungem la fundul nanotehnologiei, o putem folosi pentru a crea dispozitive tehnice, haine, alimente, bioproduse - celule sanguine, luptători de virusuri și cancer, țesut muscular etc. - orice. Și într-o lume care folosește nanotehnologia, costul unui material nu va mai fi legat de deficitul său sau de complexitatea procesului său de fabricație, ci mai degrabă de complexitatea structurii sale atomice. În lumea nanotehnologiei, un diamant ar putea deveni mai ieftin decât o radieră.

Nici măcar nu suntem aproape încă. Și nu este complet clar dacă subestimăm sau supraestimăm complexitatea acestei căi. Totuși, totul se referă la faptul că nanotehnologia nu este departe. Kurzweil sugerează că până în anii 2020 le vom avea. Guvernele lumii știu că nanotehnologiile pot promite un viitor mare și, prin urmare, investesc multe miliarde în ele.

Imaginează-ți ce fel de capabilități ar obține un computer superinteligent dacă ar ajunge la un asamblator de încredere la scară nanometrică. Dar nanotehnologia este ideea noastră și încercăm să o folosim, este dificil pentru noi. Dacă pentru sistemul ASI vor fi doar o glumă, iar ASI însuși va veni cu tehnologii care vor fi de multe ori mai puternice decât orice ne putem imagina în principiu? Am fost de acord: nimeni nu poate ghici de ce va fi capabilă superinteligența artificială? Există o opinie că creierul nostru nu este capabil să prezică nici măcar cel puțin ceea ce se va întâmpla.

Ce ar putea face AI pentru noi?



Înarmat cu superintelligence și cu toate tehnologiile pe care le-ar putea crea, ASI va fi probabil capabil să rezolve toate problemele umanității. Încălzire globală? CSI va înceta mai întâi să emită dioxid de carbon, venind cu o serie de moduri eficiente de a genera energie care nu implică combustibili fosili. El va veni apoi cu o modalitate eficientă și inovatoare de a elimina excesul de CO2 din atmosferă. Cancer și alte boli? Nu este o problemă - asistența medicală și medicina se vor schimba în moduri care sunt de neimaginat. Foamete în lume? ISI va folosi nanotehnologia pentru a crea carne identică cu carnea naturală, de la zero, adevărată.

Nanotehnologia va putea transforma o grămadă de gunoi într-o cuvă de carne proaspătă sau alte alimente (nici măcar în forma obișnuită - imaginați-vă un cub de măr uriaș) și să distribuie toate aceste alimente în întreaga lume folosind sisteme avansate de transport. Desigur, acest lucru va fi grozav pentru animalele care nu vor mai trebui să moară pentru mâncare. ASI poate face, de asemenea, multe alte lucruri, cum ar fi salvarea speciilor pe cale de dispariție sau chiar aducerea înapoi a celor care sunt deja dispărute din ADN-ul conservat. ASI ne poate rezolva cele mai dificile probleme macroeconomice – cele mai dificile dezbateri economice, probleme de etică și filozofie, comerț mondial – toate acestea vor fi dureros de evidente pentru ASI.

Dar există ceva special pe care ISI ar putea face pentru noi. Ademenitoare și tachinare care ar schimba totul: ASI ne poate ajuta să facem față mortalității. Înțelegând treptat posibilitățile AI, este posibil să vă reconsiderați toate ideile despre moarte.

Nu a existat niciun motiv ca evoluția să ne prelungească durata de viață dincolo de ceea ce este acum. Dacă trăim suficient de mult pentru a purta și crește copiii până la punctul în care ei se pot descurca singuri, evoluția este suficientă. Din punct de vedere evolutiv, 30+ ani sunt suficienți pentru dezvoltare și nu există niciun motiv pentru mutații care prelungesc viața și reduc valoarea selecției naturale. William Butler Yeats a numit specia noastră „un suflet atașat unui animal pe moarte”. Nu prea distractiv.

Și din moment ce murim cu toții cândva, trăim cu gândul că moartea este inevitabilă. Ne gândim la îmbătrânirea în timp – să continuăm să mergem înainte și să nu putem opri acest proces. Dar gândul morții este perfide: prinși de ea, uităm să trăim. Richard Feynman a scris:

„Există un lucru minunat în biologie: în această știință nu există nimic care să vorbească despre necesitatea morții. Dacă vrem să creăm o mașină cu mișcare perpetuă, ne dăm seama că am descoperit destule legi în fizică care fie indică faptul că acest lucru este imposibil, fie că legile sunt greșite. Dar nu există nimic în biologie care să indice inevitabilitatea morții. Acest lucru mă face să cred că nu este atât de inevitabil și este doar o chestiune de timp până când biologii descoperă cauza acestei probleme, a acestei boli universale teribile, ea se va vindeca.

Cert este că îmbătrânirea nu are nimic de-a face cu timpul. Îmbătrânirea este uzura materialelor fizice ale corpului. Piesele auto se degradează și ele - dar este această îmbătrânire inevitabilă? Dacă vă reparați mașina pe măsură ce piesele se uzează, aceasta va dura pentru totdeauna. Corpul uman nu este diferit, doar mai complex.

Kurzweil vorbește despre nanoboți inteligenți, conectați la Wi-Fi în fluxul sanguin, care ar putea îndeplini nenumărate sarcini pentru sănătatea umană, inclusiv repararea sau înlocuirea regulată a celulelor uzate din orice parte a corpului. Dacă este îmbunătățit acest proces (sau o alternativă sugerată de ASI-urile mai inteligente), nu numai că va menține corpul sănătos, ci poate inversa îmbătrânirea. Diferența dintre corpul unui bărbat de 60 de ani și cel al unui bărbat de 30 de ani constă într-o mână de probleme fizice care ar putea fi corectate cu tehnologia potrivită. ASI ar putea construi o mașină în care o persoană să intre la 60 de ani și să iasă la 30 de ani.

Chiar și un creier degradant ar putea fi reînnoit. ASI ar ști cu siguranță cum să facă acest lucru fără a afecta datele creierului (personalitate, amintiri etc.). Un bărbat în vârstă de 90 de ani, care suferă de degradare completă a creierului, ar putea fi recalificat, modernizat și reîntors la începutul carierei sale. Poate părea absurd, dar corpul este o mână de atomi, iar ASI-ul le-ar putea manipula cu ușurință, orice structură atomică. Nu este chiar atât de absurd.

Kurzweil crede, de asemenea, că materialele artificiale vor deveni din ce în ce mai integrate în organism pe măsură ce trece timpul. Pentru început, organele ar putea fi înlocuite cu versiuni ultra-avansate de mașini care ar dura pentru totdeauna și nu ar da niciodată greș. Apoi am putea face o reproiectare completă a corpului, înlocuind celulele roșii din sânge cu nanoboți perfecți care se mișcă singuri, eliminând cu totul nevoia unei inimi. De asemenea, am putea să ne îmbunătățim abilitățile cognitive, să începem să gândim în miliarde mai repede și să accesăm toate informațiile disponibile umanității prin cloud.

Posibilitățile de a atinge noi orizonturi ar fi cu adevărat nelimitate. Oamenii au reușit să ofere sexului un nou scop, o fac din plăcere, și nu doar pentru reproducere. Kurzweil crede că putem face același lucru cu mâncarea. Nanoboții ar putea furniza nutriția ideală direct celulelor corpului, permițând substanțelor nesănătoase să treacă prin corp prin și prin corp. Teoreticianul în nanotehnologie Robert Freitas a dezvoltat deja un înlocuitor pentru celulele sanguine care, atunci când este implementat într-un corp uman, îi poate permite să nu respire timp de 15 minute - și acest lucru a fost inventat de un bărbat. Imaginați-vă când ISI primește puterea.

În cele din urmă, Kurzweil crede că oamenii vor ajunge într-un punct în care devin complet artificiali; momentul în care ne vom uita la materialele biologice și ne vom gândi cât de primitivi am fost; momentul în care vom citi despre primele etape ale istoriei omenirii, minunându-ne de modul în care germenii, accidentele, bolile sau doar bătrânețea ar putea ucide o persoană împotriva voinței sale. În cele din urmă, oamenii își vor depăși propria biologie și vor deveni eterni - așa este calea pe partea fericită a jurnalului de echilibru, despre care am vorbit de la bun început. Și oamenii care cred în asta sunt, de asemenea, siguri că un astfel de viitor ne așteaptă foarte, foarte curând.

Cu siguranță nu veți fi surprinși că ideile lui Kurzweil au atras critici grele. Singularitatea sa din 2045 și viața veșnică ulterioară pentru oameni a fost numită „ascensiunea tocilar” sau „crearea inteligentă a oamenilor cu un IQ de 140”. Alții au pus la îndoială intervalul de timp optimist, înțelegând corpul uman și creierul, amintind de legea lui Moore, care încă nu a dispărut. Pentru fiecare expert care crede în ideile lui Kurzweil, sunt trei care cred că el greșește.

Dar cel mai interesant lucru este că majoritatea experților care nu sunt de acord cu el, în general, nu spun că acest lucru este imposibil. În loc să spună „prostii, asta nu se va întâmpla niciodată”, ei spun ceva de genul „toate astea se vor întâmpla dacă ajungem la ASI, dar asta e prinderea”. Bostrom, unul dintre experții recunoscuți în IA care avertizează despre pericolele AI, admite și:

„Nu va exista aproape nicio problemă pe care superinteligența să nu o poată rezolva sau chiar să ne ajute să o rezolvăm. Boala, sărăcia, distrugerea mediului, suferința de tot felul - toată această superinteligență cu ajutorul nanotehnologiei se poate rezolva într-un moment. De asemenea, superinteligenta ne poate oferi o durata de viata nelimitata prin oprirea si inversarea procesului de imbatranire folosind nanomedicina sau capacitatea de a ne incarca in cloud. Superinteligența poate crea și oportunități pentru o creștere infinită a capacității intelectuale și emoționale; el ne poate ajuta să creăm o lume în care vom trăi în bucurie și înțelegere, apropiindu-ne de idealurile și realizându-ne regulat visele.

Acesta este un citat al unuia dintre criticii lui Kurzweil, care recunoaște însă că toate acestea sunt posibile dacă reușim să creăm un ASI sigur. Kurzweil a definit pur și simplu ce ar trebui să fie superinteligența artificială, dacă ar deveni posibil. Și dacă este un zeu bun.

Cea mai evidentă critică la adresa susținătorilor zonei de confort este că aceștia pot greși al naibii cu privire la viitorul ASI. În cartea sa The Singularity, Kurzweil a dedicat 20 de pagini din 700 potențialelor amenințări ASI. Întrebarea nu este când ajungem la ASI, întrebarea este care va fi motivația lui. Kurzweil răspunde la această întrebare cu precauție: „ASI apare din multe eforturi disparate și va fi profund integrat în infrastructura civilizației noastre. De fapt, va fi strâns încorporat în corpul și creierul nostru. Va reflecta valorile noastre pentru că va fi una cu noi.”

Dar dacă răspunsul este, de ce sunt atât de mulți oameni inteligenți din această lume îngrijorați de viitorul inteligenței artificiale? De ce spune Stephen Hawking că dezvoltarea ASI „ar putea însemna sfârșitul rasei umane”? Bill Gates spune că „nu înțelege oamenii care nu sunt îngrijorați” de asta. Elon Musk se teme că „invocăm un demon”. De ce mulți experți consideră ASI cea mai mare amenințare la adresa umanității?

Vom vorbi despre asta data viitoare.

Adaptare după waitbutwhy.com, compilație de Tim Urban. Articolul folosește materiale din lucrările lui Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nielsson, Steven Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog și Kai Sotal, Susan Schneider, Stuart Russell și Peter Norvig, Theodore. Modis, Gary Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Kelly, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Goertzel, Arthur C. Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
Canalele noastre de știri

Abonați-vă și fiți la curent cu cele mai recente știri și cele mai importante evenimente ale zilei.

60 comentarii
informații
Dragă cititor, pentru a lăsa comentarii la o publicație, trebuie login.
  1. +12
    13 august 2016 05:37
    Îi propun autorului în povestea următoare să vorbească despre zeul-împărat din Warhammer 40000.
    Și ce, nu sunt indicate nici exemple de experimente moderne, nici starea actuală de dezvoltare. Toată lumea adoră să fantezeze.
    Crede-mă, un subiect foarte interesant, mai ales dacă tragem analogii între Rusia și Imperiu, Eldarul Întunecat și Occident.
    Și desenele pot fi găsite pe Web mult mai interesante.
    1. 0
      14 august 2016 23:28
      Articolul este filozofic, prin urmare este GREȘIT să fii critic la nivelul percepției tale. Apropo, multe legi filozofice reale sunt excluse de formulele matematice și definițiile fizice. Și totuși ele, legile filozofice, există și funcționează. Cert este că matematica permite reduceri, iar fizică excepții
  2. +2
    13 august 2016 05:59
    Inteligența artificială va oferi nemurirea celor bogați, care vor fi serviți de mașini și de un număr limitat de servitori vii. Dar cât de plictisitoare va fi viața lor!
    1. +9
      13 august 2016 07:00
      De îndată ce „bogații” obțin nemurirea, nu vor avea nevoie de bogăție. Mai ales dacă este creat un „nano-asamblator”. Problema este cât va costa „nanoizarea” primară a unei persoane. Dacă este foarte scump, atunci da, doar cei mai bogați vor deveni supraoameni și toți ceilalți îi vor urî. Dacă nu este foarte scump, se va pune problema selecției, cui să dăm nemurirea, cui nu. Pe ce merit, dacă banii nu sunt suficienți? În cele din urmă, dacă prețul este egal cu o vaccinare împotriva gripei, atunci... problema selecției va apărea din nou (ce să faci cu proștii dacă, să zicem, nu pot fi corectați prin metode nanotehnologice? Dar dacă l-au reparat și toată lumea a devenit inteligentă și frumos, problema va ramane.La urma urmei, vor ramane oamenii, care fundamental nu vor sa devina cyborgi.Si tot vor avea nevoie de fabrici, de campuri, vor polua si natura si vor ura supraoamenii.In teorie ar trebui distrusi. Dar asta nu este uman.Cum să fii?
      1. +4
        13 august 2016 11:36
        Înțelegerea filozofică a temei „nemuririi” a fost analizată în detaliu de Homer. Este suficient să ne amintim cât de rău le era zeilor că erau muritori. Ei nu puteau aprecia trecutul, prezentul, viitorul, pentru că este etern. Prin urmare, au fost atrași de oameni care prețuiau momentul, prețuiau viața. Luați în considerare Ulise, căruia i s-a oferit tinerețea veșnică. pentru totdeauna tânără și frumoasă zeiță feminină, dar a ales o familie, o viață muritoare și o soție în vârstă. Pentru dreptate, trebuie spus că alegerea pentru el a fost oh cât de dificilă. A fost stabilit pentru 7 ani întregi!!! Așadar, dragi membri ai forumului, oamenii veșnic vii, precum zeii nemuritori ai Olimpului, ne vor invidia pe noi muritorii.
  3. +3
    13 august 2016 06:14
    Sunt de acord, fara detalii. La VO, specificul este diferit, filosofia nu este binevenită.
  4. +2
    13 august 2016 06:44
    Și dacă este un zeu bun.

    Când apare AI, va deveni un zeu. Nu crezi că poți controla asta, nu-i așa?)
    Eric Drexler și-a prezentat bazele în cartea sa fundamentală Machines of Creation.

    Am citit această carte, perspectivele care sunt descrise acolo sunt uimitoare.
    1. +3
      13 august 2016 07:05
      Le-am dat studenților sarcina de a veni cu o nouă religie pentru viitorul apropiat. Și au studiat totul și au decis că va fi... „mașinism”. O mașină grozavă care răspunde la fiecare întrebare! „Mașiniștii” sunt preoții ei, „dactilografele” sunt „lubrifiatorii”. Ei bine, și așa mai departe. Emblema este o roată dințată, în ea este înscrisă o cruce, la baza căreia se află 4 semilune. -Amuzant!
      1. +4
        13 august 2016 09:01
        Și din moment ce am stabilit că este complet inutil să încercăm să înțelegem puterea unei mașini care se află la doar două crestături deasupra noastră, să stabilim odată pentru totdeauna că nu există nicio modalitate de a înțelege ce va face ASI și care sunt consecințele asta va fi pentru noi. Oricine susține altfel pur și simplu nu înțelege ce înseamnă superinteligență.

        Cred că studenții tăi au pictat o imagine destul de plauzibilă, dar AI-ul va fi autosuficient, nu va avea nevoie de oameni care să se închine, ci le va folosi în propriile scopuri. Pe măsură ce se dezvoltă, cred că va merge în ocean, ceva de genul Solaris se va dovedi ..)
        Până și S. Lem a fost impresionat de povestea în care se spunea că informația are o masă critică. Și când ajunge la el, se va autodistruge.
    2. 0
      8 noiembrie 2016 19:13
      Când apare AI, va deveni un zeu.


      Dacă renunțăm la punctul de vedere religios, conceptul de Dumnezeu (înțeles - unul) este un concept strict formalizat. Acest concept are un set de caracteristici proprii. Ei bine, deci - sistemul AI nu va putea îndeplini nici măcar jumătate din aceste caracteristici - deci nu poate fi Dumnezeu prin definiție ... *)
  5. +1
    13 august 2016 07:26
    Nemurire. Transferul conștiinței într-un purtător - o mașină - indiferent de ce fel - autonom, sau ceva ca un server cu miliarde de conștiințe - este un fel de moarte. În cel mai rău caz - sclavie, soarta jucăriilor. Un fel de fermă de furnici. Actualizați corpul - creați spiriduși? Deci, ce se va întâmpla cu pământul peste o mie de ani? O ramură a unui butoi cu hering și nu faptul că un hering pașnic. Și cel mai probabil - spiridușii joacă „fermă”, sau „război total” de un fel. „Imortalizat”. Deci, oricum, „toți vom muri”.
  6. +1
    13 august 2016 09:14
    O odă prostiei! Ce este superinteligența? Inteligența este ceva apropiat de gândirea umană. Nu există astfel de sisteme. Există doar imitații. Ce zici de superinteligență? De ce se consideră că mai rapid înseamnă peste? O enumerare mai rapidă a opțiunilor, chiar și folosind un algoritm unic, nu este inteligență, dar TOATE sistemele moderne cvasiinteligente funcționează exact așa: algoritm și viteză.
    1. Comentariul a fost eliminat.
    2. +2
      13 august 2016 12:31
      Citat din xorgi
      Oda prostiei! Ce este superinteligența? Inteligența este ceva apropiat de gândirea umană. Nu există astfel de sisteme. Există doar imitații.

      Mă bucur să citesc comentariul tău. +
      Citat din xorgi
      De ce se consideră că mai rapid înseamnă peste? Enumerarea mai rapidă a opțiunilor, chiar și folosind un algoritm unic, aceasta nu este inteligență,

      Așa e, este combinatorie. Înainte de AI, este încă ca Pluto într-un ritm de mers.
      hi
      Voi publica din nou acest videoclip, se pare că nimeni nu s-a deranjat să-l vizioneze, aprecieri, vedeți, evaluări. . .
      Spune doctorul în științe biologice, prof. S.V. Savelyev, embriolog, neuromorfolog. Păcat că preoții și șarlatanii apar mai des la televizor decât oamenii de știință.
      1. +3
        13 august 2016 13:52
        Șahul nu este un joc intelectual! Uită-te la Kasparov! - Da, poți da o medalie pentru această frază!
    3. 0
      13 august 2016 18:05
      xorgi

      Nu ai citit articolul cu atentie. Despre ce ai scris acolo scrupulos demontat.
  7. +3
    13 august 2016 09:21
    Avem deja progrese în ISI -
    A creat imunitate pentru computer

    Tomsk a dezvoltat o inteligență artificială capabilă să detecteze în mod independent software-ul rău intenționat fără ajutorul sistemelor antivirus.

    Imunitatea adaptivă a sistemului de operare (AIOS) este, de asemenea, capabilă să determine paternitatea virusului analizând codul programului. Oamenii de știință intenționează să demonstreze că virușii care amenință computerele noastre sunt scriși chiar de companiile antivirus.

    Potrivit experților, majoritatea utilizatorilor cheltuiesc între patru și șase mii de ruble pe an pentru a-și proteja computerele. În același timp, aproape în fiecare lună apar noi viruși care amenință „sănătatea” PC-ului. Ei evoluează constant, pot auto-învăța și își pot schimba comportamentul.

    - Sondajul nostru în rândul utilizatorilor a arătat că 65% dintre aceștia nu au încredere în antivirusurile existente din cauza opacității muncii lor, - a declarat pentru RG Yevgeny Garin, șeful departamentului de proprietate intelectuală TUSUR. - De exemplu, antivirusurile au acces la absolut toate partițiile de pe unități și RAM, adică inclusiv la datele noastre personale.

    Antivirusurile populare nu au o funcție de detectare a malware. Ei pot găsi doar virusul care este deja cunoscut și listat în bibliotecă. Prin urmare, necesită actualizări regulate. Între timp, programele rău intenționate care nu se află încă în aceste baze de date rămân nedetectate.

    Principiul principal al AIOS este identificarea elementelor de inteligență artificială în programe.

    „Algoritmii dezvoltați la TUSUR fac posibilă detectarea în codul programului a capacității organismului virusului de a se copia și a altor semne ale unui sistem de autoreglare similar cu un organism viu”, a declarat serviciul de presă al organizațiilor inovatoare din regiunea Tomsk. rapoarte.

    - Programul nostru poate fi comparat cu un sistem imunitar real, - explică Evgeny Garin. - Antivirusul standard „merge după pastile” la magazinul producătorului său. Dacă nu există un remediu pentru această infecție, computerul va muri, deoarece nu are propria „imunitate”. AIOS verifică codul programului pentru semne de răutate, funcționând ca o apărare imunitară.

    Potrivit dezvoltatorilor, în viitor, imunitatea artificială va recunoaște 100% dintre viruși. Cu ajutorul sistemului, oamenii de știință vor compila o bibliotecă de urme semantice individuale ale programatorilor care scriu cod rău intenționat. Vânătorul de viruși nu numai că le va studia comportamentul și îi va izola, dar va căuta și autorul acestor programe și va raporta activitățile sale agențiilor de aplicare a legii.

    „Sarcina noastră principală este să oprim scrierea de viruși de către companiile antivirus înseși pentru a actualiza cererea pentru software-ul lor”, spune Evgeny Garin. - Este posibil să existe un fel de coluziune între furnizorii de antivirus și furnizorii de sisteme de operare. Prin urmare, intenționăm să integrăm imunitatea noastră adaptivă în sistemele de operare interne, ca parte a programului de înlocuire a importurilor.

    Oamenii de știință intenționează să facă echipă cu producătorii de sisteme de operare autohtone și să lanseze computere cu imunitate încorporată. Acest lucru va proteja utilizatorii finali nu numai de viruși, ci și de producătorii fără scrupule de software antivirus. În același timp, utilizatorii nu vor trebui să cheltuiască bani pentru actualizarea sistemului în fiecare an.

    Dezvoltatorii cred că introducerea imunității adaptive va permite sistemelor noastre de operare să concureze cu liderii de piață precum Windows, Linux, Android și iOS.

    Proiectul AIOS a atras deja interesul mai multor potențiali investitori. În viitorul apropiat, reprezentanții uneia dintre companii vor veni în Siberia pentru o cunoaștere mai detaliată a proiectului.
    1. +2
      13 august 2016 11:45
      Citat: Vadim237
      A creat imunitate pentru computer

      Ne pare rău... Asociații...
      Era deja... râs La un moment dat, renumitul student Babushkin a scris antivirusul Immunity. Adevărat, antivirusurile reale au fost definite ca un virus. Ce este cel mai picant - autorul a primit o subvenție bolnavă, plus tatăl său (nu ultima persoană din facultatea de medicină) a „implementat” acest antivirus pe mașinile care funcționează și, în consecință, a plătit suport tehnic din buget. O analiză detaliată a fost pe anti-malware.ru și Habrahabr. Băieții au râs mult timp de tehnologia „F * și gâște” ...
    2. +3
      13 august 2016 18:13
      Adică au schimbat pur și simplu conceptul de software antivirus. Dacă primul scanează computerul pentru prezența „markerilor” bibliotecii, atunci software-ul Tomsk ar trebui să scaneze pe baza caracterului nociv al codului. Cu siguranță în comparație cu biblioteca.

      Awl pentru săpun. Dar ei l-au numit AI.
  8. +2
    13 august 2016 10:04
    dat fiind că esența morală a unei persoane nu se schimbă nu doar în timpul vieții, ci chiar și odată cu „progresul” relațiilor sociale, ne putem aștepta odată cu apariția AI... o scădere a numărului de comentatori de pe site.
    În loc să îi dai adversarului un „-”, poți pur și simplu să-i instruiești AI să-l descompună pe cel ticălos în atomi sau să creezi un cub de măr din el.
    Simplu și convingător.
    Indiferent ce face o persoană, ei primesc totuși o pușcă de asalt Kalashnikov. Adevărat, ei bine, este foarte mare. :-)
    Aici aveți trecerea temei filozofice a autorului la tema specifică site-ului nostru.
    1. 0
      13 august 2016 18:18
      kunstkammer

      Te înșeli aici, amice.

      Omul este controlat prin schimbarea moralei sale. Nu ar exista războaie și dezacorduri în lume dacă toată lumea ar avea aceleași valori morale.

      Poți obține o țară super dacă oamenii insuflă valori morale comune.
  9. +3
    13 august 2016 10:09
    Dacă vorbim de un fel de salt calitativ, atunci l-aș asocia nu cu AI, și nici măcar cu tehnologia, ci cu o creștere a eficienței civilizației, a raționalității ei. Căci în acest moment există doar o scădere a acesteia. Motivul principal pentru aceasta nu este nici măcar creșterea exponențială a unui mediu tehnogenic ineficient, ci principiul cunoașterii în sine, atunci când intrăm mai întâi într-o problemă și apoi începem să căutăm măcar o soluție.
    1. +2
      13 august 2016 17:44
      Sunt de acord cu această idee. Cred că același lucru.
  10. +1
    13 august 2016 10:35
    Să lăsăm deoparte întrebarea dacă în principiu este posibil să se creeze un AIS și dacă acesta va fi creat, să spunem că da.
    Prima întrebare despre interacțiunea AIS este o persoană. Pentru claritate, să ne imaginăm AIS ca o persoană și o persoană ca un câine.
    Să lăsăm deoparte cazul când câinele pur și simplu subjugă stăpânii și îi obligă să acționeze mai mult sau mai puțin în propriile interese, în ciuda „nivelurilor de superioritate”, este nevoie și de voință și caracter, acest lucru nu este atins acum.
    Poți să iei un câine într-un scop sau altul, să dresezi și să înveți un anumit comportament, apoi te duci la muncă, iar când ajungi acasă vezi canapeaua ta preferată ruptă în bucăți, ce este? Și-a dorit atât de mult în ciuda pregătirii și educației. Acest comportament te face inconfortabil - da, te vei lupta cu el - da. Aparent, FAI, în fața acestui lucru, va începe selecția și creșterea raselor umane cu caracteristicile și parametrii necesari. Va fi această persoană la fel ca acum? Da, dar diferența va fi ceva de genul între un lup și un pudel. Apropo, uitându-ne la diversitatea raselor, a grupurilor etnice și a caracteristicilor acestora, în opinia mea, putem spune că AIS există de mult timp și generează umanitatea în unele dintre propriile sale interese.
    A doua problemă este concurența. După cum știți, lupta intraspecifică este întotdeauna mai dură decât interspecifică. Dacă presupunem că mai multe centre independente de diseminare a AIS vor fi create în același timp, și probabil că acesta va fi cazul, atunci este logic să ne așteptăm la concurență și luptă intraspecifică de la ele. Este greu de imaginat ce forme va lua și dacă obiectivele sale vor fi accesibile pentru înțelegerea oamenilor. Vor fi folosiți oamenii în această luptă, cel mai probabil da. În ce formă, cred ca de obicei - sub forma „exterminării dușmanilor”. Incl. viitorul va fi interesant, dar cel mai probabil, deloc atât de lipsit de nori.
    1. 0
      13 august 2016 18:19
      Cu aceeași probabilitate, putem presupune că interacțiunea viitoare cu AIS va fi interesantă pentru oameni pentru o perioadă foarte scurtă de timp. Dacă îți folosești analogia cu un câine, atunci folosirea lui de către o persoană va ajunge în cele din urmă la nimic. În stadiile inițiale de dezvoltare, câinele a fost folosit în mod activ de oameni, iar odată cu creșterea progresului tehnologic, nevoia de un câine dispare treptat.
      Dacă, pe de altă parte, îmbunătățirea AIS este cu adevărat exponențială, atunci foarte curând AIS va înceta să mai aibă nevoie de noi. Vom trece rapid de la categoria câinelui la categoria insectelor. Ei bine, atunci așteptăm analogi cu adăposturile pentru câini sau doar lichidarea. De ce ar trebui să ne oblige AIS să ne târâm undeva într-un viitor mai luminos este complet de neînțeles. Cu excepția cazului doar de dragul unui experiment scurt...
      Poate că toate acestea sunt, încă de la începutul evoluției, un experiment FAI pentru a crea un alt AIS?
      1. 0
        13 august 2016 18:33
        Da, în general corect. Cred că cel mai probabil vom fi pur și simplu abandonați pe planetă, iar AIS se va grăbi „la distanțe necunoscute”, atunci pur și simplu nu este nevoie ca el să stea pe pământ.
        Dar acest lucru este adevărat într-un vid sferic. Cred că niște „trei legi” vor fi încorporate în orice sistem încă de la început, restrângând puternic sau interzicând direct anumite acțiuni și chiar reflecții aparent. Altfel, nu are rost, rentabilitatea comercială a proiectului va fi zero sau negativă, nu vor da mulți bani pentru asta.
        1. 0
          13 august 2016 19:54
          Dacă pur și simplu renunță, atunci nu este rău. Să sperăm că nevoia de AIS în resursele planetei noastre nu va deveni critică pentru noi.
          Apoi există o oarecare speranță că în acest caz vom avea rămășițele tehnologiilor aproape singulare, apoi teoretic vom putea, prin îmbunătățirea intelectului uman, să ne scoatem reprezentanții individuali la un nivel supraomenesc. Desigur, toți vor merge în distanța necunoscută, dar aceasta este cel puțin un fel de speranță))
    2. 0
      13 august 2016 18:23
      chunga-changa

      Mi se pare că dacă așteptați, atunci în următoarea publicație se va analiza problema pe care ați ridicat-o.

      Acestea. prezența și forma lui Dumnezeu. O întrebare foarte importantă. Mai mult decât atât, absolut toată lumea din lume s-a confruntat cu manifestări ale soartei.
      1. 0
        13 august 2016 18:36
        Știi, eu nu prea cred în toate acestea, soartă, Dumnezeu etc.
        Crearea AI este o zonă de știință aplicată, matematică, filozofie și etică, întrebările de credință sunt cumva deplasate aici.
        1. +1
          13 august 2016 19:09
          chunga-changa

          Manifestarea destinului este un lucru obiectiv și nu depinde de conștientizarea ta. Acestea. De exemplu, când îmi analizez viața, îmi dau seama cu tot mai multă încredere că ceea ce am ajuns a fost pus în mine încă din copilărie, din câte îmi amintesc. Acestea. De fapt, mă văd ca un biorobot care îndeplinește voința altcuiva cu o secvență neschimbată.

          Se numește destin. De aici întrebarea. Și cine are nevoie de toate acestea? Poate că inteligența care este prezisă până în 2025 există deja și, cel mai probabil, nu va permite să se creeze concurență pentru sine. Deși poate vrea un interlocutor egal. :)

          Oh... da, fără credință... Nici măcar aproape. Problemele religioase nu sunt în domeniul AI. Acolo este complet diferit.
  11. -3
    13 august 2016 11:07
    Autorul nu înțelege esența a ceea ce se întâmplă. ASI nu va apărea niciodată pe Pământ, deoarece o persoană nu poate face ceva mai inteligent decât el însuși.
    Da, va fi posibil să creați un robot care să arate ca o persoană, să-i copieze acțiunile, să răspundă la întrebări, să vorbească, dar el va face toate acestea în conformitate cu programul pe care l-au scris oamenii. AI nu poate fantezi și se simte ca oameni, deoarece este un set de programe pe care oamenii i le-au oferit.
    De exemplu, un robot umanoid va putea zâmbi, dar va zâmbi nu pentru că este fericit, ci pentru că această acțiune este stabilită în program. De aceea, este puțin probabil să apară vreodată o IA egală cu noi, iar ASI nu va apărea niciodată, deoarece aceasta este limitată de capacitățile creierului nostru.
    1. +3
      13 august 2016 12:36
      Despre ce fel de inteligență artificială putem vorbi când nimeni nu înțelege că există un mecanism de percepție a informațiilor, procesarea și aplicarea acesteia de către creierul uman. Și acest mecanism, precum și activitatea sa, trebuie descrise într-un limbaj care nu poate fi asociat cu nicio fantezie sau expresii figurative. Acesta este limbajul numerelor. Și umanitatea nici măcar nu deține toate proprietățile numerelor, și anume, funcția valorii sale constante. Prin urmare, vor apărea mai întâi oameni care vor deveni cu un ordin de mărime mai capabili în analiza evenimentelor care au loc în jurul lor și abia atunci vor fi posibile să se vadă fundamentele unei astfel de analize, care pot fi repetate în reproducerea mașinii.
  12. +1
    13 august 2016 11:26
    Numai Examenul Unificat de Stat va salva lumea de la apariția ISI. râs Dar dacă ISI va apărea, primul lucru pe care îl va face este să desființeze (distruge) proprietatea privată asupra mijloacelor de producție. Iar umanitatea se va lua pe sine ca un aliat, nu un partener.
  13. +1
    13 august 2016 12:45
    Primul lucru pe care îl vor face roboții, după ce a ajuns la putere, va oferi unei persoane tot ceea ce își dorește. Multă mâncare, viață inactivă etc. Iar omul se degradează în timp și se transformă în animal. Deja acum este necesar să înțelegem clar unde pot fi permise roboții și unde nu. Omenirea este sortită înfrângerii în lupta dintre specii cu roboții.
  14. +3
    13 august 2016 13:28
    Toată această serie de articole arată ca RenTV.
    Omul se deosebește de maimuțe și alte animale prin faptul că are gândire abstractă plus un limbaj pentru comunicare, înregistrare și învățare, iar cuvintele limbajului reprezintă abstracții și de obicei gândim cu ajutorul limbajului, sau cel puțin folosind abstracțiuni pentru care există nume. în limbaj. Avem și o motivație biologică de a gândi mai mult decât un vecin, sau un animal din pădure – „vrem” să ne bucurăm să trăim „în ciocolată”, și să nu murim de foame, să înghețam, să ne îmbolnăvim și să murim singuri.
    Nu știm dacă există altceva mai înalt decât gândirea abstractă, cel mai probabil nu există nimic mai înalt. Prin urmare, despre ce vorbim? Ce altceva este ISI? Dacă un computer stăpânește gândirea abstractă și are motivația de a gândi independent, asta nu înseamnă că va depăși imediat o persoană și va fi o amenințare existențială pentru el. Există un pericol, dar nu exagerați. Este necesar să se limiteze cu atenție puterile computerelor puternice, de exemplu, să nu le dea butoane nucleare și să nu le dea control asupra comunicațiilor. Atunci vor fi doar mașini inteligente, asta-i tot.
    1. 0
      13 august 2016 18:28
      Şoim

      Când o persoană nu se gândește la nevoia de supraviețuire, își redirecționează eforturile către creativitate.

      Prin urmare, oricât de bine ar fi pentru tine, aventurile sunt căutate de la.
  15. +1
    13 august 2016 15:16
    Citat din Falcon5555

    Nu știm dacă există altceva mai înalt decât gândirea abstractă, cel mai probabil nu există nimic mai înalt.

    De unde ai atata incredere?
  16. -1
    13 august 2016 16:12
    Dar dacă răspunsul este, de ce sunt atât de mulți oameni inteligenți din această lume îngrijorați de viitorul inteligenței artificiale? De ce spune Stephen Hawking că dezvoltarea ASI „ar putea însemna sfârșitul rasei umane”? Bill Gates spune că „nu înțelege oamenii care nu sunt îngrijorați” de asta. Elon Musk se teme că „invocăm un demon”. De ce mulți experți consideră ASI cea mai mare amenințare la adresa umanității?
    Mulți. Da, spectacolul este totul din gânduri de exclusivitate. Sunt afectați de acest virus. Razindu-și gâtul se vor tăia sau legând o cravată, se vor sugruma. De bi ly.
    Al nostru va fi implementat și aplicat. Nu bla bla bla.
    1. 0
      14 ianuarie 2017 11:15
      Citat: Prince_Pensions
      Al nostru va fi implementat și aplicat. Nu bla bla bla.
      Până acum, singurele noastre licitații au învățat să anunțe și să taie bugetul sub zgomotos „bla bla bla” despre „neegalat în lume”.
  17. 0
    13 august 2016 18:32
    O serie de articole interesanta. Bine tradus. Un mod caracteristic de a construi propoziții pentru oamenii din Occident. Stilul publicitar bun. Un minim de „oboseală” academică, atrăgătoare cu o terminologie greu de reținut.

    Mulțumesc autorului.
  18. TIT
    0
    13 august 2016 19:42
    să definim termenul descrie AI , și va fi ca acolo

    1. 0
      13 august 2016 20:00
      Autorul a decis deja terminologia. Nu ar trebui să existe o alternativă.
  19. TIT
    +1
    13 august 2016 20:27
    Citat din gladcu2
    cu terminologia

    Citat din gladcu2
    Autorul a decis deja terminologia.

    Ei bine, vreau să înțeleg ce fizic de pe diagramă a urcat atât de sus pe scări

    1. un zgârie-nori și o mulțime de super computere răcite cu sânge artificial?
    2. un anume android, de la screamers?
    3. Sau este PC-ul meu lângă sobă un nod neuronal al unei ființe superioare?
  20. +3
    13 august 2016 22:30
    La fel ca prima parte a acestui articol, deci a doua, după părerea mea, este o prostie.
    Da, și acest site nu are ce face, chiar și pe tema „Terminator”.
  21. +2
    13 august 2016 22:34
    Un lucru este liniștitor că specialiștii ASI cu astfel de „cunoștințe” nici măcar nu vor construi AI.

    Îi explic: „Filozoful de la Oxford și teoreticianul principal al inteligenței artificiale, Nick Bostrom, crede că... „Toate speciile sunt pe cale de dispariție”. Bine cum poți vorbi despre asta, de exemplu să raporteze că a studiat cumva această problemă și, în același timp, să nu știe despre procariote - organisme unicelulare nemuritoare (au domenii, clase, familii, genuri și specii) care nu mor, ci se divid și se divid timp de mai bine de 4,5 miliarde de ani. !!!

    De asemenea, ei sunt complet nefamiliari, judecând după lipsa de mențiune, cu stabilitatea sistemelor, importanța mediului social și material pentru activitatea minții și chiar regula simplă și, prin urmare, universală, că restructurarea este mai complicată decât construcție - aceasta înseamnă că orice auto-dezvoltare (restructurare) ASI este mai dificilă decât capacitățile ASI, ceea ce înseamnă că nu este posibilă pe termen lung. Omenirea depășește acest obstacol în detrimentul socialității, aceiași specialiști par să nu aibă habar de asta (poate în partea a treia, ce se va întâmpla). Apropo, din cauza acestei socialități, ISI va fi forțat să socializeze, ca orice persoană, și cei care vor fi socializați cu succes vor fi viabili, și nu monștrii pe care îi sperie asemănarea științei de la Hollywood.
  22. 0
    14 august 2016 09:39
    Articolul este o repovestire a unei COMPILAȚII dintr-o mână de surse, scrisă de un anume Tim Urban.
    Cine este Tim Urban? Răspuns: „Tim Urban. Blogger american”.
    Un blogger, doar un blogger, adică o persoană a cărei treabă este să scrie articole pe Internet.
    În consecință, „Un blogger crede că apa se măsoară cu o sită”.
  23. 0
    14 august 2016 12:22
    Articolul este serios.
    Vă dau un exemplu. Când eram băiat, eu
    Am fost învățat să joc puțin Go (la cel mai elementar nivel), un joc japonez.
    A fost predat la dacha de o rudă îndepărtată, un matematician, acum pensionat, după ce a lucrat la Harvard.
    Îmi amintesc că atunci (în 1970) a spus: „Poate că vor veni cu
    un computer care va juca șah la nivel de campioni mondiali.
    Dar nu vor veni niciodată, NICIODATĂ cu un computer care să bată o persoană
    în Go, deoarece numărul de opțiuni și gradul de abstractizare din acest joc sunt nenumărate.”

    Anul acesta, Comp cu încredere - și de mai multe ori - a devansat campioana mondială în Go.
    1. 0
      14 august 2016 12:47
      despre faptul că matematica încorporată în computer trebuie să corespundă cu funcțiile de distribuție, atunci ei mă numesc prost, dar apoi, dragă, exprimați întrebările de multivarianță. Mai mult, alții exclud posibilitatea analizei matematice în general bazate pe funcția de construire a relațiilor matematice algoritmice și bazată pe matematica computațională ca panaceu.
      Prin urmare, matematica raționamentului uman nu este calculată și construită pe calcul integral și diferențial. Ea este distributivă!!! Aceasta înseamnă că permite construirea de relații atât din punct de vedere al vectorului, cât și din punct de vedere al potențialului. Este mult mai simplu și destul de precis în sarcina sa de a obține răspunsuri care să reflecte realitatea așa cum apare în analiză.
      Nu este nimic surprinzător în faptul că un computer poate învinge Go. Numărați cantitatea totală de resurse cheltuite pentru o persoană și un computer. Ei bine, la fel ca copiii!
    2. TIT
      0
      14 august 2016 15:12
      Citat din: voyaka uh
      Comp cu încredere - și de mai multe ori - a devansat Go în acest an

      , și același computer (program) poate juca șah sau poker cu mine? Cred că nu ,
      1. 0
        14 august 2016 16:58
        Este ușor să puneți multe aplicații (programe) într-un singur computer.
        Pentru șah, go, poker și alte mii. El va face un "comutator"
        la o nouă sarcină (la fel cum face creierul nostru) și - înainte.
        Și te va întrece pe tine (și pe mine), nu există nicio îndoială.
        Astfel de programe sunt de auto-învățare. În primul rând, computerul îți copiază tacticile,
        stil, tehnici (auto-învățare) și începe să le folosească împotriva ta. Parcă te joci cu tine însuți
        doar îmbunătățit (viteza și acuratețea performanței computerului este evident mai mare).
        Și computerul începe să vă preseze cu propriile metode. În plus, are în rezervă și memoria adversarilor anteriori.
        Și poate, dacă s-a săturat să chinuiască, să "knock out" cu tehnica altcuiva.
        Dar cu siguranță se va juca pisica și șoarecele - ce se întâmplă dacă învață ceva nou?
        În general, AI nu este un fel de individ cu un IQ ridicat, ci un tip extrem de rău, viclean, nerușinat ca o oglindă și nemilos. trist
        1. 0
          16 august 2016 15:56
          După ce l-a întrecut pe campionul mondial, a lovit plafonul - nu există de la cine să învețe. Va juca singur? Sau pe cineva care să predea? Sau inventezi un joc nou?
          Sau așteptați pentru totdeauna până când cineva stă din nou vizavi
      2. Comentariul a fost eliminat.
  24. TIT
    0
    14 august 2016 21:19
    Citat din: voyaka uh
    Și te întrece pe tine (și pe mine),


    poate câștiga acest joc?
  25. +1
    14 august 2016 22:21
    Și de ce este folosit AI la singular?
    Acolo unde există una, sunt mii de entități.
    Și cine dintre ei va fi de partea noastră și cine este împotrivă, vom vedea. Competiție și dominație, știi...

    Iar jocul de răutate, fraudă, simpatie și lingușire umanitatea este antrenat la perfecțiune.. Să jucăm acest joc cu ei (AI).
  26. +1
    14 august 2016 22:46
    Și apoi, s-a spus de mult - pentru fiecare înțelept, simplitatea este suficientă.
  27. 0
    15 august 2016 13:47
    Citat din gladcu2
    Adică au schimbat pur și simplu conceptul de software antivirus. Dacă primul scanează computerul pentru prezența „markerilor” bibliotecii, atunci software-ul Tomsk ar trebui să scaneze pe baza caracterului nociv al codului. Cu siguranță în comparație cu biblioteca.

    Awl pentru săpun. Dar ei l-au numit AI.


    Deja de acord. Se numea Analiza Euristică.
  28. 0
    22 septembrie 2016 23:35
    Într-o anumită parte a articolului, da, un snob delirant...

    Să-mi explic părerea:
    1) Pentru a crea o IA reală la nivelul unei persoane (existând acum), trebuie să fii mai inteligent, mai inteligent decât o persoană (existând acum), de fapt, să te ridici la un nivel superior, la nivelul unui supraom (sau un nivel, ca în acest articol, ASI).

    2) Prin urmare, acest eveniment nu este aproape, departe de a fi aproape, deși va fi - probabil majoritatea Formunchanilor sunt familiarizați, cel puțin din articolele de pe internet, cu fenomenul copiilor „indigo”, care sunt considerați oameni ai viitor, oameni cu supraminte. Acestea. aceștia sunt cei care pot construi cu adevărat AI la nivelul unei persoane în viață acum.

    3) Pentru a fi un obiect care se dezvoltă singur, trebuie să deveniți cel puțin independent în lumea materială, trebuie să învățați să simțiți lumea materială, să vă înțelegeți nevoile cel puțin într-o oarecare măsură... un algoritm pur „calculator”, oricât de complex ar fi, nu va avea nici măcar informații pentru auto-dezvoltare fără a trece pe calea de a deveni independentă în această lume materială, adică. modalități de dezvoltare umană. Desigur, o persoană poate ajuta la dezvoltarea în această direcție, dar chiar și atunci și numai atunci, când vedeți primul punct.
  29. 0
    22 octombrie 2016 20:28
    Nu mai este nevoie de oameni. Nu-mi amintesc autorul, dar îmi amintesc titlul cărții „KD – dublu cibernetic”.Cartea a fost scrisă în anii 70 și a fost neobișnuit de interesantă. Superinteligența va privi o persoană așa cum se uită o persoană la un câine, la o creatură foarte amuzantă, dar neînțelegătoare. Ca, poți vedea în ochii lui că înțelege totul, dar nu poate spune.
  30. 0
    24 octombrie 2016 18:05
    O persoană trăiește în lumea percepției la nivelul obiectivității. Adică percepem totul în mod obiectiv - acesta este asta sau asta. Dar totul în această lume este, de asemenea, inerent procesualității. Adică totul este în proces de transformare. Prin urmare, o viziune asupra lumii construită pe principiile inseparabilității unuia de celălalt creează realitatea și adecvarea percepției realității. Pe aceasta, matematica este construită pe funcția unei valori constante a unui număr, ceea ce vă permite să combinați o multitudine și, în același timp, individualitatea. Fără bazele acestei cunoștințe, AI nici măcar nu se poate apropia
  31. 0
    11 noiembrie 2016 09:43
    Acest Kurzweili mi-a amintit de Chubais, un șarlatan înșelător și viclean.

    Încercările de a face o persoană nemuritoare sunt necesare pentru a scoate bani de la bătrânii bogați, care, cu ultimele lor forțe, se agață de viața trecătoare.

    Problema îmbătrânirii este destul de bine cunoscută și evidentă - acestea sunt erori în replicarea celulelor și un set de gunoi în plus în cromozomi la fiecare clonare.
    Dacă, într-un fel, pentru a elimina erorile, aceasta va opri evoluția.

    Discutarea raționalității și superinteligenței motoarelor de căutare și înzestrarea lor cu rațiune, la fel nu rezistă criticilor, tot ce sunt capabili este să colecteze și să transmită gândurile altor oameni.

    De fapt, dezvoltarea omenirii a mers mai rapid datorită convergenței oamenilor într-o societate bazată pe internet și acum oamenii nu reinventează roata în fiecare societate izolată.

    Pe scurt - o furtună într-o ceașcă de ceai!
  32. 0
    7 august 2017 19:53
    Domnul a introdus intelectul in maimuta, s-a dovedit a fi om.Asa traim noi, arata ca la Dumnezeu si esenta unei maimute.Urmeaza poruncile lui Dumnezeu, se vor deschide portile Ratiunii.

„Sectorul de dreapta” (interzis în Rusia), „Armata insurgenților ucraineni” (UPA) (interzis în Rusia), ISIS (interzis în Rusia), „Jabhat Fatah al-Sham” fost „Jabhat al-Nusra” (interzis în Rusia) , Talibani (interzis în Rusia), Al-Qaeda (interzis în Rusia), Fundația Anticorupție (interzisă în Rusia), Sediul Navalny (interzis în Rusia), Facebook (interzis în Rusia), Instagram (interzis în Rusia), Meta (interzisă în Rusia), Divizia Mizantropică (interzisă în Rusia), Azov (interzisă în Rusia), Frații Musulmani (interzisă în Rusia), Aum Shinrikyo (interzisă în Rusia), AUE (interzisă în Rusia), UNA-UNSO (interzisă în Rusia), Mejlis al Poporului Tătar din Crimeea (interzis în Rusia), Legiunea „Libertatea Rusiei” (formație armată, recunoscută ca teroristă în Federația Rusă și interzisă)

„Organizații non-profit, asociații publice neînregistrate sau persoane fizice care îndeplinesc funcțiile de agent străin”, precum și instituțiile media care îndeplinesc funcțiile de agent străin: „Medusa”; „Vocea Americii”; „Realitate”; "Timp prezent"; „Radio Freedom”; Ponomarev; Savitskaya; Markelov; Kamalyagin; Apakhonchich; Makarevici; Dud; Gordon; Jdanov; Medvedev; Fedorov; "Bufniţă"; „Alianța Medicilor”; „RKK” „Levada Center”; "Memorial"; "Voce"; „Persoană și drept”; "Ploaie"; „Mediazone”; „Deutsche Welle”; QMS „Nodul Caucazian”; „Insider”; „Ziar nou”