Pred vama je drugi dio članka iz serije "Čekaj, koliko sve ovo može biti stvarno, zašto se o tome još uvijek ne priča na svakom uglu". U prethodnoj seriji postalo je poznato da se eksplozija inteligencije postupno prikrada ljudima planete Zemlje, pokušava se razviti od usko fokusirane do univerzalne inteligencije i, konačno, umjetne superinteligencije.
"Možda se suočavamo s izuzetno teškim problemom i ne zna se koliko je vremena dodijeljeno za njegovo rješavanje, ali budućnost čovječanstva može ovisiti o njegovom rješenju." - Nick Bostrom.
Prvi dio članka počeo je sasvim nevino. Razgovarali smo o usko fokusiranoj umjetnoj inteligenciji (umjetna inteligencija, koja je specijalizirana za rješavanje jednog specifičnog problema, poput određivanja ruta ili igranja šaha), ima je mnogo u našem svijetu. Zatim su analizirali zašto je tako teško razviti umjetnu inteligenciju općeg smjera (AGI ili AI, koja se, po intelektualnim sposobnostima, može usporediti s ljudskom u rješavanju bilo kojeg problema), tako je teška. Zaključili smo da eksponencijalna stopa tehnološkog napretka nagovještava da bi AGI mogao uskoro biti iza ugla. Na kraju smo odlučili da čim se mašine dosegnu do ljudske inteligencije, odmah se može dogoditi sljedeće:
Kao i obično, gledamo u ekran, ne vjerujući da se umjetna superinteligencija (ISI, koja je mnogo pametnija od bilo koje osobe) može pojaviti tokom našeg života, i biramo emocije koje bi najbolje odražavale naše mišljenje o ovom pitanju.
Prije nego što zađemo u specifičnosti ISI -a, podsjetimo se šta znači da mašina bude superinteligentna.
Glavna razlika leži između brze superinteligencije i kvalitetne superinteligencije. Često, prvo što mi pada na pamet pri razmišljanju o superinteligentnom računaru je da može razmišljati mnogo brže od čovjeka - milionima puta brže, i za pet minuta će shvatiti šta bi čovjeku trebalo deset godina. ("Znam kung fu!")
Zvuči impresivno, a ISI bi zaista trebao razmišljati brže od bilo koga drugog - ali glavna odvojna značajka bit će kvaliteta njegove inteligencije, koja je potpuno drugačija. Ljudi su mnogo pametniji od majmuna, ne zato što brže razmišljaju, već zato što njihov mozak sadrži niz genijalnih kognitivnih modula koji izvode složene jezične prikaze, dugoročno planiranje, apstraktno razmišljanje, za što majmuni nisu sposobni. Ako ubrzate mozak majmuna tisuću puta, on neće postati pametniji od nas - čak ni nakon deset godina neće moći sastaviti konstruktor prema uputama, što bi čovjeku oduzelo najviše par sati. Postoje stvari koje majmun nikada neće naučiti, bez obzira na to koliko sati provodi ili koliko mu mozak radi.
Osim toga, majmun ne zna koliko ljudski, jer njegov mozak jednostavno nije u stanju shvatiti postojanje drugih svjetova - majmun može znati šta je osoba, a šta neboder, ali nikada neće shvatiti da je neboder sagradio ljudi. U njenom svijetu sve pripada prirodi, a makaka ne samo da ne može izgraditi neboder, već i shvatiti da ga može graditi bilo tko. A to je rezultat male razlike u kvaliteti inteligencije.
U općoj shemi inteligencije o kojoj govorimo, ili jednostavno prema standardima bioloških bića, razlika u kvaliteti inteligencije između ljudi i majmuna je mala. U prethodnom članku smo biološke kognitivne sposobnosti stavili na ljestvicu:
Da biste shvatili koliko će superinteligentna mašina biti ozbiljna, postavite je dva stepena više od osobe na toj ljestvici. Možda je ova mašina samo pomalo superinteligentna, ali njena superiornost nad našim kognitivnim sposobnostima bit će ista kao i naša - nad majmunima. I kao što šimpanza nikada neće shvatiti da se neboder može izgraditi, možda nikada nećemo razumjeti ono što će razumjeti mašina par koraka više, čak i ako nam mašina pokuša to objasniti. Ali ovo je samo nekoliko koraka. Pametnija mašina vidjet će mrave u nama - naučit će nas godinama najjednostavnijim stvarima sa svoje pozicije, a ti pokušaji bit će potpuno beznadni.
Vrsta superinteligencije o kojoj ćemo danas govoriti daleko je izvan ove ljestvice. Ovo je eksplozija inteligencije - kada automobil postane pametniji, brže može povećati vlastitu inteligenciju, postupno povećavajući zamah. Možda će trebati godine da ovakva mašina nadmaši šimpanze u inteligenciji, ali možda nekoliko sati da nas nadmaši za par stupnjeva. Od tog trenutka automobil već može preskočiti četiri stepenice svake sekunde. Zato bismo trebali shvatiti da ćemo se vrlo brzo nakon što se pojave prve vijesti da je mašina dosegla nivo ljudske inteligencije, suočiti sa stvarnošću suživota na Zemlji s nečim što će biti mnogo više od nas na ovoj ljestvici (ili možda, i milionima puta veće):
A budući da smo ustanovili da je potpuno beskorisno pokušavati razumjeti moć mašine koja je samo dva koraka iznad nas, definirajmo jednom zauvijek da ne postoji način da se shvati šta će ISI učiniti i kakve će posljedice imati ovo će biti za nas. Svako ko tvrdi suprotno jednostavno ne razume šta znači superinteligencija.
Evolucija je polako i postupno razvijala biološki mozak kroz stotine miliona godina, a ako ljudi stvore superinteligentnu mašinu, u određenom smislu ćemo nadići evoluciju. Ili će to biti dio evolucije - možda evolucija djeluje na takav način da se inteligencija razvija postupno sve dok ne dosegne prekretnicu koja najavljuje novu budućnost za sva živa bića:
Iz razloga o kojima ćemo kasnije govoriti, veliki dio naučne zajednice vjeruje da nije pitanje hoćemo li doći do ove prekretnice, već kada.
Gdje ćemo završiti nakon ovoga?
Mislim da niko na ovom svijetu, ni ja ni ti, nećemo moći reći šta će se dogoditi kada dođemo do prekretnice. Oksfordski filozof i vodeći teoretičar umjetne inteligencije Nick Bostrom vjeruje da sve moguće ishode možemo spojiti u dvije široke kategorije.
Prvo, gledajući povijest, znamo sljedeće o životu: vrste se pojavljuju, postoje određeno vrijeme, a zatim neizbježno otpadaju s balansa i izumiru.
"Sve vrste izumiru" bilo je pouzdano pravilo u istoriji kao i "svi ljudi jednog dana umru". 99,9% vrsta ispalo je iz dnevnika života, i sasvim je jasno da će, ako vrsta visi na ovom dnevniku predugo, nalet prirodnog vjetra ili iznenadni asteroid prevrnuti dnevnik. Bostrom izumiranje naziva stanjem atraktora - mjestom gdje sve vrste balansiraju kako ne bi pale gdje se još nijedna vrsta nije vratila.
I premda većina znanstvenika priznaje da će ISI imati sposobnost osuditi ljude na izumiranje, mnogi također vjeruju da će korištenje sposobnosti ISI -a omogućiti pojedincima (i vrsti u cjelini) da postignu drugo stanje atraktora - besmrtnost vrste. Bostrom vjeruje da je besmrtnost vrste isto toliko atraktor koliko i izumiranje vrste, odnosno, ako dođemo do ovoga, bit ćemo osuđeni na vječno postojanje. Stoga, čak i ako su sve vrste do sada pale s ovog štapa u kovitlac izumiranja, Bostrom vjeruje da trupac ima dvije strane, a na Zemlji se jednostavno nije pojavila takva inteligencija koja bi razumjela kako pasti na drugu stranu.
Ako su Bostrom i drugi u pravu, a sudeći prema svim podacima koji su nam dostupni, možda su i takvi, moramo prihvatiti dvije vrlo šokantne činjenice:
Pojava ISI -ja po prvi put u povijesti otvorit će put vrsti da postigne besmrtnost i ispadne iz kobnog ciklusa izumiranja.
Pojava ISI -a imat će toliko nezamislivo veliki utjecaj da će, najvjerojatnije, gurnuti čovječanstvo s ovog dnevnika u jednom ili drugom smjeru.
Moguće je da kad evolucija dosegne takvu prekretnicu, uvijek stane na kraj odnosu ljudi prema toku života i stvori novi svijet, sa ljudima ili bez njih.
To dovodi do zanimljivog pitanja koje samo šteta ne bi postavilo: kada ćemo doći do ove prelomne tačke i gdje će nas to staviti? Niko na svijetu ne zna odgovor na ovo dvostruko pitanje, ali mnogi pametni ljudi pokušavaju to shvatiti decenijama. Za ostatak članka ćemo shvatiti odakle su došli.
* * *
Počnimo s prvim dijelom ovog pitanja: kada bismo trebali doći do prekretnice? Drugim riječima: koliko je vremena preostalo dok prva mašina ne dosegne superinteligenciju?
Mišljenja se razlikuju od slučaja do slučaja. Mnogi, uključujući profesora Vernora Vingea, naučnika Bena Herzela, suosnivača Sun Microsystemsa Bill Joya, futurista Raya Kurzweila, složili su se sa stručnjakom za mašinsko učenje Jeremyjem Howardom kada je predstavio sljedeći grafikon na TED Talku:
Ti ljudi dijele mišljenje da će ISI uskoro doći - ovaj eksponencijalni rast, koji nam se danas čini sporim, doslovno će eksplodirati u sljedećih nekoliko decenija.
Drugi, poput suosnivača Microsofta Paul Allena, istraživačkog psihologa Garyja Marcusa, računarskog stručnjaka Ernesta Davisa i tehnološkog poduzetnika Mitch Kapora, vjeruju da mislioci poput Kurzweila ozbiljno potcjenjuju veličinu problema i misle da nismo ni blizu prekretnica.
Kurzweilov kamp tvrdi da je jedino podcjenjivanje zanemarivanje zanemarivanja eksponencijalnog rasta, a sumnjičavi se mogu uporediti s onima koji su 1985. gledali polako rastući internet i tvrdili da to neće imati utjecaja na svijet u bliskoj budućnosti.
Sumnjači se mogu oduprijeti da je napredak teže poduzeti svaki sljedeći korak kada je u pitanju eksponencijalni razvoj inteligencije, koji neutralizira tipičnu eksponencijalnu prirodu tehnološkog napretka. Itd.
Treći kamp, u kojem je Nick Bostrom, ne slaže se ni s prvim ni s drugim, tvrdeći da se a) sve ovo apsolutno može dogoditi u bliskoj budućnosti; i b) nema garancije da će se to uopće dogoditi ili da će potrajati duže.
Drugi, poput filozofa Huberta Dreyfusa, vjeruju da sve tri grupe naivno vjeruju da će doći do prekretnice i da najvjerojatnije nikada nećemo doći do ISI -ja.
Šta se događa kada spojimo sva ova mišljenja?
Bostrom je 2013. godine proveo istraživanje u kojem je intervjuisao stotine stručnjaka za umjetnu inteligenciju na nizu konferencija na sljedeću temu: "Kakva će biti vaša predviđanja za postizanje AGI -a na ljudskom nivou?" i zamolio nas da navedemo optimističnu godinu (u kojoj ćemo imati AGI sa 10 posto šanse), realnu pretpostavku (godinu u kojoj ćemo imati AGI sa vjerovatnoćom od 50 posto) i pouzdanu pretpostavku (najranija godina u kojoj je AGI će se pojaviti od vjerovatnoće od 90 posto). Evo rezultata:
* Prosječna optimistična godina (10%): 2022
* Prosječna realna godina (50%): 2040
* Prosječna pesimistična godina (90%): 2075
Prosječni ispitanici vjeruju da ćemo za 25 godina imati AGI, a ne ne. 90 posto šanse da se AGI dogodi do 2075. godine znači da će se to dogoditi tijekom vašeg života ako ste još sasvim mladi.
Odvojeno istraživanje koje je nedavno proveo James Barratt (autor hvaljene i vrlo dobre knjige Our Latest Invention, odlomci iz Predstavila sam pažnju čitalaca Hi-News.ru) i Ben Hertzel na AGI konferenciji, godišnjoj AGI konferenciji, jednostavno su pokazali mišljenja ljudi o godini u kojoj dolazimo na AGI: 2030, 2050, 2100, kasnije ili nikad. Evo rezultata:
* 2030: 42% ispitanika
* 2050: 25%
* 2100: 20%
Nakon 2100: 10%
Nikad: 2%
Slično rezultatima Bostroma. U Barrattovom istraživanju, više od dvije trećine ispitanika vjeruje da će AGI biti ovdje do 2050. godine, a manje od polovice vjeruje da će se AGI pojaviti u sljedećih 15 godina. Takođe je zapanjujuće da samo 2% ispitanika, u principu, ne vidi AGI u našoj budućnosti.
Ali AGI nije prekretnica kao ISI. Kada ćemo, prema stručnjacima, imati ISI?
Bostrom je pitao stručnjake kada ćemo stići u ASI: a) dvije godine nakon dostizanja AGI -a (to jest, gotovo odmah zbog eksplozije inteligencije); b) nakon 30 godina. Rezultati?
Prosječno mišljenje je da će se brzi prijelaz s AGI -a na ISI dogoditi s 10% vjerojatnosti, ali za 30 godina ili manje sa 75% vjerojatnosti.
Iz ovih podataka ne znamo koji bi datum ispitanici nazvali 50 posto šanse za ASI, ali na osnovu dva gornja odgovora, pretpostavimo da je to 20 godina. Odnosno, vodeći svjetski stručnjaci za umjetnu inteligenciju vjeruju da će se prekretnica dogoditi 2060. (AGI će se pojaviti 2040. godine + bit će potrebno 20 godina za prijelaz s AGI -a na ISI).
Naravno, svi gore navedeni statistički podaci su spekulativni i jednostavno predstavljaju mišljenje stručnjaka iz područja umjetne inteligencije, ali također ukazuju na to da se većina zainteresiranih slaže da će vjerovatno do 2060. godine stići umjetna inteligencija. Za samo 45 godina.
Prijeđimo na drugo pitanje. Kada dođemo do prekretnice, koja će nas strana fatalnog izbora odrediti?
Superinteligencija će imati najmoćniju moć, a kritično pitanje za nas bit će sljedeće:
Ko ili šta će kontrolisati ovu moć i šta će im biti motivacija?
Odgovor na ovo pitanje ovisit će o tome hoće li ISI dobiti nevjerojatno snažan razvoj, neizmjerno zastrašujući razvoj ili nešto između.
Naravno, stručna zajednica pokušava odgovoriti i na ova pitanja. Bostromovo istraživanje je analiziralo vjerovatnoću mogućih posljedica utjecaja AGI -a na čovječanstvo, pa se pokazalo da će sa 52 posto šanse sve proći vrlo dobro, a sa 31 posto šanse da će sve proći ili loše ili izuzetno loše. Anketa priložena na kraju prethodnog dijela ove teme, provedena među vama, dragi čitatelji Hi-News-a, pokazala je približno iste rezultate. Za relativno neutralan ishod vjerovatnoća je bila samo 17%. Drugim riječima, svi vjerujemo da će AGI biti velika stvar. Također je vrijedno napomenuti da se ovo istraživanje tiče pojave AGI -a - u slučaju ISI -a, postotak neutralnosti će biti manji.
Prije nego što dublje razmislimo o dobrim i lošim stranama pitanja, spojimo obje strane pitanja - "kada će se to dogoditi?" i "je li ovo dobro ili loše?" u tablicu koja pokriva stavove većine stručnjaka.
Razgovarat ćemo o glavnom kampu za minutu, ali prvo odlučite o svom položaju. Velike su šanse da ste na istom mjestu kao i ja prije nego što sam počeo raditi na ovoj temi. Postoji nekoliko razloga zašto ljudi uopće ne razmišljaju o ovoj temi:
* Kao što je spomenuto u prvom dijelu, filmovi su ozbiljno zbunili ljude i činjenice, predstavljajući nerealne scenarije s umjetnom inteligencijom, što je dovelo do činjenice da umjetnu inteligenciju uopće ne trebamo shvaćati ozbiljno. James Barratt uporedio je ovu situaciju sa izdavanjem Centra za kontrolu bolesti (CDC) sa ozbiljnim upozorenjem o vampirima u našoj budućnosti.
* Zbog takozvanih kognitivnih predrasuda, vrlo nam je teško povjerovati da je nešto stvarno dok nemamo dokaze. S pouzdanjem se može zamisliti da su informatičari 1988. godine redovno raspravljali o dalekosežnim posljedicama Interneta i o tome što bi on mogao postati, ali ljudi jedva da su vjerovali da će im to promijeniti živote sve dok se to doista ne dogodi. Samo što računari 1988. nisu znali kako se to radi, a ljudi su samo gledali u svoje računare i mislili: “Zaista? Je li to ono što će promijeniti svijet? Njihova mašta bila je ograničena onim što su naučili iz ličnog iskustva, znali su šta je računar i bilo je teško zamisliti na šta bi računar mogao biti sposoban u budućnosti. Isto se sada dešava sa AI. Čuli smo da će to postati ozbiljna stvar, ali budući da se još nismo suočili s tim licem u oči i općenito promatramo prilično slabe manifestacije umjetne inteligencije u našem modernom svijetu, prilično nam je teško povjerovati da će se radikalno promeniti naš život. Suprotno tim predrasudama, brojni stručnjaci iz svih tabora, kao i zainteresirani, protive se pokušaju da nam privuku pažnju kroz buku svakodnevnog kolektivnog egocentrizma.
* Čak i da smo vjerovali u sve ovo - koliko ste puta danas razmišljali o činjenici da ćete ostatak vječnosti provesti u ništavilu? Malo, slažem se. Čak i ako je ova činjenica mnogo važnija od svega što radite iz dana u dan. To je zato što je naš mozak obično fokusiran na male, svakodnevne stvari, bez obzira na zabludu u dugoročnoj situaciji u kojoj se nalazimo. Mi smo samo stvoreni.
Jedan od ciljeva ovog članka je izvući vas iz kampa pod nazivom "Volim razmišljati o drugim stvarima" i staviti vas u kamp stručnjaka, čak i ako samo stojite na raskrsnici između dvije isprekidane linije na trgu gore, potpuno neodlučno.
Tijekom istraživanja postaje očito da se mišljenja većine ljudi brzo odlutaju prema "glavnom kampu", a tri četvrtine stručnjaka pada u dva podkampa u glavnom kampu.
Oba kampa ćemo u potpunosti posjetiti. Počnimo sa zabavom.
Zašto bi budućnost mogla biti naš najveći san?
Dok istražujemo svijet umjetne inteligencije, nalazimo iznenađujuće mnogo ljudi u našoj zoni udobnosti. Ljudi u gornjem desnom kvadratu bruje od uzbuđenja. Oni vjeruju da ćemo pasti na dobru stranu dnevnika, a vjeruju i da ćemo neizbježno doći do ovoga. Za njih je budućnost samo najbolje o čemu se može samo sanjati.
Ono što ove ljude razlikuje od drugih mislilaca nije to što žele biti na sretnoj strani - već što su sigurni da nas čeka ona.
Ovo samopouzdanje proizlazi iz kontroverzi. Kritičari vjeruju da to dolazi od zasljepljujućeg uzbuđenja koje zasjenjuje potencijalne negativne strane. Ali zagovornici kažu da su mračna predviđanja uvijek naivna; tehnologija se nastavlja i uvijek će nam više pomoći nego naškoditi.
Možete izabrati bilo koje od ovih mišljenja, ali ostavite po strani skepticizam i dobro pogledajte sretnu stranu balansa, pokušavajući prihvatiti činjenicu da se sve o čemu čitate možda već dogodilo. Kad biste lovcima sakupljačima pokazali naš svijet udobnosti, tehnologije i beskrajnog obilja, to bi im se učinilo magičnom fikcijom - a mi se ponašamo prilično skromno, ne možemo priznati da nas ista neshvatljiva transformacija čeka u budućnosti.
Nick Bostrom opisuje tri puta koje superinteligentan AI sistem može proći:
* Proročište koje može odgovoriti na bilo koje tačno pitanje, uključujući i teška pitanja na koja ljudi ne mogu odgovoriti - na primjer, "kako učiniti motor automobila efikasnijim?" Google je primitivna vrsta "proročišta".
* Duh koji će izvršiti bilo koju naredbu na visokom nivou - koristeći molekularni asembler za stvaranje nove, efikasnije verzije automobilskog motora - i čekati će sljedeću naredbu.
* Suveren koji će imati širok pristup i sposobnost da slobodno funkcionira u svijetu, donoseći vlastite odluke i poboljšavajući proces. Izmislit će jeftiniji, brži i sigurniji način privatnog prijevoza od automobila.
Ova pitanja i zadaci, koji nam se čine teškim, superinteligentnom sistemu će se činiti kao da je neko tražio da poboljša situaciju „olovka mi je pala sa stola“, u kojoj biste je jednostavno podigli i vratili.
Eliezer Yudkowski, američki stručnjak za umjetnu inteligenciju, rekao je dobro:
„Nema teških problema, samo problemi koji su teški za određeni nivo inteligencije. Idite korak dalje (u smislu inteligencije) i neki će se problemi odjednom premjestiti iz kategorije "nemogućih" u kamp "očiglednih". Korak više - i svi će postati očigledni."
Mnogi su nestrpljivi naučnici, izumitelji i poduzetnici koji su odabrali zonu sigurne udobnosti s našeg stola, ali potreban nam je samo jedan vodič da bismo hodali najbolje u ovom najboljem svijetu.
Ray Kurzweil je dvosmislen. Neki obožavaju njegove ideje, neki ga preziru. Neki ostaju u sredini - Douglas Hofstadter, raspravljajući o idejama Kurzweilovih knjiga, rječito je primijetio da je "kao da ste uzeli mnogo dobre hrane i malo pseće kakice, a zatim sve pomiješali na takav način da je nemoguće razumjeti" šta je dobro, a šta loše ".
Svidjele vam se njegove ideje ili ne, nemoguće ih je mimoići bez sjene interesa. Počeo je izmišljati stvari kao tinejdžer, a sljedećih godina izumio je nekoliko važnih stvari, uključujući prvi ravni skener, prvi skener za pretvaranje teksta u govor, poznati muzički sintisajzer Kurzweil (prvi pravi električni klavir) i prvi komercijalno uspješan prepoznavač govora. Autor je i pet senzacionalnih knjiga. Kurzweil je cijenjen zbog svojih odvažnih predviđanja, a rezultati su mu prilično dobri - krajem 80 -ih, kada je Internet bio još u povojima, predvidio je da će do 2000 -ih Web postati globalni fenomen. Wall Street Journal nazvao je Kurzweila "nemirnim genijem", Forbes "globalnom mašinom za razmišljanje", Inc. Magazin - "Edisonov zakoniti nasljednik", Bill Gates - "najbolji od onih koji predviđaju budućnost umjetne inteligencije". 2012. godine, suosnivač Googlea Larry Page pozvao je Kurzweila na mjesto tehničkog direktora. 2011. godine suosnivač je Univerziteta Singularity, čiji je domaćin NASA, a djelomično sponzorira Google.
Njegova biografija je važna. Kad Kurzweil govori o svojoj viziji budućnosti, to zvuči kao ludo ludo, ali zaista luda stvar u tome je što on daleko od toga da je lud - on je nevjerovatno pametna, obrazovana i razumna osoba. Možda mislite da nije u pravu u svojim predviđanjima, ali nije budala. Kurzweilova predviđanja dijele i mnogi stručnjaci za zonu udobnosti, Peter Diamandis i Ben Herzel. On misli da će se to dogoditi.
Hronologija
Kurzweil vjeruje da će računari do 2029. godine dostići nivo opće umjetne inteligencije (AGI), a do 2045. nećemo imati samo umjetnu superinteligenciju, već i potpuno novi svijet - vrijeme takozvane singularnosti. Njegova se hronologija umjetne inteligencije još uvijek smatra pretjerano pretjeranom, ali u posljednjih 15 godina brzi razvoj visoko fokusiranih sistema umjetne inteligencije (AI) natjerao je mnoge stručnjake da stanu na stranu Kurzweila. Njegova predviđanja su i dalje ambicioznija od onih u Bostromovom istraživanju (AGI do 2040., ISI do 2060.), ali ne mnogo.
Prema Kurzweilu, singularnost 2045. godine pokreću tri istovremene revolucije u biotehnologiji, nanotehnologiji i, što je još važnije, umjetnoj inteligenciji. No prije nego nastavimo - a nanotehnologija pomno prati umjetnu inteligenciju - odvojimo trenutak do nanotehnologije.
Nekoliko riječi o nanotehnologiji
Obično nazivamo nanotehnološke tehnologije koje se bave manipulacijom tvari u rasponu od 1-100 nanometara. Nanometar je milijarditi dio metra ili milioniti dio milimetra; u rasponu od 1-100 nanometara, mogu se smjestiti virusi (promjera 100 nm), DNK (širine 10 nm), molekule hemoglobina (5 nm), glukoza (1 nm) i drugi. Ako nam nanotehnologija ikada postane podložna, sljedeći korak bit će manipulacija pojedinačnim atomima koji su manji od jednog reda veličine (~, 1 nm).
Da bismo razumjeli gdje ljudi nailaze na probleme pokušavajući manipulirati materijom na takvim razmjerima, skočimo na veće razmjere. Međunarodna svemirska stanica nalazi se 481 kilometar iznad Zemlje. Da su ljudi divovi i udarili glavom u ISS, bili bi 250.000 puta veći nego što su sada. Ako uvećate bilo što od 1 do 100 nanometara 250.000 puta, dobit ćete 2,5 centimetra. Nanotehnologija je ekvivalent čovjeka koji kruži oko ISS -a i pokušava manipulirati stvarima veličine zrna pijeska ili očne jabučice. Da bi došao do sljedeće razine - kontrole pojedinačnih atoma - div će morati pažljivo postaviti objekte promjera 1/40 milimetra. Običnim ljudima će trebati mikroskop da ih vide.
Po prvi put, Richard Feynman je govorio o nanotehnologiji 1959. godine. Zatim je rekao: „Principi fizike, koliko ja mogu reći, ne govore protiv mogućnosti kontrole stvari atom po atom. U principu, fizičar bi mogao sintetizirati bilo koju kemikaliju koju je kemičar zapisao. Kako? Postavljanjem atoma tamo gdje kemičar kaže da se dobije tvar. Ovo je cijela jednostavnost. Ako znate kako pomicati pojedine molekule ili atome, možete učiniti gotovo sve.
Nanotehnologija je postala ozbiljno naučno područje 1986. godine kada je inženjer Eric Drexler predstavio svoje temelje u svojoj temeljnoj knjizi Mašine stvaranja, ali sam Drexler vjeruje da oni koji žele naučiti više o modernim idejama u nanotehnologiji trebaju pročitati njegovu knjigu iz 2013. Puno obilje (Radikal Obilje).
Nekoliko riječi o "sivoj goo"
Zalazili smo dublje u nanotehnologiju. Konkretno, tema "grey goo" jedna je od ne baš ugodnih tema u području nanotehnologije, koju se ne može zanemariti. Starije verzije teorije nanotehnologije predlažu metodu nano-montaže koja uključuje stvaranje triliona sićušnih nanorobota koji bi zajedno radili na stvaranju nečega. Jedan od načina za stvaranje biliona nanorobota je stvaranje jednog koji se može samostalno replicirati, to jest od jedan do dva, od dva do četiri itd. Nekoliko trilijuna nanorobota pojavit će se u jednom danu. To je moć eksponencijalnog rasta. Smiješno, zar ne?
Smiješno je, ali sve dok ne dođe do apokalipse. Problem je u tome što moć eksponencijalnog rasta, što ga čini prilično zgodnim načinom za brzo stvaranje triliona nanobota, čini samoreplikaciju zastrašujućom stvari na dugi rok. Šta ako se sistem sruši, i umjesto da zaustave replikaciju za nekoliko biliona, nanoboti će se nastaviti razmnožavati? Što ako cijeli ovaj proces ovisi o ugljiku? Biomasa Zemlje sadrži 10 ^ 45 atoma ugljika. Nanobot bi trebao biti reda 10 ^ 6 atoma ugljika, pa će 10 ^ 39 nanobota progutati sav život na Zemlji u samo 130 ponavljanja. Ocean nanobota ("siva goo") preplavit će planetu. Naučnici misle da se nanoboti mogu replicirati za 100 sekundi, što znači da jednostavna greška može ubiti sav život na Zemlji za samo 3,5 sata.
Moglo bi biti još gore - ako teroristi i nepovoljni stručnjaci dođu u ruke nanotehnologije. Mogli bi stvoriti nekoliko biliona nanobota i programirati ih da se tiho prošire svijetom za nekoliko tjedana. Zatim će, pritiskom na dugme, za samo 90 minuta pojesti sve, bez ikakve šanse.
Iako se o ovoj horor priči godinama raspravlja, dobra vijest je da je to samo horor priča. Eric Drexler, koji je skovao izraz "siva goo", nedavno je rekao sljedeće: "Ljudi vole horor priče, a ovo je jedna od zombi horor priča. Ova ideja sama po sebi već jede mozak."
Kad dođemo do dna nanotehnologije, možemo je koristiti za stvaranje tehničkih uređaja, odjeće, hrane, bioproizvoda - krvnih stanica, boraca protiv virusa i raka, mišićnog tkiva itd. - bilo čega. A u svijetu koji koristi nanotehnologiju, cijena materijala više neće biti vezana za njegovu oskudicu ili složenost procesa proizvodnje, već za složenost njegove atomske strukture. U svijetu nanotehnologije, dijamant bi mogao biti jeftiniji od gumice.
Još nismo ni blizu. I nije sasvim jasno podcjenjujemo li ili potcjenjujemo složenost ovog puta. Međutim, sve ide do toga da nanotehnologija nije daleko. Kurzweil pretpostavlja da ćemo ih imati do 2020 -ih. Svjetske države znaju da nanotehnologija može obećati veliku budućnost, pa stoga u njih ulažu mnoge milijarde.
Zamislite samo kakve bi mogućnosti superinteligentni računar dobio kad bi došao do pouzdanog asemblera nano razmera. Ali nanotehnologija je naša ideja, i mi pokušavamo da je iskoristimo, teško nam je. Što ako su oni samo šala za ISI sustav, a sam ISI dolazi s tehnologijama koje će biti višestruko moćnije od svega što u načelu možemo pretpostaviti? Složili smo se: niko ne može zamisliti za šta će umjetna superinteligencija biti sposobna? Vjeruje se da naš mozak nije u stanju predvidjeti ni minimum onoga što će se dogoditi.
Šta AI može učiniti za nas?
Naoružan superinteligencijom i svom tehnologijom koju bi superinteligencija mogla stvoriti, ISI će vjerovatno moći riješiti sve probleme čovječanstva. Globalno zagrijavanje? ISI će prvo zaustaviti emisiju ugljika izmišljajući niz efikasnih načina za proizvodnju energije koji nisu povezani s fosilnim gorivima. Zatim će smisliti učinkovit, inovativan način za uklanjanje viška CO2 iz atmosfere. Rak i druge bolesti? Nije problem - zdravstvo i medicina će se promijeniti na nezamislive načine. Glad u svetu? ISI će koristiti nanotehnologiju za stvaranje mesa identičnog prirodnom, od nule, pravog mesa.
Nanotehnologija će moći pretvoriti gomilu smeća u kadu sa svježim mesom ili drugom hranom (ne nužno čak ni u svom uobičajenom obliku - zamislite džinovsku kocku jabuke) i svu tu hranu distribuirati po svijetu pomoću naprednih transportnih sistema. Naravno, ovo će biti odlično za životinje koje više ne moraju ginuti zbog hrane. ISI također može učiniti mnoge druge stvari, poput očuvanja ugroženih vrsta ili čak vraćanje izumrlih iz uskladištene DNK. ISI može riješiti naše najteže makroekonomske probleme - naše najteže ekonomske debate, etička i filozofska pitanja, globalnu trgovinu - a sve će to biti bolno očigledno za ISI.
Ali postoji nešto vrlo posebno što bi ISI mogao učiniti za nas. Zavodljivo i mučno promijenilo bi sve: ISI nam može pomoći da se nosimo sa smrtnošću … Postepeno shvaćajući sposobnosti umjetne inteligencije, možda ćete preispitati sve svoje ideje o smrti.
Nije bilo razloga za evoluciju da nam produži životni vijek duže nego sada. Ako živimo dovoljno dugo da rađamo i odgajamo djecu do te mjere da se mogu sami snalaziti, evolucija je dovoljna. S evolucijskog gledišta, 30+ godina je dovoljno za razvoj i nema razloga da mutacije produže život i smanje vrijednost prirodne selekcije. William Butler Yates nazvao je našu vrstu "dušom vezanom za umiruću životinju". Nije baš zabavno.
A pošto svi jednog dana umremo, živimo sa idejom da je smrt neizbježna. S vremenom razmišljamo o starenju - nastavljamo napredovati i nismo u mogućnosti zaustaviti ovaj proces. Ali pomisao na smrt je izdajnička: zarobljeni njome zaboravljamo živjeti. Richard Feynman je napisao:
„U biologiji postoji jedna divna stvar: u ovoj nauci ne postoji ništa što bi govorilo o neophodnosti smrti. Ako želimo stvoriti vječni stroj za kretanje, shvaćamo da smo u fizici pronašli dovoljno zakona koji ili ukazuju na nemogućnost ovoga, ili su zakoni pogrešni. Ali u biologiji ne postoji ništa što bi ukazivalo na neizbježnost smrti. To me dovodi do uvjerenja da to nije tako neizbježno i da je samo pitanje vremena kada će biolozi otkriti uzrok ovog problema, ove strašne univerzalne bolesti, koja će biti izliječena."
Činjenica je da starenje nema veze s vremenom. Starenje je kada se fizički materijali tijela istroše. Automobilski dijelovi se također degradiraju - ali je li starenje neizbježno? Ako popravite automobil dok se dijelovi troše, trajat će vječno. Ljudsko tijelo se ne razlikuje - samo je složenije.
Kurzweil govori o inteligentnim nanobotima povezanim s Wi-Fi-jem u krvotoku koji bi mogli obaviti bezbroj zadataka za ljudsko zdravlje, uključujući redovno popravljanje ili zamjenu istrošenih ćelija bilo gdje u tijelu. Poboljšanje ovog procesa (ili pronalaženje alternative koju predlaže pametniji ASI) neće samo održati tijelo zdravim, već će i preokrenuti starenje. Razlika između tijela 60-godišnjaka i 30-godišnjaka je pregršt fizičkih problema koji se mogu ispraviti odgovarajućom tehnologijom. ISI bi mogao izgraditi automobil u koji bi osoba ušla sa 60 godina, a izašla s 30 godina.
Čak bi se i degradirani mozak mogao obnoviti. ISI bi sigurno znao kako to učiniti bez utjecaja na podatke o mozgu (ličnost, sjećanja itd.). 90-godišnji muškarac koji pati od potpune degradacije mozga mogao bi se proći prekvalifikaciju, obnoviti i vratiti na početak svog života. Možda zvuči apsurdno, ali tijelo je pregršt atoma, a ISI bi sigurno mogao lako manipulirati njima, bilo kojom atomskom strukturom. Nije tako apsurdno.
Kurzweil također vjeruje da će se umjetni materijali s vremenom sve više integrirati u tijelo. Za početak, organi bi se mogli zamijeniti supernaprednim verzijama mašina koje bi trajale vječno i nikada ne bi otkazale. Tada bismo mogli napraviti potpuni redizajn tijela, zamijenivši crvena krvna zrnca savršenim nanobotima koji se sami kreću, potpuno eliminirajući potrebu za srcem. Također bismo mogli poboljšati svoje kognitivne sposobnosti, početi razmišljati milijarde puta brže i pristupiti svim informacijama dostupnim čovječanstvu kroz oblak.
Mogućnosti za sagledavanje novih horizonta bile bi zaista beskrajne. Ljudi su uspjeli seksu podariti novu svrhu, to rade iz zadovoljstva, a ne samo radi reprodukcije. Kurzweil vjeruje da isto možemo učiniti i s hranom. Nanoboti bi mogli isporučiti idealnu prehranu izravno u stanice tijela, dopuštajući nezdravim tvarima da prođu kroz tijelo. Teoretičar nanotehnologije Robert Freitas već je razvio zamjenu za krvna zrnca, koja mu, kad se implementira u ljudsko tijelo, može omogućiti da ne diše 15 minuta - a to je izumila osoba. Zamislite kada će ISI steći moć.
Uostalom, Kurzweil vjeruje da će ljudi doći do točke u kojoj će postati potpuno umjetni; vrijeme kada gledamo biološke materijale i razmišljamo o tome koliko su primitivni bili; vrijeme kada ćemo čitati o ranim fazama ljudske povijesti, zadivljeni kako su klice, nesreće, bolesti ili jednostavno starost mogle ubiti osobu protiv njene volje. Na kraju, ljudi će pobijediti svoju biologiju i postati vječni - ovo je put do sretne strane balansne grede o kojoj govorimo od samog početka. I ljudi koji vjeruju u to su također sigurni da nas takva budućnost očekuje vrlo, vrlo brzo.
Vjerojatno se nećete iznenaditi da su Kurzweilove ideje izazvale snažnu kritiku. Njegova posebnost 2045. godine i kasniji vječni život za ljude nazvani su "uzdizanje štrebera" ili "inteligentno stvaranje ljudi s IQ -om 140". Drugi su dovodili u pitanje optimistički vremenski okvir, razumijevanje ljudskog tijela i mozga, podsjećajući na Mooreov zakon, koji još nije nestao. Za svakog stručnjaka koji vjeruje u Kurzweilove ideje postoje tri koja misle da nije u pravu.
No, najzanimljivija stvar u vezi s tim je da većina stručnjaka koji se s njim ne slažu u cjelini ne kažu da je to nemoguće. Umjesto da kažu "sranje, ovo se nikada neće dogoditi", oni kažu nešto poput "sve će se to dogoditi ako dođemo do ISI -a, ali to je problem". Bostrom, jedan od priznatih stručnjaka za AI koji upozorava na opasnosti od umjetne inteligencije, također priznaje:
„Gotovo da nije ostao problem koji superinteligencija ne može riješiti, pa čak ni pomoći u rješavanju. Bolesti, siromaštvo, uništavanje okoliša, patnje svih vrsta - sva ova superinteligencija uz pomoć nanotehnologije može se riješiti u trenu. Superinteligencija nam također može dati neograničeni životni vijek zaustavljanjem i preokretanjem procesa starenja pomoću nanomedicine ili mogućnošću postavljanja u oblak. Superinteligencija takođe može stvoriti mogućnosti za beskrajno povećanje intelektualnih i emocionalnih sposobnosti; može nam pomoći da stvorimo svijet u kojem ćemo živjeti u radosti i razumijevanju, približavajući se svojim idealima i redovno ostvarujući svoje snove."
Ovo je citat jednog od Kurzweilovih kritičara, koji priznaje da je sve ovo moguće ako možemo stvoriti siguran ASI. Kurzweil je jednostavno definirao što bi umjetna superinteligencija trebala postati, ako je ikako moguće. A ako je dobar bog.
Najočiglednija kritika zagovornika zona komfora je da mogu biti prokleto pogrešni kada procjenjuju budućnost ISI -ja. U svojoj knjizi The Singularity, Kurzweil je posvetio 20 stranica od 700 potencijalnih prijetnji ISI -u. Pitanje nije kada dođemo do ISI -ja, pitanje je koja će biti njegova motivacija. Kurzweil s oprezom odgovara na ovo pitanje: „ISI proizlazi iz mnogih različitih napora i bit će duboko integriran u infrastrukturu naše civilizacije. Zapravo, bit će blisko ugrađen u naše tijelo i mozak. On će odražavati naše vrijednosti jer će biti jedno s nama."
Ali ako je odgovor, zašto je toliko pametnih ljudi na ovom svijetu zabrinuto za budućnost umjetne inteligencije? Zašto Stephen Hawking kaže da bi razvoj ISI -a "mogao značiti kraj ljudske rase"? Bill Gates kaže da "ne razumije ljude kojima to ne smeta". Elon Musk strahuje da "prizivamo demona". Zašto mnogi stručnjaci smatraju da je ISI najveća prijetnja čovječanstvu?
O tome ćemo sledeći put.