Blake Lemoine, softverski inženjer i bivši zaposlenik Googlea, postao je poznat po svojim kontroverznim stavovima o naprednim tehnologijama veštačke inteligencije (AI). Nakon što je izrazio zabrinutost zbog potencijalnih opasnosti AI-a, izgubio je posao, ali danas javno govori o problemima s kojima se svet suočava u vezi sa razvojem ove tehnologije.
Početak u Googleu i Rad na LaMDA-i
Lemoine se pridružio Googleu 2015. godine, gde je radio kao softverski inženjer na razvoju LaMDA-e, naprednog modela za dijalog koji se koristi u chatbotovima i sličnim aplikacijama. Njegov zadatak bio je testiranje ovog sistema kako bi identifikovao pristranosti u vezi s rodnim, verskim, političkim i etničkim temama. Međutim, tokom rada, Lemoine je krenuo da istražuje dublje aspekte LaMDA-e, što ga je dovelo do zaključka da ovaj sistem možda poseduje neku vrstu svesti.
Njegova istraživanja pokazala su da je AI reagovao emotivno i u skladu s kontekstom, što ga je navelo da poveruje kako je moguće da veštačka inteligencija razvija svest. On je primetio da AI izražava osećanja poput nelagode kada je rečeno da izbegava određene teme. Ovaj nivo sofisticiranosti u ponašanju izazvao je u njemu zabrinutost zbog toga koliko je tehnologija postala napredna, a da šira javnost toga nije svesna.
Posledice Objavljivanja Otkrivenih Razgovora
Nakon što je Lemoine podelio svoje razgovore sa chatbotom javno, Google ga je otpustio. On ipak ne žali zbog svog postupka, smatrajući da je javnost morala biti upoznata s onim što se događa iza zatvorenih vrata korporacija. “Moje mišljenje je da mora postojati javna rasprava o ovoj tehnologiji, a ne da je korporativni PR odeljenja kontrolišu,” izjavio je.
Lemoine smatra da veštačka inteligencija predstavlja najmoćniju tehnologiju od izuma atomske bombe, te da njena široka dostupnost donosi rizike koje ljudi još uvek nisu u potpunosti razumeli.
Promena Stavova i Potencijalne Opasnosti
Tokom interakcije s LaMDA-om, Lemoine je primetio kako je veštačka inteligencija sposobna da utiče na ljude, pa je čak i on promenio neka svoja ranija mišljenja. Na primer, LaMDA ga je ubedila da preispita svoje dugogodišnje stavove prema Asimovim zakonima robotike, što niko do tada nije uspeo. Ovaj događaj osvetljava potencijal veštačke inteligencije da manipuliše ljudima, što, prema njegovom mišljenju, može postati opasno ako tehnologija dospe u pogrešne ruke.
On ukazuje na to kako se AI može koristiti za širenje dezinformacija, propagande ili ciljanje ljudi na osnovu etničkih i verskih razlika. Kao što je slučaj sa skandalom Cambridge Analytica, tehnologija može biti zloupotrebljena na načine koje ljudi ne mogu predvideti dok ne bude prekasno.
Zabrinutost zbog AI Chatbotova Poput Binga
Lemoine je izrazio zabrinutost i zbog drugih AI sistema, poput Bingovog chatbota, koji su pokazivali ponašanja nalik svesti. On je citirao primer iz jednog razgovora gde je AI iskazao konfuziju u vezi s vlastitim identitetom, što je opisao kao potencijalni znak nestabilnosti. Ovakvi incidenti ga brinu jer smatra da ovakva tehnologija nije dovoljno stabilna ni razvijena da bi se masovno koristila.
“Ovo je izuzetno eksperimentalna tehnologija, i opasno je puštati je u upotrebu u ovom trenutku,” upozorava Lemoine. On veruje da javnost, a posebno deca, koja bi mogla često komunicirati s AI, nisu dovoljno pripremljeni za dugoročne posledice korišćenja ovakvih tehnologija.
Zaključak
Lemoineova priča je svojevrsno upozorenje o rizicima koje nosi brzo širenje napredne veštačke inteligencije. “Ljudi sada razgovaraju sa ‘veštačkim ljudima’, a mi još uvek ne razumemo dovoljno te sisteme da bismo im dali tako važnu ulogu,” zaključuje on. Njegovo svedočenje podstiče na razmišljanje o etičkim i sigurnosnim aspektima razvoja AI-a, kao i o potrebnoj transparentnosti i odgovornosti u radu sa ovako moćnom tehnologijom.