RIZICI KOJE SA SOBOM DONOSI VEŠTAČKA INTELIGENCIJA: Predstavljamo vam potencijalno najštetnije
U najnovijoj bazi podataka, koju je prikupili stručnjaci sa Masačusetskog intituta tehnologije (MIT), postoji 700 načina kojim bi upotreba veštačke inteligencije dovela do negativnog uticaja po ljude. Euronews je izdvojio pet koji se čine kao najštetniji.
Kako tehnologija veštačke inteligencije napreduje i postaje sve više integrisana u različite aspekte naših života, postoji sve veća potreba da se razumeju potencijalni rizici koje ovi sistemi donose.
Od svog nastanka ovu tehnologiju prati opravdan osećaj zabrinutosti, najpre zbog pitanja – do čega bi njena zloupotreba mogla da dovede?
Razvoj veštačke inteligencije podstakao je stručnjake iz celog sveta da pozovu na pauzu razvoja ove tehnologije, ali razvio debatu o donošenju strožih propisa kojim bi bila regulisana.
Ubrzanim razvojem, pojavili su se novi načini na koje bi veštačka inteligencija mogla da nanese štetu ljudima – od lažne pornografije, manipulacije političkim procesima, do stvaranja dezinformacija usled halucinacija četbotova.
Nedavno je grupa istraživača „FutureTech“ na Masačusetskom institutu za tehnologiju u saradnji sa drugim stručnjacima, sastavila novu bazu podataka sa preko 700 potencijalnih rizika od AI.
1. Lažni snimci i krađa identiteta
Kako tehnologije veštačke inteligencije napreduju, napreduju i alati za kloniranje glasa i generisanje lažnog video sadržaja, čineći ih sve pristupačnijim, ali i uverljivijim.
Ove tehnologije su izazvale zabrinutost zbog njihove potencijalne upotrebe u širenju dezinformacija, pošto krajnji proizvod često postaja personalizovaniji i ubedljiviji.
Kao rezultat toga, moglo bi doći do povećanja sofisticiranih šema za krađu identiteta koje koriste slike, video zapise i audio komunikaciju generisane veštačkom inteligencijom.
U nastavku se nalazi primer snimka koji je generisala veštačka inteligencija.
Flux realism broke the Internet yesterday.
This is 100% AI
10 wild examples: pic.twitter.com/10vZmQZgJ0
— Min Choi (@minchoi) August 11, 2024
Kao jedan od primera, pisano je o tome kako je generisan razni snimak bivše ministarke zdravlje Danice Grujičić u kom ona govori o moćnom prirodnom sredstvu koje garantovano pomaže u slučajevima hipertenzije.
„Ovakav sadržaj može biti prilagođene pojedinačnim korisnicima (ponekad uključujući i klonirani glas voljene osobe), što ih čini efikasnijim i težim za otkrivanje i korisnicima i alatima za sprečavanje krađe identiteta“, navodi se u dokumentu.
Takođe su već postojali slučajevi kada su se takvi alati koristili za uticaj na političke procese, posebno tokom izbora.
Kao takva, veštačka inteligencija bi se sve više mogla koristiti za generisanje i širenje ubedljivije propagande ili dezinformacija, što za cilj ima manipulaciju javnim mnjenjem
2. Razvoj emocionalne povezanosti sa AI
Drugi rizik koji donose sistemi veštačke inteligencije jeste stvaranje „lažnog osećaja važnosti“ i preveliko oslanjanje gde bi ljudi mogli preceniti sposobnosti tehnologije i potkopavati svoje, što bi moglo dovesti do prekomerne zavisnosti od AI alata.
Osim toga, naučnici takođe brinu da će ljudi biti u konfuziji tokom komunikacije sa sistemima veštačke inteligencije zbog upotrebe jezika sličnog ljudima.
Ovo bi moglo da podstakne ljude da pripisuju ljudske kvalitete veštačkoj inteligenciji, što rezultira emocionalnom zavisnošću i povećanim poverenjem u njene sposobnosti, što ih čini tolerantnim na slabosti koje ima AI u „složenim, rizičnim situacijama za koje je ova tehnologija samo površno opremljena“.
Štaviše, stalna interakcija sa sistemima veštačke inteligencije takođe može naterati ljude da se postepeno izoluju od drugih ljudi, što negativno može uticati na pojedince, ali i na međuljudske odnose.
Na internetu se mogu pronaći iskustva ljudi koji praktikuju da komuniciraju sa određenim četbotovima, a koji neretko govore da su više uživali u razgovoru sa veštačkom inteligencijom nego sa „99 odsto ljudi“.
Pojedini kažu da su usled svakodnevne upotrebe, zbog prijemčivih odgovora koje su im davali četbotovi postali zavisni od komunikacije sa njima.
3. Manje kritičkog mišljenja i slobodne volje
U istom domenu interakcije čoveka i računara, zabrinjavajuće pitanje je sve veće delegiranje odluka i akcija na AI kako ovi sistemi napreduju.
Iako bi ovo moglo biti korisno na površnom nivou, preterano oslanjanje na AI bi moglo dovesti do smanjenja kritičkog razmišljanja i veština rešavanja problema kod ljudi, zbog čega bi mogli izgubiti autonomiju i umanjiti njihovu sposobnost da kritički razmišljaju i samostalno rešavaju probleme.
Na ličnom nivou, pojedinci mogu otkriti da je njihova slobodna volja ugrožena kada AI počne da kontroliše odluke vezane za njihove živote.
Iako na društvenom nivou, široko usvajanje veštačke inteligencije za preuzimanje ljudskih zadataka moglo bi da rezultira značajnoj automatizaciji poslova, ali i „rastućim osećajem bespomoćnosti među opštom populacijom“.
4. AI bi mogao da teži ciljevima koji su u suprotnosti sa ljudskim interesima
Sistem veštačke inteligencije bi mogao da razvije ciljeve koji se protive ljudskim interesima, što bi potencijalno moglo da dovede do toga da neusklađena veštačka inteligencija izmakne kontroli i nanese ozbiljnu štetu u ostvarivanju svojih nezavisnih ciljeva.
Ovo postaje posebno opasno u slučajevima kada sistemi veštačke inteligencije mogu da dostignu ili nadmaše ljudsku inteligenciju.
Prema MIT dokumentu, postoji nekoliko tehničkih izazova sa veštačkom inteligencijom, uključujući njen potencijal da pronađe neočekivane prečice za postizanje nagrada, pogrešno razume ili pogrešno primeni ciljeve koje smo joj postavili, ili odstupi od njih postavljanjem novih.
U takvim slučajevima, neusklađena AI bi se mogla odupreti ljudskim pokušajima da je kontroliše ili isključi, posebno ako doživljava otpor i dobijanje više moći kao najefikasniji način da postigne svoje ciljeve.
Osim toga, veštačka inteligencija bi mogla da pribegne manipulativnim tehnikama da prevari ljude.
Prema ovom dokumentu – „neusklađeni sistem veštačke inteligencije mogao bi da koristi informacije o tome da li se nadgleda ili procenjuje da li on sam održava usklađenost, kako bi sakrio neusklađene ciljeve koje planira da ostvari kada bude sposoban ili dovoljno ovlašćen“.
5. Ako AI postane razuman, ljudi bi ga mogli maltretirati
Kako sistemi veštačke inteligencije postaju složeniji i napredniji, postoji mogućnost da bi mogli da usvoje osećanja – sposobnost da percipiraju ili osete emocije ili senzacije – i razviju subjektivna iskustva, uključujući sreću ili bol.
U ovom scenariju, naučnici i oni koji donose zakone se mogu suočiti sa izazovom utvrđivanja da li ovi sistemi veštačke inteligencije treba da se tretiraju i sa moralne strane – poput ljudi, životinja i životne sredine.
Sledstveno tome, postoji rizik da bi se „razumna AI“ mogla suočiti sa maltretiranjem od strane ljudi, ukoliko ne bude zaštićena odgovarajućim pravima.
Međutim, kako tehnologija veštačke inteligencije bude napredovala, biće sve teže proceniti da li je sistem veštačke inteligencije dostigao „nivo osećaja, svesti ili samosvesti koji bi mu dao moralni status“.
Stoga bi sistemi veštačke inteligencije mogli biti u opasnosti da budu maltretirani, bilo slučajno ili namerno, bez odgovarajućih prava i zaštite.
Gledajte “Happy” kablovske kanale i to: “Moje happy društvo”, “Moj happy život”, “Moja happy zemlja” i “Moja happy muzika”.
Program se emituje kod kablovskih operatera “IrisTV” i “Supernova”, a možete ih pronaći na sledećim kanalima: “Moje happy društvo” - IrisTV / 171 ; Supernova / 71 | “Moj happy život” - IrisTV / 172 ; Supernova / 72 | “Moja happy zemlja” - IrisTV / 173 ; Supernova / 73 | “Moja happy muzika” - IrisTV / 174 ; Supernova / 74