Kako EU želi da reguliše oblast veštačke inteligencije (AI)?
Evropska komisija je u aprilu ove godine predstavila predlog plana za regulaciju veštačke inteligencije (AI) u Evropi. Cilj je da se ojača poverenje u ovu oblast i stvore adekvatni pravni okviri koji bi štitili individue, ali i biznise, dok se istovremeno podstiču rast, razvoj i investiranje u AI širom kontinenta.
Evropska komisija postavila je jasan cilj unapređenja AI, za koju se veruje da će doprineti bržem oporavku posle zdravstvene krize. Planirano je da sve zemlje članice doprinesu u skladu sa svojim mogućnostima.
Ovo će biti ostvareno kroz kreiranje mogućnosti za dalji razvoj veštačke inteligencije, ulaganje u inovacije, istraživanje i razvoj, dodatno usmeravanje AI ka ljudima i njihovim potrebama, uz posebno insistiranje na bezbednosti, kao i pružanje podrške talentima i podsticanje digitalnog preduzetništva. Jedna od ključnih stavki jeste izgradnja liderske strateške pozicije u ključnim sektorima poput zdravstva, poljoprivrede, robotike i održivog razvoja.
EU je u prethodnim godinama vredno radila na unapređenju AI regulative kako bi obezbedila šanse za napredak i razvoj veštačke inteligencije po meri čoveka.
Nova AI regulacija treba da adresira ključna problematična pitanja u vezi s veštačkom inteligencijom i potencijalnim rizicima, ali i da postavi nove standarde na koje će ceo svet biti u prilici da se ugleda, te da i druge zemlje unaprede svoje pravne regulative po ugledu na evropsku. Veštačka inteligencija za koju se EU zalaže je humana, pouzdana, sigurna i održiva i namera je da se kao takva dalje razvija.
Procena rizika u određivanju pouzdanosti AI
Evropska komisija predložila je da se usvoji sistem procene rizika kako bi se ustanovilo koja AI treba da se zabrani, a koja zahteva korekciju u regulisanju. Većina AI sistema je u kategoriji minimalnog rizika i regulativa se ne odnosi na njih, jer ne predstavljaju rizik za prava i bezbednost građana. U oblasti umerenog rizika su četbotovi, i podrazumeva se da građani moraju biti upozoreni da ne komuniciraju s ljudskim bićem. Ovde spadaju svi sistemi čiji način funkcionisanja mora postati transparentan.
U oblasti neprihvatljivog rizika nalaze se sistemi koji ugrožavaju bezbednost ili prava ljudi i oni će biti zabranjeni. Kao primer su poslužile igračke koje koriste glasovne asistente da podstiču nepromišljena i opasna ponašanja maloletnika.
U oblasti visokog rizika nalaze se sistemi koji zahtevaju izrazito strogu regulaciju pre nego što se pojave na tržištu, a koriste u transportu, obrazovanju, za esencijalne privatne i javne usluge (npr. sistem koji određuje mogućnost za dobijanje kredita), oni koje se koriste za migracije, azile i kontrolu na granicama i slično.
Propisana regulacija, između ostalog, podrzumeva i ljudski nadzor sistema kako bi se smanjila mogućnost greške, kao i jaku zaštitu koja garantuje bezbednost podataka.
Posebno je opasna i zahteva specijalni nadzor usputna biometrijska identifikacija, poput kamera koje beleže i dovode do prepoznavanja lica na javnim mestima, čija će upotreba biti dozvoljena samo u specijalnim slučajevima kada se sumnja na ozbiljno kršenje zakona.
Izvor: www. ec.europa.eu ; www.fortune.com
Autor
Tekstovi nastali u periodu od 2019. do 2023. godine na prvoj verziji portala sačuvani su u okviru arhive.
Više o Arhivi