AI ERA

Radionica AZOP-a: kako procijeniti učinke umjetne inteligencije na ljudska prava

Cilj je zaštititi građane od diskriminacije, nepravednog automatiziranog odlučivanja i narušavanja privatnosti.

Radionicu je vodio profesor Alessandro Mantelero sa Sveučilišta Politecnico di Torino koji je metodologiju za provedbu procjene učinka na ljudska prava (FRIA - Fundamental Rights Impact Assessment) izradio u suradnji s partnerima i s katalonskim nadzornim tijelom za zaštitu podataka.

U eri sve prisutnije umjetne inteligencije, ključno je pitanje kako osigurati da tehnologija služi čovjeku, a ne obrnuto. Upravo s tim ciljem, Agencija za zaštitu osobnih podataka, 13. lipnja 2025. organizirala je besplatnu radionicu o procjeni učinka visokorizičnih AI sustava na temeljna prava, koju propisuje članak 27. Uredbe o umjetnoj inteligenciji.

„Stupanjem na snagu Uredbe o umjetnoj inteligenciji, Opća uredba o zaštiti podataka ne gubi na važnosti – naprotiv, Uredba dodatno naglašava ključnu ulogu zaštite osobnih podataka. Ovi propisi ne ograničavaju inovacije, već ih potiču, stvarajući sigurne i pouzdane temelje za razvoj umjetne inteligencije koja donosi maksimalne koristi društvu uz istovremeno smanjenje rizika.“ rekao je ravnatelj Agencije i potpredsjednik Europskog odbora za zaštitu podataka Zdravko Vukić u uvodnom govoru te naglasio kako je Agencija imenovana kao jedno od nadležnih tijela za nadzor i provedbu obveza koje se odnose na zaštitu temeljnih prava pri korištenju visokorizičnih AI sustava. „U kontekstu korištenja umjetne inteligencije i obrade osobnih podataka, ističemo da Agencija neće oklijevati koristiti svoje nove ovlasti kada je to potrebno za zaštitu prava pojedinaca.“

Naime, članak 27. Uredbe o umjetnoj inteligenciji propisuje da se prije korištenja visokorizičnih sustava umjetne inteligencije mora procijeniti mogući utjecaj na ljudska prava i slobode. Cilj je zaštititi građane od diskriminacije, nepravednog automatiziranog odlučivanja i narušavanja privatnosti.

Upravo zbog izazova koji ova obveza predstavlja, posebno za javnopravna tijela, Agencija je kroz radionicu pružila konkretnu podršku obveznicima iz javnog i privatnog sektora, prikazujući kako procjena učinka izgleda u praksi. Radionicu je vodio profesor Alessandro Mantelero sa Sveučilišta Politecnico di Torino koji je metodologiju za provedbu procjene učinka na ljudska prava (FRIA - Fundamental Rights Impact Assessment) izradio u suradnji s partnerima i s katalonskim nadzornim tijelom za zaštitu podataka.

Metodologija za procjenu učinka na temeljna prava (FRIA) predstavlja praktičan alat za prepoznavanje rizika i određivanje mjera koje organizacije trebaju poduzeti kako bi zaštitile ljudska prava. Korištenje ove metodologije preporučuje se svim organizacijama koje razvijaju ili uvode visokorizične AI sustave, bilo u javnom ili privatnom sektoru, jer pomaže da se sigurnost i etičnost tehnologije osiguraju već u ranim fazama projekta. Također, važno je da u tom procesu sudjeluju različiti stručnjaci, od pravnika do IT-stručnjaka i službenika za zaštitu podataka, kako bi se osigurao sveobuhvatan pristup i odgovorno korištenje umjetne inteligencije, uz poštivanje temeljnih prava svakog pojedinca.

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?

Komentari (0)

Komentiraj

Ovaj članak još nema komentara
Važna obavijest:
Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalima društva HANZA MEDIA d.o.o. dopušteno je samo registriranim korisnicima.
Svaki korisnik koji želi komentirati članke obvezan je prethodno se upoznati s Pravilima komentiranja na web portalu društva HANZA MEDIA d.o.o. te sa zabranama propisanim stavkom 2. članka 94. Zakona o elektroničkim medijima.
13. lipanj 2025 15:30