Tiesībsargs izglīto
Tiesībsargs izglīto: eksperte Dzimumu līdztiesības komitejā iepazīstina ar mākslīgā intelekta sistēmu riskiem
Septembra otrajā pusē notika Labklājības ministrija rīkotā Dzimumu līdztiesības komitejas sanāksme, kurā piedalījās arī Tiesībsarga biroja Diskriminācijas novēršanas nodaļas vadītāja Anete Ilves. Tikšanās bija iespēja ievest dalībniekus tēmā, kurā savijas mākslīgais intelekts un dzimumu līdztiesība.
A. Ilves vērsa sanāksmes dalībnieku uzmanību uz dažādiem ar pamattiesību pārkāpumiem saistītiem aspektiem esošajās mākslīgā intelekta sistēmās, aicinot dalībniekus būt kritiskiem par informācijas patiesumu, kas ir iegūta no šīm sistēmām. Tāpat viņa norādīja uz dažādiem praktiskiem risinājumiem, kā var pasargāt sevi darba tirgū, ja atlase tiek veikta, izmantojot MI.
“Kad mēs runājam par mākslīgā intelekta sistēmām, pirmsšķietami, ir grūti ieraudzīt tajās potenciālu cilvēktiesību aizskārumu vai diskriminācijas risku. Tomēr tie pastāv, jo sistēmas ir cilvēku konstruētas un par to lietojamību un atbilstību tiesiskajam regulējumam ir atbildīgi cilvēki. Piemēram, uzņēmumi, kuri izmanto dažādus personāla atlases rīkus, neapdomīgas rīcības rezultātā, mēdz diskriminēt cilvēkus to dzimuma, rases vai citu apsvērumu dēļ. Priecājos, ka Labklājības ministrija un arī citi komitejas dalībnieki redz šo kā potenciālo problēmu, par kuru vērts runāt un domāt jau laikus,” komentē Anete Ilves.
Dzimumu līdztiesības komiteja ir vērtīgs formāts, kurā Tiesībsarga birojs iegūst aktuālo informāciju līdztiesības tēmā tiešā sazobē ar komitejas dalībniekiem. Jāpiebilst, ka Tiesībsarga birojam komitejā ir padomdevēja funkcija. Šajā reizē pasākumā ar vērtīgu saturu dalījās arī Biedrība Tēvi pārstāvji, kuri informēja par dažādām savām aktivitātēm, kā arī vērsa uzmanību uz pētījumu par tēva lomu ģimenē. Pasākumā LM informēja par ESF+ projektu “Atbalsta instrumenti vardarbības ģimenē mazināšanai”.
Tiesībsarga biroja eksperti aicina iedzīvotājus šīs sistēmas izmantot kritiski un izglītot sevi par mākslīgā intelekta radītajiem riskiem, piemēram, iepazīstoties ar pētījumu “Mākslīgā intelekta sistēmas un diskriminācijas aspekti.”