Publicado 26/06/2019 19:51

Experts insten Europa a prohibir la IA en la classificació d'individus i regular la vigilància massiva

Sistema d'Intelligncia artificial i vigilancia
Sistema d'Intelligncia artificial i vigilancia - PIXABAY/CC/THEDIGITALARTIST - Archivo

MADRID, 26 Jun. (Portaltic/EP) -

La Intelligncia Artificial (IA), si no és de fiar, pot provocar impactes adversos en els individus, la societat i el medi ambient, com adverteix el grup d'experts de la Comissió Europea, que insta a prohibir l'ocupació d'aquesta tecnologia en la classificació d'individus i la seva regulació en la vigilncia massiva.

"Europa est entrant en la tercera onada de la digitalització", com adverteix l'últim conjunt de recomanacions del grup d'alt nivell d'experts en Intelligncia Artificial de la Comissió Europea. Una tercera onada en la qual adquireix protagonisme la IA i l'adopció de la qual s'estima que pot impulsar el creixement de l'activitat econmica europea entorn del 20 per cent per 2030.

La IA es pot desplegar "tant de manera que incrementi el benestar hum com que porti al seu potencial dany", com recull l'informe. "Mentre crea una gran oportunitat per a Europa, també implica certs riscos sobre els quals els legisladors són cada vegada més conscients".

Per aix, des d'aquest grup advoquen pel desenvolupament d'una IA tica, de confiana i que tingui l'ésser hum en el centre del seu desenvolupament. Característiques que xoquen amb l'ocupació d'aquesta tecnologia en la categorització de les persones i la vigilncia massiva.

Amb l'objectiu de salvaguardar "els drets fonamentals" dels serveis públics basats en IA i de "protegir les infraestructures societales", el grup insta a seguir les 'directrius tiques per una IA confiable', presentades davant la Comissió el passat mes d'abril.

En concret, insten a prohibir la classificació massiva dels individus basada en IA i establir "regles clares i estrictes" per a la vigilncia amb motiu de la seguretat nacional i d'altres interessos nacionals. I assegurar que no s'empra per "suprimir o soscavar l'oposició (política) ni els processos democrtics".

Els sistemes d'Intelligncia Artificial poden provocar discriminació o biaixos injusts, violacions de la privadesa, exclusió social o econmica o fins i tot degradació mediambiental.

Una manera de limitar l'impacte negatiu de la IA en les societats passa per evitar la vigilncia massiva i "desproporcionada" de les persones. Els sistemes d'intelligncia artificial que es despleguin per garantir la seguretat han de ser "respectuosos amb la llei i amb els drets fonamentals" i estar alineats amb principis tics.

El grup adverteix també en el seu informe sobre la vigilncia dels consumidors amb finalitats comercials, especialment "pel que fa a serveis gratuts", pel que aconsellen la consideració de models alternatius de negoci.




www.aldia.cat és el portal d'actualitat i notícies de l'Agència Europa Press en català.
© 2024 Europa Press. És prohibit de distribuir i difondre tots o part dels continguts d'aquesta pàgina web sense consentiment previ i exprés