Ciència

Júlia Pareto

Doctora en filosofia i experta en ètica i intel·ligència artificial

“Caldria regular la aplicació de la IA en l’àmbit municipal”

“El focus no ha d’estar tant en el tipus de tecnologia que s’utilitza com en l’ús que se’n vol fer i per a quina finalitat es necessita”

“Preocupant-nos pels drets dels robots o el futur de la humanitat no atenem els problemes de veritat que tenim avui en dia”

Júlia Pareto és investigadora de l’Institut de Robòtica i Informàtica Industrial CSIC-UPC, on treballa en el desenvolupament disciplinari de l’ètica de la tecnologia, un dels camps més recents de l’ètica contemporània. També fa recerca en el marc de la càtedra AI&Democracy a la Florence School of Transnational Governance del European University Institute. Es va doctorar amb menció internacional en filosofia per la Universitat de Barcelona amb una tesi titulada Ètica de les tecnologies: Coordenades teòrico-pràctiques per a la robòtica social. Com a membre del grup d’investigació Aporia de la UB, especialitzat en filosofia contemporània, ha col·laborat en projectes de recerca vinculats a ètica institucional, transparència i bon govern, i, més recentment, sobre ètica aplicada al desenvolupament tecnològic en l’àmbit assistencial i sociosanitari. Aquesta temporada ha estat una de les convidades del cicle de conferències del CaixaForum Macaya, en què ha reflexionat i debatut sobre quins són els reptes ètics i jurídics que planteja la intel·ligència artificial.

Dins el marc de la tecnologia, el sorgiment de la IA és ara el principal focus d’atenció dels seus estudis filosòfics?
La intel·ligència artificial, pel caràcter disruptiu que té, està atraient tota l’atenció pel que fa a reflexió normativa. Però aquests sistemes poden servir a diferents tasques que tenen a veure amb diferents contextos pràctics. Per tant, tota reflexió hauria d’aterrar al camp per al qual tu desenvolupes la tecnologia. Així doncs, l’ètica de la tecnologia, ara centrada en la IA, s’haurà d’anar subdividint en camps temàtics.
A quins camps es refereix?
Hi ha hagut molta proliferació d’ètiques de la tecnologia: tens ètica de la computació, ètica informàtica, ètica de la informació, ètica de la nanotecnologia. Diverses subètiques que pretenen donar resposta a problemes que surten associats a tipus de tecnologies concretes. Però jo crec que s’haurà de passar d’aquest model a atendre les activitats humanes a les quals serveixen. Aquesta subdivisió s’haurà de fer no tant per tecnologies, sinó per activitats humanes: salut, educació, transport, etc.
Creu que caldria una normativa per regular l’ús de la intel·ligència artificial en el camp de la salut o en l’àmbit municipal?
Sí, efectivament. Jo penso que l’aterratge s’hauria de fer així. El focus ha d’estar tant en el mitjà, a qui pots demanar que compleixi amb unes mesures de garantia de qualitat de dades, però sobretot ha d’estar en l’activitat. Cal pensar quin tipus d’impacte estàs fent sobre les activitats humanes, més que res perquè, si no, la tecnologia pot ser molt disruptiva, sí, però pot acabar perdent la finalitat que tenia en la seva concepció inicial.
Vostè va fer recerca sobre la implantació dels codis ètics als ajuntaments. Creu que ara, amb tot aquest boom d’IA i d’altres tecnologies, els ajuntaments requeririen també assistència per aplicar-les de manera ètica i responsable?
Sí, i urgentment, sens dubte, perquè al final estem parlant d’unes institucions públiques que han de donar uns serveis amb uns criteris d’ètica pública que són justícia, igualtat i dignitat. I cal pensar molt bé això en el marc d’unes activitats molt concretes, que no és el mateix la salut, que l’educació, que el transport. No vull entrar en gaires detalls, però ara mateix ja hi ha alguns dèficits en aquest sentit.
Canviem de tema, doncs. Amb tanta IA, tants algoritmes que ens coneixen, ens van fent tasques i prenen decisions per nosaltres, estem perdent capacitats com a humans?
Aquesta és una pregunta que des de la filosofia preocupa molt. Molt. De fet, hi ha aquesta línia més de pensament conseqüencialista, de pensar en les tecnologies i potser els impactes que genera, nivell de riscos, drets, etc. I després hi ha un corrent que cada vegada té més pensadors que té a veure amb si ens estem descapacitant. Sobretot preocupa la descapacitació moral. Si passa o no passa, jo crec que això el temps ho dirà. No és que una tecnologia t’hagi de descapacitar per defecte o que t’hagi de donar més capacitats. Però sí que caldria tenir ben present què estem delegant. Perquè aquesta delegació que ara ja comença a tenir a veure amb la presa de decisions i que, per tant, té unes implicacions en l’autonomia moral molt fortes, pot arribar a dur-nos a abdicar de la llibertat.
Fins a quin punt la IA representa un repte per a la democràcia? La pot arribar a posar en qüestió o en perill?
Aquesta és una pregunta que no està prou explorada avui en dia. Tenim molta reflexió feta respecte a la governança algorítmica, la política dels algoritmes, és a dir, tot allò més vinculat a la presa de decisions automatitzada, però també tenim un altre seguit de qüestions que no s’han analitzat prou i que tenen a veure amb l’impacte polític de la tecnologia a un nivell més estructural. És cert que hi ha una consciència de l’alerta, que hi ha temes importants, però, com et deia, costa molt avançar i identificar realment què és el que hi ha en joc.
Per què?
No és senzill i l’ètica no pot fer-ho sola, ha d’entrar en diàleg amb les disciplines que estan desplegant o desenvolupant aquest tipus de tecnologies. Per començar, si han de respondre a problemes reals, els han de conèixer de primera mà. I aquest coneixement i aquesta expertesa els tenen les persones que treballen en la indústria tecnològica. Per tant, hi ha d’haver un espai de diàleg real per acotar problemes reals, que són els que necessiten resposta. Aquí és on s’està començant a avançar. Alguns països ja fa un temps que ho fan bastant bé, però aquí tot just s’inicia ara.
Com s’avança?
Per exemple, en temes de formació d’ètica en graus d’enginyeria, ni que sigui per donar als professionals certs recursos a l’hora d’entendre quin és el grau de responsabilitat que tenen en tot això. I també quins són els límits, la responsabilitat de dir fins on han d’arribar i fins on no. Altres països van molt avançats i tenen un diàleg interdisciplinari més intens. Cada vegada més, es pren consciència que per analitzar temes com l’impacte dels robots socials cal integrar altres disciplines més enllà de la filosofia, com ara sociòlegs o psicòlegs, però tot just s’està començant a articular ara i ens falta un recorregut.
En temes com aquest, temo que hi ha el perill de fer molta especulació i poca concreció. Pot ser?
Aquest és el gran problema. Hem caigut en alguna temporada d’ètiques molt especulatives, que sembla que estan preocupant-se dels drets dels robots, parlant de riscos per a la humanitat a nivell existencial i que, al final, el que fan és enfosquir els problemes de veritat que es troben avui en dia, per exemple quan s’implementa un sistema d’intel·ligència artificial en l’àmbit de l’atenció primària. Perquè no deixa de ser un programa informàtic que et fa un càlcul de quin és el pacient que ha de tenir prioritat. O les propostes que floreixen per introduir robots socials assistencials a casa de la gent gran. Aquí també hi ha un camp per debatre i cal trobar els interlocutors que puguin articular un bon nivell de reflexió.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Aquest és el primer article gratuït d'aquest mes

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia