Tribuna
Instint de supervivència
“Mirant enrere, de vegades sembla que han encertat més en la prospectiva del futur novel·listes com ara Jules Verne que grans institucions acadèmiques
“Els experts no fan una descripció coincident sobre tot el que pot fer la intel·ligència artificial i encara menys sobre el seu potencial
Segueixo donant voltes a la necessitat de recollir en algun lloc totes les prediccions fallides per ajudar-nos a relativitzar l’aparent infal·libilitat dels antics i els nous profetes. Seria com una mena d’observatori –sí, un més; però aquest ajudaria a veure els que no fan falta– que ens recordés totes les crisis que no s’han esdevingut, les andròmines que no han dominat el món o els planetes que no hem habitat. Mirant enrere, de vegades sembla que han encertat més en la prospectiva del futur novel·listes com ara Jules Verne que grans institucions acadèmiques. L’objectiu d’aquest centre de memòria no seria l’escarni o la mofa, ni buscaria desacreditar els que honradament van compartir els seus coneixements i es van aventurar a donar-los una projecció en el temps. No. Tan sols miraria de posar en comú una màxima constructiva que assegura que s’aprèn més dels erros que dels encerts.
Mirant enrere potser descobriríem que no tots els auguris van estar sempre exempts d’intenció, ja sigui per prejudicis o per interessos. I tenir-ne més consciència ens permetria recuperar un cert control sobre el nostre propi futur i no estar sotmesos a la tirania del qui té la capacitat d’utilitzar les nostres il·lusions i els nostres temors per restablir una mena de tirania emocional. Els últims segles, i molt més els últims anys, els grans canvis socials han vingut impulsats per l’evolució de la tecnologia. Una advertència: no tot el que s’ha inventat ha estat econòmicament i industrialment viable ni socialment acceptat. I una constatació: en molts casos les transformacions que ha provocat la tecnologia no s’havien previst. En un moment de desconcert com l’actual, l’última preocupació que ha saltat als titulars dels diaris afecta, i no és poca cosa, el fet de si el desenvolupament de l’anomenada intel·ligència artificial posa en risc el nostre futur com a espècie.
Els experts no fan una descripció coincident sobre tot el que pot fer la IA i encara menys sobre el seu potencial. Els primers treballs sobre intel·ligència artificial són de la primera meitat del segle passat. Un salt significatiu es produeix a finals del s. XX amb l’increment de la capacitat de processar dades, i un altre més gran –en la mateixa línia–, a principis d’aquest segle vinculat amb la computadora cognitiva Watson d’IBM. És fàcil trobar entrevistes i declaracions dels investigadors que treballaven en IA en aquells moments afirmant que necessitàvem la nova tecnologia per sobreviure. Avui la veu que ressona a tot el món és la d’un dels pioners de la IA, Geoffrey Hinton, després que ha deixat Google per poder parlar amb més llibertat –ha dit ell mateix– sobre els riscos que genera la mala utilització de la intel·ligència artificial. Hinton assegura que ben aviat no podrem saber què és veritat i que no trigarem gaire a crear màquines que seran més intel·ligents que les persones. Mesos abans, l’influent Washington Post va publicar un article en el qual considerava que no era necessària no tan sols la mala fe i que ens estàvem acostant a la possibilitat que un accident fes desaparèixer la humanitat.
Els temors apocalíptics són tan antics com la mateixa humanitat. Tenen un component antropològic. La por és un mecanisme vital que activa l’instint de supervivència. L’un i l’altre s’expressen en diferents individus sense que hi hagi una relació directa amb el seu nivell d’intel·ligència. Formen una realitat instintiva. I els instints no tenen una dimensió tecnològica. No és un plantejament teòric allunyat de l’experiència: quants pares, en mirar els seus fills, pensen que se’n sortirà millor el més espavilat que el més intel·ligent.
I la veritat? Resulta esperançador que en el punt més àlgid del relativisme algú es preocupi per la veritat. La publicació de fotografies que no reflecteixen res que mai hagi passat, que han estat creades amb intel·ligència artificial, és el que ha permès a molta gent tenir una percepció directa dels riscos que genera la nova tecnologia. Però si el dubte sobre la veracitat d’una imatge ens portés a estar més pendents de la credibilitat del que l’ha captat o del que la difon, hauríem fet un pas molt important cap a la corresponsabilitat de tots. El que ens posa en risc individualment i col·lectivament és renunciar-hi. Sempre hi ha hagut qui no ha volgut escoltar fets certs i mentides amb massa públic disposat a creure-les. Cal espavilar-se, que és una reacció pròpiament humana.