Ciència

Lluita de titans i el destí de la humanitat

L’AGI: una IA capaç d’executar qualsevol tasca intel·lectual humana amb autonomia

Sam Altman i Elon Musk, enfrontats pel futur de la IA i pels riscos d’una AGI fora de control

Yan LeCun desestima el risc existencial de la IA, i Demis Hassabis preveu l’AGI per abans del 2030

La intel·ligència artificial (IA) va superar els seus hiverns entre el 1974 i el 1980, el primer, i entre el 1987 i el 1993, el segon, i en els últims anys ha evolucionat ràpidament, especialment amb la IA generativa. Un dels objectius més ambiciosos és la creació de la intel·ligència artificial general (AGI, d’acord amb la sigla en anglès). L’AGI és un sistema automàtic capaç d’executar qualsevol tasca intel·lectual que un ésser humà pugui fer i superar així les capacitats humanes en la majoria de les tasques amb valor econòmic. Però què la diferencia de la IA tradicional i de la superintel·ligència? Quines implicacions té per al futur de la humanitat?

La intel·ligència artificial que utilitzem avui, coneguda com a “IA feble” o “estreta”, està dissenyada per a tasques específiques, com el reconeixement de veu i la traducció del llenguatge. Models com ChatGPT i Dall-e són exemples d’aquesta IA, capaços de generar textos o imatges a partir d’inputs determinats. No obstant això, l’AGI és una forma més avançada que pot comprendre, aprendre i aplicar coneixements de manera similar als humans.

La superintel·ligència és un concepte que va més enllà de l’AGI. Introduït per Ray Kurzweil, aquest terme es refereix a una IA que no només iguala, sinó que supera significativament les capacitats humanes en tots els àmbits intel·lectuals. La superintel·ligència podria automillorar-se a un ritme exponencial fins a un punt en què la seva intel·ligència seria incomprensible per als humans. Kurzweil prediu que aquest nivell de desenvolupament es podria assolir cap al 2045.

El debat sobre quan arribarà l’AGI està marcat per les últimes divergències públiques entre Elon Musk i Sam Altman. Elon Musk, fundador de Tesla i Neuralink i propietari de la xarxa social X, creu que la IA superarà la humana a finals del 2025. Aquesta afirmació es basa en l’augment exponencial dels recursos de maquinari i la velocitat dels últims avenços en la IA, segons Musk.

Sam Altman, CEO d’OpenAI, manté una visió més moderada sobre l’impacte de l’AGI. Tot i que reconeix el potencial disruptiu de la tecnologia, Altman ha subratllat que la seva arribada no tindrà un impacte tan gran com molts creuen. En una conversa en el Fòrum Econòmic Mundial, va indicar que, tot i que l’AGI és a tocar, canviarà el món menys del que s’espera i que els humans tornaran ràpidament a les seves activitats habituals després d’una primera onada de reaccions.

Altman també ha destacat els riscos associats amb l’AGI, admetent que qualsevol tecnologia potent pot ser mal utilitzada, i ha advocat per una regulació més estricta per mitigar aquests riscos. Alhora, ha afirmat que el desenvolupament de l’AGI ha de ser iteratiu i amb un control constant per garantir-ne la seguretat i l’alineació amb els valors humans.

Tensions a OpenAI

Dins d’OpenAI, les tensions també són notables. Ilya Sutskever, cofundador i científic en cap d’OpenAI, va abandonar l’empresa el maig passat per fundar la seva pròpia companyia de superintel·ligència amb seguretat “nuclear”. Sutskever va defensar un desenvolupament de la IA més cautelós, en contrast amb l’enfocament de Sam Altman de llançar models al mercat de manera més ràpida. Això posa de manifest les contradiccions entre les declaracions públiques i les decisions d’Altman en el desenvolupament cap a l’AGI. La sortida de Sutskever, juntament amb l’any sabàtic anunciat a l’agost pel cofundador Greg Brockman, suggereixen que les tensions sobre el desenvolupament i el control de l’AGI són profundes dins d’OpenAI. De fet, el novembre del 2023, Sam Altman va ser acomiadat com a CEO d’OpenAI per part d’una junta directiva que l’acusava d’haver amagat informació en relació amb els progressos cap a l’AGI i d’haver vulnerat el propòsit “sense ànim de lucre” que tenia l’empresa.

Un dels projectes més controvertits d’OpenAI és el conegut com a Q*, o Strawberry, un sistema que pretén avançar significativament en les capacitats de raonament de la IA. Aquest projecte ha generat preocupacions sobre la seguretat i el seu potencial per convertir-se en una AGI. El desacord en aquest sentit va ser un clau en la picabaralla a la cúpula d’OpenAI del novembre del 2023, en què la intervenció de Microsoft va ser determinant per imposar el retorn d’Altman com a CEO després del seu breu acomiadament. Sis mesos després, diversos directius i científics, a part del cofundador Sutskever, han abandonat la companyia.

El gener del 2024, Noland Arbaugh es va convertir en el primer pacient a rebre un implant de Neuralink, una de les companyies d’Elon Musk, que pretén restaurar habilitats perdudes en persones paraplègiques. Tot i que l’implant inicial va presentar alguns errors menors, no van posar en perill la vida del pacient, fet que va permetre a Neuralink rebre llum verd per repetir el procés amb un segon pacient. Segons va confirmar Musk a l’agost, la segona intervenció també ha estat un èxit, tot i que no se n’han proporcionat detalls específics. Neuralink planeja ampliar aquests implants a nou pacients més aquest any, amb l’objectiu de tractar fins a 22.000 persones el 2030. Actualment no hi ha una connexió directa entre els implants i el desenvolupament de l’AGI o la superintel·ligència.

Yann LeCun, cap d’IA a Meta (Facebook), és escèptic sobre la possibilitat que els models actuals de llenguatge com ara ChatGPT puguin arribar a una AGI veritable. LeCun sosté que aquests models no tenen una comprensió real del món físic ni capacitat de raonament profund. D’altres, com Demis Hassabis, de Google DeepMind, són més optimistes i creuen que som més a prop del que sembla d’assolir l’AGI.

L’arribada de l’AGI podria revolucionar totes les àrees del coneixement humà, des de la medicina fins a l’educació. També planteja desafiaments ètics i de seguretat significatius. La possibilitat que una AGI superi la intel·ligència humana en qualsevol tasca posa en qüestió el futur del treball i la mateixa existència de la humanitat.

Albert Sabater: el guardià de l’ètica en IA a Catalunya

Albert Sabater és professor de sociologia a la UdG i director de l’ Observatori d’Ètica en IA de Catalunya . Treballa en la investigació sobre desigualtats socioespacials i digitals, i l’ús de big data. Sabater promou una IA ètica i segura, col·laborant amb projectes nacionals i internacionals per millorar l’aplicació de la IA.

Manel Sanromà: IA responsable i sostenible

Manel Sanromà presideix CivicAI , entitat que promou l’ús responsable i transparent de la IA per a la societat. Sanromà defensa una IA ètica i sostenible, i treballa per assegurar que aquesta tecnologia beneficiï equitativament tothom, col·laborant amb governs i ciutadans per garantir drets i sostenibilitat.

Jorge Carrión: innovar amb la IA en l’escriptura

Jorge Carrión és un escriptor que ha publicat llibres amb l’ajut de GPT-2 i GPT-3, com Los campos electromagnéticos (2023). Ha fet tallers sobre l’ús de la IA en l’escriptura i és articulista a La Vanguardia. Explora la col·laboració entre humans i màquines, i ofereix una visió innovadora de la literatura en l’era digital.

Jordi Torres: supercomputació i IA des de dins

Jordi Torres és catedràtic a la UPC i expert en supercomputació i IA al Barcelona Supercomputing Center. Amb 200 publicacions, col·labora habitualment en mitjans de comunicació i divulga l’impacte social de la supercomputació i la IA. Enguany ha publicat el llibre La intel·ligència artificial explicada als humans.

Diccionari

Compromís biaix-variància

El compromís biaix-variància (Bias-Variance Tradeoff) es refereix a l’equilibri entre el biaix (error degut a supòsits incorrectes del model) i la variància (sensibilitat a petites variacions en les dades d’entrenament). L’objectiu és trobar un equilibri òptim que minimitzi l’error total, evitant tant el sobreajustament com el subajustament.

Retropropagació

La retropropagació (backpropagation) és un algorisme per entrenar xarxes neuronals ajustant els pesos a partir de l’error comès en les prediccions. Funciona propagant l’error des de la capa de sortida fins a les capes anteriors, actualitzant els pesos per minimitzar l’error en cada iteració, millorant la precisió del model.

Xarxes bayesianes

Les xarxes bayesianes (Bayesian Networks) són models gràfics que representen relacions probabilístiques entre variables. S’utilitzen per inferir causalitats i prendre decisions en situacions d’incertesa. Mitjançant nodes i arcs, aquests models permeten visualitzar i calcular les probabilitats conjuntes de diverses variables, facilitant el raonament probabilístic.

DeepFake

La tecnologia DeepFake (falsificació profunda) utilitza IA per crear vídeos o imatges falses però molt realistes, sovint superposant el rostre d’una persona en un altre cos. Aquesta tècnica pot generar continguts molt convincents, plantejant reptes ètics i de seguretat, ja que pot ser usada per difondre informació falsa o manipulada.



Identificar-me. Si ja sou usuari verificat, us heu d'identificar. Vull ser usuari verificat. Per escriure un comentari cal ser usuari verificat.
Nota: Per aportar comentaris al web és indispensable ser usuari verificat i acceptar les Normes de Participació.
[X]

Els nostres subscriptors llegeixen sense anuncis.

Ja ets subscriptor?

Fes-te subscriptor per només 48€ per un any (4 €/mes)

Compra un passi per només 1€ al dia