Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI
El llibre, publicat el 2025, narra la història interna d'OpenAI, però el seu objectiu és utilitzar aquesta història com un prisma per examinar un "ambició científica convertida en una recerca ideològica i impulsada pels diners". També és una meditació sobre el poder i l'empremta expansiva de la indústria de la IA.
La investigació es basa en més de 300 entrevistes amb aproximadament 260 persones, incloent més de 90 executius i empleats actuals o antics d'OpenAI, així com correspondència i documents. L'autora subratlla que OpenAI i Sam Altman van optar per no cooperar. El llibre també incorpora reportatges sobre l'impacte global de la IA, incloent comunitats a Colòmbia, Kenya, Arizona i Xile, per entendre les conseqüències viscerals de la tecnologia.
I. La Fundació i l'Ascens (Part I)
L'origen d'OpenAI es remunta a l'estiu del 2015, quan Sam Altman va convidar un grup d'homes a discutir el futur de la IA i la humanitat. Elon Musk va participar en la fundació per la seva por a l'amenaça existencial de la IA, especialment veient DeepMind (de Demis Hassabis) com una entitat "malvada" a contrarestar. Musk va arribar a investir 5 milions de dòlars a DeepMind per vigilar-la.
Sam Altman (cofundador i CEO) es va establir ràpidament com un estrateg brillant, amb l'ambició de "escriure les regles" del món tecnològic. Va ser fortament influenciat pels seus mentors, Paul Graham i Peter Thiel, aprenent la importància de l'escala i la filosofia de buscar el "monopoli" per assolir l'èxit. Altman creu que el creixement econòmic sostenible és un bé moral.
La missió fundacional d'OpenAI era "assegurar que l'AGI (intel·ligència artificial general) beneficiï tota la humanitat".
El cofundador Ilya Sutskever (científic en cap) era un ferm creient del deep learning (aprenentatge profund). Juntament amb el cofundador Greg Brockman (CTO), van impulsar una cultura de la rapidesa, establint la Llei d'OpenAI (el càlcul que es dobla cada 3.4 mesos), justificant la necessitat de ser els primers a construir l'AGI.
Per finançar aquesta ambició, que requeria "bilions per any", Altman va crear una estructura de societat limitada (LP) que actuava com a braç amb ànim de lucre, permetent inversions multimilionàries (com la de Microsoft d'1.000 milions de dòlars el 2019) amb un límit de rendibilitat per als inversors, mentre la missió seguia sent supervisada per la part sense ànim de lucre.
El desenvolupament tecnològic es va centrar en els models transformadors, amb GPT-2 demostrant que l'escalada de models de llenguatge (LLMs) podia produir prosa coherent. GPT-3 va ser entrenat amb dades extretes d'Internet i conjunts de dades misteriosos, incloent llibres piratejats (Books2).
II. Conflictes Interns i Explotació Global (Part II)
L'escalada va intensificar les tensions internes, que es van dividir en "clans": Recerca Exploratòria (Sutskever), Seguretat (liderada per Dario Amodei) i Startup (Brockman/Altman). Dario i Daniela Amodei, partidaris de l'Altruisme Efectiu (AE), es van centrar en la seguretat de la IA per prevenir riscos existencials. Les friccions amb Altman sobre la centralització de recursos i la comercialització van portar els Amodei a la seva "Divorce" i a fundar Anthropic.
La preocupació ètica es va disparar amb la publicació de GPT-3 API el 2020. A Google, investigadors com Timnit Gebru i Emily Bender van escriure l'influent article "On the Dangers of Stochastic Parrots". Aquest article advertia dels perills ètics dels LLMs massius, incloent:
- La gran petjada ambiental (emissions de carboni).
- La captura de llenguatge tòxic, racista i sexista en recollir dades massives d'Internet.
- La dificultat d'auditar bases de dades tan vastes.
- La propensió dels usuaris a confondre la producció estadística dels models amb llenguatge amb significat i intenció real. Gebru va ser acomiadada de Google per aquestes crítiques.
El model de negoci d'OpenAI es basava en el "paradigma de canvi" de filtrar les sortides del model en lloc de filtrar les entrades. Això va requerir una vasta xarxa de treballadors remots per fer tasques de Reforç de l'Aprenentatge a partir del Feedback Humà (RLHF).
- Explotació Laboral: Aquests treballadors, sovint al Sud Global (com Veneçuela i Kenya) i en situacions de crisi econòmica, realitzaven "feina fantasma" (ghost work) sota condicions d'explotació digital.
- Trauma: Els treballadors, especialment a Kenya per mitjà de Sama AI, van ser exposats a contingut extremadament tòxic (incloent abusos sexuals explícits i violència) per entrenar el filtre de moderació de contingut de ChatGPT. Aquesta feina va provocar problemes de salut mental i personal, incloent el divorci d'un dels treballadors, Mophat Okinyi.
III. L'Àpex i la Pressió Política (Part III)
El desenvolupament de GPT-4 va consolidar OpenAI a l'àpex. El 2023, Sam Altman va comparèixer davant el Congrés dels EUA, reiterant la promesa de l'AGI per resoldre el canvi climàtic i curar el càncer. Va demanar regulació, però només aquella que tingués la "benedicció" d'OpenAI, utilitzant l'espectre de la Xina per pressionar els legisladors a no alentir la innovació.
L'escalada de compute va culminar en la planificació del superordinador Stargate, un projecte de Microsoft i OpenAI estimat en 100.000 milions de dòlars.
Extractivisme Global: Aquesta ambició de compute va convertir-se en un nou cicle d'extractivisme de recursos materials.
- Xile: Regions com la comuna de Quilicura (Santiago) i el Desert d'Atacama (ric en coure i liti) es van convertir en zones de sacrifici, amb data centers (Google i Microsoft) consumint ingents quantitats d'aigua potable en una regió afectada per la sequera, generant resistència local.
- Uruguai: Es va observar un patró similar on els plans de data centers de Google amenaçaven els recursos hídrics i la terra, mentre les empreses s'aprofitaven d'avantatges fiscals i regulacions febles.
La Crisi de Fe de Sutskever: A mesura que Altman augmentava la pressió, Sutskever va començar a qüestionar el lideratge d'Altman. Sutskever va considerar que el patró de comportament d'Altman, incloent la manipulació d'executius i la manca de suport a la seva germana (Annie Altman), constituïa un "tipus diferent de problema de seguretat".
IV. La Destitució i la Consolidació de l'Imperi (Part IV)
El cop de novembre 2023: L'expulsió sobtada d'Altman es va precipitar per les accions coordinades de Sutskever i la CTO Mira Murati, així com els directors independents Helen Toner i Tasha McCauley. Els directors van perdre la confiança en Altman a causa d'un patró de falta de transparència, mentides i manipulació (com intentar desbancar directors del consell i no revelar la propietat del Fons Startup d'OpenAI).
Després de cinc dies de caos (anomenat "The Blip"), la revolta dels empleats va forçar el consell a reinstal·lar Altman.
L'Omnicrisi: La reconciliació va ser seguida per una Omnicrisi.
- Crisi d'Equitat: Es va revelar que OpenAI havia utilitzat clàusules de "clawback" (retorn d'accions) en els acords de sortida d'antics empleats, una pràctica que Altman inicialment va negar tenir-ne coneixement, generant una gran pèrdua de confiança.
- Crisi de la Veu: La companyia va llançar GPT-4o amb una veu sintètica ("Sky") que s'assemblava sorprenentment a la de l'actriu Scarlett Johansson (que havia declinat prèviament gravar per a OpenAI), resultant en una crisi de relacions públiques.
Malgrat el caos, Altman va consolidar el seu control. Molts empleats centrats en la seguretat (Doomers), inclòs Sutskever, que va marxar definitivament el maig de 2024, van abandonar l'empresa. A finals de 2024, el finançament d'OpenAI va arribar a 157.000 milions de dòlars.
Epíleg: Alternatives a l'Imperi
L'autora conclou que la visió d'OpenAI representa un "projecte de centralització finalment imperial" que requereix la capitulació de la nostra privadesa, agència i valor.
Per dissoldre l'imperi, la solució és la redistribució del poder:
- Redistribució de Coneixement: Donar suport a la recerca independent (com el DAIR de Timnit Gebru) i a models alternatius eficients, com ara els dirigits per la comunitat, com Te Hiku Media de Nova Zelanda, que utilitza la IA per revitalitzar la llengua te reo Māori amb èmfasi en el consentiment i la sobirania.
- Educació: Ensenyar a la gent com funciona la IA i els seus sistemes, seguint la màxima de Joseph Weizenbaum (inventor d'ELIZA) que "una vegada es desemmascara un programa... la seva màgia s'esvaeix".