II PARTE
Michael Roberts
…Google tiene el objetivo de alcanzar cero emisiones netas para 2030. Desde 2007, la compañía ha dicho que las operaciones de su empresa eran neutras en carbono debido a las compensaciones de carbono que compra para igualar sus emisiones. Pero, a partir de 2023, Google escribió en su informe de sostenibilidad que ya no estaba «manteniendo la neutralidad de carbono operativa». La compañía dice que todavía mantiene su objetivo neto de cero en 2030. «La verdadera motivación de Google es construir los mejores sistemas de inteligencia artificial que puedan», dice Dodge. Y están dispuestos a invertir una tonelada de recursos en eso, incluyendo cosas como entrenar sistemas de IA en centros de datos cada vez más grandes, incluidas supercomputadoras, lo que incurre en una tremenda cantidad de consumo de electricidad y, por lo tanto, en emisiones de CO2″.
Además, está el agua. Mientras Estados Unidos se enfrenta a sequías e incendios forestales, las empresas de IA están absorbiendo aguas profundas para «enfriar» sus mega centros de datos para proteger los chips. Más que eso, las empresas de Silicon Valley están tomando cada vez más el control de la infraestructura de suministro de agua para satisfacer sus necesidades. La investigación sugiere, por ejemplo, que se podrían haber utilizado alrededor de 700.000 litros de agua para enfriar las máquinas que entrenaron a ChatGPT-3 en las instalaciones de datos de Microsoft. Los modelos de IA de entrenamiento consumen 6.000 veces más energía que una ciudad europea. Además, aunque los minerales como el litio y el cobalto se asocian comúnmente con las baterías en el sector del automóvil, también son cruciales para las baterías utilizadas en los centros de datos. El proceso de extracción a menudo implica un uso significativo del agua y puede conducir a la contaminación, socavando la seguridad hídrica.
Sam Altman, el anterior héroe sin fines de lucro de Open AI, pero ahora dispuesto a maximizar las ganancias de Microsoft, argumenta que sí, desafortunadamente hay «desventajas» a corto plazo, pero son necesarias para llegar a la llamada AGI; y luego la AGI nos ayudará a resolver todos estos problemas para que el intercambio de «externalidades» valga la pena.
¿AGI? ¿Qué es eso? La inteligencia artificial generalizada (AGI) es el santo grial de los desarrolladores de IA. Significa que los modelos de IA se volverían «superinteligentes», muy por encima de la inteligencia humana. Cuando eso se logre, promete Altman, su IA no solo podrá hacer el trabajo de un solo trabajador, sino que podrá hacer todos sus trabajos: «La IA puede hacer el trabajo de una organización». Esto sería lo más para maximizar la rentabilidad al deshacerse de los trabajadores en las empresas (¿incluso las empresas de IA?) a medida que las máquinas de IA se hacen cargo de la operación, el desarrollo y la comercialización de todo. Este es el sueño apocalíptico del capital (pero una pesadilla para el trabajo: ni empleo, ni ingresos).
Por eso Altman y los otros magnates de la IA no dejarán de expandir sus centros de datos y desarrollar chips aún más avanzados a pesar de que DeepSeek haya socavado sus modelos actuales. La firma de investigación Rosenblatt pronostica la respuesta de los gigantes tecnológicos: «En general, esperamos que la tendencia sea mejorar la capacidad, avanzando más rápido hacia la inteligencia artificial generalizada, en vez de reducir el gasto». Nada debe detener el objetivo de la IA superinteligente.
Algunos ven la carrera por lograr la AGI como una amenaza para la propia humanidad. Stuart Russell, profesor de informática en la Universidad de California, Berkeley, escribe: «Incluso los directores ejecutivos que participan en la carrera han declarado que quien gane tiene una probabilidad significativa de causar la extinción humana en el proceso, porque no tenemos idea de cómo controlar sistemas más inteligentes que nosotros mismos (…) En otras palabras, la carrera por la AGI es una carrera hacia el borde de un acantilado».
Tal vez, pero sigo dudando de que la «inteligencia» humana pueda ser reemplazada por la inteligencia de las máquinas, principalmente porque son diferentes. Las máquinas no pueden pensar en cambios potenciales y cualitativos. El nuevo conocimiento proviene de tales transformaciones (humanas), no de la extensión del conocimiento existente (máquinas). Solo la inteligencia humana es social y puede ver el potencial de cambio, en particular el cambio social, que conduce a una vida mejor para la humanidad y la naturaleza.
Lo que la aparición de DeepSeek ha demostrado es que la IA se puede desarrollar a un nivel que ayude a la humanidad y a sus necesidades sociales. Su modelo es gratuito y abierto y está disponible para el usuario y desarrollador más pequeño. No se ha desarrollado con fines de lucro o para obtener ganancias. Como dijo un comentarista: «Quiero que la IA lave mi ropa y mis platos para que pueda hacer arte y escribir, no que la IA haga mi arte y escriba por mi para que yo pueda lavar mi ropa y mis platos». Los gerentes están introduciendo la IA para «facilitar los problemas de gestión a costa de cosas para las que muchas personas no creen que la IA deba usarse, como el trabajo creativo… Si la IA va a funcionar, tiene que venir de abajo hacia arriba, o la IA va a ser inútil para la gran mayoría de las personas en el lugar de trabajo».
En lugar de desarrollar IA para obtener ganancias, reducir los empleos y los medios de vida de los humanos, la IA bajo la propiedad y la planificación comunes podría reducir las horas de trabajo humano para todos y liberar a los humanos del trabajo para concentrarse en el trabajo creativo que solo la inteligencia humana puede ofrecer. Recuerde que el «santo grial» fue un mito victoriano, utilizado más tarde también por Dan Brown.