📚 Review libro: Supremacy: AI, ChatGPT, and the Race that Will Change the World - Parmy Olson

Leí este libro con toda la motivación que tiene pertenecer a un club de lectura, con gente interesada en programación e inteligencia artificial. Supremacy también me había la atención por estar bien rankeado y, sobre todo, porque está escrito por una periodista. En esta constante carrera de la inteligencia artificial, donde 1 semana es 1 año en velocidad, siempre es necesario entender su historia, y quizás obtener más insights sobre lo que está pasando hoy. El libro superó por mucho eso.
Lo que más destaco es lo bien contada que está la historia. Olson une los momentos clave del desarrollo de la inteligencia artificial en los últimos 15 años, pero desde adentro: quiénes toman las decisiones, cómo surgen los modelos, qué pasa dentro de empresas como OpenAI, Microft, DeepMind y Google. El foco está en Sam Altman (OpenAI) y Demis Hassabis (DeepMind), y cómo sus trayectorias tan distintas explican también los resultados muy diferentes de sus equipos.
Altman viene del mundo de las startups, de lanzar rápido y validar con usuarios. Hassabis es más académico, obsesionado con la biología, el cerebro y el desarrollo de juegos. Esa diferencia se nota hasta hoy: uno busca impacto inmediato, el otro busca comprensión profunda.
El estilo periodístico de Olson se agradece. No es un libro técnico. Es una crónica con mirada crítica. Hay casos impactantes: como el chatbot de Microsoft que en 2016 terminó diciendo comentarios racistas en Twitter, o los errores de clasificación de Google Photos con personas negras. También está el giro de OpenAI: de organización sin fines de lucro a una de las empresas más agresivas del mercado.

Lo que más me hizo ruido fue la falta de transparencia: sobre cómo se entrenan los modelos, qué datos se usan, cómo se paga (o no) a los trabajadores que etiquetan esa data (escribí un post más en profundidad de esto). Hay una tensión constante entre ética y negocio. Y la pregunta queda flotando:
¿Se puede hacer inteligencia artificial “para el bien de la humanidad” cuando las decisiones las toma una empresa que necesita monetizar rápido?
Un tema que aparece hacia el final del libro y que me pareció clave es el del altruismo efectivo. Muchos de los líderes de estas compañías dicen seguir esta filosofía, que busca maximizar el bien a largo plazo. Pero esa idea, aunque puede ser sincera, también es peligrosa: no tiene bases claras y a veces se usa para justificar decisiones que, en nombre del bien futuro, pasan por alto problemas del presente. El caso de FTX mostró cómo se puede usar esa narrativa para construir una imagen, engañar y tomar decisiones egoístas.
Y quizás lo más inquietante del libro es la idea de que hoy estamos desarrollando tecnologías que afectarán a personas que aún no han nacido. ¿Quién decide por ellas? ¿Qué representación tienen en lo que estamos haciendo ahora? Olson plantea que los humanos somos muy malos para pensar a 100 o 200 años. Y sin embargo, estamos tomando decisiones que pueden tener efectos en ese plazo. El libro deja instalada esa pregunta.
Recomiendo este libro a cualquiera que quiera entender cómo y quienes están detrás de las decisiones en la carrera por la inteligencia artificial. No es un libro ténico como otros que he leído, lo que lo hace parecer una novela. Una novela por quien alcanza primero el apogeo técnico, de negocios y si las voluntades existen, el moral.
¿Qué decisiones de tus padres o abuelos crees que marcaron tu camino, aunque nunca se hablaran abiertamente?
Discusión de miembros