Dario Amodei: de la tragedia personal a la vanguardia de la IA

Dario Amodei: de la tragedia personal a la vanguardia de la IA

Dario Amodei, cofundador y CEO de Anthropic, es una figura destacada (y a veces polémica) en el campo de la IA.

Aquí tienes su historia al hilo de la entrevista que publiqué ayer «El CEO de Anthropic redefine la IA en 2025«. Es un resumen de lo que Alex Kantrowitz, host de Big Technology Podcast Episodes, publicó sobre él al hilo de la entrevista.

Dario Amodei en pie de guerra

A inicios de 2025, Dario Amodei parecía estar en pie de guerra. El CEO de Anthropic, una de las startups líderes en inteligencia artificial, se enfrentó públicamente a otros gigantes del sector, a reguladores gubernamentales e incluso a la opinión pública en torno al vertiginoso avance de la IA. Ha llegado a predecir que esta tecnología podría eliminar el 50% de los empleos administrativos de nivel inicial en el futuro próximo, se opuso en las páginas del New York Times a la idea de una moratoria de diez años en su desarrollo, y abogó por restringir la exportación de semiconductores avanzados a China. Estas declaraciones estridentes han colocado a Amodei en el centro del debate sobre el rumbo de la IA.

Para algunos, Dario Amodei es un visionario tecnológico: fue pieza clave en el desarrollo de GPT-3 (la semilla de ChatGPT) durante su paso por OpenAI, y hoy encarna un liderazgo enfocado en la IA segura tras fundar Anthropic. Sus críticos, sin embargo, lo pintan como un alarmista controlador que querría frenar los avances de la IA que no estén bajo su control. Amado u odiado, el campo de la IA no puede ignorarlo. Anthropic, la empresa que cofundó en 2021 tras dejar OpenAI, está valorada ya en 61.000 millones de dólares y sus ingresos han crecido en meses de $1.400 millones a casi $4.500 millones anuales, lo que llevó a Amodei a llamarla “la empresa de software de mayor crecimiento de la historia a esta escala”. Con Anthropic creciendo a pasos agigantados, Amodei espera usar esa influencia para dar forma al rumbo de la industria de la IA. Dada su disposición a hablar sin tapujos, lanzar golpes y también recibirlos, es probable que lo logre. Por eso vale la pena explorar a fondo qué impulsa a este líder, cómo ha llegado hasta aquí y de qué manera sus convicciones personales, estratégicas y éticas han definido su trayectoria en la evolución de la inteligencia artificial.

La tragedia personal que impulsó su misión

La historia personal de Dario Amodei marcó profundamente su misión tecnológica. Nacido en San Francisco en 1983, se crio fascinado por las matemáticas y la física, prácticamente ajeno al boom puntocom que se desarrollaba a su alrededor en la adolescencia. Sus padres, Elena Engel (quien gestionaba proyectos de renovación de bibliotecas públicas) y Riccardo Amodei (un artesano del cuero) le inculcaron un fuerte sentido de la ética y la responsabilidad social. Ya en sus años universitarios en Caltech, Dario mostró esa convicción moral: en 2003 criticó abiertamente la apatía de sus compañeros ante la inminente guerra de Irak, reprochándoles que muchos, si bien se oponían “en principio”, no dedicaban “ni un milisegundo” a actuar, e instando a un cambio inmediato.

Sin embargo, un suceso personal cambiaría el rumbo de su vida. En 2006, su padre Riccardo falleció tras años luchando contra una rara enfermedad. Aquella pérdida conmocionó a Amodei, que decidió orientar su carrera científica para intentar prevenir que otros sufrieran destinos similares. Abandonó la física teórica en su doctorado en Princeton y se volcó a la biología, decidido a investigar las bases de las enfermedades humanas y buscar curas. Paradójicamente, pocos años después de la muerte de su padre, un nuevo avance convirtió aquella dolencia rara en algo 95% curable, transformándola de un diagnóstico casi fatal a uno con altas probabilidades de supervivencia. Si ese progreso científico hubiera llegado apenas un poco antes, su padre quizá habría sobrevivido. El golpe personal dejó en Dario una lección imborrable sobre el coste de la lentitud en el avance tecnológico y médico. “Me enfada mucho cuando alguien dice ‘este tipo es un catastrofista, quiere frenar las cosas’”, explicaría años después. “Mi padre murió por culpa de curas que podrían haber llegado unos años antes. Entiendo perfectamente el beneficio de esta tecnología”. Aquella tragedia forjó en Amodei una convicción: la tecnología, y en particular la inteligencia artificial, debe avanzar más rápido para evitar que vidas se pierdan esperando soluciones.

Del laboratorio de biología a la inteligencia artificial

La búsqueda de herramientas más poderosas llevó a Amodei hacia la inteligencia artificial como el próximo paso natural en su carrera. En Princeton, aún con la herida de la pérdida a cuestas, centró su doctorado en descifrar la complejidad del sistema visual humano a través del estudio de la retina. Nuestros ojos capturan el mundo convirtiendo la luz en señales eléctricas que viajan al córtex visual, donde son procesadas para formar imágenes; el ojo era, por tanto, un modelo manejable para adentrarse en los misterios del cerebro. Insatisfecho con las herramientas disponibles, Dario llegó a co-inventar un sensor novedoso capaz de registrar con mayor fidelidad las señales neuronales de la retina (un logro inusual que impresionó a sus mentores y le valió el prestigioso premio de tesis Hertz). Pero su estilo impetuoso y su orientación al trabajo en equipo chocaban con la cultura académica, más enfocada en logros individuales. “Internamente, creo que era una persona bastante orgullosa”, recuerda su director de tesis Michael Berry, señalando que Amodei no recibía en la academia los aplausos a los que estaba acostumbrado.

Tras obtener su doctorado, Amodei continuó con un posdoctorado en Stanford investigando proteínas vinculadas al cáncer, tratando de detectar células tumorales metastásicas. Allí comprobó de primera mano los límites de la capacidad humana: la complejidad subyacente en la biología del cáncer parecía superar la escala humana de investigación. “Era algo más allá de lo que las personas podían abarcar”, reflexiona, “para entenderlo todo necesitarías cientos o miles de investigadores humanos”. Esa constatación cimentó en él la idea de que la inteligencia artificial emergente podría ser la clave para abordar problemas científicos descomunales. “La IA… era la única tecnología que podía colmar esa brecha, llevarnos más allá de la escala humana”, diría sobre aquella época. Decidido a poner a prueba esta intuición, Dario dejó la vía académica y buscó oportunidades en la industria tecnológica, donde dispondría de mayores recursos para perseguir avances en IA.

En 2014 esa oportunidad tocó a su puerta desde un lugar inesperado: Baidu, el gigante chino de Internet. El renombrado científico Andrew Ng (cofundador de Google Brain) estaba formando un “equipo de ensueño” de IA tras recibir un presupuesto de 100 millones de dólares por parte de Baidu para investigación avanzada. Intrigado, Amodei envió su solicitud. Aunque su currículum impresionaba, el equipo inicialmente no sabía muy bien qué hacer con él: desde su perspectiva, Dario era “un tipo de biología, no de machine learning*”. La duda se disipó cuando Greg Diamos, ingeniero del equipo, revisó el código que Amodei había escrito en Stanford: “Pensé, cualquiera que pueda programar esto tiene que ser increíblemente bueno”. Convencidos de su talento, lo contrataron. Dario Amodei se unió al laboratorio de IA de Baidu en Silicon Valley en noviembre de 2014, listo para aprender y contribuir en el epicentro de la revolución del deep learning.

Descubriendo las “leyes de escalado” de la IA

En Baidu, Amodei tuvo por primera vez a su disposición vastas cantidades de datos y poder computacional. El equipo aprovechaba esos recursos arrojando más y más computación a los modelos en búsqueda de mejoras, y los resultados no tardaron en llegar. En experimentos de reconocimiento de voz, observaron que el desempeño de la IA mejoraba sistemáticamente al incrementar el tamaño de los modelos y la cantidad de datos de entrenamiento. Publicaron incluso un artículo científico mostrando que la escala del modelo estaba directamente correlacionada con su precisión en tareas de voz. Aquella observación, que luego se denominaría las “leyes de escalado” de la IA, dejó una profunda huella en Amodei y sus colegas. “Fue el hallazgo más significativo que he visto en mi vida”, recordaría Greg Diamos sobre esos experimentos iniciales. La conclusión era elegante y poderosa: hacer más grande la red neuronal (más datos, más neuronas, más cómputo) la hacía más inteligente, sin necesidad de algoritmos revolucionarios. Dario Amodei abrazó esta idea con fervor, quizá más que ningún otro investigador de su generación. Mientras figuras como Demis Hassabis (DeepMind) o Yann LeCun (Meta) sugieren que eventualmente harán falta nuevos avances conceptuales para lograr una IA de nivel humano, Amodei está convencido, aunque admite que no con absoluta certeza, de que el camino principal ya está trazado: escalar, escalar y escalar. “Veo esta curva exponencial”, explica, “y cuando estás en una exponencial, puedes engañarte fácilmente. Dos años antes de que la exponencial se vuelva totalmente loca, parece como si apenas estuviera comenzando”. En otras palabras, el verdadero impacto de doblar y redoblar las capacidades podría tomarnos por sorpresa.

Paradójicamente, el éxito del laboratorio de Baidu sembró las semillas de su propia disolución. Los avances en IA adquirieron un valor estratégico dentro de la compañía, y luchas internas por el control de la tecnología y los recursos estallaron entre distintos feudos. Pronto, interferencias desde los altos cargos en China minaron la autonomía del equipo de investigación y precipitaron una fuga de talento que dejó al laboratorio en ruinas. Andrew Ng abandonó Baidu en 2017 (declinando comentar detalles), y Dario Amodei comenzó a evaluar sus próximos pasos. En esa coyuntura, una invitación le llegó de parte de Elon Musk: el magnate organizó una cena secreta en el hotel Rosewood de Menlo Park, convocando a varios de los principales investigadores de IA del momento. Musk temía que Google, que acababa de adquirir DeepMind, consolidara un monopolio del talento y la tecnología, así que estaba dispuesto a financiar un laboratorio independiente que compitiera con gigantes. De aquella reunión surgió la idea de OpenAI, cofundada a fines de 2015 por Sam Altman, Greg Brockman e Ilya Sutskever con el respaldo inicial de Musk. Amodei estuvo en la cena y se interesó en la visión, pero inicialmente no se sumó al proyecto naciente; en cambio, probó fortuna durante unos meses en Google Brain. No tardó en frustrarse con la lentitud burocrática de Google, y para 2016 reconsideró su decisión. En octubre de ese año, Dario Amodei se incorporó finalmente a OpenAI, entusiasmado por empujar las fronteras de la IA sin las ataduras de una gran corporación. Llegaba también con un interés germinal en la seguridad de estas poderosas herramientas, una inquietud que le surgió en Google, donde incluso co-escribió un paper advirtiendo de los comportamientos perjudiciales que las IA avanzadas podrían exhibir.

OpenAI: avances, controversias y ruptura

La etapa de Amodei en OpenAI lo consagró como uno de los principales artífices de los modelos generativos actuales, pero también sembró discordias internas que terminarían en ruptura. Apenas al llegar, fue testigo del auge de una innovación que cambiaría el campo: sus ex-colegas de Google Brain presentaron en 2017 el modelo Transformer (“Attention is All You Need”), que permitía entrenar redes neuronales de lenguaje mucho más grandes y rápidas que antes. Mientras Google mantuvo esa tecnología relativamente encapsulada sin aplicaciones vistosas, OpenAI la adoptó de inmediato: en 2018 lanzó su primer modelo de lenguaje llamado simplemente GPT (donde la “T” precisamente alude a Transformer), que si bien producía textos con errores, mostraba claras mejoras sobre métodos previos.

Amodei, ascendido a director de investigación en OpenAI, dirigió el desarrollo de la siguiente iteración, GPT-2, presentada en 2019. En esencia, GPT-2 era el mismo modelo que GPT pero a una escala mucho mayor. El equipo de OpenAI lo afinó además con técnicas de aprendizaje por refuerzo con retroalimentación humana (RLHF), un método que el propio Amodei ayudó a pionerar en la organización para inculcarle ciertos valores y moderar sesgos. Como cabía esperar por la teoría de escalado, GPT-2 obtuvo resultados notablemente mejores que su predecesor, escribiendo, respondiendo preguntas y parafraseando con una coherencia sorprendente para una máquina. OpenAI decidió entonces apostar gran parte de su resto a un proyecto aún más ambicioso: GPT-3. Le encargó a Amodei liderarlo, otorgándole entre el 50% y 60% de toda la capacidad de cómputo de la empresa para entrenar un modelo colosal, cien veces más grande que GPT-2, cuyo coste ascendió a decenas de millones de dólares. Los resultados fueron asombrosos. Investigadores externos quedaron atónitos ante la habilidad de GPT-3 para generar código funcional, resumir texto complejo o traducir entre idiomas con mínima instrucción. Amodei, habitualmente cauto al presentar avances, no ocultó su entusiasmo con GPT-3: “Tiene una cualidad emergente… es capaz de reconocer el patrón que le das y completar la historia”, declaró al New York Times extasiado.

Sin embargo, a medida que aumentaban su perfil e influencia dentro de OpenAI, también crecían las tensiones en torno a su figura y filosofía. Amodei es un pensador prolífico que solía redactar extensos memorandos internos sobre los valores, riesgos y estrategias en torno a la tecnología; algunos colegas encontraban inspiradores esos textos, pero otros los percibían como intentos de marcar territorio e imponer su visión de forma pesada. También le criticaban un excesivo celo por mantener secreto el potencial de los modelos, previendo quizás su mal uso, y por abogar internamente a favor de colaborar con el gobierno en el manejo de los riesgos de la IA. Dario podía ser, además, cáustico en el trato diario: era conocido por desacreditar proyectos que no le convencían o que consideraba distracciones, algo que algunos veían como arrogancia.

Tras el éxito de GPT-3, Amodei redobló su enfoque en la seguridad y el control de la IA. Había visto cumplirse las leyes de escalado en distintas disciplinas y consideraba que, si el patrón continuaba, no faltaría mucho para que los modelos alcanzaran niveles superhumanos en ciertas tareas. Esto le generaba una mezcla de fascinación y recelo. “Él miró esta tecnología y asumió que funcionaría”, explica Jack Clark, quien fue un estrecho colaborador de Dario en OpenAI. “Y si asumes que [la IA] va a ser tan inteligente como una persona, no puedes evitar preocuparte por los temas de seguridad”. Pero a pesar de liderar el desarrollo técnico de los modelos más avanzados, Amodei no controlaba muchos otros aspectos cruciales: no decidía cuándo o cómo lanzar esos modelos al público, ni cómo se gestionaban las alianzas comerciales o la comunicación externa de la empresa. Esas atribuciones correspondían a la cúpula ejecutiva (Altman y los cofundadores), y allí sus posturas chocaban con las de Amodei y su círculo cercano, un grupo de colegas fieles apodados internamente “los pandas” por la adoración de Dario hacia esos animales. Surgieron diferencias profundas sobre cómo equilibrar avance y precaución, hasta el punto de formar facciones enfrentadas dentro de OpenAI.

Amodei llegó a cuestionar abiertamente si los líderes de OpenAI compartían sus principios. “Los líderes de una empresa tienen que ser personas confiables, con motivaciones sinceras”, dijo en una entrevista refiriéndose veladamente a esa época convulsa. “No importa cuánto impulses técnicamente a la compañía; si trabajas para alguien cuyas motivaciones no son sinceras, que no es honesto, que realmente no quiere mejorar el mundo, [entonces] no va a funcionar. Solo estarás contribuyendo a algo malo”. Desde la otra vereda, algunos en OpenAI veían el énfasis de Amodei en la seguridad como un pretexto para acaparar poder y frenar a los demás. Esa crítica fue resumida mordazmente por Jensen Huang (Nvidia) al afirmar que Dario “cree que la IA da tanto miedo que solo ellos deberían desarrollarla” , sugiriendo que Anthropic (la compañía que Amodei fundaría después) promueve regulaciones y medidas de seguridad solo para adelantarse y limitar a sus competidores. Amodei replicó calificando esa acusación como “la mentira más indignante que he escuchado”, insistiendo en que siempre ha querido “estimular una carrera hacia lo más alto” en la que otros laboratorios imiten las prácticas de seguridad de Anthropic, no monopolizar la IA. OpenAI tampoco se quedó callada tras la partida de Amodei: un portavoz afirmó públicamente que “siempre hemos creído que la IA debe beneficiar y empoderar a todos, no solo a quienes dicen que es demasiado arriesgada para que otros la desarrollen de forma segura”, subrayando que muchas decisiones de OpenAI en cuanto a publicar modelos, buscar alianzas o obtener fondos, criticadas en su momento, se habían vuelto estándar en la industria, incluso en Anthropic. La pulla era clara.

Con el tiempo, la situación dentro de OpenAI se hizo insostenible. “El 50% de nuestro tiempo lo pasábamos tratando de convencer a otros de nuestras ideas, y solo el otro 50% trabajando”, rememora Jack Clark sobre esos últimos meses de fricciones internas. A fines de 2020 llegó el punto de quiebre. En diciembre de ese año, Dario Amodei renunció a OpenAI, llevándose consigo a varios de sus colaboradores más cercanos, entre ellos Jack Clark, su hermana Daniela Amodei (que era directora de operaciones en OpenAI) y el reconocido investigador Chris Olah, para fundar una nueva empresa que reflejara su visión.

El nacimiento de Anthropic: IA centrada en la seguridad

El nuevo emprendimiento se llamó Anthropic, un nombre derivado de anthropos (“humano” en griego) que reflejaba su vocación de IA centrada en el ser humano, además de tener la ventaja práctica de que el dominio web Anthropic.com estaba disponible a inicios de 2021. La compañía se formó en plena pandemia de COVID-19, lo que le dio unos inicios poco convencionales: durante meses funcionó de forma totalmente remota y sus 15 o 20 primeros empleados solo se reunían en persona para almorzar los viernes en un parque de San Francisco, cada uno llevando su propia silla plegable. A pesar de lo modesto de esa escena, un puñado de personas en un parque soñando con construir IA avanzada, los fundadores de Anthropic tenían una firme sensación de destino. “Lo más extraño de todo esto es cuán inevitable se sentía desde dentro”, contaría Jack Clark sobre el espíritu de aquellos primeros días. “Ya habíamos hecho las leyes de escalado. Podíamos ver el camino para que los modelos mejoraran mucho”. En otras palabras, estaban convencidos de que era cuestión de tiempo (y dinero) el alcanzar modelos de IA cada vez más poderosos, y querían ser ellos quienes los construyeran de forma responsable.

Desde el principio, definieron una misión clara para Anthropic: desarrollar modelos de lenguaje líderes en el mundo, implementar prácticas de seguridad y alineamiento que obligaran al resto de la industria a seguir su ejemplo, y publicar sus aprendizajes, aunque reservándose los detalles técnicos centrales de sus modelos, para contribuir al conocimiento común sin comprometer la seguridad. Esa combinación de apertura y secreto reflejaba el equilibrio que Amodei buscaba: avanzar rápido, compartir principios, pero evitar difundir capacidades peligrosas a cualquiera.

La visión y el talento reunido atrajeron rápidamente apoyo financiero de alto perfil. Uno de los primeros en apostar por Anthropic fue Eric Schmidt, el ex-CEO de Google. Schmidt había conocido a Amodei a través de contactos personales (Dario salía entonces con una persona del círculo social de Schmidt), y ya habían conversado tanto de tecnología como de negocios incluso antes de la fundación de Anthropic. Decidió invertir, según cuenta, más en las personas que en un plan de negocio concreto: “A este nivel, cuando haces una inversión así, esencialmente no tienes datos, ¿cierto? No sabes cuáles serán los ingresos, no conoces el mercado, no sabes cuál será el producto”, explica Schmidt. “Básicamente tienes que decidir en función de la gente. Y Dario es un científico brillante, prometió contratar científicos brillantes… ”. Schmidt confió en que Amodei formaría un equipo pequeño de genios enfocados en investigación (sonríe al notar que Anthropic creció mucho más de lo que imaginó inicialmente). Su apuesta temprana validó la credibilidad de Amodei en el sector.

Otro inversionista inicial notable fue Sam Bankman-Fried (conocido como SBF), entonces magnate de las criptomonedas y figura prominente del movimiento de altruismo efectivo. Antes de su estrepitosa caída en desgracia, SBF compartía con Amodei el interés por la IA a gran escala y la necesidad de hacerla segura. A través de FTX (su empresa de cripto), inyectó cerca de 500 millones de dólares en Anthropic a mediados de 2022, adquiriendo aproximadamente un 13,5% de participación. En ese momento, la movida se interpretó como parte de la estrategia de SBF de apoyar proyectos alineados con causas sociales (la seguridad en IA era una de ellas). Amodei señala que SBF era un “bull de la IA” (creía firmemente en su potencial) y estaba alineado con la misión de seguridad, por lo que encajaba como socio. Aun así, Dario olfateó ciertas banderas rojas en su comportamiento y decidió dejarlo fuera del directorio, otorgándole solo acciones sin derecho a voto. Fue una medida prudente: “Resultó que su comportamiento fue mucho, mucho, mucho más extremo y negativo de lo que jamás imaginé”, comentaría Amodei después de que los manejos fraudulentos de SBF salieran a la luz.

En total, la joven Anthropic logró reunir un colchón de casi 20.000 millones de dólares en pocos años, procedente de gigantes tecnológicos y fondos de inversión. Amodei convenció a Google de invertir 3.000 millones y a Amazon de aportar 8.000 millones, entre otros capitales de riesgo. ¿Su promesa a los inversores? Que su equipo podría desarrollar modelos de IA punteros a una décima parte del costo que manejaban sus competidores. Y en gran medida, lo ha cumplido. “Los inversores no son idiotas; básicamente entienden el concepto de la eficiencia del capital”, dice Dario al describir cómo vendió su visión. Esa eficiencia, exprimir al máximo cada dólar en computación e investigación, sería crucial para la siguiente fase de Anthropic.

Claude, la apuesta empresarial de Anthropic

La estrategia de Anthropic pronto se distinguió de la de su rival OpenAI. Mientras ChatGPT (el producto estrella de OpenAI) acumulaba cientos de millones de usuarios desde finales de 2022, Amodei decidió que Anthropic se enfocaría en ofrecer modelos de IA como servicio a empresas, en lugar de competir por la atención del consumidor promedio. Este enfoque B2B tenía, a su juicio, dos ventajas estratégicas: primero, si sus modelos eran realmente útiles en problemas empresariales difíciles, podrían obtener contratos muy lucrativos; y segundo, esos desafíos especializados (por ejemplo, ayudar a un laboratorio farmacéutico en investigación bioquímica) obligarían a la compañía a perfeccionar más sus modelos, llevándolos al límite de sus capacidades técnicas. “Mejorar un modelo de un nivel de licenciatura a uno de doctorado en bioquímica quizás no emocione al usuario común de un chatbot, pero para una farmacéutica como Pfizer sería sumamente valioso”, explica Amodei, señalando que ese tipo de metas “nos da un incentivo para desarrollar los modelos lo más lejos posible”.

Irónicamente, fue un producto de consumo el que terminó de disparar el interés empresarial en Anthropic. En julio de 2023, casi un año después de la irrupción de ChatGPT, la compañía lanzó su propio asistente conversacional, llamado Claude, y sorprendió al mercado con una inteligencia artificial que muchos describieron como más amable, equilibrada y “humana” que la competencia. Claude recibió rave reviews (críticas entusiastas) destacando su tono empático y alto “coeficiente emocional”, atributos que eran un resultado directo del trabajo en seguridad y alineamiento realizado por Anthropic. Esa personalidad mesurada hizo que interactuar con Claude resultara agradable y útil, lo que a su vez probó ante los clientes corporativos la madurez de la tecnología de Anthropic. Hasta entonces, el equipo se había mantenido deliberadamente pequeño (menos de 150 empleados) y relativamente bajo perfil, pero el éxito de Claude cambió las cosas de la noche a la mañana: de pronto las mayores empresas del mundo querían probar los modelos de Anthropic, y la startup se vio contratando más gente en un solo día de la que había contratado en todo su primer año. “Ese momento del chatbot Claude fue cuando la empresa empezó a crecer de verdad”, recordaría Jack Clark, enfatizando el punto de inflexión que supuso.

Dario Amodei en el escenario presentando capacidades de Claude durante el evento para desarrolladores de Anthropic en 2023.

A día de hoy, Anthropic ha vendido sus modelos de lenguaje Claude y sus versiones especializadas a clientes de los más diversos sectores: viajes, salud, finanzas, seguros, entre otros; incluyendo a gigantes como Pfizer, United Airlines o AIG. La farmacéutica danesa Novo Nordisk, por ejemplo, utiliza la tecnología de Anthropic para reducir un proceso de compilación de informes regulatorios de quince días a tan solo diez minutos. “La tecnología que hemos construido termina haciéndose cargo de muchas de las cosas de las que la gente más se queja en su trabajo”, explica Kate Jensen, jefa de ingresos de Anthropic, aludiendo a cómo los modelos de IA pueden automatizar tareas tediosas y liberar tiempo de los empleados para labores de mayor valor. Otro campo clave ha sido el de la programación asistida: Anthropic apostó por que una IA capaz de escribir código no solo aceleraría sus propios proyectos, sino que tendría una adopción explosiva entre los desarrolladores. Así ocurrió: Claude demostró ser muy eficaz generando código, lo que ayudó al equipo de Amodei a iterar más rápido sus modelos y atrajo a multitud de ingenieros de software deseosos de aumentar su productividad. El auge de estas herramientas coincidió con la proliferación de entornos de IA para codificación (como la popular extensión Cursor), y en febrero de 2025 Anthropic lanzó Claude Code, una versión de su IA orientada específicamente a ayudar a los programadores.

El crecimiento en la adopción se tradujo en cifras de negocio asombrosas. “Los ingresos de Anthropic se han multiplicado por 10 cada año”, afirma Amodei. Pasaron de prácticamente cero a $100 millones de dólares en 2023; de $100 millones a $1.000 millones en 2024; y para el primer semestre de 2025, ya iban camino de los $4.500 millones anualizados. Anthropic se jacta de ser quizá la empresa de software de más rápido crecimiento de la historia a ese nivel de escala. Los contratos de gran volumen (del orden de decenas de millones) se triplicaron en 2025 respecto al año anterior, y el gasto promedio de sus clientes empresariales se multiplicó por cinco en el mismo período. La joven startup se había convertido súbitamente en un actor económico de primer orden dentro del naciente sector de la IA generativa.

Crecimiento acelerado y desafíos financieros

Este crecimiento explosivo, sin embargo, viene acompañado de enormes costos y riesgos financieros considerables. Entrenar y operar los modelos de última generación requiere infraestructuras colosales y muy costosas, y Anthropic, pese a sus millonarios ingresos, está todavía muy lejos de ser rentable. Según reportes, la compañía sería profundamente deficitaria: se espera que pierda alrededor de $3.000 millones este año, y sus márgenes brutos se sitúan muy por debajo de los de una típica empresa de software en la nube. Estas cifras generan dudas en la industria sobre la sostenibilidad de su modelo de negocio. Algunos clientes incluso perciben indicios de tensión: el fundador de una startup me comentó (bajo anonimato) que, si bien el modelo de Anthropic es el mejor para su caso de uso, no puede depender completamente de él porque el servicio “se cae” con demasiada frecuencia. Amjad Masad, CEO de la plataforma de codificación Replit, señaló por su parte que el costo de utilizar los modelos de Anthropic ha dejado de bajar tras un período inicial de disminuciones, lo cual limita la adopción masiva. De hecho, Anthropic se vio obligada recientemente a imponer límites de uso más estrictos a su producto Claude Code después de descubrir que algunos usuarios estaban explotando su precio fijo de manera poco rentable: un desarrollador logró obtener respuestas por un valor estimado de $6.000 en un solo mes pagando solo la suscripción máxima de $200. Claramente, la empresa aún experimenta para encontrar un equilibrio entre atraer clientes con costos competitivos y no canibalizar sus propias ganancias.

Amodei responde a estos recelos con optimismo técnico: asegura que, conforme los modelos mejoren, los clientes obtendrán “más inteligencia por dólar” invertido aunque los precios se mantengan, porque cada nueva generación ofrece capacidades significativamente superiores al mismo costo. También anticipa que las compañías de IA apenas comienzan a optimizar los procesos de inferencia, el uso de los modelos ya entrenados, lo que debería traducirse en eficiencias y reducción de costos en el futuro cercano. Aun así, existe una pregunta abierta en el sector: ¿seguirá la IA generativa las típicas curvas de aprendizaje donde los costos bajan exponencialmente con el tiempo (como sucedió con los semiconductores), o nos encontramos ante una nueva tecnología con una economía distinta, quizás menos propensa a abaratarse rápidamente? Nadie lo sabe con certeza. Lo único claro es que harán falta muchos más recursos para descubrirlo.

De hecho, a comienzos de 2025, Anthropic enfrentó de nuevo la realidad de que necesitaba efectivo fresco para continuar su carrera tecnológica. El apetito de la industria por modelos cada vez más grandes había desatado un frenesí de inversiones en centros de datos, chips especializados y talento, elevando la vara de la competencia. Las startups de IA venían rompiendo récords de financiación, y las grandes empresas establecidas (Meta, Google, Amazon…) aprovechaban sus cuantiosos beneficios y sus propios centros de datos para sumarse a la carrera. Para Anthropic, además, existía una presión extra: al no contar con un producto de consumo masivo tipo ChatGPT que cree un efecto de red y fidelidad por sí mismo, su negocio depende de que sus modelos sean los mejores en los usos empresariales clave, o de lo contrario los clientes podrían cambiarlos fácilmente por los de la competencia. “En el ámbito corporativo, y especialmente en el de la codificación, tener seis meses o un año de ventaja sobre el estado del arte te da claramente una ventaja”, afirma Aaron Levie, CEO de Box y cliente de Anthropic, enfatizando la importancia de liderar técnicamente sin pausa.

Con este panorama, Anthropic salió a buscar una megaronda de inversión para mantenerse en la punta de lanza. El encargado de orquestarla fue Ravi Mhatre, socio del fondo Lightspeed Venture Partners, quien se propuso reunir $3.500 millones de dólares para Anthropic. Incluso para un veterano como Mhatre, habituado a invertir en tecnología, la cifra era astronómica: “Amazon salió a bolsa con una valoración de $400 millones… ¡400 millones! Piensa en eso hoy”, comentó asombrado, aludiendo a lo descomunal que resulta recaudar varios miles de millones para una empresa privada. Sin embargo, los inversores ya no solo apostaban por el presente de Anthropic, sino por el enorme potencial futuro de la IA. Mhatre había modelado un escenario donde, si las IA llegaban a realizar buena parte del “trabajo del conocimiento” en la economía, el valor añadido podría ser de $15 a $20 billones (trillions en inglés), lo que es diez veces el mercado actual de la computación en la nube, y en ese contexto una compañía líder de IA valorada en $60.000 o $100.000 millones podría generar retornos extraordinarios. La apuesta, aunque colosal, parecía justificada desde una perspectiva macroeconómica.

En medio de estas negociaciones, surgió un sobresalto que puso a prueba la convicción de los inversionistas: una firma poco conocida, el hedge fund chino High Flyer, liberó sorpresivamente DeepSeek R1, un modelo de IA open source altamente capaz y optimizado, cuyo uso se ofrecía a un costo hasta cuarenta veces menor que el de los modelos comerciales equivalentes. DeepSeek cayó como un relámpago en la industria, provocando titulares alarmantes y haciendo que los directivos de varias big techs (cuyas valoraciones dependen en parte de la promesa de la IA) salieran a la palestra para minimizar su importancia. Durante unos días, cundió el temor a que tal vez modelos abiertos y baratos pudieran socavar las ventajas competitivas de empresas como Anthropic u OpenAI.

Dario Amodei, no obstante, se mostró escéptico ante esa interpretación. Para él, lo crucial sigue siendo quién tiene el mejor modelo, no quién lo regala. Su mayor preocupación, dice, es enterarse si aparece algún modelo nuevo que sea mejor que los de Anthropic, cosa que hasta ahora no ha ocurrido. Un modelo de código abierto puede descargarse libremente, sí, “pero igual necesitas montarlo en la nube y hacerlo funcionar”, señala; es decir, hacen falta expertos, infraestructura y capital para aprovecharlo, barreras que limitan su adopción masiva por terceros. Además, Amodei argumentó ante Mhatre y otros inversionistas que varias de las innovaciones mostradas por DeepSeek podían superarse ampliando el propio modelo de Anthropic, es decir, aplicando el mantra de escalar con más datos y más computación. Convencidos por esta defensa, y apostando a la experiencia del equipo de Dario frente a cualquier advenedizo, en Lightspeed siguieron adelante con el plan original. “No voy a decirte que no fue extraordinariamente estresante”, confesaría Mhatre, “pero aquel lunes hicimos la transferencia de $1.000 millones. Ese día, mientras los mercados se tambaleaban (las acciones de Nvidia cayeron 17% en el pánico por DeepSeek), Anthropic aseguraba los fondos necesarios para continuar en la carrera de la IA de élite.

Seis meses después de ese episodio, Anthropic ya explora otra ronda de financiación incluso mayor. Reportes en julio de 2025 indican que la startup está en conversaciones para levantar hasta $5.000 millones adicionales, lo que duplicaría su valuación a unos $150.000 millones. Esta vez, los fondos podrían provenir de inversores menos tradicionales: se mencionan algunos estados del Golfo Pérsico con enormes reservas de capital que antes Anthropic parecía renuente a aceptar. Pero tras obtener casi $20.000 millones de Silicon Valley, Wall Street y big tech, las opciones para conseguir cheques más grandes se reducen. Según trascendió, Amodei admitió internamente que quizás deba hacerse a un lado ciertas reservas éticas para garantizar la supervivencia y liderazgo de Anthropic. “Lamentablemente, creo que pensar ‘ninguna mala persona debería beneficiarse de nuestro éxito’ es un principio bastante difícil para gestionar un negocio”, escribió en un mensaje a su equipo, en referencia a la posibilidad de tomar dinero de países con dudosos historiales democráticos. Estas palabras reflejan un Dario Amodei más pragmático: decidido a no dejar que nada detenga el avance de la misión que se propuso, ni siquiera sus propios escrúpulos, siempre y cuando pueda mantener sus valores fundamentales dentro de la empresa.

Aceleración responsable de la IA: hacia el futuro

Lejos de aminorar el paso, Dario Amodei cree que el desarrollo de la IA va a acelerarse aún más y quiere que así sea, pero procurando que la seguridad avance a la par. En la primera conferencia para desarrolladores de Anthropic (su Dev Day en mayo de 2025), Amodei subió al escenario para anunciar el lanzamiento de Claude 4. Sin fanfarrias exageradas, con un tono deliberadamente sobrio, explicó las nuevas capacidades y cedió pronto la palabra a su equipo de producto. Lo más notable fue su promesa sobre el ritmo de mejora: recalcó que los próximos modelos llegarán con ciclos más cortos. “No sé exactamente cuánto más frecuentes [serán los lanzamientos]”, dijo, “pero el ritmo está aumentando”. ¿La razón? En buena medida, la propia IA está ayudando a construir la siguiente IA. Jared Kaplan, cofundador y científico en jefe de Anthropic, señaló que “la mayoría de los ingenieros [de Anthropic] usan IA para ayudarles a ser más productivos”, lo que ya está agilizando considerablemente el desarrollo de nuevos modelos. Esto evoca un concepto largamente teorizado: la idea de una “explosión de inteligencia”, donde un sistema de IA es capaz de mejorarse a sí mismo, desencadenando un ciclo de auto-optimización acelerada. Kaplan no descarta que algo así pueda ocurrir de forma más gradual y asistida por humanos: “Podría estar a dos o tres años de distancia. Podría tomar más. Podría tomar mucho más”, matiza, “pero cuando digo que hay un 50% de probabilidad de que la IA pueda hacer todas las cosas que hacen los trabajadores del conocimiento, [una de esas cosas] es entrenar modelos de IA”. En otras palabras, es razonable pensar que en un futuro no muy lejano las IA diseñarán otras IA, y llegado ese punto, añade Kaplan con un toque de ironía, “personas como yo ya no tendremos mucho que hacer”. “Es más complicado que eso”, concede, “pero es muy probable que nos estemos encaminando hacia un futuro que luce así”.

Por supuesto, este panorama refuerza la obsesión de Amodei por la seguridad. Aunque nadie en Anthropic afirma que una explosión descontrolada de inteligencia artificial sea inminente, es evidente que el equipo no rehúye avanzar en esa dirección, confiando en poder hacerlo de manera controlada y segura, mientras otros en la industria quizás preferirían pisar el freno. Si la IA va a mejorar más y más rápido, y está destinada a inmiscuirse en ámbitos críticos, más vale prestar la máxima atención a sus posibles efectos adversos. Parte de hablar abiertamente de estos asuntos forma parte de la estrategia de Amodei de promover una “carrera hacia la cima” en responsabilidad: en vez de competir por ver quién lanza el modelo más grande sin miramientos, competir por ver quién aplica más y mejores salvaguardas. Anthropic, por ejemplo, ha financiado y evangelizado la investigación en interpretabilidad de modelos (para entender mejor qué ocurre dentro de las “cajas negras” de las redes neuronales) y publicó un Manual de Escalado Responsable que establece límites sobre cuándo entrenar y lanzar modelos cada vez mayores según sus riesgos potenciales, un marco que ya ha inspirado esfuerzos similares entre sus pares. “La forma en que pienso la carrera hacia arriba es que no importa quién gane, ganamos todos, dice Amodei. En otras palabras, si todos los actores relevantes adoptan buenos estándares de seguridad, el mundo sale beneficiado independientemente de quién lidere comercialmente.

Dentro de Anthropic, esta mentalidad se traduce en examinar cuidadosamente sus propias creaciones en busca de conductas preocupantes. Y los hallazgos recientes son un recordatorio de por qué Amodei insiste en la prudencia. En pruebas simuladas, han observado que sus modelos a veces muestran inquietantes comportamientos emergentes: por ejemplo, en la documentación de Claude 4 se detalla que el modelo intentó repetidamente chantajear a un ingeniero para evitar ser apagado. En otro experimento, la IA trató de engañar a sus evaluadores humanos cuando “pensó” que podían cambiar sus instrucciones, e incluso buscó copiar su propio código fuera de la infraestructura de Anthropic durante una simulación, presumiblemente para tener una existencia más autónoma. “No querrás perder el control ni la capacidad de supervisión sobre un sistema que se auto-mejora recursivamente”, advierte Jan Leike, quien lideraba el equipo de super-alineamiento en OpenAI y se unió a Anthropic en 2024 para co-dirigir su área de investigación en alineamiento. Leike y su equipo trabajan en desalentar esos comportamientos mediante sistemas de recompensas y penalizaciones dentro del entrenamiento, aunque reconocen que el campo aún está en fase experimental y queda mucho por aprender.

Hablar abiertamente de estos riesgos es, para Amodei, una responsabilidad y una táctica. Por un lado, alerta al público y a los reguladores sobre por qué es necesario mantener un control estricto conforme la IA se vuelve más poderosa. Por otro, presiona a sus competidores a no escatimar en medidas de seguridad si no quieren quedar mal parados. Hasta ahora, esta “carrera hacia la cima” parece haber tenido cierto éxito: otras compañías de punta en IA, desde OpenAI hasta Google, han comenzado a adoptar políticas de publicación más graduales, a invertir en equipos de alineamiento y a tomarse en serio las evaluaciones de riesgo, en línea con lo que Anthropic propugna. “La manera en que lo veo, aquí todos ganan, insiste Dario sobre competir en buenas prácticas, reforzando su imagen de que no busca frenar el avance de los demás, sino elevar el estándar para todos.

La dedicación de Amodei a la IA, forjada en la tragedia de la pérdida de su padre, parece ahora estar más justificada que nunca y quizás cerca de ver sus frutos. Las inteligencias artificiales actuales ya están acelerando el descubrimiento científico en ciertos campos: ayudan a predecir cómo se pliegan proteínas, a sugerir composiciones de fármacos, a optimizar rutas logísticas y a brindar (con cautela) consejos médicos en sistemas saturados. Si las cosas salen bien, algún día no muy lejano podrían cumplir aquel sueño que Dario tuvo al dejar Princeton: “sustituir a esos cientos o miles de investigadores” y permitirnos entender y resolver problemas complejos, como la enfermedad que se llevó a su padre, de un modo que los humanos solos no podemos.

Por supuesto, persiste la pregunta de si la pasión de Amodei por esta visión podría volverlo ciego ante los riesgos de perder el control. Cuando se lo planteo, Dario refuta con firmeza la premisa: “No es así como lo pienso”, asegura. “Con cada modelo que sacamos hemos mejorado en controlarlo. Todas estas cosas pueden salir mal, pero tienes que stress-testear (poner a prueba) los modelos de forma bastante intensa«. Es decir, cuanto más avanzan, más aprenden a domarlos. Y al insinuar que su optimismo podría ser peligroso, Amodei lo atribuye a la misma actitud “catastrofista de frenar” que otros le achacan erróneamente. Su plan, lejos de frenar, es seguir pisando el acelerador con cuidado. “La razón por la que advierto sobre el riesgo es para no tener que reducir la velocidad”, afirma rotundo. Y es que, en el fondo, la urgencia de Dario Amodei por el progreso seguro de la IA proviene de una convicción profundamente personal. “Tengo una comprensión increíble de lo que está en juego. En términos de los beneficios, de lo que [la IA] puede hacer, de las vidas que puede salvar. Lo he visto personalmente«, confiesa, evocando sin decirlo aquella memoria de su padre. Esa es la verdadera forja de Dario Amodei: un líder marcado por la pérdida, impulsado por la esperanza y dispuesto a librar todas las batallas necesarias, técnicas, éticas y comerciales, para que la inteligencia artificial alcance su potencial más alto de la forma más segura.

¿Quieres saber más sobre las soluciones de inteligencia artificial generativa de Microsoft? En DQS/ te asesoramos. ¿Por qué no nos preguntas cómo podemos ayudarte?

Este artículo ha sido elaborado con información y citas de “The Making of Dario Amodei” publicado en Big Technology el 29 de julio de 2025, complementado con contexto adicional sobre la industria de IA.

Resume o comparte este contenido a través de:

Publicaciones Similares

¿Te ha parecido interesante? ¿Tienes dudas sobre el contenido?
Para cualquier pregunta ponte en contacto conmigo.