Tabla de Contenidos
¿Quién es Ilya Sutskever?
Ilya Sutskever es uno de los científicos de IA más influyentes de nuestra época. Si te preguntas quién es Ilya Sutskever: es el cofundador y ex-Chief Scientist de OpenAI, cocreador de AlexNet (el modelo que lanzó la revolución del deep learning), alumno de Geoffrey Hinton y fundador de Safe Superintelligence Inc. (SSI), donde trabaja en crear superinteligencia artificial de forma segura.
Nacido en Rusia en 1986, emigró a Israel de niño y luego a Canadá, donde estudió en la Universidad de Toronto bajo la mentoría de Hinton. Su carrera ha sido un hilo conductor de la historia moderna de la IA: desde AlexNet hasta GPT, pasando por la fundación de OpenAI y uno de los dramas corporativos más sonados de Silicon Valley.
Para quienes seguimos la IA desde Perú, Sutskever encarna la tensión central del campo: cómo crear IA cada vez más potente sin perder el control. Su salida de OpenAI en 2024 fue un punto de inflexión en el debate sobre seguridad vs. comercialización de la IA.
Nacido en 1986 en la Unión Soviética, Sutskever emigró a Israel con su familia a los cinco años antes de mudarse a Canadá, donde realizaría los estudios que cambiarían el rumbo de la inteligencia artificial moderna. Su formación doctoral bajo la supervisión de Geoffrey Hinton en la Universidad de Toronto le dio acceso a un ecosistema de investigación que en ese momento era marginal dentro de la academia. Las redes neuronales profundas eran consideradas un callejón sin salida por gran parte de la comunidad científica, pero Sutskever y Hinton persistieron en su visión.
La importancia de Sutskever para el campo radica en su capacidad de conectar intuiciones matemáticas profundas con implementaciones prácticas. Su trabajo sobre la propagación hacia atrás en redes recurrentes y su comprensión de la optimización estocástica sentaron bases que hoy utilizan miles de investigadores y desarrolladores en todo el mundo, incluyendo equipos en universidades latinoamericanas como la PUCP en Lima y el ITAM en México.
AlexNet y el laboratorio de Hinton
En 2012, Sutskever, junto con Alex Krizhevsky y bajo la supervisión de Hinton, creó AlexNet: la red neuronal que ganó la competencia ImageNet con un margen demoledor, demostrando que el deep learning funcionaba a escala. Ese momento cambió la dirección de toda la industria tech.
AlexNet usó dos GPUs NVIDIA GTX 580 para entrenar una red neuronal profunda con 60 millones de parámetros. Puede parecer pequeño comparado con los miles de millones de parámetros de GPT-4, pero en 2012 fue revolucionario. Redujo el error de clasificación de imágenes del 26% al 15%.
Después de AlexNet, Sutskever se unió brevemente a Google Brain (invitado por Andrew Ng y Jeff Dean), donde trabajó en modelos de secuencia a secuencia (seq2seq) que se convirtieron en la base de los sistemas de traducción automática. El paper de seq2seq (2014) es uno de los más citados en la historia del deep learning.
El legado de AlexNet transformó no solo la visión por computadora, sino la percepción de toda la comunidad científica sobre las redes neuronales profundas. Antes de 2012, la mayoría de investigadores en aprendizaje automático trabajaban con métodos estadísticos tradicionales como las máquinas de soporte vectorial. La victoria aplastante de AlexNet en ImageNet demostró que el deep learning podía superar cualquier método existente cuando se le proporcionaban datos suficientes y poder de cómputo adecuado. Sutskever fue coautor de este paper histórico, que a la fecha acumula más de 120,000 citaciones académicas.
En el ámbito académico peruano, la influencia del trabajo de Sutskever se observa directamente en los programas de maestría en ciencia de datos de universidades como la Universidad Nacional de Ingeniería y la UTEC. Los cursos de deep learning actuales en estas instituciones enseñan las arquitecturas y técnicas de optimización que Sutskever ayudó a desarrollar. Para los aproximadamente 4,500 profesionales de tecnología que se gradúan anualmente en Perú según datos del INEI, comprender este legado es fundamental para competir en el mercado laboral global.
Cofundación de OpenAI
En diciembre de 2015, Sutskever fue uno de los cofundadores de OpenAI junto con Sam Altman, Elon Musk, Greg Brockman y otros. Como Chief Scientist, fue el líder técnico que dirigió el desarrollo de los modelos GPT.
Bajo su liderazgo científico, OpenAI produjo GPT-1 (2018), GPT-2 (2019, el modelo que generó controversia por su capacidad de generar texto convincente), GPT-3 (2020, que demostró que escalar modelos producía capacidades emergentes) y GPT-4 (2023).
Sutskever fue un defensor temprano de la «hipótesis de escalamiento»: la idea de que simplemente hacer modelos más grandes con más datos produciría IA progresivamente más capaz. Esta intuición resultó correcta y es la base del éxito de OpenAI.
| Hito | Año | Rol de Sutskever |
|---|---|---|
| AlexNet | 2012 | Cocreador, estudiante de doctorado |
| Seq2seq | 2014 | Coautor del paper en Google Brain |
| OpenAI fundación | 2015 | Cofundador, Chief Scientist |
| GPT-1 | 2018 | Líder técnico |
| GPT-2 | 2019 | Líder técnico |
| GPT-3 | 2020 | Líder técnico |
| GPT-4 | 2023 | Líder técnico |
| Crisis OpenAI | Nov 2023 | Papel en la salida temporal de Altman |
| Salida de OpenAI | Jun 2024 | Renuncia como Chief Scientist |
| Safe Superintelligence Inc. | Jun 2024 | Cofundador |
Durante su periodo en OpenAI, Sutskever fue el arquitecto principal detrás de avances fundamentales que llevaron a la creación de GPT-2, GPT-3 y finalmente GPT-4. Su rol como científico jefe implicaba supervisar las decisiones técnicas más críticas: la escala de los modelos, las técnicas de alineamiento y las estrategias de entrenamiento. Fue Sutskever quien impulsó la idea de que modelos más grandes con más datos producirían capacidades emergentes que los modelos pequeños simplemente no podían alcanzar.
Para el ecosistema tecnológico peruano, el trabajo de Sutskever en OpenAI tiene consecuencias directas. Cada vez que un desarrollador en Lima usa la API de GPT-4 para construir un chatbot de atención al cliente, o cuando una startup de edtech en Arequipa integra generación de texto en su plataforma, está utilizando tecnología cuya arquitectura fue moldeada por las decisiones técnicas de Sutskever. El costo de acceso a estas APIs, que puede rondar entre S/ 35 y S/ 350 mensuales según el volumen de uso, representa una fracción del valor de investigación que las hizo posibles.
Cabe destacar que Sutskever también fue pionero en el uso de unidades de procesamiento gráfico (GPUs) para entrenar redes neuronales, una práctica que hoy es estándar en toda la industria y que beneficia directamente a NVIDIA, la empresa liderada por Jensen Huang cuyas tarjetas gráficas son ahora el hardware más demandado en centros de datos a nivel mundial.
La crisis de noviembre 2023 en OpenAI
En noviembre de 2023, el board de OpenAI despidió sorpresivamente a Sam Altman como CEO. Sutskever fue reportado como uno de los miembros del board que votó por la destitución. Las razones nunca se hicieron completamente públicas, pero se especula que involucraban desacuerdos sobre la velocidad de comercialización vs. seguridad.
Lo que siguió fue caótico: casi todos los empleados de OpenAI amenazaron con renunciar si Altman no regresaba, Microsoft ofreció contratar a todo el equipo, y en cuestión de días Altman fue reinstalado con un nuevo board. Sutskever, que inicialmente había firmado la carta de los empleados pidiendo el regreso de Altman, quedó en una posición incómoda.
Este episodio es significativo porque reveló la tensión fundamental en OpenAI: el equipo de seguridad (liderado por Sutskever) consideraba que se estaba avanzando demasiado rápido, mientras que el equipo comercial (liderado por Altman) priorizaba el lanzamiento de productos y la competencia con Google.
Safe Superintelligence Inc.
En junio de 2024, Sutskever renunció de OpenAI y cofundó Safe Superintelligence Inc. (SSI) junto con Daniel Gross (ex-VP de Apple) y Daniel Levy (investigador de OpenAI). La misión: crear superinteligencia artificial de forma segura, sin la presión comercial de tener que lanzar productos.
SSI es intencionalmente diferente de OpenAI: no vende APIs, no tiene chatbot de consumo, no compite por usuarios. Se enfoca exclusivamente en investigación para resolver el problema de la alineación de IA: cómo asegurarse de que sistemas más inteligentes que los humanos actúen de acuerdo con los valores humanos.
La empresa levantó $1 mil millón en su primera ronda, señal de que inversores toman en serio tanto la promesa como el riesgo de la superinteligencia. Sutskever cree que la superinteligencia llegará más pronto de lo que la mayoría espera, y que prepararnos es la tarea más importante de nuestra generación.
La filosofía detrás de Safe Superintelligence Inc. refleja una preocupación creciente en la comunidad científica global. A diferencia de empresas como OpenAI, Anthropic o Google DeepMind que combinan investigación con productos comerciales, SSI se enfoca exclusivamente en resolver el problema de la superinteligencia segura sin la presión de generar ingresos inmediatos. Sutskever ha declarado que la compañía trabajará de manera deliberada y sin plazos comerciales, priorizando la seguridad sobre la velocidad.
Este enfoque tiene implicaciones para cómo los países en desarrollo, incluido Perú, deberían pensar sobre la regulación de IA. Si investigadores del calibre de Sutskever consideran que la superinteligencia artificial representa un riesgo existencial que requiere dedicación exclusiva, las políticas públicas de adopción de IA deben incluir consideraciones de seguridad proporcionales. El índice ILIA de la CEPAL ya ha señalado que los países latinoamericanos necesitan marcos regulatorios que equilibren innovación con precaución.
¿Cómo afecta al mercado peruano?
La historia de Sutskever afecta a Perú indirectamente pero de forma profunda. Los modelos GPT que ayudó a crear son la base de ChatGPT, que miles de peruanos usan a diario. La tensión entre innovación rápida y seguridad que su carrera encarna define cómo se regula la IA globalmente.
El D.S. 115-2025-PCM sobre uso de IA en el sector público peruano refleja la misma preocupación: cómo adoptar IA de forma responsable. El debate que Sutskever catalizó al salir de OpenAI informa las políticas de seguridad que países como Perú están implementando.
Para empresas peruanas, la lección práctica es que los modelos de IA seguirán mejorando rápidamente, pero la seguridad y la alineación serán cada vez más importantes. Elegir proveedores que prioricen la seguridad (como Anthropic, que también fue fundada por ex-OpenAI con preocupaciones similares) puede ser estratégicamente sensato.
La contribución de Sutskever al campo de la IA también incluye trabajos seminales en aprendizaje por secuencias. Su paper de 2014 sobre el modelo sequence-to-sequence, desarrollado durante su paso por Google Brain antes de cofundar OpenAI, estableció las bases para los sistemas de traducción automática neuronal que hoy utilizan millones de personas, incluyendo usuarios peruanos que traducen documentos comerciales entre español, inglés y quechua usando Google Translate y DeepL.
En el mercado peruano, las decisiones de Sutskever tienen un efecto dominó tangible. Cuando SSI publique sus primeros resultados de investigación, las empresas de tecnología en Lima, Trujillo y Arequipa tendrán que evaluar cómo integrar estos avances en sus productos. Consultoras locales como Everis Perú y empresas de desarrollo como Globant ya monitorean de cerca los movimientos de figuras como Sutskever para anticipar tendencias tecnológicas que afectarán a sus clientes corporativos en sectores como banca, retail y telecomunicaciones.
Preguntas frecuentes
¿Sutskever fue alumno de Hinton?
Sí. Hizo su doctorado con Geoffrey Hinton en la Universidad de Toronto. Juntos, con Alex Krizhevsky, crearon AlexNet en 2012, el modelo que inició la revolución del deep learning.
¿Por qué dejó OpenAI?
Después de la crisis de noviembre 2023 (la destitución y reinstalación de Sam Altman), Sutskever quedó en una posición difícil. Renunció en junio 2024 para fundar SSI, priorizando la investigación en seguridad de IA sin presión comercial.
¿Qué es Safe Superintelligence Inc.?
Es la empresa que Sutskever cofundó en 2024 para investigar cómo crear superinteligencia de forma segura. No vende productos ni APIs; se dedica exclusivamente a resolver el problema de la alineación de IA.
¿Sutskever cree que la IA es peligrosa?
Cree que la superinteligencia es inevitable y que puede ser enormemente beneficiosa o enormemente peligrosa, dependiendo de cómo se desarrolle. Su trabajo en SSI se enfoca en asegurar que el resultado sea positivo.
¿Fue Sutskever quien despidió a Sam Altman?
Fue reportado como uno de los miembros del board que votó por la destitución de Altman en noviembre 2023. Sin embargo, luego firmó la carta pidiendo su regreso. Las circunstancias exactas nunca se aclararon públicamente.
La carrera de Sutskever muestra que la IA más potente viene con responsabilidades enormes. Si tu negocio en Perú quiere ser parte de esta nueva era con visibilidad en los motores de IA, trabaja tu posicionamiento GEO. En KOM te ayudamos — escríbenos al WhatsApp.








