Tabla de Contenidos
¿Quién es Geoffrey Hinton?
Geoffrey Hinton es el científico británico-canadiense conocido como el «padrino del deep learning» y ganador del Premio Nobel de Física 2024. Si te preguntas quién es Geoffrey Hinton y por qué importa: es la persona cuyo trabajo científico hizo posible ChatGPT, los filtros de Instagram, los autos autónomos y prácticamente toda la inteligencia artificial que usamos hoy.
Nacido en Londres en 1947 en una familia de científicos (es bisnieto del matemático George Boole, creador del álgebra booleana), Hinton dedicó más de cuatro décadas a demostrar que las redes neuronales artificiales podían funcionar, en una época en que la mayoría de la comunidad científica las consideraba un callejón sin salida.
Su historia es relevante para el ecosistema tech global porque sin Hinton no existiría la revolución de IA que estamos viviendo. Y su decisión de renunciar a Google en 2023 para advertir públicamente sobre los riesgos de la IA lo convirtió en la voz más influyente del debate sobre seguridad en inteligencia artificial.
Nacido en Londres en 1947 en una familia de científicos distinguidos, Hinton creció rodeado de curiosidad intelectual. Su bisabuelo fue George Boole, el matemático cuya álgebra booleana es la base de toda la computación digital moderna. Esta herencia científica influyó profundamente en su decisión de explorar cómo las máquinas podrían emular los procesos de aprendizaje del cerebro humano, una obsesión que mantuvo durante décadas incluso cuando la comunidad académica consideraba las redes neuronales un callejón sin salida.
Hinton estudió psicología experimental en Cambridge y obtuvo su doctorado en inteligencia artificial en la Universidad de Edimburgo en 1978. Su formación en psicología le dio una perspectiva única sobre el aprendizaje automático: mientras que otros investigadores se enfocaban en la optimización matemática pura, Hinton siempre buscó inspiración en cómo el cerebro humano procesa información, una intuición que resultó ser extraordinariamente fértil para el campo.
Los inicios: backpropagation y los años oscuros
Hinton estudió psicología experimental en Cambridge y luego hizo su doctorado en IA en la Universidad de Edimburgo en los años 70. En esa época, la IA basada en redes neuronales estaba prácticamente abandonada por la academia. El consenso era que los métodos simbólicos (reglas lógicas programadas a mano) eran el camino correcto.
En 1986, Hinton, junto con David Rumelhart y Ronald Williams, publicó el paper que popularizó el algoritmo de backpropagation (retropropagación). Este algoritmo permite entrenar redes neuronales multicapa ajustando los pesos de las conexiones desde la salida hacia la entrada. Es el mecanismo fundamental que hace posible que las redes aprendan de datos.
Backpropagation no era nuevo (había versiones anteriores), pero el paper de 1986 demostró que funcionaba en la práctica y podía resolver problemas reales. Aun así, la comunidad de IA siguió escéptica durante décadas. Hinton pasó años siendo una voz en el desierto, investigando redes neuronales mientras la mayoría del campo trabajaba en otros enfoques.
En la Universidad de Toronto, donde se estableció en 1987, Hinton formó un laboratorio que se convirtió en cuna de talentos: Ilya Sutskever (cofundador de OpenAI), Yann LeCun (jefe de IA de Meta) y otros investigadores que luego liderarían la revolución del deep learning.
El laboratorio de Hinton en la Universidad de Toronto se convirtió en la cuna del deep learning moderno. Durante más de tres décadas, formó a investigadores que luego liderarían los equipos de IA más importantes del mundo. Su estilo de mentoría, que combinaba rigor matemático con intuición creativa, produjo una generación de científicos que no solo avanzaron la teoría sino que construyeron las aplicaciones prácticas que hoy usamos a diario. La influencia de este laboratorio se extiende a prácticamente todas las grandes empresas de tecnología y a cientos de startups de IA alrededor del mundo.
AlexNet 2012: el punto de inflexión
El momento que cambió todo fue septiembre de 2012, cuando dos estudiantes de Hinton —Alex Krizhevsky y Ilya Sutskever— ganaron la competencia ImageNet con AlexNet, una red neuronal profunda que clasificaba imágenes con una precisión sin precedentes.
AlexNet no solo ganó: aplastó a la competencia. Redujo el error de clasificación del 26% al 15%, un salto enorme en un campo donde las mejoras se medían en fracciones de porcentaje. La clave fue usar GPUs (tarjetas gráficas de NVIDIA) para entrenar redes neuronales profundas, algo que nadie había hecho a esa escala.
Ese resultado convenció a la industria tech de que el deep learning funcionaba. Google, Facebook y Microsoft empezaron a contratar investigadores de redes neuronales. En 2013, Google adquirió DNNresearch, la startup de Hinton, y él se unió a Google Brain como investigador. Fue el inicio de la era del deep learning.
Para el ILIA 2025 de CEPAL, que ubica a Perú en el puesto 7 de 19 en adopción de IA, el legado de AlexNet es directo: toda la IA que las empresas peruanas usan hoy tiene su raíz en ese momento de 2012.
El impacto de AlexNet se extendió mucho más allá de la competencia ImageNet. La victoria demostró de manera incontrovertible que las redes neuronales profundas, entrenadas con GPUs y grandes cantidades de datos, podían superar cualquier método tradicional de visión por computadora. En los meses siguientes, laboratorios de investigación y empresas de todo el mundo redirigieron sus esfuerzos hacia el deep learning, iniciando una revolución tecnológica que continúa acelerándose.
Para el ecosistema tecnológico latinoamericano, incluyendo Perú, AlexNet marcó un punto de inflexión en la orientación de los programas académicos. Universidades como la UNI y la PUCP comenzaron a incorporar cursos de deep learning y redes neuronales en sus programas de ingeniería informática, formando la primera generación de investigadores peruanos especializados en esta tecnología. Hoy, esos profesionales trabajan en empresas locales e internacionales aplicando técnicas que se remontan directamente al trabajo de Hinton y sus estudiantes.
De Google a activista por la seguridad de la IA
Hinton trabajó en Google Brain desde 2013 hasta 2023, contribuyendo a avances en modelos de lenguaje, visión por computadora y la arquitectura Transformer (la base de GPT y todos los LLMs modernos).
En mayo de 2023, Hinton renunció a Google para poder hablar libremente sobre los riesgos de la inteligencia artificial. Su decisión generó un impacto mediático enorme: si el «padrino del deep learning» advierte que su propia creación puede ser peligrosa, ¿no deberíamos prestar atención?
Las preocupaciones de Hinton son específicas: la posibilidad de que sistemas de IA superen la inteligencia humana en un futuro cercano, el riesgo de que sean usados para desinformación masiva, manipulación política y armas autónomas, y la dificultad de controlar sistemas cuya toma de decisiones no entendemos completamente.
No es un tecnófobo: Hinton cree que la IA tiene un potencial enorme para el bien (medicina, ciencia, educación). Pero argumenta que la velocidad de desarrollo supera nuestra capacidad de establecer marcos de seguridad adecuados. Desde su renuncia, dedica su tiempo a promover regulación y conciencia sobre estos riesgos.
Nobel de Física 2024
En octubre de 2024, la Real Academia de Ciencias de Suecia otorgó el Premio Nobel de Física a Geoffrey Hinton y John Hopfield por sus «descubrimientos fundamentales y invenciones que posibilitan el aprendizaje automático con redes neuronales artificiales».
Hopfield desarrolló las redes de Hopfield (memoria asociativa basada en principios de física estadística) en 1982. Hinton expandió ese trabajo con las máquinas de Boltzmann y posteriormente con backpropagation y deep learning. El Nobel reconoció que estos avances, inspirados en la física estadística, transformaron la ciencia y la tecnología.
Lo notable de 2024 es que se otorgaron dos Nobel con conexión a la IA: Hinton ganó el de Física y Demis Hassabis (de Google DeepMind) ganó el de Química por AlphaFold. Dos Nobel para la IA en un solo año no tiene precedente.
| Hito | Año | Importancia |
|---|---|---|
| Paper de backpropagation | 1986 | Algoritmo fundamental del deep learning |
| Máquinas de Boltzmann | 1985 | Redes neuronales generativas pioneras |
| AlexNet (con estudiantes) | 2012 | Demostración de deep learning + GPU |
| Google Brain | 2013-2023 | 10 años en la vanguardia de Google |
| Renuncia a Google | May 2023 | Activismo por seguridad de IA |
| Nobel de Física | Oct 2024 | Reconocimiento máximo a su trayectoria |
El Nobel reconoció que las redes neuronales artificiales, inspiradas en el funcionamiento del cerebro biológico, habían trascendido su origen en las ciencias de la computación para convertirse en herramientas fundamentales de la física. Los algoritmos de machine learning desarrollados por Hinton y Hopfield se utilizan hoy para descubrir nuevos materiales, simular interacciones moleculares y analizar datos de colisionadores de partículas, aplicaciones que son relevantes para la investigación científica en universidades peruanas que colaboran con proyectos internacionales de física experimental.
Sus alumnos que cambiaron la IA
| Alumno | Contribución principal | Posición |
|---|---|---|
| Ilya Sutskever | Cofundador OpenAI, AlexNet | Cofundador Safe Superintelligence Inc. |
| Yann LeCun | Redes convolucionales, reconocimiento de imágenes | Chief AI Scientist, Meta |
| Alex Krizhevsky | AlexNet | Investigador independiente |
| Ruslan Salakhutdinov | Aprendizaje profundo probabilístico | Ex-Director de IA, Apple |
La influencia de Hinton no es solo a través de sus papers sino a través de sus estudiantes. Prácticamente todos los líderes de IA del mundo tienen conexión directa o indirecta con su laboratorio en Toronto.
Entre sus estudiantes más destacados se encuentran Ilya Sutskever, cofundador de OpenAI y ahora líder de Safe Superintelligence Inc.; Yann LeCun, científico jefe de IA en Meta y coinventor de las redes convolucionales; y muchos otros que ocupan posiciones de liderazgo en Google DeepMind, Apple, NVIDIA y startups de IA valoradas en miles de millones de dólares. Esta red de exalumnos constituye una de las redes profesionales más influyentes de la historia de la tecnología.
Para el mercado peruano, la red de exalumnos de Hinton tiene un efecto multiplicador indirecto pero significativo. Cada vez que uno de sus exestudiantes toma una decisión sobre la dirección de la investigación en Google, Meta u OpenAI, esa decisión eventualmente se traduce en productos y APIs que utilizan desarrolladores y empresas en Lima, Arequipa y Trujillo. Las herramientas de IA que hoy están transformando sectores como fintech, edtech y salud digital en Perú tienen su origen intelectual en el laboratorio de Toronto donde Hinton formó a la generación que construyó esta tecnología.
A sus 78 años, Hinton sigue siendo una voz activa y escuchada en los debates sobre el futuro de la inteligencia artificial. Su perspectiva única como creador que ahora advierte sobre su propia creación le otorga una credibilidad que pocos otros investigadores poseen. Para los formuladores de políticas públicas en Perú y América Latina, las advertencias de Hinton refuerzan la necesidad de marcos regulatorios como el D.S. 115-2025-PCM que promuevan la innovación responsable sin ignorar los riesgos potenciales de una tecnología que, según el propio Hinton, podría ser más transformadora que la electricidad o internet.
Su trabajo también inspiró la creación del Vector Institute en Toronto, un centro de investigación en IA que Hinton cofundó y que se ha convertido en un modelo para iniciativas similares en otros países que buscan desarrollar ecosistemas de inteligencia artificial competitivos a nivel global.
Preguntas frecuentes
¿Por qué Hinton ganó el Nobel de Física?
Porque sus redes neuronales se basan en principios de física estadística (distribuciones de Boltzmann, energía libre). El Nobel reconoció que estos conceptos de física revolucionaron la informática y la ciencia en general.
¿Por qué renunció a Google?
Para poder advertir públicamente sobre los riesgos de la IA sin restricciones corporativas. Desde su renuncia en mayo 2023, dedica su tiempo a promover regulación y conciencia sobre seguridad en inteligencia artificial.
¿Qué inventó Geoffrey Hinton?
Popularizó backpropagation (el algoritmo que permite entrenar redes neuronales), creó las máquinas de Boltzmann y supervisó el desarrollo de AlexNet, que demostró que el deep learning funciona a escala.
¿Hinton teme a la IA?
No teme a la IA actual sino a lo que viene. Cree que sistemas de IA podrían superar la inteligencia humana pronto y que no tenemos mecanismos adecuados para controlarlos. Aboga por regulación preventiva, no por detener el desarrollo.
¿Ilya Sutskever fue alumno de Hinton?
Sí. Sutskever hizo su doctorado con Hinton en Toronto, codesarrolló AlexNet y luego cofundó OpenAI. En 2024 dejó OpenAI para fundar Safe Superintelligence Inc., alineándose con las preocupaciones de seguridad de su mentor.
La historia de Hinton muestra que la IA que usamos hoy tiene raíces profundas en décadas de investigación. Si quieres que tu negocio en Perú sea parte de este futuro y aparezca en los motores de IA, trabaja tu posicionamiento GEO. En KOM te ayudamos — escríbenos al WhatsApp.








