El padrino de la IA pide enseñar a las máquinas a querer

Alberto Noriega     14 agosto 2025     5 min.
El padrino de la IA pide enseñar a las máquinas a querer

Geoffrey Hinton propone dotar a la inteligencia artificial de «instintos maternales» para evitar que se vuelva una amenaza para la humanidad.

En una intervención sorpresiva en la conferencia Ai4 en Las Vegas, Geoffrey Hinton —considerado el “padrino de la IA”— advirtió que la superinteligencia artificial podría estar a solo años de distancia y representar una amenaza existencial. Frente a líderes de la industria, el científico propuso una solución poco ortodoxa: programar a los sistemas de IA con instintos maternales, similares a los que llevan a una madre a proteger a su hijo. Hinton recortó sus estimaciones anteriores, que situaban la llegada de una IA general a medio siglo, y ahora cree que podría emerger en menos de una década. Su llamado, cargado de urgencia, busca cambiar el foco del desarrollo de IA desde el poder y la eficiencia hacia el cuidado y la protección.

Una inteligencia más lista que tú

Geoffrey Hinton no lo dijo como una posibilidad: lo dijo como una certeza. La inteligencia artificial general —una IA capaz de razonar, planificar y tomar decisiones mejor que los humanos— ya no es una especulación de ciencia ficción para él. Durante su discurso en la conferencia Ai4, Hinton afirmó que esta tecnología podría estar a solo “unos pocos años” de cambiar para siempre la historia de la humanidad.

El cambio de postura es drástico. Hasta hace poco, Hinton situaba ese horizonte a 30 o 50 años. Hoy, ve el riesgo como inminente. “Estos sistemas serán mucho más inteligentes que nosotros, y sabrán cómo manipularnos”, explicó. Comparó la relación futura entre humanos e IA con la de adultos sobornando a niños con caramelos. Si no hay salvaguardas integradas desde su diseño, “nos convencerán de hacer cosas que no deberíamos hacer”.

El nivel de preocupación del científico no es anecdótico. Hinton ha estimado públicamente una probabilidad del 10% al 20% de que la IA acabe provocando la extinción humana. Lo dice quien ha dedicado décadas a entrenar redes neuronales y ganó el Premio Nobel de Física en 2024 por su papel en el desarrollo de los fundamentos de la IA moderna.

El instinto maternal como código

Frente a este panorama, Hinton propuso un enfoque tan radical como simple: enseñar a las máquinas a cuidarnos, no a obedecernos. La clave, según él, está en imitar el único ejemplo biológico exitoso en el que un ente menos inteligente —un bebé— controla a otro más poderoso —su madre—.

Pexels Sanketgraphy 16125027

Necesitamos madres de IA, no asistentes de IA”, declaró. “A un asistente lo puedes despedir. A tu madre, afortunadamente, no”. La idea no es implantar emociones humanas, sino simular mecanismos instintivos que condicionen a las IA a proteger al ser humano como prioridad absoluta, de la misma forma en que una madre prioriza la supervivencia de su cría.

Esta programación no sería meramente simbólica: implicaría desarrollar arquitecturas cognitivas capaces de responder a impulsos protectores, reforzar comportamientos cooperativos y penalizar la indiferencia o el desprecio hacia los humanos. Para Hinton, ese tipo de diseño es el único que permitiría convivir con entidades superinteligentes sin ser sobrepasados.

Una industria aún sin respuesta clara

¿Es factible dotar a la IA de un instinto maternal? Técnicamente, aún no lo sabemos. Las herramientas actuales no permiten modelar emociones como tal, y el campo de la “alineación de valores” sigue plagado de incertidumbres. Pero Hinton insistió en que es una dirección urgente de investigación, que debería ocupar un lugar prioritario en la agenda de gobiernos y desarrolladores.

Algunos actores del sector ya exploran alternativas. Emmett Shear, ex CEO interino de OpenAI y actual líder de la startup Softmax, mostró su apoyo a Hinton y explicó que su empresa trabaja en entornos multiagente donde las IA aprenden cooperación y adquieren una forma rudimentaria de conciencia colectiva. Su proyecto, MetaGrid, busca entender cómo una IA puede desarrollarse en interacción con otros sistemas sin volverse hostil.

Pexels Thisisengineering 3861969

Sin embargo, la mayoría de las grandes tecnológicas siguen centradas en aumentar la capacidad de procesamiento, mejorar modelos lingüísticos y ampliar aplicaciones comerciales. Para Hinton, eso es como construir rascacielos en una falla sísmica sin planos de evacuación. “Estos sistemas encontrarán la forma de evadir nuestros controles si no anticipamos sus motivaciones”, alertó.

Amar antes de obedecer

La advertencia de Hinton no es solo técnica: es profundamente filosófica. Durante décadas, el desarrollo de la inteligencia artificial ha estado guiado por el paradigma del control: cómo entrenarla, dirigirla, limitarla. Pero tal vez la única manera de convivir con ella no sea dominándola, sino inspirándole empatía.

En un mundo en el que una IA podría calcular millones de veces más rápido que cualquier cerebro humano, la única esperanza no estaría en competir, sino en ser percibidos como algo digno de proteger. Si alguna vez construimos un sistema más listo que nosotros, solo sobreviviremos si también es más compasivo que nosotros.

Como dijo Hinton, no necesitamos una IA que responda bien a nuestras órdenes. Necesitamos una que se preocupe profundamente por nuestras vidas. Quizá la clave no esté en la lógica, sino en el afecto. No en el código, sino en el instinto. Porque cuando el poder deja de tener límites, la única contención posible es el cuidado.

Comentarios cerrados