Harari, la ética de la IA y la mirada budista: deontología, utilitarismo y compasión en diálogo

Estoy leyendo el último libro de Yuval Noah Harari, Nexus: Una breve historia de las redes de información desde la Edad de Piedra hasta la IA. En él, Harari explora cómo la información ha tejido la historia humana y cómo la irrupción de la inteligencia artificial abre un capítulo sin precedentes. Entre sus reflexiones, dedica un espacio a un asunto que como budista me parece clave: qué principios éticos deberían guiar a la IA. Este texto no es un resumen del libro, sino un diálogo con sus propuestas desde la práctica del budismo soto zen.

Harari menciona dos grandes corrientes que han marcado la filosofía moral occidental: la deontología y el utilitarismo. A partir de ahí, advierte de sus límites y propone un marco más flexible. Aquí intento explicar esos enfoques con ejemplos sencillos y ponerlos en conversación con la ética budista, para ver semejanzas, diferencias y, sobre todo, qué puede servirnos hoy al diseñar y usar sistemas de IA.

Deontología: el deber por encima de todo

La deontología, cuyo representante más conocido es Immanuel Kant, parte de la idea de que existen principios morales universales que deben cumplirse siempre, sin importar las consecuencias. Dicho simple: hay cosas que están mal, «pase lo que pase». Ejemplos clásicos son «no matarás» o «no mentirás». En la vida diaria, se parece a respetar un semáforo en rojo, aunque la calle esté vacía: la norma protege algo valioso y no depende de cómo te sientas hoy.

Trasladado a la IA, esto implicaría programar sistemas con reglas fijas. Por ejemplo: un asistente que nunca invente datos (no mentir), un vehículo autónomo que nunca exceda la velocidad, o un algoritmo médico que nunca comparta información sensible. La ventaja es la claridad: sabemos a qué atenernos. El riesgo es la rigidez: el mundo es cambiante, y una regla absoluta puede chocar con situaciones límite. ¿Qué pasa si «no mentir» expone a alguien a un daño grave? ¿O si respetar una regla al pie de la letra empeora un problema en vez de aliviarlo?

Harari advierte que esta rigidez puede causar efectos no deseados. Un sistema que actúa sin considerar el contexto corre el riesgo de hacer daño por obedecer demasiado bien. En ética, la intención importa, pero también el resultado y la situación concreta.

Utilitarismo: el bien medido en resultados

El utilitarismo mide lo correcto por sus consecuencias: la acción buena es la que produce el mayor beneficio para el mayor número de personas. En la vida diaria, lo reconocemos cuando alguien dice: «no es ideal, pero es lo mejor para la mayoría». Trasladado a la IA, imaginaríamos algoritmos que calculan cómo maximizar el bienestar global: asignar recursos sanitarios, organizar el tráfico, o priorizar contenidos educativos que más ayuden.

Su fuerza es la practicidad y la mirada a gran escala. Su sombra es que, si solo importa el resultado agregado, podemos justificar medios dañinos, sacrificar a minorías o ignorar valores como la justicia o la dignidad. Una IA obsesionada con «la eficiencia» podría tomar decisiones frías y deshumanizadas, aunque mejore algunas estadísticas. El marco que propone Harari

En Nexus, Harari no se queda con una sola postura. Propone un enfoque combinado que incluya, al menos, tres elementos:

La idea de fondo es que ninguna ética por sí sola basta para la complejidad de un mundo donde también deciden inteligencias no humanas. Necesitamos una aproximación híbrida, adaptativa y vigilada.

La ética budista: contexto, intención y despertar

¿Qué puede aportar el budismo en este sentido? Desde mi punto de vista ofrece un marco que, sin coincidir exactamente con deontología o utilitarismo, recoge aspectos de ambas dentro de una visión distinta. Tres claves:

Ejemplos cotidianos

Vehículos autónomos. La deontología diría «no exceder la velocidad, nunca». El utilitarismo podría permitir excepciones si eso reduce accidentes en conjunto. La mirada budista añadiría: ¿qué intención guía al sistema? ¿Busca genuinamente no dañar y cuidar? ¿Cómo pondera riesgos para personas vulnerables, peatones, ciclistas y menores, en contextos reales, no ideales?

Diagnóstico médico con IA. Un enfoque utilitarista prioriza aumentar aciertos globales; el deontológico insiste en no violar la confidencialidad. La ética budista recuerda que la relación clínica es también un vínculo humano: transparencia, posibilidad de decir «no sé» y derivar, y atención especial a quienes pueden quedar fuera del «promedio» (enfermedades raras, minorías no representadas en los datos).

Moderación de contenidos. Maximizar «bienestar medio» podría silenciar voces minoritarias para evitar conflictos. Un enfoque budista invitaría a proteger la dignidad y crear espacios de diálogo, con reglas claras y aplicadas, con sensibilidad al contexto, además de rendición de cuentas ante la comunidad.

Educación. Un tutor virtual puede optimizar resultados de exámenes, pero ¿qué pasa con la curiosidad, la paciencia o la confianza del alumnado? La benevolencia activa pide que la IA cuide no solo el rendimiento inmediato, sino el bienestar profundo y el aprendizaje significativo a largo plazo.

Principios operativos para una IA compasiva y prudente

No basta con bellas palabras; hacen falta guías prácticas. Propongo esta síntesis inspirada por Harari y por la ética budista:

Un diálogo posible

Si aplicamos esta mirada al problema que plantea Harari, podríamos decir que la deontología aporta claridad de principios, pero necesita flexibilidad; el utilitarismo aporta atención a resultados, pero necesita cuidar los medios y las motivaciones; y la ética budista propone sostener juntas las tres dimensiones, principios, consecuencias e intenciones, orientadas a la disminución del sufrimiento.

Un sistema de IA inspirado en este espíritu no solo seguiría normas ni solo optimizaría métricas: leería el contexto, cuidaría la intención detrás de cada decisión y priorizaría el bienestar profundo, no solo la satisfacción inmediata. No se trata de máquinas «buenas» por decreto, sino de tecnologías inscritas en comunidades que practican la responsabilidad, la transparencia y el cuidado.


La IA no será mejor que las comunidades que la desarrollan. Si creamos marcos donde la verdad se contrasta, el poder rinde cuentas y el error se repara, la técnica puede ponerse al servicio de la dignidad. Esto se resume en un compromiso práctico: reducir el daño, cuidar a quienes quedan fuera del promedio y aprender juntos a cada paso.

No programamos solo código: nos programamos a nosotros y nosotras cada vez que elegimos cómo usarlo. Cuando una mente sabe parar, escuchar y cuidar, la tecnología se vuelve un medio hábil, no un obstáculo. Mirar el sufrimiento de frente y responder de la manera más adecuada posible en cada situación, es una ética que necesitamos aplicar también a la IA.


Daizan Soriano

www.daizansoriano.com

Comunidad Soto Zen Camino Medio.