La ética se ocupa de los principios morales que gobiernan el comportamiento de una persona y la manera en que actúa. En la mayoría de civilizaciones, la ética ha ido muy ligada a las diferentes religiones, que dan pautas de comportamiento a sus fieles y prescriben lo que está bien y lo que está mal.
En la civilización occidental, existe también una ética filosófica, al menos desde Platón y de Aristóteles, que propusieron la ética de la virtud, la cual influyó en la ética cristiana. La felicidad en el sentido de la vida buena se asocia a la práctica de las virtudes (sabiduría, entendimiento, coraje, templanza y justicia). Ya en el siglo XVIII, Kant propuso una ética del deber, basada en el principio racional del imperativo categórico: para saber si una acción es buena, imagínate que la hace todo el mundo; si el resultado es bueno, la acción es buena; de lo contrario, no lo es. La ética utilitarista fue propuesta por Mill en el siglo XIX. Una acción es más o menos buena según su grado de utilidad, es decir, según la "cantidad total" de felicidad que genera, en el sentido de bienestar para el mayor número. En el siglo XX, Habermas y Apel critican el individualismo de la ética de Kant y de las éticas precedentes y formulan la ética del discurso. Proponen que se discuta en el marco de la comunidad social lo que es bueno y es necesario hacer. Nuestras sociedades democráticas funcionan bastante según la ética del discurso: el divorcio, el aborto o la eutanasia han pasado a verse bien porque así lo ha considerado una mayoría social o política. Sin embargo, los propios proponentes de esta ética reconocieron que hay principios morales que deben quedar fuera del debate: por ejemplo, exterminar a una minoría dentro de un estado es incorrecto por mucho que la mayoría social lo vea bien (recordemos el Holocausto o Gaza).
En nuestra época, las redes sociales han puesto de manifiesto una nueva limitación de la ética del discurso. En vez de un debate que implique a todo el cuerpo social (de un país o de un territorio), hay un montón de debates paralelos en pequeñas comunidades o burbujas cada una de las cuales discute y acuerda por su cuenta lo bueno y lo malo. Esto aumenta la polarización ética hasta niveles que ya no pueden estar representados por el juego democrático de los partidos políticos. La tolerancia y, por qué no decirlo, el relativismo moral imperante (cada uno tiene su verdad, etc.) han servido para ir tirando, de momento. Ahora bien, sin unos consensos básicos sobre lo que está bien y lo que está mal, la sociedad se vuelve inestable.
Por si aclararnos entre los humanos no fuera lo suficientemente complicado, la inteligencia artificial (IA) convierte en aún más agudo el reto ético. ¿Cómo podemos enseñarles a las máquinas algo en lo que no nos ponemos de acuerdo? Recientemente, Geoffrey Hinton, premio Nobel y uno de los padres de la IA actual, alerta de que la IA puede acabar con la humanidad si no se regula urgente y adecuadamente. Hay que encontrar una ética no solo aceptable para todos los humanos, sino también lo suficientemente clara, operativa y global como para poder implantarla en la IA avanzada –que gobierna los chatbots (como el ChatGPT y otros), los robots, los coches autónomos, el armamento autónomo letal, el control de la desinformación, etc.– y en la cada vez más verosímil superinteligencia artificial –una inteligencia artificial general que sobrepasaría la de los humanos más brillantes.
¿Cómo lo tenemos? La buena noticia es que existe conciencia del problema. La mala noticia es que han proliferado los códigos éticos que se ignoran mutuamente y que son bastante genéricos y difíciles de implantar en el código informático. Floridi y Cowls propusieron cinco principios bastante conocidos: beneficencia (hacer el bien), no maleficencia (no hacer el mal), autonomía, justicia y explicabilidad. En cambio, las recomendaciones de la UE para una IA confiable proponen siete principios distintos: agencia humana y supervisión, robustez y seguridad, privacidad, transparencia, no discriminación y equidad, bienestar social y ambiental, y responsabilidad. Y todavía hay muchas otras organizaciones que han propuesto sus principios, incluyendo la OCDE, la Unesco y el IEEE. Si no fuera porque el tema es serio, recordaría el gag de Groucho Marx: "Estos son mis principios; si no le gustan, tengo otros". En el terreno legal, la UE es el único gran bloque que ha regulado la IA para proteger al ciudadano, mientras que Estados Unidos y China, mucho más fuertes tecnológicamente, se han abstenido de ello. Como resultado, los principios éticos de la IA que impulsan las grandes compañías estadounidenses y chinas son tan brumosos y "marxistas" (de Groucho) como los que nos guían a los humanos. Una buena vía sería recuperar el consenso regulador sobre la IA responsable que existía entre la UE y Estados Unidos durante la presidencia Biden, y luchar por añadir a China, sobre la base de una ética global como la Weltethos promovida por Hans Küng y sus discípulos.