30/01/2025

«Antiqua et Nova», en 11 puntos: nueva Nota del Papa para afrontar la Inteligencia Artificial

Los Dicasterios para la Doctrina de la Fe y para la Cultura y la Educación del Vaticano acaban de publicar Antiqua et Nova, una nota sobre la relación entre Inteligencia Artificial y la Inteligencia Humana. Consulta la Nota completa en este enlace

El texto analiza el potencial de este «producto de nuestra inteligencia» en ámbitos como el de la educación, la economía, el trabajo, la salud, las relaciones humanas e internacionales o las guerras. El portal Vatican News ha analizado algunos de estos puntos. 

El documento está dirigido a quienes están llamados a educar y transmitir la fe, pero también a quienes comparten la necesidad de un desarrollo científico y tecnológico «al servicio de la persona y del bien común». En 117 párrafos, Antiqua et Nova pone de relieve los retos y las oportunidades del desarrollo de la Inteligencia Artificial (IA).

1-Peligros y avances

El documento enumera los peligros de la IA, pero también los avances, que alienta como «parte de la colaboración» del hombre con Dios [2]. Sin embargo, no oculta la preocupación que conlleva toda innovación cuyos efectos son aún imprevisibles.

2-Distinción entre IA e inteligencia humana

Varios párrafos de la Nota están dedicados a la distinción entre IA e inteligencia humana. «Engañoso», se lee, es utilizar la propia palabra «inteligencia» para referirse a la IA: no es «una forma artificial de inteligencia», sino «uno de sus productos» [35]. Y como cualquier producto del ingenio humano, la IA también puede orientarse hacia «fines positivos o negativos». En efecto, la inteligencia artificial puede introducir «innovaciones importantes» [48], pero también corre el riesgo de agravar situaciones de discriminación, pobreza, brecha digital, desigualdades sociales [52].

Plantea «preocupaciones éticas» el hecho de que «la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas empresas poderosas» [53], de modo que esta tecnología acaba siendo manipulada para «beneficio personal o corporativo» [53].

3-Guerra

En referencia a la guerra, se subraya que los sistemas de armas autónomas y letales capaces de «identificar y atacar objetivos sin intervención humana directa» [100] son un «serio motivo de preocupación ética». De hecho, el Papa pidió que se prohibiera su uso, ya que suponen una amenaza real para «la supervivencia de la humanidad o de regiones enteras» [101].

Estas tecnologías «confieren a la guerra un poder destructivo incontrolable, que afecta a muchos civiles inocentes, sin perdonar ni siquiera a los niños«, denunció Antiqua et Nova.  

4-Relaciones humanas

En cuanto a las relaciones humanas, el documento señala que la IA puede conducir a un «aislamiento perjudicial» [58], que «la antropomorfización de la IA» plantea problemas para el crecimiento de los niños [60] y que representar a la IA como una persona es «una grave violación ética» si se utiliza con fines fraudulentos. Del mismo modo que utilizar la IA para engañar en contextos como la educación, las relaciones, la sexualidad, es «poco ético y requiere una cuidadosa vigilancia» [62].

5-Economía y trabajo

La misma vigilancia se impone en el ámbito económico-financiero. En particular, en el ámbito laboral se señala que, mientras que, por un lado, la IA tiene «potencial» para aumentar las competencias y la productividad, por otro, puede «desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a funciones rígidas y repetitivas» [67].

6-Salud

Se dedica un amplio espacio a la cuestión de la sanidad. Recordando el enorme potencial de diversas aplicaciones en el ámbito médico, se advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de «empeorar» la soledad que suele acompañar a la enfermedad. También se advierte del peligro de reforzar una «medicina para ricos», en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.

7-Educación

También se destacan los riesgos en el ámbito de la educación. Si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer «información inmediata» a los estudiantes [80]. El problema es que muchos programas «se limitan a proporcionar respuestas en lugar de empujar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos»; lo que conduce a un fracaso en el desarrollo del pensamiento crítico [82].

Por no hablar de la cantidad de «información distorsionada o fabricada» y de «noticias falsas» que pueden generar algunos programas [84].  

8- Fake News y Deepfake

Sobre las fake news, el documento advierte del grave riesgo de que la IA «genere contenidos manipulados e información falsa» [85], que luego se difunde para «engañar o hacer daño» [87]. El llamamiento es a «tener siempre cuidado de comprobar la veracidad» de lo que se divulga y evitar, en cualquier caso, «compartir palabras e imágenes que degraden al ser humano», excluyendo «lo que alimenta el odio y la intolerancia» o envilece «la intimidad de la sexualidad humana» [89].

9-Intimidad y control

Sobre la privacidad y el control, la Nota señala que ciertos tipos de datos pueden llegar a tocar «incluso la propia conciencia» [90], con el peligro de que todo se convierta en «una especie de espectáculo que puede ser espiado» [92]. «La vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe» [90].

10-Hogar común

En cuanto al tema de la creación, las aplicaciones de la IA para mejorar la relación con la casa común se consideran «prometedoras». Al mismo tiempo, los modelos actuales de IA requieren «grandes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos».

11-La relación con Dios

Por último, la Nota advierte del riesgo de que los seres humanos se conviertan en «esclavos de su propia creación». De ahí la recomendación: «La IA sólo debe utilizarse como herramienta complementaria de la inteligencia humana y no sustituir su riqueza» [112].

PUBLICADO ANTES EN «RELIGIÓN EN LIBERTAD»