(Christopher R. Altieri en Catholic World Report)-Hay que hacer una reflexión real, seria, firme y práctica de los principios básicos, para que la transparencia, la inclusión, la responsabilidad, la imparcialidad, la fiabilidad, la seguridad y la privacidad sean señas de identidad de la inteligencia artificial y no solo expresiones en boga.
Entre las noticias interesantes del boletín diario de la oficina de prensa de la Santa Sede del martes 8 de agosto había un comunicado del Dicasterio para el Desarrollo Humano Integral. En él se anunciaba el tema del mensaje de la Jornada Mundial de la Paz de 2024: Inteligencia Artificial y Paz.
Era un boletín bastante abultado para mediados de semana de mediados de agosto, pues incluía una modificación potencialmente significativa del derecho canónico y un nuevo nuncio en Polonia en la persona del arzobispo Antonio Filipazzi, más recientemente nuncio en Nigeria.
Sin embargo, el anuncio de diez líneas debería haber levantado más cejas -incluso ampollas- de lo que lo hizo ese día, sobre todo por lo que no decía.
Es decir, si «el grupo de expertos del Vaticano aborda la inteligencia artificial» no te hace fluir la sangre, ¿estás prestando atención?
El pasado mes de enero, una conferencia patrocinada por el Vaticano en la Ciudad del Vaticano reunió a líderes de las grandes tradiciones monoteístas, empresarios de todos los sectores tecnológicos, académicos y científicos de una serie de destacadas universidades públicas y privadas, así como a otras partes interesadas y representantes de la sociedad civil para debatir sobre la ética de la IA.
Fue un asunto importante, que aumentó la lista de firmantes de The Call for AI Ethics, un documento firmado en febrero de 2020 por la Academia Pontificia para la Vida, Microsoft, IBM, la Organización de las Naciones Unidas para la Alimentación y la Agricultura y el Ministerio de Innovación de Italia para promover un enfoque ético de la inteligencia artificial.
The Call for Ai Ethics se organiza en torno a una idea central: las organizaciones internacionales, los gobiernos, las instituciones de la sociedad civil y el sector privado deben compartir la responsabilidad de crear «un futuro en el que la innovación digital y el progreso tecnológico otorguen a la humanidad su centralidad».
Suena estupendo, pero con la IA, como con cualquier otra cosa, si todos son responsables, nadie lo es.
Eso no quiere decir que el Vaticano deba ser responsable, ni el papa -que ha admitido que no es precisamente el tipo más versado en tecnología- ni nadie en particular, sino que el «cómo» es al menos tan importante como el «qué» a la hora de determinar la responsabilidad de cualquier cosa.
Tenemos que hacer hacer una reflexión real, seria, firme y práctica de los principios básicos, para regular y gestionar el desarrollo y la aplicación de la inteligencia artificial, a fin de que la transparencia, la inclusión, la responsabilidad, la imparcialidad, la fiabilidad, la seguridad y la privacidad sean señas de identidad de la inteligencia artificial y no solo expresiones en boga.
«El papa Francisco», dice el comunicado del Dicasterio, «pide un diálogo abierto sobre el significado de estas nuevas tecnologías, dotadas de posibilidades disruptivas y efectos ambivalentes.» No es la primera vez que el papa Francisco hace un llamamiento a este diálogo. Para ser justos, no solo lo ha pedido. En este tema, el papa Francisco ha puesto sus opiniones en práctica.
«Recuerda la necesidad de estar vigilantes y trabajar para que no arraigue una lógica de violencia y discriminación en la producción y uso de tales dispositivos, a costa de los más frágiles y excluidos.»
Eso está muy bien, pero me recuerda una conversación que tuve con un escritorzuelo que cubría la Primavera Árabe hace una docena de años, justo al principio, en Túnez y quizá incluso antes de que el término se hubiera puesto de moda.
«He hablado con varios líderes activistas», dijo el periodista, «y ninguno de ellos quiere que esto se convierta en Irán», es decir, un levantamiento reformista transversal que se salió de control y terminó en una teocracia fanática.
Ahora bien, no soy lo bastante mayor para recordar la revolución de 1979 en Irán, pero he aprendido lo suficiente sobre ella para saber que nadie imaginó realmente la República Islámica en la forma que acabó adoptando tras el derrocamiento del sha. Incluso el ayatolá Jomeini estaba reaccionando a las circunstancias y aprovechó con gran presteza el momento oportuno, en lugar de orquestar los acontecimientos.
En otras palabras, el pueblo iraní no quería la revolución que consiguió, no cuando empezó a rebelarse.
No cabe duda de que estoy tomándome a la ligera esos años de historia muy complicados y llenos de acontecimientos, y la analogía puede cojear, como hacen todas, pero la cuestión es que los grandes movimientos con muchos intereses contrapuestos tienden a cobrar vida propia. Siempre rige la ley de las consecuencias imprevistas, lo que significa que nunca se sabe cómo va a acabar todo.
«[L]a injusticia y las desigualdades alimentan los conflictos y los antagonismos», pero no son las únicas cosas que los alimentan. Pocos discutirían la idea de que existe «[una] necesidad urgente de orientar el concepto y el uso de la inteligencia artificial de manera responsable, para que esté al servicio de la humanidad y de la protección de nuestra casa común», como dice también el comunicado sobre el mensaje de 2024. Menos aún se opondrían firmemente a la idea de que una necesidad tan urgente «exija que la reflexión ética se extienda al ámbito de la educación y del derecho», como sigue diciendo.
Por otra parte, legislar con prisas es siempre una mala idea. A veces es necesario, es la opción menos mala, pero sigue siendo una mala idea. Antes, sin embargo, hay otra cuestión que plantea toda esta cháchara sobre legislar: ¿quién legisla para quién, y cuándo, y en qué ámbitos concretos, y -de nuevo, lo más importante- cómo?
¿Estamos hablando de legislación nacional, legislación federal, legislación estatal individual, tratado internacional, convención de la ONU?
No son mutuamente excluyentes. Alguna combinación de ellas ya está en marcha y todas ellas requerirán, en alguna medida, un marco global útil. Pero, de nuevo: ¿cómo?
«La protección de la dignidad de la persona y la preocupación por una fraternidad efectivamente abierta a toda la familia humana», prosigue el comunicado, «son condiciones indispensables para que el desarrollo tecnológico contribuya a fomentar la justicia y la paz en el mundo».
En otras noticias: el agua moja y el cielo es azul.
El papa Francisco y el Vaticano tienen aquí una oportunidad real de aprovechar la experiencia de la Iglesia en humanidad, de redoblar su apuesta por las constantes de la naturaleza humana, de recurrir a su memoria institucional de éxitos y fracasos históricos a la hora de embotellar rayos y montar el tigre tecnológico, y contribuir así al discurso público global sobre una preocupación de lo más acuciante.
El papa y el Vaticano pueden hacerlo. Están en una posición única para hacerlo. Hacerlo, sin embargo, significará abandonar el discurso de «repensar» verdades antropológicas eternas como si necesitáramos, ¡ejem!, reinventar la rueda.
Por supuesto, replanteémonos todo el asunto del avance tecnológico y enfrentémonos sin miedo a las realidades de la IA y al peligroso potencial de su desarrollo. Incluso sigamos formando parte de la conversación sobre el «transhumanismo» a través de iniciativas como Humanity 2.0 en la Pontificia Universidad Lateranense, bajo la dirección del profesor Philip Larrey (a cuya recopilación de de 2018, Connected World: From Automated Work to Virtual Wars, este escribidor contribuyó con un capítulo, hecho que menciono solo para demostrar que no soy más que un ludita a medias).
Lo que el papa y el Vaticano pueden aportar a la discusión es la conciencia histórica y cultural que viene de recordar qué fin tuvieron Gilgamesh, Ícaro, Minos y Pasifae, por no mencionar el monstruo de Frankenstein y la isla del Dr. Moreau.
Hay una primera película de James Cameron que todo el mundo debería ver también, antes de que se convierta en un documental.
Publicado por Christopher R. Altieri en Catholic World Report
Traducido por Verbum Caro para InfoVaticana
Ayuda a Infovaticana a seguir informando
No me fío de nada en el que se mete Francisco. Ahora otra Laodato Sí con más tonterías sobre el falso»cambio climático» supongo. Mientras tanto se dedica a destruir la Iglesia.
– Tenemos que hacer hacer una reflexión real, seria, firme y práctica…
Vaya, antes era una reflexión imaginaria, chistosa, jocosa e inútil…
– la transparencia (no, hay secretos), la inclusión (no, el pensamiento único nunca jamás no es incluyente), la responsabilidad (la IA tiene zonas oscuras per se), la imparcialidad (pensamiento único por un tubo), la fiabilidad (metafísicamente imposible), la seguridad (otro metafísico imposible) y la privacidad (ja ja ja) sean señas de identidad de la inteligencia artificial…
– El papa Francisco pide un diálogo abierto sobre el significado de estas nuevas tecnologías, dotadas de posibilidades disruptivas y efectos ambivalentes
En 1947 salió el transistor, que arrinconó a las válvulas, disrupcionó toda la tecnología, creó la informática y tuvo un efecto ambivalente: servía tanto para hacer televisores como armas atómicas.