Inteligencia Artificial y conocimiento moral

La Inteligencia Artificial (IA) se ha convertido en un apasionante horizonte de innovación no sólo para los que trabajan en problemas de “Ciencia, Tecnología y Sociedad” sino para todos los ciudadanos preocupados en la gestión y administración social del conocimiento. Junto a lo que técnicamente se ha llamado “Internet de las cosas” (Internet of things, IoT), se convertirá en uno de los polos tecnológicos con capacidad para atraer talento, imaginación y creatividad social. Quienes piensen que se trata de un desafío solo para ingenieros o tecnólogos están totalmente equivocados porque se trata de un desafío para toda la ciudadanía, sean los ciudadanos hemipléjicos del “ciencias” o los hemipléjicos de “letras”.

No se trata únicamente de la inteligencia o computación aplicada a la movilidad y, por tanto, la creación de coches inteligentes que conducen solos. Tampoco se trata de un problema de robots o consejos prácticos para convivir con androides. En parte se trata de un problema de responsabilidad entre generadores, comercializadores, distribuidores y usuarios de algoritmos. Y reguladores de algoritmos porque en los algoritmos viajan nuestros datos como usuarios, consumidores, ciudadanos, clientes, personas o simples seres humanos. Para algunos generadores de algoritmos sólo existimos a través de nuestros datos y estos no sólo los gestionamos individual o privadamente, sino social y públicamente. El reciente contencioso entre Facebook y Cambrigde Analytica es el primer capítulo de un nuevo debate sobre la responsabilidad en la comercialización de los datos sin consentimiento de usuarios.

Llegados a este punto siempre hay precavidos sistémicos que presumen de no usar las redes, como si estuvieran fuera de la nueva cosmología cibernética e internaútica, como si sus datos de Hacienda o del ambulatorio de salud no tuvieran vida algorítmica. Y entonces se enrocan en planteamientos apocalípticos recordándonos que ya estábamos avisados cuando decidimos abrirnos cuentas en las redes e iniciar la navegación en las procelosas aguas de los piratas algorítmicos. En tema no es tan sencillo y aun teniendo una dimensión que afecta a la voluntariedad personal, el problema trasciende y desborda el mundo de los sujetos como simples navegantes que consienten emprender la navegación. ¿Quién nos garantiza un buen uso de los datos? ¿Podemos confiar en la autorregulación de los propietarios de algoritmos? ¿Tenemos que esperar a que los gobiernos locales regulen estas navegaciones globales?

Puede interesarte:  Movilidad escrita en piedra

Sería pretencioso querer responder a estas preguntas de forma rápida y afirmar que la Inteligencia “artificial” sustituirá a la Inteligencia “humana” y “personalizada”, como si aquella no fuera un producto de esta última. Y aquí está uno de los nudos gordianos del problema porque en estos ámbitos se confunde con mucha facilidad la inteligencia con el conocimiento, como si la propia experiencia cotidiana y la Historia de la Filosofía no nos hubiesen enseñado que necesitamos distinguir “tener inteligencia” y “tener conocimiento”. Más aún si no nos limitamos al conocimiento instrumental o práctico sino que valoramos el “conocimiento moral”.

Aunque volveremos sobre ello en otro momento porque el tema es recurrente, por ahora conviene señalar que la revolución tecnológica de la IA también traerá como consecuencia una revolución política y, por consiguiente, una nueva transformación de la ética pública que necesitarán las nuevas democracias. En el horizonte se perfila una caja de pandora llena de nuevos problemas y desafíos relacionados con la gestión de la privacidad, la ciberbioética, y la forma de proceder a regulaciones supranacionales. Si la Unión Europea se aclarase respecto al modelo de sociedad que quiere, tendría mucho que decir porque tiene una situación privilegiada entre dos modelos radicalmente diferentes: el de EE.UU y el de China.

Mientras que en EEUU el desarrollo de la IA está impulsado por el sector privado y las grandes corporaciones, en China está impulsado por un gobierno con principios y valores que no son los de las frágiles ilustraciones occidentales. Si hay un modo europeo de tratar la relación entre privacidad, publicidad y seguridad tiene que ser repensado históricamente. Es probable que haya un modelo europeo propio y con vocación de universalidad para gestionar la IA en clave de libertad, prudencia y responsabilidad. No nos jugamos únicamente un problema instrumental o tecnológico sino un problema moral que afectará a futuras generaciones.

Puede interesarte:  Ley natural, antropología y ética con el Papa Francisco

Para empezar a plantearlo, quizá convenga recordar una situación que protagonicé hace unos años cuando estrenamos el nuevo edificio de la Facultad de Filosofía y Ciencias de la Educación de Valencia. Era la última hora de la tarde, no quedaba nadie en la casa y después de cerrar mi despacho comprobé que todas las luces de los pasillos de las siete plantas del edificio estaban a pleno rendimiento. Intenté apagarlas según bajaba de la sexta planta y por más que insistí no pude. Le pregunté al bedel si había algún problema en la instalación y me respondió: “Maestro, es imposible apagarlas, estamos en un edificio inteligente que las enciende a las 8.00 y las apaga a las 22.00”. Mi contestación no se hizo esperar y le dije con toda el alma: “Gracias Juan , pero es una pena llamar ‘inteligente’ a un edificio que demuestra tan poco conocimiento”.

Si quieres saber más, recuerda:

https://www.edicionesencuentro.com/libro/educacion-y-redes-sociales.html

 

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.