Juan Manuel de Faramiñán y Gabriel Paredes Chávez, filosofía y ética en la era digital
Faramiñán y Paredes Chávez reflexionan sobre los desafíos éticos de la inteligencia artificial y la dignidad humana

En un mundo donde los avances tecnológicos redefinen la vida cotidiana, el diálogo entre la ética, la filosofía y la inteligencia artificial se vuelve urgente.
El doctor Juan Manuel de Faramiñán Gilbert, catedrático emérito y especialista en ética de la ciencia, y Gabriel Paredes Chávez, psicólogo y director de Nueva Acrópolis en República Dominicana, abordan la responsabilidad moral del ser humano frente al poder de la IA y el impacto de la desinformación en la sociedad actual.
Ambos coinciden en que la educación debe evolucionar más allá de la simple transmisión de información. Para ellos, el verdadero reto del siglo XXI es recuperar la conciencia ética como brújula en medio de la tormenta digital.
¿En qué consiste la labor de Nueva Acrópolis?
Gabriel Paredes Chávez: Nueva Acrópolis es una asociación sin fines de lucro fundada en República Dominicana en 1998.
Realizamos como actividad principal un rescate y promoción de la filosofía como un mecanismo de rescatar la enseñanza de los grandes clásicos de la humanidad, de los grandes sabios de la humanidad, para ponerlo a disposición de las profesoras de la calle.
Además de eso, somos punto focal de las normas Esfera, hacemos muchas actividades de voluntariado social, y en general, somos una comunidad dominicana que busca mejorarse a sí misma, que busca utilizar las adversidades que la vida nos presenta como mecanismos de autorreflexión y de mejoramiento desde la perspectiva individual y también social.
¿Actualmente cuáles son los desafíos éticos de la inteligencia artificial?
Juan Manuel de Faramiñán: El gran problema que en este momento tenemos con la inteligencia artificial es que no hemos tomado conciencia de que se trata realmente de un cambio de paradigma. Estamos ante una nueva revolución industrial.
Teniendo en cuenta que la primera fue la máquina de vapor, la segunda fue la electricidad, la tercera el Internet y la cuarta es la inteligencia artificial, sobre la que tenemos que estar muy atentos, para evitar justamente lo que decíamos antes: que la inteligencia artificial desborde los contenidos de lo que es la inteligencia humana y al final termine coordinando y controlando o violando los derechos humanos de los seres humanos y de la humanidad.

Ante la creciente influencia de las redes sociales y la inteligencia artificial, ¿ustedes creen que ahora es más importante que nunca promover más lo que es la filosofía y la ética en las instituciones académicas?
GPC: La IA está causando lo que se ha denominado un desplazamiento del humano en múltiples aspectos. Nos está enfrentando a un desafío educativo importante. Aquello de simplemente entregar información ya no es necesario ni viable. Más que informar, ahora es necesario formar.
Tenemos que centrarnos en el desarrollo de capacidades. La educación, como se ha planteado hasta hoy, ha sido que los alumnos presencien en pasivo los conocimientos del profesor. Los alumnos no están generando ninguna destreza o capacidad.
Creo que la nueva educación debe centrarse en el desarrollo de capacidades. Para mí las principales son, por un lado, la capacidad de abstracción, porque el ser humano básicamente es un ser abstracto y la tecnología lamentablemente está disminuyendo de manera muy drástica esa capacidad de abstracción.
Otra capacidad que deben desarrollar las personas hoy es la capacidad de convivencia.
Los grandes problemas en el mundo, los grandes conflictos, inclusive bélicos, básicamente se deben a la falta de capacidad de convivencia. Y el tercer factor que deben desarrollar las personas es una capacidad de mantenerse orientados, o sea, saber el mundo que nos ha tocado vivir y hacia dónde se dirige, cuáles son sus posibilidades.
Porque es mejor no moverse que ir a 100 kilómetros por hora en sentido contrario. Planteo abiertamente que es más importante la orientación que la velocidad. Entonces, estas son los tres ejes fundamentales de cualquier propuesta educativa.
Como la presencia y uso de la inteligencia artificial en todas partes ya es inevitable, ¿opinan que en los salones de clases también se debe de impartir el uso responsable y ético de esta herramienta?
GPC: Hoy por hoy diría que es imposible prohibir la IA. Es algo que ha llegado para quedarse. Hay que aprender a convivir con ella. Hace poco fuimos invitados a un congreso de filosofía iberoamericano, en donde planteábamos la importancia de la abstracción, la cual es desarrollada tanto por las matemáticas como por la filosofía.
Pero alguien planteaba que quizás deberíamos considerar que la conciencia es colectiva.
Ya muchos pensadores han dicho que la filosofía es algo que se produce en el colectivo de los seres humanos, pero ahora está el ser humano más la tecnología, y eso creo que es algo que debe considerarse frente a la educación de las generaciones futuras.
Y lo que hay que preguntarnos es: ¿qué puedo hacer yo que la tecnología no puede hacer?
Y precisamente es abstraer, convivir y poner el sentido de las cosas en la orientación. Por eso, esa es la fortaleza del ser humano.

¿Qué piensan del hecho de que, con el paso del tiempo, los niños tienen cada vez más acceso a dispositivos tecnológicos?
JMF: Definitivamente estamos a las puertas de un mundo nuevo, y creo que tenemos que aceptar que para ese mundo nuevo hace falta también un hombre nuevo. Y hay que trabajar más bien en ese vector. Y cabría indicar que sería un error estar en contra de la inteligencia artificial.
Lo que tenemos que estar es en contra de la manipulación de la inteligencia artificial, del sesgo que le demos, de la forma en que la alimentemos.
Piense usted que, a un algoritmo, si se le alimenta con una discriminación por razón de edad, que los mayores no sirven para nada, es lo que se llama un edadismo.
O, por ejemplo, las mujeres no sirven para nada, que es una perspectiva brutal de género contra justamente la mujer. O “no sirven” un determinado tipo de personas por su orientación sexual y deben ser discriminadas. Eso es peligrosísimo. Entonces, esta es la clave: es el sesgo lo que hay que evitar.
¿Consideran que el marco jurídico internacional está preparado para responder a los dilemas éticos que plantea la inteligencia artificial?
JMF: El contexto jurídico todavía no está muy desarrollado. En la Unión Europea ya se han dado algunos pasos.
Existe un “Libro blanco de 2020” sobre la IA y también hay un reglamento y directivas de la UE que plantean siete bases para que la inteligencia artificial esté al servicio del ser humano y no en contra del ser humano.
Entonces, sí, hay algunos intentos, algunos pasos que se han dado, muy básicos, todavía muy elementales. Porque en el ámbito europeo y en el ámbito latinoamericano todavía no existe una legislación. En América sí, los Estados Unidos ya tienen una legislación bastante desarrollada.
En cambio, la legislación europea continental es más garantista. En el sentido de que una es permisiva y la otra garantista. Hay un desbordamiento de la inteligencia artificial más allá de los criterios que debemos tener y que hemos expuesto en esta entrevista. Ahí está un poco la clave.
Actualmente hay más acceso a la información y, en teoría, es más fácil conectar con otras personas. Aun así, las diferencias filosóficas, intelectuales y políticas están causando más divisiones. ¿Piensan que de alguna forma se puede utilizar esa misma tecnología (redes sociales, inteligencia artificial, etc.) para cerrar esa brecha entre las personas?
GPC: Me sorprendió ver que el Foro Económico Mundial plantea como una de las posibilidades de catástrofe a nivel global en esta década la desinformación.
Hay muchas fuentes posibles para la desinformación: una explícita guerra (el primer elemento que contiende es la información), otra es el comercio de la publicidad, que te anuncian cosas que realmente no son ciertas, con el afán de despertar interés y llamarte a hacer un click, y finalmente, la ingenuidad.
Por una razón u otra, hay enormes volúmenes de información. Si yo le digo a la inteligencia artificial que me relate los hechos sucedidos en Nueva York respecto a un tema X, la inteligencia artificial lo va a hacer, a pesar de que sean falsos, porque yo le pedí que me relate.
Simplemente está cumpliendo una orden que yo le he dado; no le pregunté si era cierto o no. Y esta desinformación nos lleva a lo que, en psicología, se llama una disonancia cognitiva: una situación de desconcierto.
Ya no es una desinformación en la cual quieren convencerme de algo que es falso, sino que es algo mucho más grave desde la perspectiva psicológica.
Genera un desconcierto. Cuando estamos desconcertados, no decodificamos correctamente la realidad y, por lo tanto, postergamos nuestras decisiones.
JMF: Estamos en la era de la posverdad, y ese es el gran problema. Porque la posverdad se alimenta por noticias falsas. Entonces, todo esto genera justamente un mundo de mentiras. Ya el mundo es bastante complejo en sí mismo como para, además, generar una serie de condicionamientos que nos llevan a verdades falsas.
Porque el problema de las fake news es que es una mentira a medias, que es la más peligrosa de todas las mentiras.
La mentira global se sabe: “Esto es una barbaridad, es imposible.” Pero una mentira a medias tiene algo, tiene elementos que son susceptibles de ser reales frente a lo que realmente se quiere colar, se quiere meter, que es la verdadera mentira.
Entonces, se apoyan en determinados elementos firmes para generar una posverdad, una mentira. Y ese es el gran problema del siglo XXI.
¿Qué consejos les gustaría compartir sobre el uso ético de la inteligencia artificial?
JMF: Una sola palabra: que la controle. Que esa persona controle la inteligencia artificial y que no sea controlada por la inteligencia artificial. Que siempre sea el ser humano el que lleve el control.
GPC: Creo que debe ponerse por delante la dignidad humana ante toda circunstancia. Y antes de ello, habrá que entender qué es la dignidad humana, y saber que hay diferentes formas de la dignidad humana en las diferentes esferas de su personalidad y su existencia.
Y esto nos llevaría quizá a un uso adecuado de las tecnologías.
Desintegramos el átomo y, en lugar de que desaparezca el hambre y la pobreza del mundo, se generó más hambre y más pobreza. El problema fue de quien la maneja.
Creo que su pregunta es muy acertada, porque me parece que es urgente desarrollar esa capacidad ética, esa integridad y esa dignidad en el ser humano. Que recupere la integridad y la dignidad del ser humano, para que pueda hacer un uso positivo y constructivo de esa tecnología.


Joan Prats