Inteligencia Artificial y Ética
Monseñor: Germán Barbosa Mora – Doctor en Moral (Pontificia Universidad Gregoriana de Roma)


Inteligencia Artificial y Ética
El avance de la inteligencia artificial (IA) está dando lugar a un cambio de época que pone en crisis el modo en el que hasta ahora se ha gestionado la realidad, desde las formas de relacionarnos con el entorno cotidiano, pasando por la transformación del trabajo, hasta la manera misma de conocer. Autores como Luciano Floridi (2011) han previsto desde hace tiempo una nueva condición de la existencia humana que pone en conexión, en una especie de relación simbiótica, los sistemas informáticos y la vida de las personas. Se trata de una innovación que pareciera tender a la sustitución e incluso superación de los límites humanos, cabe preguntar, entonces, ¿cuál es la cuestión ética que está detrás de dicha innovación?
Este artículo fue publicado inicialmente en el sitio WEB: https://www.auditool.org/blog/auditoria-de-ti/inteligencia-artificial-y-etica
La cuestión ética de la IA
Ante todo, la ética no puede verse como una cadena que limita el avance de la tecnología puesto que más bien reconoce en ella el modo con el cual vamos transformando el mundo y heredando a las futuras generaciones las competencias sobre el mismo. En este sentido, la tecnología constituye una expresión típicamente humana. Pero, precisamente, puesto que se trata de crear las condiciones para el desarrollo del mundo, la tecnología tiene que ver con las elecciones humanas y es aquí donde entra en juego la ética.
Más aún, la IA apunta al centro de la ética en la medida en que puede ser definida como una innovación tecnológica de frontera referida a las máquinas que gozan de cierto grado de autonomía, sistemas que logran subrogar, sustituir al hombre en su decidir. Por consiguiente, se trata de una cuestión que pertenece esencialmente a lo humano. La pregunta ética frente a la IA resulta así fundamental: ¿qué sabemos de la manera en que decide la IA?, ¿cuáles son los criterios que pone en acto para cumplir una decisión?, ¿quién es el responsable de una operación una vez se ponga en marcha la aplicación de los programas? La IA ofrece soluciones a los problemas y a los límites humanos, indudablemente, pero ¿la máquina está haciendo el bien?, ¿está ofreciendo la respuesta correcta?
Cambia el modo de entender la realidad
El desarrollo de los sistemas informáticos ha puesto en crisis la explicación de los fenómenos, abandonando una pregunta que pertenece solo a lo humano: el porqué de las cosas. Hoy por hoy podemos dar cuenta de los hechos, pero no de sus causas (Benanti, P. 2022).
La filosofía clásica nos enseñó a responder la pregunta por la realidad a partir de una explicación finalizada de las cosas, es decir, del “para qué”. Así, por ejemplo, la explicación de un fenómeno tan corriente como la lluvia estaba dada por su sentido último: llueve para hacer crecer la hierba. La existencia de las cosas era explicada a partir de su finalidad o razón última.
Este modelo de explicación del mundo fue superado posteriormente con el desarrollo del método científico y de la física durante la edad moderna. Los fenómenos comenzaron a explicarse a partir sobre todo de las causas. Así, siguiendo con el ejemplo anterior, un fenómeno como la lluvia podría explicarse del siguiente modo: cuando el aire caliente sube y se encuentra con el aire frío, el vapor de agua en el aire se condensa en gotas que al acumularse se vuelven demasiado pesadas para mantenerse a flote, de manera que empiezan a caer en forma de lluvia.
La pregunta del porqué consituyó el principio del conocimiento hasta el surgimiento de los sistemas informáticos, fuente primaria de la IA, los cuales se abastecen del aumento exponencial de datos sobre la realidad gracias a factores como la digitalización, la conectividad a internet y la multiplicación de dispositivos.
Hoy respondemos de una manera muy simple frente al fenómeno de la lluvia: llueve donde se abren las sombrillas. Dicho así puede parecer una obviedad, pero es la lógica que demuestran los algoritmos. Un GPS no sabe el fin que persiguen las personas que van por determinada avenida. No puede decir si van al trabajo, a una reunión o a casa. Tampoco el algoritmo sabe decir por sí mismo la razón del tráfico. Sin embargo, estableciendo relaciones, comprende el flujo de velocidad entre las avenidas y elige la calle mejor. A partir de este mecanismo, basado en correlaciones simples, interesa el hecho en sí, y no tanto la razón o la motivación para una decisión.
Por estadística se conoce que los vehículos que sufren una mayor cantidad de accidentes son los de color rojo. Este es el hecho, pero el porqué no se logra precisar con certeza, ¿acaso los vehículos rojos te hacen venir un instinto suicida al momento de conducirlos?, ¿quizás, más bien, es que los vehículos rojos están mal hechos de fábrica?
Las correlaciones alcanzan la esfera de lo público. Sucedió, también, con la pandemia del COVID-19. Se establecieron múltiples correlaciones entre el virus y el grupo sanguíneo, el color de la piel, la edad y hasta el lugar de residencia, entre tantas otras variables, sin llegar a precisar jamás por qué el virus llegaba a ser más contagioso y letal en unos que otros. De hecho, se puede decir que el manejo sanitario por parte de los gobiernos estuvo basado fundamentalmente en el dictado de los números. La datificación ―la conversión en datos de todos los fenómenos, incluso de un estado de ánimo― conlleva a la cuantificación como forma predominante de interpretación de la realidad.
Poder de las máquinas vs. Falibilidad humana
El éxito de las elecciones personales depende de muchos factores. La subjetividad está presente en la toma de una decisión. No es lo mismo, por ejemplo, una decisión que se toma, cualquiera que esta sea, en medio del cansancio, que una decisión tomada en estado de lucidez. Se equivoca el juez y el médico, lo mismo que nos equivocamos a diario frente a las situaciones que tenemos que resolver. La falta de certeza acompaña la decisión, y es que la falibilidad es una condición de la vida humana.
Los grandes desarrolladores de los database sostienen que los sistemas inteligentes vendrían a cubrir esta falencia y podrán ser más perfectos, en la medida en que aumente la conversión de los fenómenos en datos, ya que esto hará posible que el algoritmo contemple todas las opciones a realizar frente a una operación, ¿es realmente así?
Los sistemas inteligentes están basados en datos, los cuales se apoyan en elecciones previas. Si quisiéramos preguntarle a un algoritmo quién será el próximo presidente de los Estados Unidos, muy seguramente dirá, como primer rasgo, que será un hombre, entre otras características. ¿Por qué el algoritmo no dice que será una mujer? Porque los datos obtenidos hasta ahora no incluyen a ninguna mujer. De esta manera, se establecen previsiones que pueden llegar más bien a convertirse en prejuicios. Los datos pueden ser perfectos, pero pueden inducir decisiones injustas.
El abandono al poder de los datos constituye una forma de condicionamiento del presente y futuro de un individuo y de los grupos sociales. Así, por ejemplo, a partir de la perfilación que establezcan los algoritmos sobre la tipología de un delincuente, las personas podrían ser encarceladas, como medida preventiva, no por lo que han hecho, sino por lo que podrían hacer, aun si no han cometido delito alguno. Del mismo modo, una empresa podría negar un puesto de trabajo o despedir a un empleado en previsión de eventuales comportamientos o enfermedades sobre la base de cálculos que puede ofrecer un sistema inteligente (Mayer-schönberger, V. – Cukier, K. 2012).
También la máquina comete errores sistemáticos. La máquina podrá equivocarse igual que el humano porque el problema de la falibilidad no es solo una cuestión cuantitativa, pues las situaciones humanas no se explican únicamente a partir de valores numéricos. Por lo tanto, con la cuantificación de la realidad las decisiones son dejadas en «manos» de los algoritmos. De este modo, los sistemas inteligentes pueden volverse contra la persona al convertirse en instrumentos eficaces para colectivizar las elecciones humanas y cancelar las posibilidades de decisión y libertad individuales.
Contra la equidad y libertad
Las guerras y los conflictos sociales, en la historia reciente, se han desarrollado para decirnos que todos poseemos una misma dignidad y unos mismos derechos. Sin embargo, el estado más avanzado de la tecnología con sistemas que nos perfilan, que anticipan lo que será nuestro comportamiento, que deciden por nosotros, ponen en riesgo la igualdad y libertad de los individuos. ¿Qué sucederá cuando un cupo escolar, un préstamo bancario, o un tipo de terapia sean seleccionados por un algoritmo? El peligro de la IA, difusa y sin control, es el de desarrollar la vida a partir de valores numéricos que terminan por excluir lo que no se ajusta a determinados patrones. Si frente a una eventual pandemia se establece que los niños y los ancianos cuentan con menos posibilidades de sobrevivir a un virus, fácilmente de ahí se puede derivar en una decisión política que privilegie la atención médica del resto de la población por encima de aquellos que, precisamente, son los más vulnerables. No bastan los valores numéricos, se requiere de valores éticos. La máquina debe implicar al ser humano en la toma de decisiones para validarlas.
De hecho, la persona debe estar al centro del desarrollo tecnológico. En este sentido, una máquina o robot que coexiste con el hombre debe saber leer mi intención y acompañarla en su realización. Si yo me muevo para alcanzar un vaso de agua, la máquina debe gozar de un sentido de anticipación que me permita cumplir el acto y no entorpecerlo. La máquina debe adecuarse a mis objetivos y no lo contrario. Debe, igualmente, adaptarse a mi respuesta emotiva para que la experiencia no sea traumática, cuando, por ejemplo, se trata de la velocidad de marcha de un vehículo. La IA debe ser transparente a la persona.
Nuevas creencias – Nuevos dioses
Bajo el predominio de sistemas inteligentes, la realidad estaría condicionada por creencias inducidas a partir de los datos. Otras formas de adherencia, como las venidas de la tradición o de alguna autoridad civil, política o religiosa, serían reemplazadas por el dictamen de los algoritmos. Retomando una imagen de la antigua Grecia, los sistemas informáticos vendrían a ser el nuevo oráculo de Delfos que el mundo consulta para tomar decisiones de importancia, tanto en asuntos de carácter público como privado. Se puede pensar en Google, un motor de búsqueda centrado precisamente en el desarrollo de la IA, al que acuden miles de millones de usuarios para preguntar de todo.
Si en la antigüedad existían dioses para cada actividad humana, hoy, con el desarrollo de las App, encontramos nuevas formas de divinidad para orientar asuntos de la vida diaria. Es así como, en lugar del dios de la navegación, tenemos las aplicaciones que nos indican cómo viajar; en lugar del dios del comercio, las aplicaciones para consultar sobre el mercado bursátil; en lugar del dios del amor, las aplicaciones para encontrar pareja; y así para cada aspecto de la vida humana. Nuevas formas oraculares determinan las decisiones personales, incluso las más trascendentales.
Juicios y decisiones a partir de la ficción
Quizás una de las mayores impresiones que produce el avance de la IA es la capacidad de imitar la realidad hasta llegar a confundirla con la simulación. Asistiríamos a lo que se podría denominar la de-realización del mundo (Virilio, P. 1990; Baudrillard, J. 1995). La reproducción de imágenes, voces y ambientes, daría lugar a juicios y decisiones basados en simples percepciones o impresiones producidas por las distintas formas de IA. Tales formas hacen desaparecer la realidad ocultando, al mismo tiempo su desaparición, es decir, haciendo creer que se la habita.
Con las aplicaciones de IA se crea una forma de ilusionismo que conduce a creer en eso que no existe. De este modo, la tecnología llevaría al hombre a un nuevo tipo de caverna de Platón en la que las sombras (la reproducción idéntica de imágenes) son confundidas con la realidad. A partir de este mundo de fábula se establecerían opiniones, juicios y creencias sobre el mundo, las instituciones y las personas.
Conclusiones
El análisis del problema ético de la IA permite deducir que las decisiones personales y políticas no pueden hacerse únicamente sobre valores numéricos o sobre la base de simples correlaciones. Establecer juicios o previsiones a partir de representaciones de la realidad puede conducir a decisiones injustas sin que sea claro a quién se pueda atribuir la responsabilidad de las mismas. Tenemos necesidad de unos valores éticos que consideren la complejidad de la vida humana. Los sistemas inteligentes ofrecen una solución a los problemas y límites humanos a partir de un mapa de la realidad, pero no son toda la realidad. Quedan, entonces, abiertas las preguntas: ¿qué tipo de elecciones podemos delegar a un sistema inteligente sin perjuicio de la propia libertad y del derecho de las personas?, ¿cómo evitar transferir al poder de los algoritmos lo que quizás hay de más genuinamente humano en nosotros, es decir, la capacidad de elección?
Al centro de la cuestión ética está la persona. Si los sistemas inteligentes elaboran información y nosotros somos información, ¿qué diferencia hay entre esos dos términos? Mientras la máquina se humaniza cada vez más, la persona se maquiniza cada vez más. Entonces, ¿cuál es la diferencia entre existir y funcionar?, ¿son computables todas las expresiones humanas: el cuerpo, la interioridad, el sentido de la vida? Bajo su supremacía, se corre el riesgo de que las tecnologías inteligentes lleguen a ser no solo una extensión, sino una sustitución de la persona, con lo cual perderían su sentido y finalidad, a menos que el ser humano no sea más que un eslabón en la cadena de evolución destinado a ser reemplazado.
Referencias
Baudrillard, j., (1995) Le crime parfait, L’espace critique, Paris.
Benanti, P. (2022) Human in the loop. Decisioni umane e intelligenze artificiali, Milano.
Floridi, L. (2011) The Philosophy of Information, Oxford – New York.
Mayer-Schönberger, V.-Cukier, K. (2012) Big Data: a revolution that will transform how we live, work and think, New York.
Virilio, P. (1990) L’inertie Polaire, Paris.