La inteligencia artificial juega un rol importante en el desarrollo de vehÃculos autónomos, en decisiones legales y financieras; por ejemplo, para determinar quién es solvente para obtener un crédito. También, juega un rol en la diagnosis médica; por ejemplo, en la cuestión de detectar cáncer a través del reconocimiento de patrones, "pattern recognition", en imágenes. Y, además, la inteligencia artificial es parte en la supervisión de procesos en la industria. Por supuesto, hay muchas más aplicaciones de la inteligencia artificial. Cuando la inteligencia artificial es parte de las decisiones que afectan a los humanos, surgen muchas preguntas: ¿cómo funciona la inteligencia artificial? ¿Cómo obtuvo el resultado?, y ¿cómo se puede identificar una falla del funcionamiento de la inteligencia artificial? Esas preguntas se pueden integrar al final en la pregunta esencial: "¿Puedo confiar en la inteligencia artificial?" En la tecnologÃa clásica era y es posible reconstruir el funcionamiento de la máquina o del aparato, y también es posible determinar cuándo y cómo falla el aparato. Por ejemplo, el técnico puede abrir la máquina o el aparato y examinar cuál pieza causa la falla del funcionamiento del aparato. El paradigma de la "tecnologÃa clásica" es controlar y arreglar los procesos. La tecnologÃa establece y asegura una repetibilidad de los procesos. En la asà llamada "TecnologÃa transclásica", tenemos, según Christoph [inaudible] , una intelectualización del entorno. Por ejemplo, en el " Ubiquitous Computing", las estrategias y los procedimientos de la tecnologÃa son parte del entorno y es difÃcil para los usuarios, pero también para los desarrolladores, experimentar esos procesos tecnológicos y la falla de las estrategias. No siempre es posible abrir el aparato y ver el mecanismo y, especialmente, en el entorno inteligente de la "tecnologÃa transclásica" no es claro dónde está la puerta para abrir la caja; el interfaz "humano-tecnologÃa" desaparece. Una herramienta médica para la detección de cáncer que era entrenada con un modelo de una red neuronal artificial es parte del entorno del médico y del usuario, pero los ajustes dentro de la red no se pueden reconstruir para obtener una idea de como funciona, es una caja negra, "Black box". Partiendo de esa premisa, se busca desarrollar modelos de la inteligencia artificial que sean transparentes o al menos explicables. Esa rama se llama "Explainable Alx". La idea es explicar el porqué del resultado por una razón. Esas razones son muchas veces visualizaciones y estadÃsticas y necesitan la interpretación de un experto. También, es un campo de investigación nuevo y, por lo tanto, muchos avances todavÃa están en desarrollo. La problemática de la caja negra se incrementa cuando los modelos producen resultados con prejuicios. El prejuicio puede provenir de los ejemplos o casos que se usaron para la base de datos, entonces, el modelo reproduce lo que ha visto. La aplicación de la inteligencia debe ser justo y fiel. Pero ¿qué significa justo? Esa es una pregunta muy difÃcil de contestar. Pero algo que es muy obvio, es que las aplicaciones de la inteligencia artificial no deberÃan discriminar a alguien, por ejemplo, por caracterÃsticas fÃsicas como el color de la piel. Por supuesto, pensamos que nadie diseñó una aplicación de esa manera, pero puede ser que en el proceso de coleccionar, seleccionar y anotar el conjunto de datos no se han dado cuenta que discriminan a un grupo por ciertas caracterÃsticas conectadas de alguna manera con la caracterÃstica fÃsica "color de la piel". A veces, la composición de las bases de datos es sesgada. Por ejemplo, para filtrar los mejores candidatos para un puesto se diseñó una base de datos en la que se usaron más currÃculos de varones para entrenar el modelo y el modelo aprendió a favorecer varones sobre mujeres en el proceso de selección de candidatos. Otro ejemplo, es que para los sistemas de reconocimiento facial se usaron varias veces bases de datos escalas, que son compuestos de mayor número de personas con color de piel blanca y resulta que no son confiables cuando se aplican con personas de color. Además, a esas problemáticas asociadas con los prejuicios, existe la problemática de la seguridad de los sistemas y la cuestión de la privacidad de los datos personales. Por lo tanto, se requiere una visión más amplia en el desarrollo de la inteligencia artificial que involucre e integre diferentes perspectivas y otros campos de investigación. También, perspectivas de las humanidades, de las ciencias sociales, etcétera, para prevenir prejuicios y establecer aplicaciones que reflejen las normas éticas de la sociedad. Pero el rol del ser humano no se restringe solamente a la supervisión de los modelos de la inteligencia artificial, sino que debe ejercer un rol más complejo de lo que parece, al menos por los ejemplos que hemos analizado.