Inicio Tech y Robotica Ética aplicada a la inteligencia artificial
España   Catalunia

Ética aplicada a la inteligencia artificial

No todo lo que se puede hacer se debe hacer

Que la inteligencia artificial está revolucionando el mundo actual ya no es noticia para nadie. Tras la euforia que supone ver grandes evoluciones como ChatGPT o GPT3 resuena en nuestros oídos una pregunta a la que pocas personas se atreven a contestar: ¿dónde está el límite?

La ética aplicada a la tecnología nos muestra que no todo lo que se puede hacer se debe hacer

La ética, un concepto que pocas veces hemos visto ligarse a la tecnología, es la respuesta a estos miedos que todos tenemos y que pocos expresan. Como bien afirma el docente e investigador Javier Camacho, «la ética intenta responder a la pregunta “¿qué debo hacer?” y la tecnología responde a veces a la pregunta “¿qué puedo hacer?”. Si las unimos lo que sale es que no todo lo que se puede hacer se debe hacer».

Tres son las características que distinguen al ser humano de los animales y de las máquinas inteligentes según Camacho: «libertad, conciencia y voluntad». Esta ética que nos caracteriza es también la que nos hace responsables de las acciones de la IA. Tal como apunta la experta en IA, Mónica Villas, «detrás de herramientas como ChatGPT lo que hay es una programación mediante código matemático que lo que hace es predecir la próxima palabra y la forma de responder», así pues, nosotros ponemos la intención y la máquina ejecuta la acción.

Urge pensar éticamente nuestra convivencia con la IA

Somos los humanos de nuestra era, y como bien señala Camacho, «no podemos entender el desarrollo tecnológico sin las personas, ni la persona de hoy sin el impacto de la tecnología». Por eso, como expresa Txetxu Ausín, director del grupo de Ética Aplicada del CSIC (Centro Superior de Investigaciones Científicas), «urge pensar éticamente nuestra convivencia con la IA». De hecho, «la práctica del uso de una tecnología está estrechamente relacionada con los principios éticos que incorpora y es la condición básica para su apropiación y aceptación por parte de la comunidad, lo que contribuirá al empoderamiento tecnológico de la ciudadanía».

Por otro lado, el director del observatorio de Ética en Inteligencia Artificial de Catalunya, Albert Sabater, apunta a que hay que tener un conocimiento más allá del meramente técnico sobre la IA, y afirma que hoy en día «mientras la brecha de habilidades y competencias en las llamadas STEM está bien documentada, todavía no hemos entendido completamente la escala del reto que supone la incorporación de la IA por parte de diferentes ocupaciones creativas y, por supuesto, por el ámbito de la educación». Considera que en este momento es importante abordar preguntas cruciales como, por ejemplo, ¿cómo aprenderán las niñas y los niños a escribir si estos no han de elaborar sus propios escritos? Sabater alerta de que «si esta tendencia continúa, las naciones de todo el mundo pronto producirán generaciones de máquinas útiles, más que ciudadanos completos que puedan pensar por sí mismos».

El pensamiento crítico y la formación humanista se presentan en este contexto como claves. Las inteligencias artificiales no dejan de ser máquinas, por lo que no se las puede adiestrar en valores morales, ya que ello supondría entrenarlas con experiencias personales, algo que contradice la ética. Además, como también resalta Sabater, «la constante exageración y mística de la IA generativa hace que haya malentendidos sobre lo que es la “inteligencia artificial” y la “creación o generación de contenidos” y, como consecuencia, que se minusvaloren nuestras capacidades por unos intereses comerciales, tal como se demuestra cada vez que se habla de utilizarla para sustituir a los humanos».

Con el objetivo de promover la investigación interdisciplinaria y transversal, fomentar los vínculos con la industria y formar a la próxima generación de talento destacado en este campo, Catalunya se ha integrado recientemente en la red europea de excelencia de investigación en inteligencia artificial. La Unidad ELLIS Barcelona (European Laboratory for Learning and Intelligent Systems) será la tercera más grande de la red y estará formada por 21 investigadores de cinco universidades y cinco centros de investigación del sistema catalán de conocimiento.

Retos de la IA para la humanidad

Algunos de los retos éticos que plantea el desarrollo de la IA son la privacidad, la formación de la propia identidad, la atribución de responsabilidad o los sesgos en el procesamiento de datos.

En este sentido, una de las grandes cuestiones que se plantean pensadores e investigadores es si la IA nos quita el poder de decisión o es una nueva forma de aprovechar nuestro poder de decisión; para Ramon López de Mántaras, profesor emérito de investigación del CSIC en el Instituto de Investigación en Inteligencia Artificial, la IA hace ambas cosas; un ejemplo de ello serían los coches autónomos, que nos quitan poder de decisión en la carretera, pero también suponen una nueva forma de aprovechar este poder que tenemos.

Si hay un accidente con un vehículo monitorizado, ¿quién es el responsable: el programador, la empresa distribuidora, el encargado de mantenimiento o el conductor?

Sin embargo, precisamente el ejemplo de los coches autónomos es paradigmático, pues una de las preocupaciones es qué principio aplicará la IA a la hora de decidir, lo que nos lleva a abrir otro gran debate sobre la responsabilidad de las acciones de estas inteligencias artificiales. Al respecto Txetxu Ausín plantea la siguiente cuestión: «Si hay un accidente con un vehículo monitorizado, ¿quién es el responsable: el programador, la empresa distribuidora, el encargado de mantenimiento o el conductor?». De aquí se deriva la importancia de contar con unas bases éticas y jurídicas, para evitar que estos artefactos actúen fuera de la ley.

De hecho, en Europa la solución se encamina a la regulación; por el momento los Estados miembros de la Conferencia General de la UNESCO en 2021 adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, el primer instrumento normativo mundial sobre el tema, y que tiene como objetivos la protección y promoción de los derechos humanos y la dignidad humana, y convertirse en una guía ética y una base normativa global que permita construir un sólido respeto por el Estado de derecho en el mundo digital.

Del mismo modo, la Unión Europea en el mismo año ha empezado a plantear un marco regulatorio de la IA con la Ley de Inteligencia Artificial, y en España se ha presentado la Estrategia Nacional de Inteligencia Artificial.

Como sociedad debemos poder decidir, cuando hay demasiados riesgos, que no queremos desarrollar determinada investigación tecnológica

Las tecnologías «ofrecen posibilidades, pero también amenazas», por lo que se convierte en urgente poner líneas rojas a los algoritmos como advirtió la socióloga Nuria Valles: «No tienen capacidad moral por sí mismos, no pueden discernir lo que está bien de lo que no. Por eso, como sociedad debemos poder decidir, cuando hay demasiados riesgos, que no queremos desarrollar determinada investigación tecnológica». Judith Membrives, de Lafede.cat, asegura que «es necesario adaptar los derechos humanos al entorno digital, puesto que la tecnología no ha provocado la vulneración de derechos, lo que ha hecho es perpetuarla e intensificarla».

Ya no somos juzgados con base en nuestras acciones reales sino sobre lo que la IA indica que serán nuestras acciones probables

Asimismo, Ausín alerta de las consecuencias de la excesiva dependencia de los datos que nos convierten en un «yo cuantificador»: «Las predicciones y decisiones de organismos, instituciones y empresas se basan cada vez más en los datos proporcionados por algoritmos, lo que significa que ya no somos juzgados con base en nuestras acciones reales sino sobre lo que la IA indica que serán nuestras acciones probables. Esto puede afectar a la decisión de instituciones de conceder o no una ayuda social, de considerarnos como supuesto sospechoso de actos de delincuencia o, en el caso de otros países, de denegar un seguro de salud por las posibles patologías futuras del paciente». A esto Membrives añade el caso de algoritmos que puntúan sobre el riesgo de reincidencia de los presos y que presentan problemas de racismo y machismo, y el mal uso que puede hacerse de los programas de reconocimiento facial en el contexto migratorio.

Un estudio revela que la automatización ha reducido los salarios de las personas sin titulación entre un 2,3 % y un 8,8 % desde 1980

No obstante, como bien defiende Ulises Cortés del Barcelona Supercomputing Center, «los algoritmos buscan la eficiencia, pero son los políticos y las empresas quienes hacen un uso u otro, es decir, aquellos que deciden si buscan incrementar o no la justicia social». Un ejemplo de ello lo vemos en lo que revela un estudio del Massachusetts Institute of Technology, según el cual la automatización ha reducido los salarios de las personas sin titulación entre un 2,3 % y un 8,8 % desde 1980. En el estudio se hace hincapié en que «cuando utilizamos las cajas de autoservicio estamos, por un lado, ayudando a los empresarios a reducir costes salariales, y por otro, contribuyendo de forma significativa a la desigualdad de ingresos que cada vez es más acusada».

Volviendo a la cuestión que planteaba Judith Membrives sobre la tecnología como perpetuadora de los prejuicios y estereotipos, los sesgos se presentan como uno de los defectos principales de la inteligencia artificial; de allí la necesidad de contar con una visión humanística en el desarrollo de las IA, pues como bien señala Sara Degli-Esposti, filósofa en el Instituto de Filosofía del CSIC y experta en ciberseguridad, «el programador no tiene conocimientos de historia o filosofía, por lo que no puede interpretar los sesgos de los datos que introduce para dar instrucciones al algoritmo al que está educando y entrenando».

El futuro de la IA apunta a una menor dependencia de los datos, según Ramón López, quien asegura que «el actual statu quo no es sostenible, puesto que las infraestructuras de datos consumen una cantidad de energía muy considerable». En alusión a ello ha defendido la necesidad de que se hable de «Small Data en contraposición al Big Data».

Fuentes:

https://www.youtube.com/watch?v=0zjhrG4PCss

https://www.udg.edu/ca/catedres/OEIAC

https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica

https://www.unesco.org/es/artificial-intelligence/recommendation-ethics

https://www.linkedin.com/news/story/este-robot-te-baja-el-sueldo-5190609/

https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206

https://planderecuperacion.gob.es/politicas-y-componentes/componente-16-estrategia-nacional-de-inteligencia-artificial

Sin Comentarios

Escribe un comentario

Tu correo electrónico no se publicará