La dimensión ética de la IA
Los dilemas éticos sobrevuelan la mayoría de las tecnologías emergentes, especialmente la Inteligencia Artificial (IA). La responsabilidad sobre el sentido de su uso recae cada vez más directamente sobre los ejecutivos y consejos de administración; por eso urge definir cuanto antes una aproximación concreta y adecuada, tanto desde el punto de vista de la ingeniería como del negocio, que dé lugar a una IA responsable dentro de las organizaciones.
Su amplio alcance y rápida evolución hace que las implicaciones éticas afecten a múltiples cuestiones: la transparencia de los algoritmos empleados, el respeto a la privacidad, la parcialidad en la toma de decisiones fruto de la interacción entre humanos y robots, el poder (y posible abuso) de las grandes tecnológicas que dominan la I+D+i de esta IA…
En un momento en el que cada vez se despliegan más sistemas con este tipo de inteligencia, el encuentro virtual “Reimagine the future of Artificial Intelligence” abordó las responsabilidades y riesgos derivados de la misma con dos ponentes autorizados: Ayanna Howard y Mark Surman, en un diálogo moderado por Robert Wolcott, cofundador y presidente de TWIN (The World Innovation Network).
Ayanna Howard es profesora, investigadora y responsable de la Escuela de Computación Interactiva en Georgia Institute of Technology, donde suma a su actividad docente la investigación de aplicaciones que abarcan desde robots de asistencia en el hogar hasta apps de juego-terapia para la exploración de la robótica remota en entornos extremos. Destaca su enfoque en el desarrollo de tecnología para agentes inteligentes que deben interactuar con y en un mundo centrado en el ser humano. Antes de iniciar su carrera académica, trabajó durante más de dos décadas en proyectos de I+D de diversas agencias, entre ellas la NASA.
Mark Surman es director ejecutivo de la Fundación Mozilla, una comunidad global, responsable del navegador Firefox, que defiende una Internet abierta, accesible y saludable como el recurso de comunicación y colaboración más poderoso. Con anterioridad fue director general de telecentre.org y presidente de la firma de consultoría Commons Group. En 2007, fue galardonado con la beca de la Fundación Shuttleworth, gracias a la cual estudió cómo aplicar enfoques de código abierto a la filantropía. Un año después se unió a la Fundación, desde la que trabaja haciendo realidad The Mozilla Manifesto.
ROBERT WOLCOTT: Durante años, la IA ha sido un ámbito de muchas promesas y pocos resultados, o OPUD (Over Promise Under Deliver), como yo lo defino. Sin embargo, ahora parece que estamos viviendo el renacimiento de la IA. Creo que es una metáfora adecuada teniendo en cuenta el papel que las redes neurales, gracias al incremento del poder computacional, están teniendo en la progresión de esta inteligencia. Pero, como bien sabemos, todo gran poder conlleva una responsabilidad aún mayor. Ayanna, Mark, como personas autorizadas en este campo, ¿de qué manera se entrecruzan los aspectos éticos de vuestro trabajo con la IA?
AYANNA HOWARD: Una de mis especialidades es la robótica pediátrica. Los niños son tremendamente influenciables, y hay una gran cantidad de atributos –como el género, la edad o las características físicas–, que pueden mediatizarnos o hacer que se produzcan sesgos en los modelos que empleamos. Por eso resulta esencial considerar su vulnerabilidad.
Durante el trabajo con niños autistas, introdujimos robots en los hogares y en las clínicas, y observamos cómo las reacciones ante nuestro sistema eran diferentes según el género. Eso me dejó desconcertada. Como ingeniera, me excitaba el proceso de recogida de datos de los niños y los médicos, algo para lo que estoy preparada; pero, si la mayoría de los casos de autismo se producían en niños –pues en ellos la incidencia es superior–, también la mayoría de los datos de esas interacciones provendrían de esos chicos y sus médicos, y no de las niñas.
Las diferentes reacciones entre ellos y ellas son consecuencia de la forma en la cual aprendemos y nos formamos. Ahora soy consciente de todo esto, pero si alguien como yo hubiera podido cometer un error de tal calibre y aplicar resultados obtenidos de chicos a chicas, resulta evidente que cuando aplicamos algoritmos vamos a equivocarnos constantemente. Por eso, he convertido la reparación de estos errores en mi misión.
MARK SURMAN: De alguna manera, seguimos apostando por la apertura y la transparencia de un Internet para todos. En los años 90, cuando Mozilla apareció en el mercado, el entorno computacional evolucionaba hacia la inclusión de las redes y la web, y nos preocupábamos por quién lo controlaba, sobre todo porque Microsoft tenía el 90% de los navegadores web.
Hoy son válidos los mismos conceptos, pero en un contexto diferente donde lo computacional gira alrededor de los datos y la IA. En la actualidad, se sigue una hoja de ruta dictada por las cinco grandes tecnológicas y algunas compañías chinas. Nosotros perseguimos la descentralización, y para ello analizamos la manera de democratizar las estructuras de poder que están detrás de la IA, tanto para los usuarios como para los desarrolladores.
Un ejemplo es la GDPR (General Data Protection Regulation), la estructura que vela por la privacidad en Europa y que se preocupa de la portabilidad, la interoperabilidad y ofrece más libertad de elección. En EE.UU. no gozamos de tanta libertad y tendemos a obviar que estos temas están relacionados con la IA, cuando es precisamente en la libertad para moverse entre estos sistemas, donde aportamos valor a los consumidores y a nosotros mismos.
Otro de nuestros campos de trabajo es el código libre. Creo que, si lo comparamos con la época previa al nacimiento de la web, no nos hemos percatado lo suficiente de que estamos construyendo tecnología sobre la que otros, adaptándola, pueden construir a su vez. Sin duda, esto ayuda a muchos negocios y estoy convencido de que sin Linux, Apache u otros códigos abiertos, no habrían existido. Grandes negocios se han creado utilizando esos softwares como si fuesen piezas de un Lego. Incluso hoy tenemos más enciclopedias que nunca, y en todos los idiomas, gracias al software de Wikipedia. Esto no se ha producido de la misma manera, ni tanto, con IA. Si pensamos en Alexa, Siri o Google Home, observamos que hoy son los lenguajes más importantes en el mundo.
Resumiendo: la clave está, primero, en cómo logramos que el sistema sea abierto y cómo hacemos responsables y controlamos el poder de los grandes players; y, en segundo lugar, en cómo se libera, a través de una estrategia de código abierto, la creatividad de las personas.
R.W.: Has mencionado a Microsoft. Recuerdo que entonces nos preguntábamos si alguien le quitaría el monopolio de los navegadores… ¡hasta que llegó Google! También recuerdo que decían que Yahoo! ya había conquistado ese espacio y que perdían el tiempo. Hoy, la agregación de datos y los sistemas de IA han cambiado el terreno de juego. ¿Dónde estamos? ¿Cómo se destronarán los Google o Facebook?
A.H.: Ninguna compañía es inmune al destronamiento. No hay más que pensar en las que existían hace una década, y ya no están. Creo que esas desapariciones se fueron originando en el momento en que dejaron de entender a sus consumidores y clientes.
Este movimiento de la IA otorga poder a las personas, lo que es intrínsecamente positivo, pues permitirá la entrada de nuevos players que desplacen a los grandes. La IA nivela el campo de juego de diversas maneras.
M.S.: No estoy tan convencido de que esto vaya a suceder por sí solo. Las mayores inversiones para el desarrollo y la investigación en IA se realizan, predominantemente, en los grandes actores del mercado. Son las Big Five, junto con IBM y algunos gigantes chinos, quienes cuentan con tremendas ventajas. Por eso es relevante que las tecnologías abiertas sirvan para que empresas más pequeñas puedan utilizarlas, apalancándose sobre ellas y no teniendo que utilizar las que los grandes ponen a su disposición.
También resulta esencial prestar atención a alternativas en la gobernanza de los datos, de modo que los usuarios puedan aumentar su control sobre ellos, para entonces poner en sus manos temas como la interoperabilidad. Así los usuarios no estarían obligados a usar la API de Google o Facebook, y podrían utilizar otras. La gente ya está imaginando innovaciones legales y tecnológicas; y si estas se aplicasen o construyesen, conseguiríamos cambiar las tendencias.
Es necesario reconocer el gran poder que ostentan estas compañías para desarrollar el campo de la IA, pero se están abriendo oportunidades para la disrupción y hemos de ponerlas en marcha lo antes posible.
R.W.: El concepto de democratización de las tecnologías es recurrente y las visiones al respecto están muy polarizadas. En un extremo, la de quienes sostienen que los gobiernos gestionarán nuestras vidas, y en el otro, los que defienden que todo se va a democratizar. ¿Cuál es vuestra valoración? ¿Qué os ha sorprendido recientemente?
A.H.: Uno de los hechos más llamativos ha sido la adopción del reconocimiento facial. Mi tesis del 99 versó sobre ello, pero refiriéndome al largo plazo. En cambio, esta tecnología ha alcanzado un momento dulce y una implementación vertiginosa, hasta el punto de ser empleada para la vigilancia masiva. De repente, a raíz de la muerte de George Floyd, compañías que estaban ganando billones con esta tecnología se han dado cuenta de las implicaciones éticas de la misma.
R.W.: Esto plantea también dilemas relativos al control de los gobiernos sobre sus ciudadanos, e incluso a las relaciones entre países.
M.S.: La tecnología de reconocimiento facial, como cualquier otra tan poderosa, puede ser utilizada para hacer el bien o el mal. En ciertos países, como China, ha sido útil para ayudar a controlar la pandemia. La pregunta es si queremos depositar tanto poder en manos de un estado.
Observando las diferentes ideologías y posiciones respecto de la IA –y lo que estas van a significar en términos de competitividad y negocio–, veremos cómo China sigue avanzando sin respetar la privacidad ni la ética. En el espectro opuesto está la UE, que confiere gran importancia a la privacidad y la protección de los datos; mientras que EE.UU. se sitúa entre ambos.
Creo que la evolución dependerá de cómo los líderes empresariales afronten la demanda de una IA responsable y cómo sea requerida por los ciudadanos. La sabiduría popular presume que a nadie le preocupa la ética ni tiene problemas con la privacidad, pero no estoy de acuerdo. Existen grandes reticencias al reconocimiento facial; no a la tecnología en sí misma, sino a las imprecisiones e inexactitudes que se producen con su uso, algo que ha sido demostrado por los académicos, además de los prejuicios y sesgos.
La existencia de un racismo sistémico en entornos como el norteamericano desencadena prejuicios sobre la IA. Tener un contexto legal, cultural y de negocios capaz de responder a este hecho no es problema técnico. No depende de disponer de un tipo de modelo de datos, sino de las personas que utilizan esa tecnología.
A.H.: Creo que en esto hemos cambiado. Si antes una empresa pensaba únicamente en los beneficios y la calidad del gadget que diseñaba, hoy se considera parte del problema y es consciente de que eso le obliga a ser parte de la solución. Por eso, al diseñar IA cada vez se tienen más en cuenta las implicaciones legales y sociales, tanto las positivas como las negativas; y se actúa en consecuencia.
En general, la gente no confía en la IA que crean las compañías, pero esto puede cambiar si demuestran ser honestas y transparentes, auditando esa IA por terceros independientes, por ejemplo, y sobre todo aceptando su responsabilidad.
R.W.: ¿Y qué parte de responsabilidad tienen los científicos, desarrolladores y tecnólogos?
A.H.: Doy clases de ética en la IA a profesionales, y este asunto se les hace muy cuesta arriba. Siempre les digo que cuando vean algo que está mal deben señalarlo; de lo contrario, terminaremos siendo víctimas nosotros mismos. Si alguien que contribuye a la IA no actúa, antes o después se encontrará en el lado opuesto y se verá afectado negativamente.
M.S.: Cada vez resulta más evidente el impacto humano y social que tienen las decisiones tecnológicas, y los tecnólogos desean hacer lo correcto. Esto no sólo es una responsabilidad, sino también una oportunidad. Esa transición de dos décadas en la interacción entre personas y ordenadores, que necesitó de la construcción de normas y técnicas y donde se pasó de pensar en la ingeniería a pensar en el usuario, ocurre hoy en la IA.
R.W.: Que la IA es parcial y tiene prejuicios es una realidad. ¿Qué podemos hacer para obtener un impacto positivo, sin obviar ese hecho?
A.H.: No existen softwares sin sesgos. Todos hemos pasado por experiencias límite. Cuando no nos percatamos de ellas, es cuando surge el prejuicio. Como tecnólogos, hemos de ser conscientes de que no tenemos respuesta para todo, y por eso debemos intentar ver “quién falta” en la ecuación y hacer que otros “miren”, por si perciben que alguien “está excluido”. Sabiéndolo, podremos ser transparentes explicando estas ausencias y planteando nuestro deseo de mejorar.
M.S.: Este tema es amplísimo. Los líderes empresariales involucrados están creando grupos de trabajos diversificados y prestando mucha atención a los responsables de los procesos de diseño, y la cantidad de aspectos que abarcan.
Distinta cuestión son las inclinaciones propias de cada compañía, las tendencias insertadas en su cultura y procesos de formación. Si estamos creando un sistema de IA para conceder créditos, y he sido formado en un banco cuyo histórico ha sido el de no dar créditos a los más desfavorecidos, continuaré diseñando para que los resultados sean similares. Es decir, no sólo se trata de ser consciente de este prejuicio, sino también capaz de cambiarlo
En tercer lugar, donde además de prejuicios tendenciosos se dan también inexactitudes, es necesario considerar la posibilidad de no utilizar tecnologías, como el reconocimiento facial, para evitar ciertas acciones que entrañen consecuencias peligrosas. Tomar decisiones basadas en inexactitudes y prejuicios es una mala idea en la mayoría de los casos, así que mejor no tomarlas.
R.W.: Elevando el tema, y después de varias preguntas donde de forma indirecta estáis aludiendo a esta cuestión, me gustaría que explicaseis los conceptos de IA explicable e IA responsable. ¿Qué significan ambos términos?
M.S.: La inteligencia explicable es más sencilla de comprender, porque las decisiones se basan en inferencias estadísticas, conclusiones, patrones, pautas… y otras técnicas similares que nos permiten mirar atrás y explicar el porqué de la decisión. Un sencillo ejemplo es cuando en nuestro Facebook o Instagram aparece una publicidad y nos explican que nos la muestran porque el algoritmo empleado ha llegado a la conclusión de que nos iba a interesar. Este tipo de IA es importante en temas de automatización de las consecuencias humanas, como actividades policiales, concesiones de créditos personales, etc.
Frente a esta IA explicable tenemos otra IA responsable, aunque nosotros preferimos usar el término de “trustworthy”, que podríamos traducir por confiable o fidedigna. Es un concepto que se emplea en la UE y que tiene dos características. Primero, que es diseñada para interaccionar con personas, y segundo, que incluye la responsabilización. Cuando ambas características existen, se puede confiar mucho más en el sistema. Estas definiciones son utilizadas por los europeos, que lideran este debate, al menos a nivel regional y gubernamental.
R.W.: Si hablásemos con líderes empresariales que toman decisiones en este ámbito, pero que podemos asumir que no son quienes desarrollan esa IA, ¿qué consejo les darías, Ayanna?
A.H.: Son ellos quienes crean la cultura en las empresas. Si un líder establece que el camino a seguir es el de ser imparcial, ético, responsable y transparente, y quienes desarrollan la IA están alineados con esos valores, es justo pensar que lo que desarrollen tendrá esas características.
R.W.: Mark, ¿cuáles son tus preocupaciones sobre la IA?
M.S.: Mi preocupación es la consolidación del poder. El ver cómo nuevos players, a la larga, controlarán el espacio. La computación e IA han sido algo tremendamente creativo e innovador en los negocios, pero también tienen un efecto en red donde las grandes compañías parecen ejercer un efecto de aspiradora, absorbiendo todo. Hay un movimiento pendular (abierto-cerrado, centralizado-descentralizado) y siempre existe el miedo a que se pare y algunos grandes players, como Amazon o Alibaba, dominen el mundo. Me preocupa la ausencia de competitividad creativa que hemos visto en décadas pasadas.
R.W.: ¿La vuelta de esa competitividad depende de los mercados o de los gobiernos? No podemos olvidar que la revolución de los semiconductores nació gracias a que el gobierno planteó la obligación de compartir tecnología, o que la separación entre hardware y software fue fruto del Consent Decree puesto en marcha por IBM. Estos momentos pivotantes permitieron liberar la creatividad y competir en libertad, ¿no?
M.S.: Así es, y espero que el retorno de la competitividad dependa más de los innovadores y creadores que de los mercados, pero habitualmente suele ser de ambos. La historia de Mozilla es una historia de código abierto, de unos héroes, de David frente a Goliat… pero al final, si el departamento anti-trust de EE.UU. no hubiese llevado a los tribunales a Microsoft por sus navegadores, no creo que la historia hubiese sido igual. Hay ocasiones donde los gobiernos tienen que actuar.
R.W.: ¿Qué peligros acechan a la IA en el corto plazo?
A.H.: Creo que puede haber un cierto rechazo, y aparecer regulaciones, si las empresas no actúan correctamente y no protegen al consumidor.
M.S.: Han de existir preocupaciones legítimas a las que debemos responder, pero sin caer en el miedo que, en mi opinión, es lo que puede provocar ese rechazo, además de frenar la innovación continuada l
Ayanna Howard, School Chair for Interactive Computing en Georgia Institute of Technology, y Mark Surman, director ejecutivo de Mozilla Foundation, entrevistados por Robert Wolcott, presidente de TWIN.
Entrevista publicada en Executive Excellence n169, septiembre 2020.
Innovative Knowledge by ESIC.