Integridad artificial, la nueva frontera de la IA
Hamilton Mann_
Cuenta el estratega digital y tecnólogo Hamilton Mann que Warren Buffett dijo una vez: "Cuando necesites contratar personas, buscas tres cualidades: integridad, inteligencia y energía. Y si no tienes la primera, las otras dos te matarán". Mann sostiene que esta afirmación es igualmente aplicable a la IA y que a medida que empezamos a “contratar” potentes máquinas inteligentes para hacer tareas tradicionalmente realizadas por humanos, debemos asegurarnos de que posean algo parecido a lo que llamamos integridad. “La integridad artificial consiste en incorporar principios éticos al diseño de la IA para guiar su funcionamiento y sus resultados, de la misma manera que la integridad humana guía el comportamiento y el impacto incluso sin supervisión externa, para movilizar la inteligencia en pos del bien”, declara.
Hamilton Mann forma parte de Thinkers50 Radar Class 2024. Es vicepresidente del grupo de marketing digital y transformación digital en Thales, además de profesor en INSEAD, mentor en el MIT Priscilla King Gray Center y autor de Artificial Integrity: The Paths to Leading AI Toward a Human-Centered Future (Wiley).
Con motivo de su nominación como “Radar Thinker”, participó en un encuentro con Stuart Crainer, cofundador de Thinkers50, donde explicó el verdadero reto de la IA, que no es otro que “garantizar sistemas que exhiban capacidades basadas en la integridad, en lugar de buscar una mera inteligencia general o superinteligencia”. Estas fueron sus declaraciones más destacadas:
Digital for Good, un viaje colectivo con matices
“Cada vez más líderes y empresas en todo el mundo están tomando conciencia y participando en el avance de las tecnologías digitales para promover un cambio social positivo, pero hay margen de mejora. Conforme la tecnología evoluciona, también debemos elevar nuestro nivel de comprensión sobre cómo esas nuevas tecnologías están generando nuevas oportunidades para tener una influencia positivo en la sociedad.Conforme la tecnología evoluciona, también debemos elevar nuestro nivel de comprensión sobre cómo se están generando nuevas oportunidades para tener un impacto positivo en la sociedad
Estamos ante un trabajo colectivo: de los gobiernos, las corporaciones, las empresas y cada uno de nosotros, pues todos tenemos algo que decir y espacio para participar. Es un trabajo colectivo y transversal. Ya sea combinando disciplinas, perspectivas, estereotipos culturales…, nuestro gran desafío es cómo trabajar transversalmente y de manera diversa para asegurarnos de aprovechar bien la inteligencia que, como humanos, podemos aportar cuando somos diferentes y contribuimos con distintas visiones.
Es verdad que existen algunos centros de poder en el ámbito tecnológico muy localizados en ciertas partes del mundo, como EE.UU. Sin embargo, nuestra aproximación debería centrarse en observar el efecto sistémico de todo lo que hacemos. La tecnología es un sistema, pero no uno que vive en un vacío, sino un sistema que ocurre dentro de otro más amplio y mayor, que es la sociedad, el mundo. Por lo tanto, aunque tenemos esos centros de poder, el sistema global en el que viven es la sociedad. Como parte de ella, esto significa que muchos de nosotros tenemos el poder de influir y guiar hacia la mejor dirección, para que esas nuevas tecnologías se integren correctamente en el sistema social. La tecnología en sí misma no es inherentemente sostenible ni positiva
Cuando hablamos de la tecnología como una fuerza para el bien, tendemos a pensar solo en su impacto positivo, lo cual es una pieza clave; pero realmente ejecutar estrategias “digital for good” empieza por reconocer el hecho de que la tecnología en sí misma no es inherentemente sostenible ni positiva, por muchas razones. Una de ellas es su impacto ambiental, que hemos de reconocer. Del mismo modo, tampoco la tecnología, por sí misma, tiene la exclusividad en lo que respecta a la innovación y el progreso. De hecho, incluso a veces las tecnologías avanzadas pueden representar lo opuesto al progreso.
Por eso, “digital for good” comienza por contemplar los riesgos y las externalidades que pueden surgir con las buenas intenciones previstas con la tecnología, y por tratar de encontrar la manera de lidiar con ellas y gestionarlas. Esto es lo que, para mí, marca la diferencia de una buena transformación tecnológica.
Tomemos el ejemplo de la IA. Todos sabemos que tiene asociadas grandes oportunidades para la sociedad en muchos sentidos, pero también que conlleva un gran consumo de agua y energía, además de ser generadora de residuos electrónicos, entre otros. No podemos ser ingenuos ni simplistas concluyendo que “esto es bueno o esto es malo”, porque la realidad es una mezcla de ambas cosas. Debemos determinar cuál es el servicio y el aspecto positivo que puede aportar, cómo puede contribuir al progreso que buscamos; y para eso hay que considerar todos los impactos y externalidades negativas.
También suele decirse que la tecnología es una fuerza para la democratización del conocimiento; y así es, pero con matices. Es innegable su valor para compartir información, facilitar el intercambio de ideas y expandir las oportunidades de formación. Sin embargo, esto no es posible en todos los países. En muchos, el acceso a la red Wi-Fi y a dispositivos electrónicos no está democratizado.
Pensar en el poder de la tecnología para aumentar el acceso a la educación también significa asumir que algunas partes del mundo se quedarán atrás, porque las tecnologías y los recursos necesarios no están aún disponibles o no están tan extendidos.Pensar en el poder de la tecnología para aumentar el acceso a la educación también significa asumir que algunas partes del mundo se quedarán atrás, porque las tecnologías y los recursos necesarios no están aún disponibles o no están tan extendidos
Tampoco se puede obviar el hecho que no todo es igual en cualquier parte del planeta. Hay que entender y adaptarse a los diversos contextos culturales, modelos de valores y matices situacionales, contrarrestando los sesgos subconscientes y asegurándose de no estar fomentando una brecha digital, al pensar erróneamente que se está teniendo un impacto favorable en el mundo, pero solo considerando el mundo que cada uno tiene en su cabeza.
Integrar tecnología y ética
No hay una respuesta única frente al dilema de integrar ciertos tipos de tecnologías en nuestra vida cotidiana de forma ética y en sintonía con los valores que queremos promover. La inteligencia es excelente y útil en muchas tareas, pero queremos algo más, pues no tiene sentido hacer las cosas de modo inteligente en el vacío, sin ética ni valores. De eso versa el concepto de “integridad artificial”. Se trata de cómo asegurar que los sistemas y tecnologías que desarrollamos e implementamos no solo ofrezcan inteligencia, sino que también estén diseñados con el propósito de ser coherentes con una forma de integridad que necesitamos preservar. La integridad artificial se traduce en asegurar que los sistemas y tecnologías que desarrollamos e implementamos no solo ofrezcan inteligencia, sino que también estén diseñados con el propósito de ser coherentes con los valores que necesitamos preservar
Si nos fijamos en las tecnologías y aplicaciones de vigilancia, habrá países que impulsen su uso por razones de seguridad hasta un cierto grado, considerado en armonía con los valores que se promueven en esa parte del mundo. Esto no significa que no sea ético; lo será desde su perspectiva, cultura y principios. Pero si intentamos implementar las mismas tecnologías en otro lugar, sin tener en cuenta la cultura y los valores del mismo, no funcionará. Es por eso que comparar no siempre es la forma más razonable de afrontar este aspecto. Los avances tecnológicos no pueden abordarse de manera uniforme; el mismo algoritmo o sistema puede significar cosas diferentes en China, África o Francia, y debemos respetarlo.
Necesitamos respetar los valores y principios éticos que estructuran una cultura determinada, porque cada una adaptará los posibles progresos tecnológicos teniéndolos en cuenta. Sin embargo, también creo que se han de considerar ciertos principios éticos y valores universales que ayudan a definir esas culturas y que, a veces, crean puentes entre ellas.Los avances tecnológicos no pueden abordarse de manera uniforme; el mismo algoritmo o sistema puede significar cosas diferentes en China, África o Francia, y debemos respetarlo
Ese es el reto que enfrentamos hoy. No se trata solo de desarrollar una IA que sea inteligente e imite nuestras capacidades humanas, sino que además pueda abrazar la diversidad actual, considerando valores, ética y otros aspectos culturales. Vivimos en un mundo conectado y precisamos algunos principios comunes que nos permitan tener una visión compartida de la vida. En mi opinión, este es el desafío cuando hablamos de aplicaciones tecnológicas como la vigilancia o los drones, entre otros.
Vivimos en un mundo conectado y necesitamos principios comunes que nos permitan tener una visión compartida de la vida
Además, está surgiendo una nueva forma de cooperación que tomará en consideración las contribuciones de los sistemas de IA, los cuales añadirán valor a la ecuación de la cooperación y colaboración y aportarán a lo que hoy conocemos como inteligencia colectiva (de los humanos).
Como personas, muchas veces nos resultado retador trabajar como equipo y hacer que esa ecuación funcione, que uno más uno sea igual a tres. Así que ahora, cuando hablamos de cooperación y colaboración, debemos asegurarnos de ser lo suficientemente inclusivos para traer una nueva forma de inteligencia. Seremos nosotros, como seres humanos, quienes determinaremos la mejor manera de incluirla en el ámbito de la inteligencia colectiva y encontrar el modo más eficiente de lograr esa interacción.
En otras palabras: si pienso en la competencia que actualmente existe entre muchas empresas para experimentar con la IA y la inteligencia generalizada, creo que las que estarán muy por delante no serán las que aprovechen la IA o las plataformas tecnológicas más sofisticadas, sino las que hayan entendido cómo integrar esta nueva forma de inteligencia en el sistema general y agregar nuevas vías de colaboración y cooperación a la ecuación.
Un futuro alentador
Imaginemos un marco de la integridad artificial representado por un cuadrante donde el eje X simboliza el valor humano añadido, de bajo a alto; y el eje Y representa, de menos a más, el valor añadido por la IA.
Supongamos ahora cómo sería el mundo en 2030 atendiendo a estos cuatro cuadrantes. El cuadrante de la parte inferior izquierda, que yo llamo "el modo marginal", tiene que ver con una serie de actividades en las que sentimos que el valor humano está poco aprovechado. La inteligencia humana no se está empleando adecuadamente, y esto genera desmotivación. En ese cuadrante se dan oportunidades limitadas para agregar valor con tecnologías avanzadas, como la IA, porque estas tareas no justifican la inversión tecnológica. Así que una pregunta crítica aquí es cómo evolucionamos la fuerza laboral humana para asegurarnos de emplear la inteligencia humana de la manera correcta para avanzar.
La respuesta a esa cuestión hace diez años no es la misma que hoy, y, por supuesto, no será la misma en 2030.
En el siguiente cuadrante de la parte inferior, se encuentra lo que muchos denominan el "primer tipo de modo humano", donde la inteligencia aportada por la humanidad es fundamental para el resultado que queremos lograr. Aunque deseamos aprovechar la IA y las nuevas tecnologías, lo que marcará la diferencia entre el éxito y el fracaso será en gran medida la implicación y la contribución del ser humano en el proceso. Una pregunta crítica por resolver aquí es: ¿cuáles son esos ámbitos cruciales en los que consideramos que el ser humano debe estar presente? Esto abarca sectores y dominios que van desde la sanidad a otros muchos ámbitos.
Si pasamos a los cuadrantes superiores de este marco, arriba a la izquierda tenemos lo que algunos pueden llamar "IA en primer lugar". Este cuadrante es muy interesante, porque aquí encontramos grandes oportunidades para descubrir cosas que realmente ayudarán al progreso de las sociedades, porque estas nuevas formas de tecnología e IA nos permitirán resolver problemas hasta ahora irresolutos. Esto será muy interesante.
La cuestión esencial para las sociedades en este punto será: ¿cuáles han de ser las prioridades? ¿Cuáles deben ser los desafíos clave, que no podemos solucionar solos, en los que queremos invertir buena parte de estas tecnologías para resolverlos?El modo fusión combina lo mejor de ambos mundos: el valor crítico que podemos aportar como humanos en términos de inteligencia y el valor añadido de la IA, algo que no podemos agregar por nosotros mismos
Y, finalmente, en la parte superior derecha del cuadrante se sitúa lo mejor de ambos mundos: el valor crítico que podemos aportar como humanos en términos de inteligencia y el valor añadido de la IA, que es algo que no podemos agregar por nosotros mismos. Esto es lo que yo denomino el "modo fusión". Lo crucial en este punto es cómo crear una forma de armonía, una nueva inteligencia colectiva –como mencionaba antes– donde la máquina y el ser humano trabajen juntos para lograr algo. No sabemos aún cómo funcionará esta ecuación, pero definitivamente creo que tendremos algunas pistas en los próximos cinco a diez años y, realmente, percibo nuestro potencial para tomar el control de la tecnología y ayudarla a moldear un mundo mejor".
Hamilton Mann, vicepresidente Digital de Thales, Thinker Radar 2024 y pionero del concepto Integridad Artificial, con Stuart Crainer, cofundador de Thinkers50.
Imágenes recurso: © Freepik. Publicado en 2024.