¿Qué aspecto tendrá el mundo a la luz de la IA?
¿Estamos preparados para la próxima década de la IA? El tecnólogo y filósofo David Weinberger cree que no, y así lo puso de manifiesto en el 15th Global Peter Drucker Forum. Uno de sus compañeros de panel, John Walsh, vicepresidente de Tecnología y CTO de Fujitsu Europe, además de gran contribuidor a la industria tecnológica y a las aplicaciones prácticas de la IA, admitió sus dudas: "No tengo una respuesta real, pero sí emociones... Una es ansiedad".
Durante la mesa “The Machine Intelligence Turning Point: Are We Ready for AI’s Next Decade?”, y acompañados por Matt Sigelman, Thuy Ngoc Tran y Eduardo Braun, este último en calidad de moderador, meditaron acerca de lo (poco) que sabemos de la IA y sus implicaciones.
¡Funciona! Pero no sabemos cómo
DAVID WEINBERGER: Estamos en un momento extremadamente confuso, y no creo que estemos preparados para la IA, por buenas razones. En un sentido importante, porque co-evolucionamos con nuestra tecnología, lo que en sí mismo es muy confuso. Somos creadores y al mismo tiempo estamos siendo creados por la tecnología que estamos construyendo. Es una relación muy inestable. Creo que, literalmente, no podemos predecir con certeza lo que será la IA, pero tampoco lo que seremos nosotros. Somos creadores y al mismo tiempo estamos siendo creados por la tecnología que estamos construyendo. Es una relación muy inestable
Mi premisa es que históricamente, y todavía ahora, los humanos nos hemos entendido a nosotros mismos en relación a nuestra tecnología. En el siglo XVII, cuando los relojes eran la tecnología punta, el universo empezó a parecerse al mecanismo de un reloj. Podría extenderme, pero avanzando rápidamente hacia la era informática, en la era de Internet todo se parece a la información, todo se parece a una red. Y ahora estamos en la era de la IA.
Una de las formas fundamentales en que la IA nos desafía –a nosotros y a nuestras ideas sobre nosotros mismos y nuestro mundo– es arrojando luz, incluidas sus sombras, que son bastante profundas y aterradoras. En Occidente, hemos pensado durante mucho tiempo que el papel del ser humano es comprender el universo. Luego, en los últimos 100 años en particular, dominar, controlar y gestionar el universo. Estamos en el Global Peter Drucker Forum porque hemos evolucionado la gestión y el sistema de control. En los últimos tiempos, ese sentido ha empezado a romperse dentro de la comunidad empresarial. Con frecuencia se alude a Nassim Taleb con sus cisnes negros y a Rita McGrath, quien nos advierte sobre confiar en las grandes estrategias, como si pudiéramos conocer el futuro. Los humanos nos hemos entendido a nosotros mismos en relación a nuestra tecnología
¿Qué aspecto tiene el mundo a la luz de la IA? No sabemos cómo funciona, y eso es preocupante. Por mi formación filosófica, me siento autorizado a explicar cualquier cosa… ¡aunque no la sepa! Todo proyecto de aprendizaje automático comienza con una rendición y termina con un sacrificio. La rendición es de todo lo que hemos aprendido en la historia de la humanidad.
Así, si queremos entrenar a un sistema para que haga diagnósticos médicos, le damos datos, pero no le decimos cosas que sabemos, como que fumar aumenta el riesgo de cáncer. Damos a la IA un millón de historiales médicos cuidadosamente anonimizados y dejamos que encuentre las correlaciones en los datos asumiendo que, en general, va a localizar correctamente la correlación entre fumar y el cáncer. Pero no todo el mundo que fuma tiene cáncer de pulmón. Hay otros factores implicados, y es relativamente probable que la IA descubra cuáles son y por qué aumentan la probabilidad.
Es increíble, pero no sabemos cómo funciona. Es una frase aterradora, donde no solo es importante recordar que no sabemos cómo funciona, sino también recordar las dos últimas palabras: “funciona” (“It works”). Y este hecho debería hacernos sospechar que nos está diciendo algo sobre el mundo. Está aprovechando algo real sobre el mundo.
Opino que lo que está aprovechando es que el mundo es la cosa más compleja en el universo, y todo lo que sucede depende de pequeñas interacciones de las partículas que se afectan entre sí. Todo en el universo afecta a todo lo demás en el universo todo el tiempo en todas partes. En Occidente hemos llegado a entender y explicar las cosas mirando a las leyes universales, pensamos que ahí es donde está la verdad. Aunque cuando vamos a aplicar esas leyes, el mundo es demasiado complejo para que nuestras predicciones sean completamente fiables. Es más, el mundo se describe mejor como un sistema caótico que como un sistema basado en reglas, aunque también es un sistema basado en reglas, solo que estas se aplican a todo y todo está interactuando a la vez. Es decir, que la IA es en cierto sentido una caja negra para nosotros: no podemos entender completamente cómo funciona pero está reflejando algo sobre la otra caja negra real, que es el mundo en el que vivimos. La caja negra definitiva, que es el universo, es una píldora difícil de tragar, porque plantea interrogantes sobre nuestra capacidad de planificación y nuestra capacidad de comprensión. El mundo se describe mejor como un sistema caótico que como un sistema basado en reglas
Podemos pensar que el mundo está basado en cisnes negros que aparecen con bastante frecuencia, por muy buenas razones, aunque no todos sean tan perturbadores. Pero el hecho es que todo es un cisne negro. En su lugar, también podríamos pensar en un mundo basado en el efecto mariposa que se asocia con la teoría del caos, donde un efecto diminuto puede, a través de formas impredecibles, causar grandes perturbaciones impredecibles o beneficios.
Cambio de conceptos
Desde el punto de vista del liderazgo, la IA nos está revelando que va moldeando el mundo y mostrándolo en su complejidad. El liderazgo es claramente demasiado para cualquier persona, sobre todo para alguien que está sentado en la parte superior de una jerarquía que históricamente fue diseñada de manera explícita para limitar la información que una persona recibe. Es evidente que necesitamos repensar el liderazgo clásico hacia un liderazgo distribuido y en red. La IA nos está revelando que va moldeando el mundo y mostrándolo en su complejidad
Con respecto al efecto sobre la estrategia, estoy muy de acuerdo con Pierre Le Manh, CEO de PMI sobre que la estrategia es una idea muy nueva. Es una idea militar del siglo XIX que en 1960 se convirtió en una idea empresarial. Es algo nuevo, y reconfortante, porque asume que el universo es lo suficientemente predecible, como son las leyes por las que podemos entender y planificar que hasta cierto punto lo es; pero también es poco fiable. He aquí un dato curioso sobre la estrategia. Sócrates fue la primera persona que separó explícitamente la estrategia de la táctica. La táctica era lo que ahora probablemente llamaríamos logística. Su primer y principal ejemplo para saber qué es la estrategia fue un músico que improvisa. Ahí es donde empezó la estrategia en el mundo griego que no estaba gobernado o no se pensaba que estuviera gobernado por leyes nobles, menos las matemáticas. Creo que es una analogía bastante buena de lo que necesitan los líderes, excepto que tiene que ser una banda grande que esté improvisando conjuntamente.
Por último, creo que la IA nos está mostrando que lo explicable no es una propiedad del universo. El universo no nos debe una explicación. La IA escucha a las particularidades y si empezamos a escuchar a esas particularidades, nuestro negocio cambia, nuestras ideas sobre la moralidad, la toma de decisiones y la ética también cambian. La mayoría de los conceptos fundamentales que manejamos sobre lo que significa ser una criatura humana consciente cambiarán. Pero aún no podemos saber cómo.
De la resiliencia a la antifragilidad
JOHN WALSH: La afirmación sobre la resiliencia humana frente a la IA tiene que ver con la creatividad, con el cambio que se va a producir en su contexto y no me satisface el uso de la palabra resiliencia. Yo prefiero usar la palabra antifrágil, ya que en mi opinión vuelve a este concepto de que tenemos que ser capaces de adaptarnos, pero creo que vamos a tener que dar un salto adelante. Necesitamos disrupción para saltar hacia adelante.
Desde 2012, en IA se producen mejoras al menos dos veces cada año. Lo que sabía el año pasado resulta ahora irrelevante para lo que estoy trabajando. Esa es la verdad; esa es la naturaleza del cambio al que nos enfrentamos, así que todo esto tiene que ser antifrágil.
Soy el CTO y VP de Tecnología en Fujitsu. Trabajo en 30 proyectos en Europa, pero tenemos casi 1.000 proyectos en todo el mundo que van de lo sublime a lo absolutamente ridículo en cuanto al nivel; pero tengo la clara sensación de que todo esto será omnipresente en todos los lugares de vuestras vidas, y eso me preocupa.
Me gustaría pensar en la IA como algo que aumenta la inteligencia humana. En la investigación del cáncer, ¿nos permitirá la IA, en última instancia, tomar una decisión en el diagnóstico y recomendar un tratamiento? En absoluto. Lo que hará es permitir que un oncólogo consultor abra su mente al hecho de que tenemos algo más de 10 millones de documentos clínicos y, por muy bueno que seas, no puedes tener tanto en tu mente. La IA no decidirá el diagnóstico ni recomendará un tratamiento, pero ayudará a que un oncólogo sea consciente de que hay más de 10 millones de documentos clínicos y que, por muy bueno que sea, no puede tener tanto en su mente
Es el aumento humano al que aludíamos antes que, creo, es comunicación y tecnología. Lo que facilita el tejido de nuestra sociedad es la comunicación: gente hablando con gente. No me refiero a las redes sociales y similares, sino al núcleo de la interacción humana, cuando nos sentamos y hablamos. En este concepto de tejido, la IA se está volviendo muy poderosa en términos de comprensión del habla humana y, aunque es una herramienta enormemente útil, todavía no tiene en cuenta el sentimiento de la experiencia de la comprensión humana. Hemos de tomar una decisión fundamental: ¿inyectamos la IA en ese tejido o, en otras palabras, tratamos las conversaciones de la IA de la misma manera que tratamos las conversaciones humanas? ¿Cómo vamos a abordarlo? ¿Cómo vamos a tratarla a nivel humano? Puedo hacer la pregunta, pero no sé la respuesta.
También me preocupa mucho la legislación, porque si no sabemos todas las preguntas que tenemos que hacernos, ¿por qué pensamos que podemos legislar sobre estos temas?
¿Haremos lo correcto?
Permítanme contar mi historia sobre el trabajo de investigación del cáncer desde 2012, cuando nos decidimos por un proyecto basado en la IA de grafos. Nos llevó tres años leer 10 millones de documentos clínicos basados en oncología. Luego pudimos tomar una muestra de piel humana y hacer una secuenciación genómica comparativa con una secuencia de piel buena conocida, y luego entregar las diferencias a la IA para ver qué podía descubrir al respecto. Presentamos los resultados a los oncólogos, que se sorprendieron. Les dijimos que no estábamos seguros de cómo sabíamos todo esto, porque algunas de las cosas que descubrimos ni siquiera se habían publicado. Estábamos descubriendo cosas nuevas.Desde 2012, en IA se producen mejoras al menos dos veces cada año. Lo que sabía el año pasado resulta irrelevante en mi trabajo de hoy. Esa es la naturaleza del cambio al que nos enfrentamos
Cuando la IA lee montones de documentos, se da cuenta de que existen relaciones entre ellos que antes no se habían descubierto; pero no todo es perfecto. Al interrogar a la IA Gen con un ingeniero, de la misma forma que yo habría interrogado al tipo específico de IA que habíamos construido para oncología, me respondió con una explicación brillantemente plausible, una explicación extremadamente buena cuando la leías…, excepto por que estaba equivocada, era completa y absolutamente errónea. Y la razón es que la naturaleza de estas cosas es ser predictivas. La matemática subyacente en la IA Gen es la extrapolación y el análisis estadístico y no había datos suficientes en la IA Gen (pues necesitabas tener los datos en ambos extremos de la curva de normalización; esta es una explicación matemática). En conclusión, la realidad era que, en última instancia, la respuesta era errónea.Cuando la IA lee montones de documentos, se da cuenta de que existen relaciones entre ellos que antes no se habían descubierto; pero no todo es perfecto
Así que cuando pienso en si estamos preparados para la IA en la próxima década, no tengo una respuesta real, pero sí emociones. Una es la ansiedad que, en mi mundo, significa cuestionarme si ¿haremos lo correcto? Eso es algo muy, muy difícil de hacer.
David Weinberger, investigador senior de Berkman Klein Center for Internet & Society, Harvard University, y John Walsh, vicepresidente de Tecnología y CTO de Fujitsu Europe, en el 15th Global Peter Drucker Forum.
Ambos compartieron panel, bajo la moderación de Eduardo P. Braun, con Matt Sigelman, presidente de Burning Glass Institute, y Thuy Ngoc Tran, cofundadora y CTO de Astrid AI.
Entrevista publicada en Executive Excellence n189, marzo 2024.