Takeo Kanade, pionero de la visión artificial en 3D, cree que la tecnología impulsará una educación personalizada y más eficiente.
Si hoy se puede desbloquear el móvil por reconocimiento facial, los cirujanos pueden seguir en tiempo real la ubicación del bisturí en el interior del cuerpo humano sin abrir al paciente, las retransmisiones deportivas ofrecen la repetición de las mejores jugadas desde múltiples ángulos y existen vehículos que se conducen solos es, en buena medida, gracias a las contribuciones del profesor Takeo Kanade (Tanba, Japón, 1945).
Este informático e investigador de la Universidad Carnegie Mellon (Estados Unidos) fue pionero en el estudio de la visión artificial en 3D y revolucionó este campo desarrollando algoritmos que simplificaban y agilizaban drásticamente los cálculos que necesitan los ordenadores para procesar las imágenes tridimensionales, abriendo la puerta a aplicaciones hasta entonces implanteables.
Sus contribuciones le han hecho merecedor del Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, que recogió en Bilbao en junio pasado.
¿Cuál diría usted que es su contribución más significativa?
Probablemente, la conducción autónoma será el área que tenga un impacto más notable. También me enorgullece haberme dado cuenta hace 55 años de las posibilidades que tenía el reconocimiento facial, que hoy es algo que se usa a diario para entrar en el móvil, para el control de pasaportes, para identificarte y que te cobren en el autobús sin enseñar billete…
¿Cuáles son las áreas más prometedoras para la aplicación de tecnologías de visión artificial en los próximos años?
Una de las áreas en las que tenemos que trabajar con más ahínco es en la comprensión de la visión humana. La información visual, los pequeños gestos faciales y corporales, son la clave de la comunicación entre humanos. Preveo que suceda lo mismo para la comunicación entre humanos y robots. Hoy la mayoría de los dispositivos no tienen esa capacidad y por eso la comunicación con máquinas incómoda. Para que el robot sea medianamente inteligente tiene que entender quién eres y tu estado de ánimo, y para eso contamos con utilizar la visión.
¿La visión artificial permitirá a los robots leer nuestras emociones para interaccionar mejor con nosotros?
No solo la emoción como categoría, el saber si estás contento o enfadado, sino esos pequeños gestos más sutiles que permiten interpretar las reacciones y estados de ánimo. Si podemos hacerlo nosotros, ¿por qué no van a poder los robots?
¿Llegarán las máquinas a ver mejor que los humanos?
Absolutamente. Lo hacen ya en cierta manera. Nuestros ojos no tienen la capacidad de emitir un láser para hacer mediciones de distancia directamente como hacía Superman, pero los de algunos robots sí. Los humanos no podemos ver más allá del espectro visible de la luz, que es muy limitado, mientras que la visión artificial puede ver más allá de lo perceptible con visión térmica y ultravioleta. En cuanto a la capacidad de procesamiento, hay muchos trabajos que dicen que la visión por ordenador puede hacer mejor reconocimiento facial que un experto humano.
A medida que la visión por ordenador y la inteligencia artificial se integran en nuestras vidas surgen mayores desafíos éticos, como que un coche decida si frena o no cuando alguien está cruzando la calle o que las personas ya no se puedan fiar de las imágenes que ven con sus propios ojos, por ejemplo. ¿Le incomoda que algunas de esas posibilidades sean consecuencia de sus hallazgos?
Es una pregunta muy difícil. Como tecnólogo e investigador que soy estoy convencido de que la tecnología en sí misma es algo bueno. Lo negativo viene del mal uso que se haga de ella. La responsabilidad es nuestra, de utilizarla correctamente y para el bien. Por supuesto que como tecnólogos también tenemos una responsabilidad y por eso rehusamos participar en el desarrollo de aplicaciones y usos que no sean positivos.
Ciertamente, los temas que usted menciona como la creación de imágenes y videos artificiales con la IA generativa son importantes. Es imposible para el humano saber si se trata de un video real o creado y eso tiene sus riesgos. No olvidemos, sin embargo, que es alguien con intenciones maliciosas quien está poniendo esa tecnología que es neutra al servicio del mal. Y es responsabilidad de la sociedad, no permitirlo.
Por otra parte, también es la tecnología la que permite, potencialmente, eliminar la ambigüedad entre las imágenes reales y las generadas porque ha llegado un punto en que los humanos no sabemos establecer la diferencia, pero los robots sí.
¿Cuáles cree que son los mayores desafíos éticos que debemos enfrentar en el desarrollo de tecnologías de visión artificial?
Hay retos y riesgos incluso en las aplicaciones más sencillas. Si algún gobierno opresivo quisiera implementar cámaras de vigilancia por todas partes para espiar a sus ciudadanos y rastrear el movimiento de todos ellos, saber con quién se habla, en qué momento y dónde, con la tecnología de que disponemos actualmente sería posible casi hasta la perfección. Ese es uno de los grandes peligros. Lo correcto sería no permitir que exista ese tipo de gobierno o no permitirle usar la tecnología con ese fin.
¿Es posible dotar de un código ético a la propia tecnología para evitar su uso malicioso?
Se puede, pero los malos, por supuesto, que encontrarán la manera de reescribir ese código. Pensemos, por ejemplo, en una cámara de vigilancia. La puedes programar con una función que diga: si ves la foto de una mujer desnuda, no grabes. Es posible, puedes hacerlo. Pero si quieres anular esa programación, reescribes unas líneas de código y listo. También puedes convertir la condición en hardware para que nadie descubra esa función, pero siempre habrá alguien que la implemente con un propósito diferente.
Ahora se habla mucho de la necesidad de poner marcas de agua para diferenciar las imágenes reales de las creadas por IA. ¿Es viable?
De momento es útil y viable, pero, como digo, se trata de una carrera: en cuanto pongas una marca de agua a alguien se le ocurrirá una manera de anularla o de borrarla porque, si se puede poner, significa que se puede quitar. Puede que no sea fácil, pero siempre habrá quien lo logre. Es una posibilidad potencial, es la naturaleza de la tecnología.
¿En qué proyectos está trabajando ahora?
Lo que más me interesa en estos momentos es utilizar la inteligencia artificial para la educación. Creo que la IA tiene un enorme potencial para hacer al ser humano más inteligente a través de la educación.
¿Cómo?
La educación actual es muy ineficiente porque la forma en que se enseña a los niños no es necesariamente la más comprensible para ellos. En el fondo cada niño tiene una manera diferente de aprender, y el sistema educativo actual es muy uniforme en cuanto a los métodos que se utilizan. Se aplica el mismo método al niño A, al niño B y al niño C, pero son diferentes y aprenden diferente. Si vamos a un aula, es posible que apenas un tercio de los alumnos esté entendiendo lo que está explicando el profesor, mientras que los otros dos tercios no hacen más que perder el tiempo porque es casi una tortura estar en clase escuchando cosas sin enterarse de nada. Por lo cual la educación personalizada me parece a mí que es una de las grandes claves para mejorar la inteligencia del ser humano y la tecnología puede ayudarnos a ofrecerla.
Fuente: www.lavanguardia.com
Takeo Kanade durante la entrevista realizada en Bilbao horas antes de recibir el Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación FBBVA