Hero Image

Noticias

El Mercurio de Valparaíso | Carta de Guido Larson: El valle inquietante de la lA

Hacia 1970, el experto en robótica japonés Masahiro Mori publicó un libro donde decía que, en la medida en que la semejanza antropomórfica de un robot con un ser humano se hiciese cada vez mayor, la respuesta emocional sobre la invención sería inicialmente de empatía pero luego de rechazo, dado que habrían detalles minúsculos que nos alertarían de su diferencia con un ser humano real. Con posterioridad, la hipótesis fue traducida como la hipótesis del “valle inquietante” (uncanny valley).
Los enormes avances en el ámbito dela inteligencia artificial, reflejados últimamente con la herramienta Sora de OpenAl, no sólo asombran, sino
que inquietan; en parte porque, pasada la admiración inicial, plantean interrogantes múltiples, asociadas -por cierto-a los efectos que dichas tecnologías tienen y tendrán sobre materias como el mercado del trabajo, la propiedad intelectual, la productividad y la creatividad humana. Pero también porque permiten imaginar un punto futuro de inflexión radical en nuestro desarrollo social, uno que requiere de atención constante.
En su libro “The Coming Wave”, el ex CEO de DeepMind, Mustafa Suleyman, advierte, en efecto, que con todo lo positivo que estas tecnologías pueden entregar a la sociedad humana, no puede perderse de vista que hay riesgos evidentes para los cuales es necesario prepararse, El periodo que estamos viviendo no es un análogo de la revolución industrial, sino algo distinto, de consecuencias más profundas e impredecibles. No por nada, ya el año pasado más de cien expertos llamaban a una pausa de seis meses en el desarrollo dela inteligencia artificial debido a que los laboratorios de lA se encontraban “en una carrera sin control para desarrollar mentes digitales cada vez más poderosas que nadie ni siquiera sus creadores – pueden entender, predecir o controlar razonablemente”.
Como país, parece urgente tener discusiones de fondo al respecto. Es positivo, en este sentido, la instalación de una Política Nacional de Inteligencia Artificial y su reciente actualización, pero se requiere de especificidad. Hablar de uso “ético” y “responsable” no resuelve el desafío que estas tecnologías propondrán (¿Qué marco ético? ¿Qué implica responsable?); y parece que “regular” el uso, desarrollo y producción de estas tecnologías, considerando su avance exponencial, resulta problemático. Las respuestas que se den a las interrogantes planteadas podrían ser definitorias para el futuro.

Guido Larson Bosco

Docente Facultad de Gobierno Universidad del Desarrollo