La máquina se comunicaba en un inglés incorrecto y repetitivo que, sin embargo, para ella tenía un sentido muy concreto.
Lejos de ser una mera curiosidad, subraya un problema con esta tecnología: que en el futuro no comprendamos la comunicación entre máquinas.
En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación ha dado un giro inesperado, para sorpresa de la empresa que lo ha financiado en parte: Facebook.
Los responsables del proyecto han tenido que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.
La máquina se comunicaba en un inglés incorrecto y repetitivo que, sin embargo, para ella tenía un sentido muy concreto
Lejos de ser una mera curiosidad, subraya un problema con esta tecnología: que en el futuro no comprendamos la comunicación entre máquinas.
En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación ha dado un giro inesperado, para sorpresa de la empresa que lo ha financiado en parte: Facebook.
Los responsables del proyecto han tenido que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.
El lenguaje parece una corrupción del inglés -el idioma en el que originalmente se programó la inteligencia artificial- pero carente de sentido por la extraña repetición de pronombres y determinantes.
Al analizar las oraciones, sin embargo, los investigadores descubrieron que en el aparente desorden había una estructura lógica coherente que permitía a la inteligencia artificial negociar entre distintos agentes usando menos palabras o con menor riesgo de equivocación.
"No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural" y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea, asegura en la publicación FastCo uno de los responsables del proyecto.
Los investigadores apuntan a que el fenómeno es similar al que favorece la creación de abreviaturas o de una determinada jerga entre ciertas comunidades humanas, solo que a una velocidad mucho mayor y sin supervisión ni control alguno por parte de otros individuos.
El incidente, lejos de ser una mera curiosidad, subraya uno de los problemas de la inteligencia artificial. Salvo que se limite su capacidad de optimización, es probable que futuras rutinas desarrollen formas de comunicación propias mucho más eficientes entre sí y alejadas del lenguaje humano. Completamente incomprensibles incluso para sus creadores.
Da la casualidad que justo esta misma semana Mark Zuckerberg, fundador de Facebook, y Elon Musk, el creador de Tesla y SpaceX, han mantenido un acalorado debate en la red sobre los peligros que podría tener el desarrollo de lo que se conoce como una inteligencia artificial "fuerte", es decir, una inteligencia artificial multipropósito que iguale o exceda a la inteligencia humana promedio.
Aún estamos lejos de esa meta (algunos investigadores la consideran incluso poco realista) pero Elon Musk considera que podría tener graves consecuencias para el futuro de la civilización humana. Zuckerberg, en cambio, cree que esa visión catastrofista es contraproducente y retrasará los numerosos beneficios que proporcionarán máquinas cada vez más inteligentes.