Poco a poco, la humanidad ha alcanzado a la ciencia ficción: aparecieron los automóviles eléctricos, los viajes al espacio son cada vez más especializados y de alguna u otra forma, cada vez la medicina encuentra la forma de evitar la muerte de maneras cada vez más tecnológicas.
En la última década, la inteligencia artificial fue tomando fuerza y hoy por hoy se ha globalizado tanto en sistemas como el de Alexa, de Amazon, o Siri, de Apple. De una u otra forma, la inteligencia artificial ya está en nuestros hogares.
Pero hubo un momento en el 2017 que dos sistemas de inteligencia artificial programados por la gigante Facebook empezaron a crear su propio lenguaje, y eso causó alarma. Los responsables del proyecto terminaron apagándolos.
El proyecto
Trascendió que todo empezó a raíz de la investigación Fair. Esta consistía en mejorar los sistemas de inteligencia artificial que están detrás de los chats de respuesta y ayuda que usan muchas empresas para dar atención a sus clientes.
Con ese objetivo se creó a Alice y a Bob, los nombres de las dos mencionadas inteligencias artificiales, quienes tenían la finalidad de hablar entre sí.
Y así fue. Conversaban, dialogaban y de pronto comenzaron a negociar mejor entre sí. De pronto, los investigadores encargados del proyecto se percataron de que Alice y Bob estaban diciendo sinsentidos. Pero no era así, era todo lo contrario: habían creado un lenguaje que no podían entender los humanos.
El hecho se percibió como una alarma, ya que daba la impresión de que eso podía salirse de control, y por tanto se decidió apagarles. Pero, el equipo luego aclararía que se decidió eso no porque existiera peligro de que estos “escaparan” a la web. Sino que, si se les presentaba un error y no lo entendían, no podrían repararlo.