Una investigación realizada por científicos australianos ha demostrado la capacidad de detectar vulnerabilidades en los hábitos y comportamientos humanos a través de Inteligencia Artificial (IA). Se trata de un hallazgo útil a la hora de influir en la toma de decisiones de los usuarios.
El sistema en cuestión utilizado es una «red neuronal recurrente» y se ha puesto a prueba a partir de tres experimentos:
El primero consistía en hacer a los humanos escoger cuadros rojos o azules para ganar dinero en el juego. El sistema de IA estudió los patrones de elección de cada uno y los guio hacia la toma de decisiones específica. Su tasa de éxito alcanzó casi un 70%.
En el segundo experimento se instó a los participantes a pulsar un botón cuando apareciese un objeto de un color determinado. El «objetivo» de la IA era organizar la secuencia de símbolos mostrados al humano de tal manera que se le engañara para que cometiera errores, lo que aumentaría los errores humanos en un 25 %.
Para el último experimento el humano tuvo que fingir ser un inversor que daba dinero a un fideicomisario (la IA) que luego le devolvería una cantidad de dinero. Tendría que decidir cuanto invertir cada ronda basándose en los ingresos generados. Ala IA se le asignó la tarea de «maximizar» la suma que se ganaba o la cantidad de dinero con la que terminaron ambos.
Al concluir los experimentos , los investigadores confirmaron qeu la Inteligencia Artificial puede ser entrenada para influir en el comportamiento y decisiones humanas aunque con limitaciones.
Con estos cambios, se espera que las autoridades australianas implementen un proyecto de ley que obligaría a gigantes multinacionales como Google y Facebook a pagar a los editores y emisores de noticias por su contenido, que los algoritmos especiales de estas compañías impulsar el tráfico y generan clics, una práctica que incrementa también los ingresos por publicidad, que son clave para sus modelos de negocios.