La primera etapa consistió no en enseñar a los robots cómo mentir, sino cuando mentir. Para ello, ambos investigadores desarrollaron un algoritmo que debiera cumplir 2 condiciones: Primero, un robot debía entrar en conflicto con algo o con alguien más, y segundo, debía ser capaz de influenciar las acciones de su adversario (otro robot).
La idea se probó usando un par de robots de dos ruedas y equipados con cámaras que jugaron el juego de las escondidas (un robot se esconde y el otro lo busca).
El robot que debía ocultarse tenía que seleccionar uno de tres compartimientos para esconderse. La ruta a cada uno de los escondites estaba bloqueada respectivamente por 3 plumones marcadores: verde, rojo y azul colocados verticalmente, de manera tal que, a donde quiera que el robot se dirigiera, debía voltear el marcador chocando con él. Después de algo de entrenamiento ambos robots (el "escondido" y el "buscador") se dieron cuenta que un marcador volteado indicaba en que dirección el "escondido" se había marchado ( y por tanto la ubicación del escondite). Pero había un pequeño truco: el robot buscador no sabía que el otro robot había sido programado para mentir.
Cuando el juego comenzó, el robot que debía ocultarse elegía aleatoriamente su escondite. Entonces su programación "mentirosa" le hacía dirigirse primero en una dirección distinta, golpeaba y volteaba al plumón respectivo y luego giraba y se dirigía al escondite de su elección. El robot buscador, al no conocoer que había truco seguiría la pista falsa y no podría encontrar al robot.
Tras 20 juegos se mostró que el 75% de las veces funcionó el engaño, cuando esto no ocurría ambos robots se mostraban torpes, a veces el que debía esconderse golpeaba a más de un marcador o daba tumbos pero en todos los casos el buscador cayó en la trampa de segur erróneamente las pistas en función de los que su programación le indicaba.
En este estudio el engaño consistió en no mostrarle al buscador la capacidad de "mentir" del que se escondía. El cómo reaccionaría ante estas situaciones un robot más inteligente plantea muchas preguntas interesantes, pero sí nos da una idea de que es factible en un futuro diseñar maquinas que deliberadamente nos mientan en diferentes situaciones. Los autores reconocen que la idea suena peligrosa pero que puede ser beneficiosa por ejemplo cuando un robot tenga que engañar a un enfermo de Alzheimer a fin de que éste tome una medicina.
Una mentira piadosa puede ser benefica pero sigue siendo mentira, ¿Y si en el futuro un robot nos dice que es seguro atravesar esa calle oscura?.
Enlace al video y al artículo informativo.
No hay comentarios:
Publicar un comentario