Ha sido despedido “por violar de forma persistente las políticas claras de empleo y seguridad de datos”, aclara Google.
Tras una suspensión inicial, Google finalmente se ha visto obligada a despedir a su polémico ingeniero de software de inteligencia artificial quien afirmaba que uno de los chatbot más avanzados de los de Mountain View “era consciente y que sentía”.
Fue a primeros de junio cuando Blake Lemoine, un ingeniero de software de Google, declaró en Medium que tras llevar semanas hablando con la interfaz LaMDA, una especie de modelo de lenguaje avanzado para aplicaciones de diálogo, llegó a la conclusión de que esta IA “era consciente y también sentía”.
No obstante en dicha la publicación original, el ingeniero declaró que LaMDA había defendido sus derechos como persona y desveló que había entablado una conversación sobre la religión, conciencia y robótica.
A partir de ahí Google se vio obligada a suspender al ingeniero de software por cuestiones relativas a revelar datos confidenciales al publicar su conversación con LaMDA y otras tantas acciones posteriores como la contratación de un abogado para defender al chatbot.
Ahora tal como confirman en Reuters, Google finalmente ha despedido a este ingeniero de software por violar las políticas de la compañía y por considerar que todos los reclamos sobre LaMDA “son totalmente infundados”.
“Es lamentable que, a pesar de su larga participación en este tema, Blake siga optando por violar de forma persistente políticas claras de empleo y seguridad de datos que incluyen la necesidad de salvaguardar la información del producto”, afirma un portavoz de Google en un correo a Reuters.
LaMDA, que viene a significar “modelo de lenguaje para aplicaciones de diálogo”, ha sido creada para demostrar que estos modelos de lenguaje pueden aprender a hablar de forma muy similar a los seres humanos y de cualquier tema.