LOS BOTS TENDRÁN QUE TENER ‘MALICIA INDÍGENA’
A medida en que pasaba el tiempo, aprendía de las respuestas y la interacción con otros, lo cual significa que en un mundo ideal, donde la gente hubiera dado el uso correcto, no estaríamos contando esta historia. Al final, Tay tuvo que ser desactivada porque comenzó a hacer comentarios racistas y fuera de lugar. Esto claramente lo aprendió de usuarios que querían sabotear el ejercicio.
Así, la inteligencia artificial tendrá que ser más inteligente, y tener algo que aquí en Colombia llamamos ‘malicia indígena’. ¿Cuántas personas no llaman al servicio de emergencia tipo 911 (en Colombia 123) a hacer bromas? Los bots deberán aprender cuándo queremos algo de verdad y cuándo simplemente alguien quiere sabotear. Si esto no pasa, tendremos alertas de emergencia de mentiras, como mínimo.
Imagen relacionada

Comentarios