¿Cómo de humano debe ser un chatbot?

Por Cole Stryker | ibm.com –

Cuando una marca piensa en implantar chatbots, una de las primeras conversaciones suele ser sobre la voz. ¿Cómo sonará esta IA? ¿Será como un conserje profesional, un amigo simpático o un amigo robot extravagante que admite de entrada que es un robot?

La voz en la IA es es una cuestión en movimiento. La tecnología avanza muy deprisa y la capacidad de los chatbots para imitar el habla y las emociones humanas progresa rápidamente. Esto significa que las mejores prácticas de la IA conversacional también cambiarán con el tiempo, a medida que los robots amplíen su conjunto de habilidades en los matices y el subtexto del lenguaje humano. No hay reglas fijas que determinen lo «humano» que debe ser un chatbot. Esto significa que los desarrolladores deben comprender las formas en que los clientes interactúan con sus bots y mantenerse alerta para supervisar continuamente las formas en que las conversaciones con IA se rompen.

El espectro de personalidades

En cualquier chatbot diseñado para una experiencia de atención al cliente, el discurso puede dividirse en dos categorías. La primera es informativa o transaccional. El cliente hace una pregunta: «¿Qué tiempo hace esta noche?». El bot responde: «Máxima de 40, mínima de 32, 15% de probabilidad de precipitaciones», etc. Sólo los hechos, sin espacio para editorializar.

La segunda categoría puede describirse como «personalidad» o cualquier otra cosa que vaya más allá de la pura utilidad. Humor, simpatía, gratitud… son cualidades emocionales que los robots pueden simular. El Procesamiento del Lenguaje Natural y la Comprensión del Lenguaje Natural son atributos gemelos que permiten a un bot comprender las complejidades del lenguaje humano y proporcionar respuestas igualmente complejas que no están programadas por un desarrollador humano. Sin embargo, muchas de las respuestas más «fuera de lo común» o específicas del contexto que podemos esperar de los chatbots serán guionizadas por desarrolladores o escritores, en lugar de obtenidas de forma independiente por la IA. En cualquier caso, los creadores de bots tendrán que tomar decisiones sobre su comportamiento.

Podría ser útil pensar en la «humanidad» de un bot como su capacidad para proporcionar interacciones que van más allá de lo informativo y transaccional. ¿Pero puede un bot ser demasiado humano? En algunos casos, sí.

Una decisión que los creadores de bots querrán tomar desde el principio es si su bot se presenta como tal. Es una experiencia frustrante pensar que se está hablando con un humano, para descubrir después que se está tratando con un bot que, por muy avanzado que sea, no puede igualar la capacidad de una persona para gestionar consultas muy complejas. La gente tiende a ser más indulgente con un bot que tiene dificultades para captar los matices de su consulta que con los agentes humanos. De forma natural, pueden simplificar sus consultas en respuesta para ayudar al bot a entender lo que intentan preguntar. En la mayoría de los casos, los bots deberían anunciarse inmediatamente como lo que son.

Dennis Mortensen, de x.ai, está de acuerdo. Dice que solía pensar que imitar a los humanos y sus fallos era un buen diseño, pero tras haber revisado innumerables diálogos a lo largo de los años, ha cambiado de opinión. «Ganas muy poco cuando engañas a la gente», dice. «Pero pierdes mucho cuando se descubre tu farsa. Diseña el agente como una pieza de software y haz que actúe como tal, sabiendo que la mayoría de los demás actores de tu universo son humanos.»

Y a medida que avance la IA, argumenta Dennis, la toma de decisiones humana disminuirá (comparativamente) y muchas decisiones serán solicitadas y resueltas por ordenadores. Aquí no hay lugar para los fallos humanos, aunque cuando llegue el momento de que un humano tome una decisión, las máquinas tendrán que «ralentizarse» a la velocidad de la cognición humana.

Clara de Soto, de reply.ai, explica a thinkLeaders que estas decisiones deben basarse en la personalidad del bot y sugiere mostrarla en sus mensajes de error.

Los usuarios inevitablemente sondearán las capacidades del bot, tratando de encontrar las costuras y «engañar» al bot, y la realidad es que ningún NLP (Natural Language Processing) del bot es lo suficientemente avanzado como para resistirlo. Por eso, los creadores de bots deben asegurarse de que el mensaje de error de su bot sea una expresión de esa persona y, lo que es más importante, debe tener un arsenal de mensajes de error diferentes para no repetirse constantemente.

El contexto es clave

El contexto lo es todo cuando se trata de voz. Si un bot está ayudando a un cliente a elegir una póliza de seguro de vida, probablemente no sea el momento de hacer juegos de palabras. Por el contrario, si un bot está ayudando a un cliente a elegir un vestido de graduación, puede que tenga sentido que hable como un adolescente.

Cuando la voz de un bot no coincide con el contexto de una interacción con el cliente, se nota, y los clientes pueden tender a confundirse o irritarse, incluso a terminar prematuramente una interacción debido a la frustración. Mortensen argumenta que deberíamos diseñar nuestros bots para que se comporten como esperaríamos de un humano en la misma situación. Como ejemplo, cita un hipotético bot de asistencia en un banco, que está diseñado para ser tan formal y eficiente como lo sería un agente humano durante el modo de resolución de problemas. Una vez que se ha realizado una transacción o se ha resuelto algún otro problema, hay más espacio para posibles charlas o bromas.

Los seres humanos somos muy buenos adaptándonos a los cambios sutiles de contexto y ajustando nuestro vocabulario, estilo de hablar, lenguaje corporal y presentación en general. Lo llamamos «cambio de código«, y a menudo lo hacemos tan bien que ni siquiera nos damos cuenta. No hablamos a nuestras abuelas de la misma manera que a nuestros compañeros, y viceversa. Hacerlo sería incómodo.

Los bots con más éxito también aprenderán a ajustar su presentación en función de con quién estén interactuando y a hacer pequeños ajustes sobre la marcha en función del estado de ánimo de la conversación. En otras palabras, los bots mejorarán su inteligencia emocional. Por ejemplo, si un cliente que está muy disgustado con su experiencia intenta comunicárselo a un chatbot que responde en un tono alegre o frívolo, el cliente podría desear estar hablando con un humano que pudiera comprender su frustración.

Mortensen afirma que este es el camino que debe seguir el sector, con bots que se adapten a cada usuario y al contexto de la conversación:

Por ejemplo, yo suelo ser bastante formal con mis asesores externos, pero cuando cierro una financiación, nuestros correos electrónicos tienen un tono informal de celebración antes de volver a una comunicación más formal. No he visto ningún agente [bot] convincente en producción que haga lo mismo, pero creo que tenemos suficiente investigación positiva en torno a, por ejemplo, el análisis de sentimientos, para empezar diseños que tengan en cuenta pensamientos como este.

Mejor que los humanos

Afortunadamente, los consumidores esperan que los bots se comporten de forma diferente a los humanos. Por ejemplo, sabemos que asistentes personales como Siri y Alexa pueden dar respuestas instantáneas a preguntas como «¿Cuál ha sido el resultado del partido de béisbol de hoy?» en milisegundos, mientras que una respuesta humana a una pregunta así llevaría más tiempo. Pero, ¿significa esto que los desarrolladores deberían incorporar retardos a sus bots conversacionales para que parezcan más humanos? ¿O sería mejor permitir a los clientes disfrutar de los atributos únicos de los bots, en este caso la rapidez de respuesta? De Soto dice que no. «Creo firmemente que el objetivo de un bot es prestar un servicio, no engañar al usuario haciéndole creer que es algo que no es». Sin embargo, aclara que estas decisiones tonales deben basarse en la personalidad del bot.

Quizá lo más humano que podemos imbuir a nuestros bots es el conocimiento de sus propias limitaciones. En otras palabras, los bots deben saber cuándo pedir ayuda a un agente humano cuando reciben una solicitud que va más allá de su capacidad para responder satisfactoriamente. Este tipo de bots evitará confusiones y frustraciones a los clientes y apunta a un futuro en el que los bots podrán encargarse de un abanico de tareas cada vez más amplio.

Fuente>>