Noticias
Air Canada deberá pagar un reembolso por una política inventada por su propio chatbot
Air Canada tuvo que reembolsar dinero a un pasajero que fue mal informado por un chatbot de la aerolínea sobre la política de viajes por fallecimiento. El chatbot proporcionó información incorrecta, lo que llevó al pasajero a reservar un vuelo y luego solicitar un reembolso, contrariamente a la política real de Air Canada.
La IA de la aerolínea americana se inventó la política de reembolso, y tampoco hubo un sistema double-check en la web para evitar estos casos. Sin embargo, a pesar de las protestas del pasajero y de presentar una queja en el Tribunal de Resolución Civil de Canadá, Air Canada se negó a asumir la responsabilidad, argumentando que el chatbot era una entidad legal separada.
Finalmente, el tribunal falló a favor del pasajero, otorgándole un reembolso parcial y por daños adicionales. El reembolso fue de 650,88 dólares canadienses, ya que el precio del billete íntegro era de 1.640,36 CAD. A esto habría que sumarle también los costes por los intereses del billete de avión y pagar las tasas del tribunal.
Air Canada desactiva su chatbot
Air Canada introdujo un chatbot como un experimento para ver si la IA podía aliviar la carga en su centro de llamadas durante retrasos o cancelaciones de vuelos. Con el tiempo, esperaban que el chatbot pudiera resolver problemas de servicio al cliente más complejos, con el objetivo final de automatizar todos los servicios que no requirieran un “toque humano”.
No obstante, tras este inconveniente con consecuencias legales, el chatbot ha desaparecido de forma silenciosa del sitio web de Air Canada. Parece que podría haber sido desactivado por la propia aerolínea, para evitar un aluvión de reclamaciones como ésta dada la falta de precisión del chatbot.
¿Qué falló?
Los chatbots, como cualquier tecnología basada en inteligencia artificial, pueden fallar o inventarse información debido a varias razones técnicas:
- Los chatbots se entrenan en grandes conjuntos de datos y aprenden a responder en base a esos datos. Si los datos de entrenamiento son sesgados, incompletos o incorrectos, el chatbot puede proporcionar respuestas erróneas.
- Utilizan algoritmos de procesamiento de lenguaje natural (NLP) para entender las consultas del usuario. Estos algoritmos pueden fallar al tratar de entender correctamente la intención del usuario, especialmente en casos de ambigüedad lingüística, jerga, errores de ortografía, ironías, o gramática.
- Esta IA no tienen conciencia ni comprensión del mundo real. Pueden generar respuestas basadas en patrones aprendidos, pero no pueden razonar o entender el contexto de la misma manera que un humano.
- Un chatbot no tienen acceso a información en tiempo real o actualizaciones, por lo que pueden proporcionar información desactualizada.
Multitud de factores que pueden llevar a este tipo de casos de Air Canada…
-
NoticiasHace 6 días
Microsoft intenta reducir sus emisiones usando madera en la construcción de dos centros de datos
-
A FondoHace 6 días
Siete tecnologías que tu empresa debería adoptar en 2025 (5): Gemelos Digitales e Industria 4.0
-
NoticiasHace 6 días
La Comisión Europea abre una investigación formal a Temu por posible incumplimiento de la DSA
-
OpiniónHace 6 días
Cómo la ingeniería de plataformas prepara a las empresas para la era de la IA