Conecta con nosotros

A Fondo

La IA generativa y los dolores de cabeza que puede traer a las empresas

Publicado el

La IA generativa y los dolores de cabeza que puede traer a las empresas

La Inteligencia Artificial generativa, y toda la innovación relacionada con ella, sigue avanzando a pasos agigantados. Tanto particulares como empresas están ya experimentando las ventajas que aporta en su día a día, tanto para su ocio como, en muchos casos, en el mundo laboral. Pero no todo lo que trae consigo es bueno. La IA generativa, a pesar de que lleva poco tiempo disponible para que las empresas puedan sacarle partido, tiene bastantes claroscuros. Y en ocasiones puede provocar más de un dolor de cabeza, y problemas, a quien utiliza sus modelos, aplicaciones y chatbots.

Cada vez más empresas, y también gobiernos, están más preocupados por los problemas y riesgos de la IA generativa en relación con la privacidad y seguridad de los datos, entre otras cosas. Varias entidades reguladoras han pedido ya que se aprueben normativas y regulaciones para las herramientas de Inteligencia Artificial, con expertos en tecnología e investigadores de renombre pidiendo que se haga una pausa en el desarrollo de los sistemas de Inteligencia Artificial hasta que se valore su seguridad.

Pero el desarrollo de la IA generativa no se va a detener, ni a frenar. Por eso, tanto las empresas como las instituciones necesitan elaborar una estrategia y unas normativas que aborden debidamente la gestión de la seguridad y el riesgo de este tipo de sistemas, con el objetivo de fomentar la confianza en la IA. También se necesitan herramientas para la gestión del flujo de datos entre usuarios y empresas que tengan modelos fundacionales de IA, eso sí, debidamente seguras y fiables.

Además, también hay que abordar los principales problemas que la IA generativa tiene en la actualidad. En muchos casos los tendrán que abordar quienes desarrollan y entrenan los modelos. En otros, tendrán que intervenir los legisladores de cada país o región.

Principales problemas que trae consigo la IA generativa

Es necesario que los usuarios de los sistemas, y sobre todo las empresas, cuenten con herramientas y medidas con las que proteger su privacidad, o filtrar sus interacciones con los modelos para dejar fuera fallos, alucinaciones, información confidencial o material protegido por derechos de autor. Y antes de nada, es necesario conocer los problemas que, según Gartner, acechan a las empresas que utilizan la IA generativa.

  • Alucinaciones e inventos: Este tipo de fallos, en los que también entran los errores en el relato de hechos, son en la actualidad los problemas más comunes que están apareciendo con los chatbot que utilizan la IA generativa. El entrenamiento de datos puede llegar a respuestas sesgadas, erróneas o equivocadas. Algunas se detectan con facilidad, pero otros fallos son más complicados de localizar. Sobre todo si este tipo de soluciones va ganando en credibilidad y confianza.
  • Deepfakes: este tipo de problemas surgen cuando la IA generativa se utiliza para crear contenidos gráficos con intenciones maliciosas. Se trata de uno de los problemas más graves de estos sistemas. Sobre todo, para las empresas. Las imágenes, vídeos y grabaciones de voz falsas generadas con ellas se están utilizando ya para atacar a personalidades y políticos, además de para difundir información falsa o engañosa. Incluso para crear cuentas falsas y para secuestrar cuentas legítimas y acceder a sus contenidos. Un ejemplo de ello es la imagen falsa del Papa vistiendo un abrigo plumífero blanco. En este caso se trata de una imagen falsa inofensiva, pero da una idea del potencial que este tipo de tecnologías pueden tener para dañar a terceros.
  • Privacidad de datos: en las empresas que utilicen IA generativa, los empleados pueden exponer con facilidad datos de empresa sensibles a la hora de interactuar con soluciones de IA generativa mediante chatbots. Estas aplicaciones pueden almacenar información capturada a partir de las instrucciones y datos facilitados por sus usuarios de manera indefinida, lo que pone en peligro su confidencialidad. Además, estos datos podrían caer en malas manos si hay una brecha de seguridad.
  • Problemas de derechos de autor: los chatbots de IA generativa están entrenados con grandes cantidades de datos procedentes de Internet, que pueden incluir material protegido por derechos de autor. Como consecuencia, algunas de sus respuestas pueden violar las leyes de derechos de autor o las protecciones de la propiedad intelectual. Si las empresas no tienen fuentes de referencia, ni transparencia acerca de cómo se generan las respuestas, pueden encontrarse con problemas con las respuestas que reciben y su uso posterior. También por encontrar que el chatbot puede estar utilizando su propiedad intelectual sin permiso, En cualquier caso, sin referencias, la única manera de reducir estos problemas es examinar con mucho cuidado las respuestas que dan para asegurarse de que no infringen las leyes sobre copyright o sobre propiedad intelectual.
  • Problemas de ciberseguridad: Además de amenazas relacionadas con el phishing y la ingeniería social, los atacantes pueden utilizar las herramientas de IA generativa para generar código malicioso con más facilidad. Los proveedores que ofrezcan modelos fundacionales de IA generativa aseguran a los clientes que entrenan sus modelos para que rechacen peticiones de ciberseguridad, pero no ofrecen a los usuarios las herramientas que necesitan para auditar todos los controles de seguridad que han puesto en marcha. Sencillamente, los proveedores de sistemas de IA generativa piden a sus usuarios y clientes que se fíen de los que hacen, prácticamente a ciegas.

Cómo abordar estos problemas

Una vez identificados los principales problemas que las empresas pueden tener al utilizar chatbots y herramientas de IA generativa, llega el momento de decidir qué se puede hacer para evitarlos en la medida de lo posible. Los modelos se ofrecen a sus usuarios tal cual se han desarrollado, sin personalización. Por eso, una de las medidas principales para evitar problemas con ellos es utilizar sistemas de ingeniería de prompt, con las que se pueden crear, ajustar y evaluar tanto peticiones realizadas a estos sistemas, como las respuestas que ofrecen.

En el caso de que las empresas vayan a utilizar los sistemas y chatbots de IA generativa tal como se ofrecen, es imprescindible poner en marcha sistemas y protocolos de revisión manual realizada por humanos. Y hacerlo con todas las salidas de este tipo de herramientas de IA. De esta manera será posible detectar resultados incorrectos, sesgados o falsos.

También es importante establecer un marco de gobernanza y cumplimiento de normas para el uso por parte de la empresa, y en su seno, de estas soluciones. Entre las medidas más importantes está la prohibición a los empleados de hacerles preguntas que expongan todo tipo de datos sensibles. Tanto personales como de la empresa.

Además, es aconsejable monitorizar el uso que los empleados hacen de ChatGPT y otras herramientas parecidas en los casos en los que este no esté regulado. Y hacerlo de manera que haya sistemas de gestión que permitan monitorizar y comprobar logs de eventos para identificar violaciones de normas. Por otro lado, es necesario securizar gateways web para que puedan identificar y vigilas las llamadas a las API no permitidas.

Todas estas medidas de mitigación de riesgos necesitan aplicarse a la ingeniería de prompt. Además, es necesario tomar otras medidas para proteger los datos internos y otra información sensible que se utilicen para generar prompts y peticiones en infraestructura de terceros. También crear y almacenar prompts configurados para utilizarlos cuando se necesiten, tal como se hace con otros activos. Estas son, por el momento, las medidas que pueden tomar las empresas para evitar problemas ocasionados por un uso erróneo o malicioso de los sistemas y chatbots de IA generativa.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído