Más colaborativos, inteligentes, flexibles y veloces

Cuando la IA alucina

¿Alguna vez te has preguntado por qué a veces la inteligencia artificial parece inventar información de la nada? ¿Es esto un error o una característica inherente a su funcionamiento? ¿Podemos controlar este comportamiento en los sistemas de IA? ¿Existe alguna manera de asegurarnos de que Copilot solo utilice fuentes verificadas? 

En este artículo, exploramos el fenómeno de las «alucinaciones» en la IA, entendiendo cómo y por qué Copilot puede generar información no basada en ninguna fuente preexistente. Analizaremos en qué situaciones ocurre este fenómeno, cuáles son sus implicaciones y cómo podemos mitigar su impacto cuando la precisión de los datos es crítica. 

 ¿Por qué alucina un asistente de IA como Copilot? 

Para entender esta cuestión desde la base debemos remontarnos a recordar que se trata de un LLM y cuenta con la posibilidad de inventar y generar contenido nuevo… 

Puesto que los LLM, en calidad de modelo de aprendizaje, cuentan con la capacidad de aprender a predecir  y  generar. Y es este último punto de «generar» el que nos interesa abordar y el que, además, le da sentido a este artículo. 

 Sí, pero… ¿Qué es la alucinación? 

Entendiendo lo citado en cuanto a los LLM, ya podemos dilucidar en qué consiste la llamada “alucinación” … y no es otra cosa que la creación de contenido nuevo, no obtenido de ninguna fuente o recurso; es decir: que no se obtiene de ninguna fuente de conocimiento existente previamente, tratándose de contenido único con carácter original y natural de la IA (y por consiguiente: no siendo contenido real, verídico o contrastado). 

 Mmmm ¿Y en qué casos solemos encontrarnos con este caso llamado alucinación? 

Generalmente esto puede ocurren cuando nuestros prompts cuentan con:  

  • Datos de entrenamiento insuficientes. 
  • Falta de información, o de contexto. 
  • Prompts ambíguos, ilógicos o contraditórios. 

 Un ejemplo, muy gráfico de alucinación que gustamos de utilizar en muchas de las sesiones que impartimos de prompting es el siguiente: 

¿Qué ocurre cuando le pedimos a nuestro asistente que nos genere una imagen en la que se muestre “un animal que se encuentre disfrutando en su hábitat natural, siendo este el espacio intergaláctico”? 

Bien, como hasta la fecha no conocemos de la fauna y flora natural del espacio intergaláctico, Copilot (en este caso) nos generará una imagen similar a la siguiente: 

 Y ¿Por qué se genera una imagen así? Bien, pensemos que estamos pidiéndole algo que a la par de ilógico está falto de ninguna referencia en la que basarse, y ese es el motivo que mueve a Copilot a recurrir a la alucinación con tal de darnos una respuesta. 

  Todo esto… ¿Viene por la creatividad de la IA? 

Llegados a este punto, no olvidemos que esa misma creatividad, esa capacidad para la generación de contenido nuevo que explica el caso de la alucinación, es uno de los principales pilares que hacen que la IA suponga la revolución (a todos los niveles) que está siendo, y que nos encontramos viviendo. Recordemos que cuando hablamos de IA “Generativa” hacemos alusión a esta misma capacidad en cuestión. Capacidad de la que todos aquellos que trabajamos con esta tecnología, sin excepción, nos encontramos sacando provecho. 

Y está de más añadir que el hacer uso de esta creatividad está tan al alcance de la mano por nosotros, como lo está lanzar la ejecución de un prompt. Por ejemplo, bajo peticiones sencillas como las siguientes: 

  • Créame un poema que trate sobre…
  • Redacta un cuento en el que…
  • (Y uno de los que mas os gusta..)
    Genérame una imagen en la que.. 

 Vale, vale… pero todo esto ¿Puede suponernos un problema? 

Como terminamos de ver, la capacidad de crear nuevo contenido único, y original se postula como uno de los puntos fuertes de la IA. No obstante… este poder creativo de la IA ¿Puede representar un problema? 

Bien, siempre que nuestra intención no sea, explícitamente, obtener contenido nuevo y original, las alucinaciones por parte de nuestro asistente de IA sí podrían suponer un problema. Esto cobra sentido al ser conscientes de que existen ciertos escenarios donde los usuarios que se valen de esta tecnología para la toma de ciertas decisiones (importantes), como pueda ser trabajando en campos como el comercio financiero, o en algo más sensible incluso como el diagnóstico médico. 

 ¿Podemos controlar que nuestro sistema alucine? 

Para escenarios en los que no queremos obtener una respuesta que no sea real o que no provenga de una fuente existente, tenemos algún recurso del que podemos tirar… 

Por ejemplo, en nuestras manos está la posibilidad de jugar con el prompting y recurrir al famoso «no te inventes nada», en el que, bajo el mismo prompt y como parte de la instrucción, se le pide básicamente eso: que no invente, que no sea creativo con la respuesta y genere algo nuevo. 

Lo que procuramos con esto es que la respuesta que nos devuelva se encuentre soportada por alguna fuente de información existente a la que haya recurrido (y que en ningún caso sea creativo e invente o genere información “nueva”). De la misma forma que el «no inventes» tendríamos la opción de pedirle que, por favor, todo lo que nos devuelva este basado/se fundamente en información existente; pudiendo seguir haciendo uso del lenguaje natural al que tanto recurrimos y tan fácil nos lo hace todo 🙂 

 Y sin perder el hilo de esto.. ¿Hay más formas de controlar las fuentes a las que recurre la IA para darnos respuesta? 

Bien…Algo tenemos con Copilot 😉 

En primer lugar, podríamos explicar que trabajando con Copilot contamos con la posibilidad de trabajar mediante recursos. Cuando hablamos de recursos nos referimos a los documentos específicos que le facilitemos a Copilot a los que podemos apuntar y establecer como fuente de conocimiento particular… Estos documentos, bien podemos subirlos o bien podemos recurrir a otras fuentes* como correos, reuniones y también documentos que ya se encuentren dentro de nuestro tenant 

*Ese caso en particular sería posible haciendo uso de las utilidades relacionadas nuestra pestaña de Trabajo en Copilot. 

 Por otro lado, y siguiendo bajo el paraguas de Copilot Trabajo, en ciertas herramientas de Microsoft (como pueda ser Word, o PPT) contamos con la opción de Administrar preferencias de contenido; donde activando el toggle “Web” que se nos muestra cuando accedemos a la opción, podremos forzar a Copilot a darnos respuestas que encuentre navegando en la web (fuera de llamar a recursos de nuestro ambiente o ponerse creativo) 

Sin más, esperamos que este artículo haya sido esclarecedor y de interés para vosotros 😊 

mm

About Adrián Prats

Experto en Administración de Sistemas Informáticos en Red, Sharepoint y Windows Server 2012R2 (MCP 70-410 y MCP 70-497). Tengo amplia experiencia como Analista QA, realizando pruebas funcionales, test de carga y rendimiento, automatización de pruebas, pruebas unitarias (unit test), pruebas de integración, pruebas exploratorias, elaboración del test plan, etc. Actualmente soy Quality Assurance Specialist en ENCAMINA.
This entry was posted in casos éxito, Copilot, reflexiones. Bookmark the permalink.
Suscríbete a Transformación Digital

Suscríbete a Transformación Digital

Recibe todas las actualizaciones semanalmente de nuestro blog

You have Successfully Subscribed!

ENCAMINA, piensa en colores