¿Por qué la IA no siempre es fiable? - Cosmomedia

¿Por qué la IA no siempre es fiable?

La IA está de moda, lo sabemos. Todos estamos encantados con lo fácil que nos lo pone, desde responder preguntas hasta hacer tareas sencillas. Pero, ojo, que no es oro todo lo que reluce y lo que te dice ChatGPT no siempre es tan fiable como parece.

Porque la IA se basa en probabilidad, pura estadística que a veces acierta y otras veces falla.

Sí, en Cosmomedia también usamos la IA, pero como una herramienta más, que nos ayuda a agilizar trabajo, bajo el mando de instrucciones precisas, prompts concretos que luego vamos recomponiendo, como si fuese un puzzle.

Porque un contable usa una calculadora para ir más rápido, pero no para sustituir sus tareas, ¿verdad?

La idea de redactar este artículo surgió de algo que nos pasó el otro día y que refleja perfectamente por qué a veces la IA puede dar resultados falsos.

ia a veces falla(1)

Un ejemplo real... ¿La IA puede decirme si mi web cumple con los criterios del Programa Kit Digital?

La respuesta rápida: no, no puede; y te explico los motivos.

Hace poco, un cliente nos contactó porque le preguntó a ChatGPT si la web que habíamos desarrollado con el Kit Digital cumplía con los requisitos del programa. La IA, con toda su sabiduría, le dijo que no, pero… ¿realmente sabía lo que estaba diciendo?

La IA, como ChatGPT, funciona con datos de Internet y puede analizar webs, sí, pero no con una precisión absoluta. Si le pides que revise algo como "¿cumple esta web con todos los requisitos del Kit Digital?", lo más probable es que la respuesta sea un tanto vaga.

ChatGPT puede decirte si una web tiene aspectos básicos como un dominio propio, un diseño responsive, o formularios de contacto, pero cuando se trata de requisitos técnicos más complejos, como accesibilidad WCAG-2.1. o posicionamiento SEO, no está capacitada para dar una respuesta completa.

Y es que, después de varios webinarios, charlas, consultas individualizadas… los criterios se han ido puliendo o matizando. Vamos, que no es tan fácil.

Y aquí está la trampa. La IA no tiene la capacidad de hacer un análisis detallado como lo haría un experto.

Cuando terminamos una web, en Cosmomedia nos aseguramos de que cumpla con todo lo que se requiere. Si hay alguna duda técnica, no nos fiamos de una IA, preguntamos a los organismos oficiales.

La IA no es infalible

La ciencia nos dice que los LLMs, como ChatGPT, tienen limitaciones.

Un reciente estudio de la Universitat Politècnica de València y la Universidad de Cambridge, publicado en la revista Nature confirma que los modelos de lenguaje actuales no siempre son fiables, especialmente cuando las preguntas son demasiado ambiguas o demasiado técnicas.

Como en nuestro ejemplo.

Lo cierto es que, resolver una fórmula matemática en segundos es una cosa, pero analizar los aspectos técnicos de un proyecto o asegurarse de que una web cumple con una normativa específica, con sus miles de variables, es otro rollo completamente diferente.

La IA no siempre entiende bien el contexto de la pregunta.

Aunque haya sido entrenada con millones de ejemplos, no es lo mismo analizar un trozo de código que responder a una pregunta sobre normativa o regulación.

Las respuestas de ChatGPT son, en realidad, probabilidades

¿Sabías que ChatGPT no sabe lo que está diciendo?

Sí, así tal cual. Lo que hace realmente la IA es una predicción estadística de qué palabra viene después de otra. Es como si estuviera jugando a adivinar el siguiente término en una frase.

Por ejemplo, puede predecir que "caminar" es sinónimo de "pasear", pero en el fondo está jugando con probabilidades, no con certezas. No tiene "conocimiento real", solo asume que esa es la respuesta más probable según millones de ejemplos previos.

La IA y sus "alucinaciones"

Este es el punto más divertido. Como la IA trabaja con probabilidades, no siempre acierta. Y si no encuentra una respuesta clara, se la puede inventar. ¡Sí, alucina! Y se llama así, “alucinación de IA”.

Es más probable que la IA invente algo a que te diga que no sabe.

La IA se parece cada vez más a las personas xD.

La magia del "prompt" y cómo preguntar a la IA

Ya lo decía Sofía Vergara en El Hormiguero, “Si quieres respuestas precisas haz preguntas más concretas”

Sofía Vergara en el Hormiguero

Si la pregunta es muy genérica, la respuesta puede ser poco precisa o desviarse con otros temas complementarios que nada tienen que ver con lo que necesitas saber.

El arte de manejar la IA está en saber cómo preguntarle. La pregunta o prompt debe ser clara, precisa, pero detallada, evaluando todos los aspectos para generar una respuesta de calidad.

Pedirle a la IA que analice en detalle un proyecto complejo es una mala idea.

Sin darle contexto, ni aportar más información que una simple instrucción de “Analiza esta web”, la IA te dará una respuesta superficial que no va a entrar en detalles técnicos reales, porque simplemente no tiene la capacidad de analizar código o métricas de una manera tan precisa.

Entonces, ¿la IA no sirve?

¡Claro que sí! La IA es una herramienta brutal para generar contenido y obtener información rápida. Es como un “Google mejorado” y ampliado, que además te elabora las respuestas sin tener que estar entrando en cien mil enlaces. Vamos, una maravilla para los creadores de contenido.

La cuestión es no dejarla hacer todo el trabajo y saber qué puedes esperar que te responda.

Es como tener un software que te resuelve cálculos o te ayude a gestionar toda la información. Podrá ayudar (y mucho) pero no le pediría que me hiciera un análisis financiero completo de mi empresa.

Así que antes de preguntar a ChatGPT (o cualquier otro LLM) antes pregúntate a ti mismo, ¿podrá analizar todo lo que le escribo para darme una respuesta fiable? Recuerda, la IA no sabe, la IA sólo interpreta y a veces, esas interpretaciones deben nacer de un análisis profundo y detallado, realizado por un experto.


IA Digitalización y empresas

Aprende más sobre IA y digitalización aplicada a la empresa ¡Suscríbete!