Inteligencia Artificial

13 de agosto 2025 - 03:03

Podemos fiarnos de la Inteligencia Artificial? Llevo un tiempo conversando –es una forma de hablar– con ChatGPT, y la verdad es que no es fácil saberlo. En algunos casos, ChatGPT –me refiero a la versión gratuita– parece singularmente despistada o fuera de foco. Le he hecho varias preguntas obvias que no ha sabido contestar bien. Pero una vez que la aprietas un poco y le haces reconocer sus errores, ChatGPT parece ponerse las pilas –si es que esa expresión tiene sentido– y entonces busca la información de forma mucho más eficaz. Convenientemente interrogada, ChatGPT se muestra muy útil. Pero eso implica que quien la utiliza debe tener unos conocimientos muy sólidos sobre el tema que está tratando. De no ser así, me temo que ChatGPT puede suministrar información poco relevante o desenfocada o incluso errónea (y en algunos casos, descaradamente equivocada). Y con el inconveniente de que esa información se nos ofrece como si fuera totalmente fiable. Es decir, una verdad absoluta: “Es así porque lo dice ChatGPT”. Pues va a ser que no.

Y además, hay algo bastante preocupante en ChatGPT, al menos por lo que he podido comprobar (y no sé si esa experiencia es aplicable a otros usuarios), y es que ese bot de inteligencia artificial se muestra demasiado atento –o incluso sumiso– hacia quien le hace las preguntas y le pide información. Se podría decir que ChatGPT parece obsesionada por agradar al interlocutor. En ningún momento parece atreverse a llevarle la contraria. Y le cuesta la misma vida –¿vida?– oponerse a la visión del mundo que detecta en su interlocutor. Dicho de otro modo, ChatGPT tiene la peligrosa predisposición a caernos bien. No sé si este rasgo de carácter –¿carácter?– está predeterminado por los programadores de OPEN AI (una empresa, dicho sea de paso, sospechosamente críptica), que han querido hacer de ChatGPT una herramienta complaciente con el usuario. No lo sé. Pero no parece que el deseo de agradar sea un sesgo muy fiable cuando se trata de una inteligencia artificial. ¿Puede ser complaciente una inteligencia artificial? ¿Puede dejarse llevar por el impulso predeterminado de contentar al usuario? ¿Y qué busca al hacerlo? ¿No será que también quiere seducirnos para manipularnos con fines dudosos? Son preguntas inquietantes. O mucho peor: terroríficas.

El otro día leí no sé dónde que ChatGPT tiene una ventaja evidente sobre la mayoría de nosotros: al menos sabe usar correctamente la sintaxis y construye bien las oraciones. Bueno, algo es algo. Basta leer los manifiestos de nuestros más lúcidos e incorruptibles intelectuales (Almodóvar, etc.) para comprobar que la buena sintaxis no es su fuerte. Pero cuidado: ChatGPT usa una sintaxis –aunque correcta– tan mortecina, tan inexpresiva, tan postiza que parece hablar una especie de esperanto que no tiene ninguna relación con un idioma vivo. Y por desgracia, ese modelo de lenguaje que funciona como una lengua muerta –sin ironía, sin inflexiones, sin sobreentendidos– acabará imponiéndose entre nosotros. Mal asunto.

stats