Alucinaciones frente al tablero: así pierde al ajedrez la inteligencia artificial generativa
Existe cierta tendencia a pensar que la inteligencia artificial es superior en todos los ámbitos, pero un experimento con ChatGPT en ajedrez muestra sus limitaciones. Aunque puede generar movimientos en notación algebraica, no detecta jugadas imposibles. En una partida, aceptó movimientos ilegales y continuó con otros igualmente absurdos, demostrando que, a diferencia de programas como Stockfish o AlphaZero, los modelos de lenguaje no razonan.
Estos modelos están entrenados para predecir la siguiente palabra, no para validar la coherencia de sus respuestas. Aunque generan textos fluidos, carecen de comprensión real. Sistemas como RAG mejoran su utilidad al buscar y reformular información existente, pero aún así, su aparente inteligencia se limita a la retórica.
Estudios como *The Illusion of Thinking* revelan que incluso modelos especializados en razonamiento fallan en tareas complejas, como resolver las Torres de Hanoi con seis discos. Proyectos como Chessbench adaptan la tecnología de los LLM al ajedrez, pero no superan la falta de razonamiento genuino.
El experimento recuerda que generar texto no equivale a pensar. Delegar tareas críticas en estos modelos puede llevar a errores graves, como aceptar jugadas imposibles. No debemos confundir fluidez lingüística con inteligencia real.

Contenido original en http://dbbeebom
Si cree que algún contenido infringe derechos de autor o propiedad intelectual, contacte en bitelchux@yahoo.es.
Copyright notice
If you believe any content infringes copyright or intellectual property rights, please contact bitelchux@yahoo.es.