El nuevo juego de imitación: los grandes modelos de lenguaje y chatbots
Resumen
La posibilidad de crear extensos modelos de lenguaje capaces de producir texto coherente y natural, gracias al incremento en la capacidad computacional, ha promovido el uso masivo de chatbots. No obstante, debido a que replican de manera tan efectiva el lenguaje humano, se les asignan características que no tienen, lo cual puede provocar confusiones respecto a sus habilidades. Por eso es importante entender cómo funcionan realmente, identificar sus restricciones y no atribuirles cualidades humanas. Esta comprensión es esencial para asegurar un empleo apropiado y seguro de estos sistemas, así como para la reflexión filosófica acerca de la inteligencia artificial.
Citas
Biever, C. (2023). ChatGPT broke the Turing test. Nature, 619, 686-689
OpenAI (2023). Technical report. Preprint at https://arxiv.org/abs/2303.08774
Rosenblatt, F. (1958). The perception: a probabilistic model for information
storage and organization in the brain. Psychological review, 65(6), 386.
Rumelhart, D.E, Hinton, G. y Williams, R. (1986). Learning representations by back-propagating errors. Nature, 323. 533-536.
Turing, A. (1950). Computing Machinery and Intelligence. Mind, LIX (236), 433–460.
Descargas
Publicado
Cómo citar
Número
Sección
Categorías
Licencia
Derechos de autor 2026 Vitam. Revista de Investigación en Humanidades

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.









