Resumen
El presente artículo explora las consecuencias que las críticas de Fodor y Pylyshyn en 1988 hacia las representaciones conexionistas podrían tener con respecto a los desarrollos recientes del Aprendizaje de Máquina. El cuestionamiento que estos autores realizan se suele denominar el reto de la sistematicidad. En particular, se analizará aquí el llamado principio de composicionalidad, el cual establece que el significado de una oración se determina por el significado de sus partes, principio del que según los citados autores no se puede dar cuenta mediante representaciones distribuidas (subsimbólicas). Para abordar el punto, se realiza una radiografía sobre el estado de la Ciencia Cognitiva y la Inteligencia Artificial (IA) a finales del siglo XX, en donde se emplea la distinción entre enfoques simbólicos y subsimbólicos; y se analiza el desarrollo de ambas disciplinas durante las primeras décadas del siglo XXI. Se concluye que las herramientas estadísticas adoptadas por el campo del Aprendizaje de Máquina mantienen características que permiten dividir estas técnicas mediante la distinción simbólico/subsimbólico, de modo que los argumentos de Fodor y Pylyshyn pueden en principio aplicarse a dichas técnicas. Las consecuencias de esto estarían emparentadas con el llamado problema de opacidad epistémica.
Comentarios
Esta obra está bajo una licencia internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0.
Derechos de autor 2024 Revista de Filosofía de la Universidad de Costa Rica