Rev. Filosofía Univ. Costa Rica, LXIV (169) Mayo-Agosto 2025 / ISSN: 0034-8252 / EISSN: 2215-5589
Sara Alarcón, Leandro Giri, Erick Rubio
Redes neuronales artificiales como dispositivos de regulación en el capitalismo digital
Resumen: Este trabajo tiene como objetivo analizar el papel de las redes neuronales artificiales en las dinámicas contemporáneas de vigilancia y control, con un énfasis en los mecanismos de opacidad epistémica que las caracterizan. Se argumenta que, aunque estas tecnologías han sido desarrolladas para optimizar la extracción de datos en el capitalismo digital, su funcionamiento opaco y descentralizado ha transformado la vigilancia en un fenómeno más sutil e imperceptible. A partir de este análisis, se sostiene que las RNAs pueden interpretarse dentro del marco foucaultiano como una actualización de los dispositivos disciplinarios y biopolíticos, ampliando las formas en que el poder se ejerce sobre los individuos y las poblaciones.
Palabras clave: Redes neuronales artificiales, dispositivos de regulación, capitalismo digital, opacidad epistémica, hiperparámetros.
Abstract: This paper aims to analyze the role of artificial neural networks in contemporary surveillance and control dynamics, with a particular focus on the epistemic opacity that characterizes them. It argues that, although these technologies have been developed to optimize data extraction in digital capitalism, their opaque and decentralized nature has transformed surveillance into a more subtle and imperceptible phenomenon. Based on this analysis, it is suggested that ANNs can be interpreted within the Foucauldian framework as an update to disciplinary and biopolitical dispositives, expanding the ways in which power is exercised over individuals and populations.
Keywords: Artificial neural networks, regulatory devices, digital capitalism, epistemic opacity, hyperparameters.
Introducción
La inteligencia artificial (IA), en especial las redes neuronales artificiales (RNAs) de tipo Deep Learning (DNNs), ha emergido como una herramienta poderosa para procesar grandes volúmenes de datos, identificar patrones y predecir comportamientos (Bishop 2006; Nielsen 2015; Norvin & Russell 2020). Sin embargo, la creciente presencia de estas tecnologías en la vida cotidiana plantea preguntas, ciertamente relevantes, sobre el control, la vigilancia y la transparencia de los mecanismos que rigen nuestras decisiones. Desde el ámbito de la filosofía y la teoría social, es posible vincular estas nuevas formas de tecnología con los análisis clásicos del poder y la vigilancia desarrollados por Michel Foucault. En su concepción del panóptico y del régimen disciplinario, Foucault describe cómo la vigilancia se convierte en un instrumento de control sobre los cuerpos, donde la visibilidad y la observación constante moldean, en cierta medida, las conductas humanas; el poder se distribuye de manera minuciosa, garantizando la utilidad y la obediencia de los individuos dentro del sistema productivo.
En la actualidad las dinámicas de vigilancia han adquirido una nueva dimensión: las DNNs y convolucionales (CNNs), permiten una vigilancia más amplia y menos visible. Estas redes procesan información mediante algoritmos sumamente sofisticados cuyos mecanismos internos suelen ser opacos, lo que ha dado lugar a lo que se conoce como opacidad epistémica (Barak 2007; Chirimuuta 2020; Durán & Jongsma 2021). A diferencia de la vigilancia disciplinaria descrita por Foucault, que operaba mediante la imposición visible del poder en espacios cerrados como prisiones, hospitales o fábricas, las RNAs permiten la descentralización y automatización del control, operando en segundo plano, casi de manera imperceptible, mientras recolectan datos de los usuarios, analizan comportamientos y ajustan sus predicciones sobre futuras acciones. Esto, como veremos, plantea un desafío para la autonomía y la privacidad en un entorno tecnológico que, bajo la apariencia de eficiencia y personalización, refuerza lógicas de control autoritarias aún bajo sistemas aparentemente republicanos.
En relación con esto, Srnicek (2017) señala que las plataformas digitales basadas en la recolección masiva de datos no solo han transformado el capitalismo, sino que también han generado una nueva forma de control, donde el valor se deriva de la extracción de datos en lugar de la producción material. Esto configura dinámicas de poder similares a las clásicas descritas por Foucault, pero actualizando los mecanismos de vigilancia mediante algoritmos y plataformas digitales. Por ejemplo, en YouTube, los algoritmos de recomendación priorizan contenido que fomenta un tiempo de visualización prolongado, creando burbujas de consumo personalizadas (Covington et al. 2016). Esto refuerza patrones de comportamiento que benefician a la plataforma, disciplinando al usuario al moldear sus preferencias sin su intervención consciente.
Esto ejemplifica asimismo cómo los algoritmos crean un entorno normativo donde ciertas preferencias y comportamientos son reforzados mientras otros son invisibilizados. Este proceso de normalización, descrito por Foucault, es relevante para entender cómo las RNAs disciplinan sin la necesidad de una coacción explícita. Continuando con el ejemplo de YouTube, podría decirse que estas plataformas moldean no solo las decisiones individuales —como qué contenido consumir—, sino también las dinámicas sociales al consolidar burbujas informativas que refuerzan tendencias mayoritarias.
Este fenómeno no solo intensifica las capacidades de vigilancia, sino que refuerza la lógica biopolítica a través de la cual el poder se despliega sobre la vida misma, administrando y regulando poblaciones enteras; la biopolítica encuentra en las RNAs una herramienta eficiente para perfeccionar estos procesos. En este contexto, el control ya no se ejerce sólo de manera visible, sino que se infiltra en los flujos de datos que circulan en las plataformas digitales. Zuboff (2019) describe este proceso como capitalismo de vigilancia, donde los datos conductuales son utilizados para predecir y modificar el comportamiento de las personas, transformando la experiencia humana en un recurso económico explotado, ahora quizás principalmente por plataformas digitales.
No obstante, aunque las RNAs presentan un grado considerable de opacidad en su funcionamiento, existen métodos que permiten arrojar algo de luz sobre sus mecanismos internos. Si bien el ajuste de hiperparámetros se emplea principalmente como una técnica de optimización, también puede ofrecer información indirecta sobre la estructura del aprendizaje de la red, abriendo la posibilidad de comprender mejor cómo estas redes ajustan sus configuraciones para detectar patrones y realizar predicciones; proporcionando un nivel abstracto de comprensión sobre sus dinámicas.
Este trabajo propone analizar los hiperparámetros como «parámetros de parámetros» (Rubio, Giri & Ilcic 2023), que permiten intervenir en la configuración de la red y, en cierta medida, comprender sus ajustes internos. Los hiperparámetros son aquellos que configuran el modelo antes del entrenamiento, como la cantidad de capas en una red neuronal o la tasa de aprendizaje. Estos no se ajustan automáticamente durante el entrenamiento, sino que deben ser definidos antes por los programadores.
Por otro lado, los parámetros se ajustan durante el proceso de entrenamiento y determinan el comportamiento específico de la red para cada tarea. Por ejemplo, para tareas como la identificación o clasificación de imágenes, se suelen emplear CNNs. Los hiperparámetros típicos en este tipo de redes incluyen el tamaño del filtro, el número de filtros y el tamaño de la ventana de muestreo (pooling), entre otros; para predicciones en series temporales, las redes recurrentes RNNs son la elección común; y en el procesamiento de textos, se usan también RNNs o Transformers. Cada una de estas arquitecturas tiene una estructura hiperparamétrica única que optimiza significativamente el proceso de aprendizaje del sistema (Feurer & Hutter 2019).
Aunque estas técnicas no eliminan por completo la opacidad epistémica, sí permiten cierta visibilidad sobre los procesos que subyacen al aprendizaje automático, lo que abre nuevas posibilidades para cuestionar y desentrañar el poder de estos sistemas. Este trabajo busca esclarecer los mecanismos de vigilancia algorítmica en las RNAs y argumenta que pueden comprenderse mejor desde una perspectiva foucaultiana. En este marco, las DNNs no solo operan dentro de la lógica del capitalismo de vigilancia, sino que también representan una evolución de los dispositivos disciplinarios y biopolíticos, al permitir un control más descentralizado e imperceptible sobre las conductas y decisiones de los individuos.
Este panorama abre importantes preguntas sobre la autonomía y la resistencia en un contexto donde la vigilancia, más que una imposición externa, se ha convertido en un proceso profundamente integrado a la interacción con las plataformas digitales. Si bien las estructuras disciplinarias tradicionales ya operaban mediante la normalización y la autorregulación, las RNAs amplifican este fenómeno al hacer que el control se ejerza de manera algorítmica y descentralizada, sin necesidad de intervención humana directa. Así, estas tecnologías no solo representan un avance técnico, sino también un nuevo campo de acción para la biopolítica contemporánea, en el cual el control sobre la vida se manifiesta a través de algoritmos y datos, con consecuencias profundas para la libertad y la autonomía de los individuos.
Para desarrollar este análisis, el texto se organiza de la siguiente manera. En primer lugar, se presentan los fundamentos conceptuales sobre la vigilancia en la era digital, abordando la opacidad epistémica de las redes neuronales artificiales. A continuación, se explora cómo estas tecnologías pueden interpretarse dentro del marco foucaultiano, comparando su funcionamiento con los dispositivos disciplinarios y biopolíticos tradicionales. Posteriormente, se analizan casos concretos en los que las RNAs han transformado la vigilancia y el control en plataformas digitales, destacando sus implicaciones para la autonomía individual. Finalmente, se discuten las consecuencias de este fenómeno en el contexto del capitalismo de vigilancia y se plantean interrogantes sobre posibles formas de resistencia y regulación.
1. Redes neuronales artificiales: opacidad y descentralización
Si bien podría considerarse que nuestra realidad es estructurada (Hawkins & Blakeslee 2004); que hay orden dentro de ella, y que, por tanto, hay cierto margen de predictibilidad (ibid. 2004), también es evidente que es caótica, compleja y que las señales que recibimos de ella son señales que viajan a través de canales ruidosos. Aun así, logramos efectivamente hacer predicciones e identificar patrones (ibid. 2004), y, con base en estos, desplegamos ciertos tipos de comportamientos (ibid. 2004).
Cuando se habla de aprendizaje se está hablando, primeramente, de procesamiento de información; procesamiento en el que se intenta, regularmente, identificar patrones a partir de un cúmulo de señales sumamente finas que viajan a través de canales ruidosos. La identificación de estos patrones se realiza expresamente con fines predictivos. Lo que se pretende a posteriori es, a partir de las regularidades o patrones percibidos del entorno, poner en marcha ciertos comportamientos con el fin de sortear las presiones selectivas que este imparta (ibid. 2004). Ello significa que el despliegue de los esquemas en los que se encapsulan las regularidades percibidas tiene un carácter adaptativo. Si con los esquemas desplegados no logran sortear las presiones selectivas que el entorno imparta el resultado puede ser que la selección natural termine eliminando al sistema en cuestión.
Aprendizaje es, en términos generales, identificación de patrones (Bishop 2006; Nielsen 2015), compresión de regularidades. En los intentos por esbozar cómo, por ejemplo, nuestro cerebro comprime regularidades, han surgido tres grandes paradigmas de análisis en el campo de la IA. Estos tres paradigmas son: el paradigma del aprendizaje supervisado, el paradigma del aprendizaje no supervisado y el paradigma del aprendizaje reforzado (Bishop 2006; Nielsen 2015; Norvin & Russell 2020). En cada uno de estos lo que está a la base es la identificación de patrones que de una u otra forma permitan realizar predicciones acerca del medio.
Las RNAs son una familia de algoritmos constituida de una enorme cantidad de tipos. Nuestra atención se centra aquí en las DNN’s. Se les llama de aprendizaje profundo por el procesamiento jerarquizado en sus capas ocultas. Estos algoritmos simulan -muy rudimentariamente- el funcionamiento del neocórtex, procesando información en niveles y con retroalimentación, similar a cómo el cerebro maneja los estímulos percibidos (Hawkins & Blakeslee 2004).
En las RNAs la unidad básica de procesamiento, igual que en nuestro cerebro, presenta un funcionamiento interno relativamente sencillo. Una neurona, en el terreno de la IA, es básicamente un modelo de regresión lineal. Es una suma ponderada de sus estímulos externos o valores de entrada, los cuales recibe por medio de unas conexiones de entrada; pero, además, presenta una conexión de salida. Por medio de ésta, la neurona expresa el resultado de su procesamiento interno de la información que recibe, a menos que sea una neurona de la capa de salida. A este modelo básico de neurona se le conoce con el nombre de perceptrón. (Nielsen 2015, 3).
A pesar de su simplicidad interna, el perceptrón es un modelo poderoso capaz de resolver una variedad de problemas, incluyendo clasificación, selección y toma de decisiones. Mientras una sola neurona puede representar compuertas lógicas como AND, OR y NAND (ibid. 2015, 7), se requieren dos neuronas para modelar una compuerta XOR. Sin embargo, el modelo lineal del perceptrón presenta limitaciones. Al concatenar neuronas según este modelo, se crea una regresión lineal que restringe su capacidad para abordar situaciones no lineales. Para superar esta limitación, se introducen funciones de activación que distorsionan el modelo lineal, permitiendo la incorporación de no linealidades. Las funciones de activación ofrecen diversos beneficios. Por un lado, permiten la concatenación de múltiples neuronas, lo que posibilita la creación de redes neuronales de mucho mayor alcance. Además, posibilitan el modelado de situaciones no lineales, lo que permite abordar problemas de mayor complicación.
Las DNNs, por ejemplo, como las CNNs o las RNNs, van más allá del perceptrón al incorporar funciones de activación no lineales, y técnicas de entrenamiento avanzadas. Estos elementos les permiten abordar una amplia gama de problemas, desde el reconocimiento de imágenes hasta la traducción automática, pasando por un sinfín de otras tareas. Dentro de la familia de algoritmos utilizados en sus entrenamientos, destacan el Backpropagation (BP- retropropagación del error) y el Stochastic Gradient Descent (SGD -descenso del gradiente estocástico). El BP, introducido en la década de 1970 y popularizado por Rumelhart, Hinton y Williams en 1986, permite el ajuste eficiente de las RNAs mediante la retroalimentación del error. Este proceso implica la propagación de la entrada a través de la red, calculando la salida para cada neurona. Luego, se calcula la diferencia entre la salida de la red y la salida deseada, y este error se propaga hacia atrás a través de la red, ajustando los pesos de las conexiones entre las neuronas. Este proceso se repite hasta que el error se minimiza o se alcanza un número máximo de iteraciones.
En el corazón de la retropropagación hay una expresión para la derivada parcial de la función de coste C con respecto a cualquier peso w (o sesgo b) en la red. La expresión nos dice qué tan rápido cambia el coste cuando cambiamos los pesos y el sesgo. (Nielsen 2015, 39)
El cálculo de las derivadas parciales de los parámetros con respecto al coste del modelo es central en este algoritmo. Es decir, se requiere calcular la derivada parcial del coste respecto a los pesos y al sesgo de las neuronas. Por su parte, el SGD ajusta los parámetros del modelo para minimizar la función de coste, actualizándolos en dirección opuesta al gradiente calculado, proceso que se repite hasta minimizar la función o alcanzar un número máximo de iteraciones. El BP permite identificar las neuronas más implicadas en el error, mientras que el SGD ajusta los parámetros de estas para reducir dicho error, descendiendo iterativamente en la dirección opuesta al gradiente. Ambos algoritmos son eficientes para optimizar funciones de coste, aunque también presentan ciertas dificultades o problemas, como la sensibilidad a la tasa de aprendizaje y la posibilidad de converger a mínimos locales. Para mejorar su rendimiento, se emplean técnicas como la regularización y la propagación eficiente hacia atrás. Un ejemplo práctico es una red neuronal para clasificar imágenes, donde el BP calcula el error y ajusta los pesos, y el SGD actualiza los parámetros para minimizar el error.
Estas RNAs han sido importantes para lograr avances significativos en una variedad de aplicaciones, incluidas las recomendaciones de plataformas como Spotify y YouTube (Covington et al. 2016; Zhang et al. 2018), así como el reconocimiento facial (Goodfellow et al. 2016) en redes sociales como Facebook. En el caso de las recomendaciones de plataformas digitales como Spotify y YouTube se emplean principalmente dos tipos de redes neuronales: las RNNs (Chu et al. 2017; Covington et al. 2016; Goodfellow et al. 2016; Zhang et al. 2018) y las DNNs (Covington et al. 2016). Estas redes son idóneas para analizar el comportamiento del usuario y generar recomendaciones personalizadas (Covington et al. 2016; Goodfellow et al. 2016).
Las RNNs son especialmente útiles para modelar secuencias de datos (Zhang et al. 2018, 17), como las listas de reproducción en Spotify o el historial de visualizaciones en YouTube (Covington et al. 2016; Chu et al. 2017; Goodfellow et al. 2016; Jiang et al. 2017) Estas redes tienen la capacidad de recordar información de estados anteriores y utilizarla para influir en la predicción o recomendación actual. De esta manera, las RNNs pueden capturar patrones temporales en el comportamiento del usuario (Zhang et al. 2018, 17, 18) como las preferencias musicales a lo largo del tiempo o los intereses cambiantes en los vídeos (Jiang et al. 2017). El modelo predice la participación del usuario mediante la modificación de la regresión logística para predecir el tiempo de visualización esperado de un video. Los datos de entrenamiento consisten en ejemplos positivos y negativos. Los ejemplos positivos son aquellos en los que un usuario hizo clic en la impresión de un video y lo vio. Los ejemplos negativos son aquellos en los que un usuario no hizo clic en la impresión de un video o lo vio durante un tiempo muy corto (Covington et al. 2016, 7). El modelo se entrena para aprender a identificar las características que distinguen a los videos que los usuarios probablemente vean de los que no. Una vez que el modelo está entrenado, se puede utilizar para predecir la participación de nuevos usuarios en nuevos vídeos. Para ello, el modelo toma como entrada las características del video y genera una predicción del tiempo que el usuario probablemente emplea en verlo. (ibid. 2016, 7)
Por otro lado, las DNNs son ideales para procesar grandes cantidades de datos y extraer características complejas (Zhang et al. 2018). En el contexto de Spotify y YouTube, estas redes analizan una amplia variedad de características de los usuarios y los contenidos, como géneros musicales, artistas favoritos, historial de escuchas e interacciones con videos, entre otros. Son capaces de aprender representaciones de alta dimensionalidad de estos datos, lo que les permite identificar patrones y relaciones sutiles que influyen en las preferencias de los usuarios (Covington et al., 2016, 2, 3); pueden, por ejemplo, considerar el contexto de las interacciones de los usuarios, como la hora del día, la ubicación, el dispositivo utilizado, etc.
Las RNAs, ya sean RNNs o DNNs, reciben como entrada los datos de comportamiento del usuario y los datos de los contenidos disponibles en la plataforma (canciones en Spotify o videos en YouTube). Estas redes procesan la información a través de múltiples capas de neuronas, donde cada capa realiza transformaciones y cálculos sobre los datos de entrada (Goodfellow et al. 2016; Zhang et al. 2018). Durante el entrenamiento, las redes ajustan sus parámetros para minimizar la diferencia entre las recomendaciones generadas y las preferencias reales de los usuarios, utilizando técnicas de optimización como el ya mencionado SGD. Una vez entrenadas, las redes pueden generar recomendaciones personalizadas para cada usuario, prediciendo qué canciones o videos serán más relevantes o atractivos para ellos, basándose en sus comportamientos pasados y en las características de los contenidos disponibles.
En el reconocimiento facial en redes sociales como Facebook (Taigman et al. 2014), se emplean CNNs para identificar y etiquetar rostros en imágenes. Estas redes utilizan un enfoque especializado en el procesamiento de imágenes que les permite detectar y reconocer características faciales únicas. DeepFace, por ejemplo, que es un sistema de reconocimiento facial de Facebook, utiliza una DNN con más de 120 millones de parámetros, que incluye varias capas conectadas localmente sin compartir pesos, en lugar de las capas convolucionales estándar. Esta red neuronal se entrena en el conjunto de datos facial más grande hasta la fecha, que consta de cuatro millones de imágenes faciales pertenecientes a más de 4,000 personas (Taigman et al. 2014, 4, 6).
El funcionamiento de las CNNs se basa en la aplicación de filtros convolucionales sobre la imagen de entrada (Goodfellow et al. 2016, 332). Estos filtros están diseñados para detectar patrones específicos, como bordes, texturas o características faciales, mediante la convolución de la imagen original con kernels especializados. A medida que la red avanza en sus capas, las características detectadas se combinan y refinan para identificar rasgos o aspectos más detallados y específicos de la imagen. En este caso, un kernel es básicamente una pequeña matriz de números (Goodfellow et al. 2016, 141, 332-334) que se desliza sobre una imagen. Funciona como una especie de filtro que resalta características específicas, como bordes, texturas o partes de una cara, al combinar los valores de los píxeles de la imagen de acuerdo con los valores del filtro. Cada uno de estos está diseñado para detectar un tipo particular de característica.
El reconocimiento facial basado en CNNs, como el sistema DeepFace de Facebook, no solo identifica a los usuarios en imágenes, sino que también establece normas de interacción social en el entorno digital. Estas tecnologías contribuyen a la biopolítica contemporánea al convertir la vigilancia en una práctica ubicua, regulando el comportamiento colectivo mediante la integración de datos biométricos en decisiones comerciales y de seguridad. Esto amplía la capacidad del poder para administrar poblaciones, alineándose con la lógica del biopoder descrita por Foucault. Por ejemplo, sistemas de reconocimiento facial en ciudades inteligentes no solo identifican individuos, sino que también regulan el acceso a servicios públicos y espacios urbanos (Christakis et al. 2022). Esto incluye desde el uso del transporte público hasta la entrada a edificios gubernamentales, reforzando dinámicas biopolíticas al condicionar la vida urbana a los datos biométricos de sus habitantes. Estas tecnologías no solo observan, sino que administran de manera activa poblaciones enteras, alineándose con el biopoder al optimizar y regular la vida cotidiana según criterios algorítmicos. Este enfoque técnico redefine la relación entre los ciudadanos y el espacio público, consolidando un control poblacional que se despliega mediante reglas invisibles, pero altamente efectivas.
El uso de CNNs en el reconocimiento facial ha revolucionado la forma en que las plataformas de redes sociales organizan y buscan imágenes (Taigman et al. 2014). Además, ha permitido la implementación de funciones de etiquetado automático y reconocimiento facial en tiempo real en aplicaciones móviles, lo que brinda una experiencia más fluida y personalizada a los usuarios. El desarrollo y aplicación de las RNAs han demostrado su eficacia en una variedad de campos; desde los ya mencionados hasta áreas del conocimiento científico como la biología estructural, donde una red neuronal (AlphaFold2) logra predecir con un alto margen de precisión la estructura terciaria de un amplio número de proteínas a partir de su secuencia de aminoácidos constituyentes. Sin embargo, junto con estos avances, surge un desafío crítico: la opacidad epistémica.
La opacidad epistémica se manifiesta en la dificultad para entender cómo y por qué las RNAs toman ciertas decisiones. Este fenómeno se debe a varios factores. En primer lugar, el aprendizaje en las RNAs es un proceso probabilístico, donde el azar juega un papel importante, desde la inicialización de variables hasta la conformación de lotes aleatorios (mini-batch) en el SGD. Esto dificulta la predicción precisa de los resultados del entrenamiento. En segundo lugar, las RNAs tienen una gran cantidad de parámetros que se ajustan durante el entrenamiento, y estos valores finales son difíciles de predecir debido a la complejidad de la interacción entre la arquitectura de la red, los datos de entrenamiento y el proceso de aprendizaje.
Además, la función de error que se busca minimizar puede tener varios mínimos locales, y la red puede converger a uno de ellos sin garantía de que sea el óptimo global. Esta función representa la discrepancia entre las predicciones de la red y los valores reales de los datos de entrenamiento. El objetivo del entrenamiento es minimizar esta función de error para mejorar la capacidad predictiva de la red. Sin embargo, es importante tener en cuenta que la función de error puede tener múltiples mínimos locales. Estos mínimos locales son puntos donde la función de error alcanza un valor relativamente bajo en comparación con los puntos cercanos, pero pueden no ser el mínimo global, que es el punto de menor valor en toda la función de error.
Durante el proceso de entrenamiento, la red neuronal puede converger hacia uno de estos mínimos locales, ya que sigue una estrategia de SGD para ajustar los pesos y sesgos de la red. Sin embargo, la red puede quedar atrapada en uno de estos mínimos locales, sin alcanzar el óptimo global. Esto se debe a la naturaleza no convexa de muchas funciones de error utilizadas en el entrenamiento. En otras palabras, la superficie de la función de error puede tener valles y colinas, con múltiples mínimos locales y un solo mínimo global. Por lo tanto, aunque el entrenamiento de la red puede conducir a mejoras significativas en la función de error, no hay garantía de que se alcance el óptimo global. Esta dimensión del problema, y no solo el azar, dificulta poderosamente un tratamiento analítico tradicional (Rubio, Giri & Ilcic 2023).
La opacidad epistémica de las RNAs ha generado debate en la neurociencia y la filosofía de la ciencia (Barak 2007; Chirimuuta 2020; Durán & Jongsma 2021). Algunos expertos argumentan que esta opacidad limita la capacidad de las RNAs para brindar la confianza epistémica que generan teorías científicas válidas. Un punto de partida interesante para analizar la opacidad epistémica es la noción de inteligibilidad. Según esta perspectiva, una teoría científica debe ser comprensible para los científicos, lo que implica poder entender cómo se generan las predicciones y las consecuencias de la teoría en diferentes situaciones. El criterio de inteligibilidad, introducido por De Regt y Dieks (2005, 143), establece que una teoría científica es comprensible si los científicos pueden reconocer las consecuencias cualitativas características de la teoría sin necesidad de realizar cálculos exactos. En tal sentido, la opacidad epistémica puede interpretarse como la falta de capacidad para cumplir con dicho criterio de inteligibilidad. Así, la opacidad epistémica plantea importantes desafíos epistemológicos, éticos y sociales, y subraya la necesidad de desarrollar métodos y prácticas que promuevan la transparencia, la explicabilidad y la rendición de cuentas en el diseño y aplicación de estas poderosas herramientas de inteligencia artificial (UNESCO, 2022).
En conjunto, los factores antedichos generan un velo de opacidad alrededor de estos poderosos algoritmos. Es decir, no podemos acceder directamente al conocimiento o las reglas que la red utiliza para realizar sus predicciones. Esta falta de transparencia limita nuestra capacidad para interpretar sus resultados y confiar en su precisión. Sin embargo, la opacidad epistémica no significa que las RNAs sean completamente incomprensibles. Existen diferentes técnicas para echar algo de luz y obtener una mejor comprensión de cómo funcionan estas redes. Algunas de estas técnicas incluyen el análisis de las estructuras hiperparamétricas, que controlan la arquitectura y el comportamiento de la red durante el aprendizaje (Rubio, Giri & Ilcic 2023). Estudiando estas estructuras, podemos obtener información sobre las características generales de las propiedades aprendidas por la red, como la cantidad de regularidades que detecta o su capacidad para identificar patrones espaciales o temporales. Además, en algunos casos, es posible determinar a posteriori qué regularidades o patrones ha utilizado la red para realizar sus predicciones. Esto puede lograrse mediante técnicas como la visualización de las conexiones entre las neuronas de la red o el análisis de las características de los datos de entrenamiento que la red ha utilizado para realizar sus predicciones (ibid. 2023).
Si bien el análisis de hiperparámetros ofrece una vía para iluminar ciertos aspectos del comportamiento de las redes neuronales, esta claridad parcial no elimina la cuestión central: el poder que estas tecnologías ejercen en la vida cotidiana sigue siendo en gran medida invisible y descentralizado. A pesar de que los hiperparámetros pueden ayudarnos a comprender cómo las redes neuronales ajustan sus procesos de aprendizaje, lo que permanece intacto es el hecho de que estas herramientas continúan influyendo en las decisiones y comportamientos individuales sin que los usuarios sean plenamente conscientes de ello. En este sentido, la opacidad de las RNAs no es solo un desafío técnico, sino un elemento que potencia su eficacia dentro de las lógicas de vigilancia y biopoder. A diferencia de otras tecnologías de control, estas redes no requieren visibilidad ni imposición explícita; más bien, moldean la experiencia del usuario de manera imperceptible, naturalizando la disciplina y la normalización a través de la personalización algorítmica.
Esta invisibilidad y capacidad de control no es un fenómeno nuevo. Michel Foucault (1994) ya había mostrado que los dispositivos de regulación, como el panóptico, no requerían la coacción directa para los cuerpos y las mentes, sino que operaban a través de la normalización y la autorregulación. En este sentido, las RNAs no representan una ruptura, sino una sofisticación de estos mecanismos: amplían la capacidad de control al hacer que la disciplina no solo sea internalizada, sino también automatizada a través de la extracción y análisis masivo de datos. Este proceso no solo optimiza la vigilancia, sino que reconfigura la relación entre poder y sujeto. Ya no se trata únicamente de observar y corregir, sino de moldear de manera preventiva las interacciones humanas. De este modo, las RNAs refuerzan las lógicas biopolíticas contemporáneas, transformando la vigilancia en un proceso continuo y descentralizado que se integra en la vida cotidiana sin ser percibido como un mecanismo coercitivo.
2. Regulación de las libertades en el marco de las disciplinas y la biopolítica
Foucault, en Historia de la sexualidad (2007), describe el poder como algo que no se concentra en una institución o estructura específica, sino que es «el nombre que se presta a una situación estratégica compleja en una sociedad dada» (93). Esto lo desvincula de la noción tradicional de fuerza moral o jurídica propia de las soberanías (Benavides, 2018), planteando que el poder se manifiesta en prácticas que buscan dirigir las conductas humanas. Además, para Foucault (2019), el poder no es solo una fuerza negativa, ya que «atraviesa y produce cosas, induce placer, formas de saber, produce discursos» (29-30). Así, el poder debe entenderse más allá de una entidad que únicamente prohíbe, evitando caer en una visión limitada o esquelética.
Para comprender cómo se conducen las libertades, resulta indispensable analizar los modos históricos en los que se ha ejercido el poder. Inspirado en la visión nietzscheana de la historia, Foucault propone que el poder, al igual que cualquier experiencia, debe estudiarse como un acontecimiento de invención. En este contexto, distingue entre el poder soberano, característico de la época clásica y asociado con la represión mediante la práctica de “hacer morir” (Foucault 2001); el poder disciplinario, que surge con el capitalismo y se enfoca en la corrección del cuerpo para incrementar su utilidad productiva (Foucault 2009); y el poder biopolítico, que desplaza la lógica de la muerte hacia la gestión de la vida a través de la administración de los fenómenos biológicos de las poblaciones (Foucault 2006).
Es importante decir que no se trata de un relevo o reemplazo entre poderes, sino de una suerte de proceso de sofisticación de las tecnologías que se deslizan sobre la vida para administrar formas más complejas y descentralizadas. En otras palabras, no se cambian las funciones sino su puesta en marcha. Expresa Santiago Castro que «por un lado, teníamos un poder que sustraía la vida y, por otro lado, un biopoder que maxifica la vida» (2010, 57). En este sentido, no hay una sustitución de la operación, sino cambios en los modos del ejercicio del poder sobre la vida. De manera que se radica por una parte una tanatopolítica de la soberanía que deja vivir en la medida que hace morir, y, por otra parte, un biopoder que potencializa la vida ya sea desde la corrección disciplinaria del cuerpo o la administración de la vida biológica de las poblaciones humanas.
Enfatizando el biopoder disciplinario, manifiesta Foucault que este modelo se gesta a la vez que aparece un control regularizador sobre las libertades del ser humano como individuo que debe ser reconfigurado y moldeado, con el propósito de que, al cuerpo puesto en cuestión, se le instauren condiciones de utilidad y obediencia. No obstante, el territorio en donde emerge dicho control sobre el ser humano alberga todo espacio que se caracteriza por tener una estrecha relación con el encierro y la coacción de los cuerpos manipulados, el cual tiene una estructura panóptica que permite una observación rigurosa. Ello reemplaza la sensibilidad del modelo de la «exclusión del leproso» por la sensibilidad del modelo de la «inclusión del apestado», ya que no se trataba de expulsar homogéneamente, sino de realizar un análisis de observación perpetua a partir de la individualización extrema de los cuerpos, tal como se experimentaba en las ciudades en las que se anunciaba cuarentena por las pestes. (Foucault 2001, 51-52).
Esta fórmula de dominación se basa en técnicas esenciales sobre el espacio y el tiempo. La configuración espacial del poder disciplinario organiza arquitecturas panópticas en colegios, cárceles, hospitales y fábricas, marcadas por el encierro, la localización, la funcionalidad y el rango. Estas estructuras garantizan seguridad y vigilancia anónima y constante para sancionar conductas. Dividir el espacio por zonas funcionales permite analizar y optimizar la fuerza de trabajo, mientras que la segmentación por rango caracteriza las obligaciones. El poder disciplinario también regula estratégicamente el tiempo, orientándolo hacia el control del cuerpo. Foucault describe características como la regulación, que asegura la calidad del tiempo; la precisión, que sincroniza actos corporales; la correlación, que optimiza eficacia; la articulación, que vincula cuerpo y producción; y la utilización, que maximiza fuerza útil en cada instante. El nacimiento del capitalismo coincide con el auge de las disciplinas, centradas en estrategias de vigilancia y manipulación para maximizar la producción, dividiendo tanto el espacio como el tiempo de manera precisa. Esto transforma al cuerpo en objeto de nuevos poderes y saberes (ibid. 160).
La microfísica del poder introduce el binario normal-anormal. Según Canguilhem, «la vida es por principio anormal, ya que en ella se manifiesta la ausencia de una normalización suficiente» (Hernández 2013, 90). Para Foucault, la normalización busca corregir la vida natural, enfrentando al azar, el error y la desviación como lo realmente natural. Así, la norma se dirige siempre a transformar la vida en lo que considera “normal”.
Ahora bien, los dispositivos de seguridad como la vigilancia que emerge a partir del poder disciplinario se mantienen en la constante lógica de abandono y reinvención entre los antiguos y nuevos principios de regulación que estén enmarcados siempre en las funciones de valor que favorecen a intereses gubernamentales. Este tipo de aseveraciones, propias de una época donde el mayor peligro para la libertad y la autonomía provenía de los Estados autoritarios puede matizarse, aunque no negarse en los tiempos actuales. Zuboff (2019) desarrolla detalladamente las características de los modelos de negocio del capitalismo actual (de la Vigilancia, en su conceptualización), donde la estructura de vigilancia mediada por algoritmos de IA extrae valor de los usuarios a partir de cálculos que permiten obtener su excedente conductual. En tal sentido, el biopoder estaría siendo apropiado por un puñado de empresas de tecnología basadas sobre todo en Silicon Valley. Sin embargo, la propia Zuboff también sostiene que es la connivencia de los Estados y su preocupación por la seguridad y la lucha contra el terrorismo (acrecentada exponencialmente luego de los atentados del 11 de septiembre de 2001) la que brinda el soporte jurídico y económico que asegura el éxito de tales modelos de negocio. Así, las compañías del capitalismo de vigilancia concentran y lucran con el biopoder, mientras ceden datos a los Estados vigilantes como contraprestación por su impunidad (ver también Coeckelberg, 2022).
En el curso de Foucault de 1977 y 1978, titulado Seguridad, territorio y población (2006), se puede observar que durante la vigilancia disciplinaria del panóptico a través de la individualización del sujeto se hace un recorte de la libertad en función a la corrección del cuerpo individual. Sin embargo, con la transición a la sofisticada vigilancia de la racionalidad biopolítica en el marco del liberalismo, se implementa la fórmula de vigilancia a cambio de libertad, es decir se está más libre cuando se está siendo más vigilado. La vigilancia se muestra como parte del bienestar de las libertades. Dice Foucault «después de todo, la divisa del liberalismo es “vivir peligrosamente”» (2007, 86). Con esto, la regulación de las libertades se convierte en un asunto que la misma población solicita. Así, ya no se trata de vigilar exclusivamente de forma silenciosa o segregada, sino que esta nueva forma de gobernar congrega la vigilancia como una herramienta necesaria para la vida cotidiana.
Ahora, es difícil establecer hasta qué punto el deseo de seguridad como consecuencia de estar en constante peligro es producto de la incubación de un miedo natural, artificial o voluntario. En consecuencia, los dispositivos de seguridad responden a que: «las crisis son el fenómeno de intensificación circular que sólo puede ser detenido por un mecanismo natural y superior que va a frenarlo, o por una intervención artificial» (Foucault 2006, 82). En este marco, la biopolítica comprende las crisis como situaciones de inseguridad clasificables a través del cual surgen herramientas para gestionar los distintos fenómenos que involucran la vida del ser humano: la natalidad, la muerte, la enfermedad, la alimentación, el clima, etc. Siguiendo a Caponi (2014), la estadística es la herramienta de control de donde surgen los diagnósticos y el tratamiento hacia los mencionados fenómenos de la población, dado que «gracias a la utilización de la norma a través de medidas estadísticas es que la medicina puede llegar a afirmar de qué modo un hecho biológico debe o debería ser» (Foucault 2006, 162).
Esta policía política y médica, como lo señala Foucault, se mueve a partir de una regulación estadística para saber cuál es el costo y si es útil hacer vivir o dejar morir a causa de una afectación. En este sentido, serán intervenidos sólo aquellos fenómenos humanos y ambientales que disminuyen, carcomen y debilitan frecuentemente el mercado, los precios, el consumo y el capital humano, es decir las enfermedades reinantes: «una especie de enfermedad consustancial que se confunde con un país, una ciudad, un clima, un grupo de gente, una región, una manera de vivir» (Foucault 2006, 80).
De este modo, los dispositivos biopolíticos alrededor de la seguridad establecen, desde una sistematización estadística, cuales son modos de vida saludables, qué muertes y qué enfermedades son o no normales según la edad, la localización, el empleo, entre otros. Y de esta manera es como se apunta a reducir exclusivamente las normalidades con mayor fatalidad. Foucault (2006) afirma que «… lo normal es lo primero y la norma se deduce de él, o se fija y cumple su papel operativo a partir del estudio de las normalidades» (83- 84). En consecuencia, los patrones cuantitativos dibujan el mapa de la intervención gubernamental, mostrando al mismo tiempo los efectos positivos o negativos que alcanza la normalidad frente a la presencia o ausencia de seguridad. Sobre esta identidad, nace la estrategia de insertar seguros en cada cifra que sume probabilidades de peligros, puesto que la idea de defender la sociedad significa asegurar la población.
En este escenario queda reducida la identidad del sujeto de la población a indicadores estadísticos (Yuing 2014). Aquí el sujeto es un individuo anónimo, sin rostro y sin nombre, ese elemento que únicamente impulsa el movimiento en masa de la curva estadística. En efecto, los dispositivos de seguridad de la biopolítica son una forma sofisticada de los dispositivos de seguridad disciplinarios, lo cual indica que la biopolítica no abandona completamente las prácticas de la disciplina, sino que la ha perfeccionado para alcanzar mayor efectividad. Por tanto, la biopolítica es la forma de gobierno actualmente más eficaz en torno a la relación saber/poder.
La vigilancia como cualquier dispositivo incorporado a la regulación de las libertades dentro de la vida humana, a través de cuales se articulan relaciones de poder, busca conducir conductas, es decir influye directamente en la toma decisiones en torno a la manera en la que se comporta un individuo. De ahí, la afirmación de Deleuze (1973) cuando dice que Foucault referencia al panóptico como un espacio de relaciones de poder en el que se «incita, induce, produce, desvía o dificulta, amplía o limita hacer que algo sea más o menos probable» (p. 99).
El espacio virtual del algoritmo, por su parte, opera a través de un despliegue amplio de datos proporcionados por cada persona que ha interactuado con cualquier IA, generando en esta interacción un estadio de opciones para ser deseadas por parte del usuario, y de este modo incitando el próximo paso que va a dar tal usuario. Esto responde bien a la idea de que «no es el deseo el que se apoya sobre las necesidades, sino al contrario, son las necesidades las que se derivan del deseo: son contraproductos en lo real que el deseo produce» (Deleuze 1973, 34). Quiere decir que, las formas de control de la sociedad contemporánea a través de las RNAs pueden visibilizar la intensificación y estandarización de los dispositivos de vigilancia y sus efectos en la vida cotidiana de cada persona.
Podemos hacer una memoria artificial con nuestros datos, que nos ayude a nuestras futuras decisiones con la promesa de tener mayor eficiencia en tal o cual actividad. La IA hace una tarea por nosotros, nos minimiza el esfuerzo, pero a través de la realización de esa actividad debemos responsabilizarnos al aceptar que acceda a nuestros datos, ya que somos constantemente examinados a través de nuestras huellas en el mundo digital. Las mismas construyen minas de datos para el uso y desuso de un campo de acción que influye directamente en nuestro modelo de vida. Ahora «¿Qué tipo de ciudadano libre es aquel que al transitar por la calle de una ciudad inteligente es escaneado como si de un enemigo se tratara?» (Cataldo 2024, 99). La rebeldía del usuario queda cada vez más anulada, cada vez más expuesta. El trato que va a recibir el usuario va a depender de las políticas de manejo de datos que aceptó cuando accedió a la red en la que está navegando. De esta forma «la vigilancia y el control van a homologar los conceptos de justicia, equidad y libertad» (Cataldo 2024, 100).
En la sección anterior del presente trabajo nos esforzamos por describir con cierto detalle el funcionamiento técnico de los algoritmos que componen el capitalismo de plataformas/vigilancia contemporánea. Los mismos ofrecen diferentes servicios a cambio de un pago o a veces incluso gratuitamente, pero siempre la cesión de datos que se traducen algorítmicamente en información conductual (útil para predecir comportamientos, pero también para inducirlos) es parte inherente de la transacción. Así, los usuarios de los algoritmos accedemos voluntariamente a este dispositivo digital. Así como Bentham (ver en Foucault 1994) explicaba la arquitectura del panóptico y la relación entre tal diseño y su función, aquí explicamos (con la síntesis que el formato del presente trabajo nos exige), la arquitectura general de los algoritmos que dan forma al capitalismo contemporáneo, para llegar a la conclusión que su estructura paramétrica, a diferencia de lo que sucedía en su antecesor arquitectónico, genera una opacidad epistémica que provoca que ni siquiera los diseñadores puedan explicar más allá de cierto punto cómo funcionan. Esto no implica, como explicamos, que sea imposible su análisis y auditoría (como bien es posible realizar a través de un análisis hiperparamétrico), pero sí que resulta, por su naturaleza tecnológica, una operación sumamente ardua, por no decir titánica. Aún peor, afirmamos que esta opacidad es una de las claves de su éxito, en el mismo sentido en que la incapacidad de los prisioneros de ver a los guardias (o su ausencia) en la torre central del panóptico era, o es, una de las claves de su eficacia.
Conclusión
Este análisis ha demostrado cómo el poder disciplinario y biopolítico descrito por Foucault se ha transformado y sofisticado mediante la implementación de las RNAs. Las dinámicas de regulación de las libertades, que en un principio requerían dispositivos físicos de control y observación directa, ahora encuentran en estas estructuras algorítmicas un medio para ejercer vigilancia de manera ubicua, descentralizada e imperceptible. Esto implica que el control sobre el individuo ya no depende de estructuras visibles o espacios de encierro, sino que se despliega a través de algoritmos que actúan en segundo plano, moldeando conductas y decisiones sin necesidad de intervención humana directa.
Las tecnologías basadas en IA han transformado la dinámica de la vigilancia, automatizando procesos que antes requerían una supervisión intensiva de los cuerpos individuales, lo que genera un perfil, para estas tecnologías, más alienante (ver Broncano 2025). Mientras que los dispositivos disciplinarios foucaultianos que implicaban un considerable gasto económico y humano en la observación y corrección del comportamiento, la IA permite una regulación altamente individualizada (y en tal sentido menos dependiente de una estandarización masiva que sus estructuras antecesoras) sin implicaciones significativas en los costos para quienes gestionan el recaudo y análisis de la información. De este modo, el surgimiento de la IA ha reducido la necesidad de mantener costosos espacios de encierro o de realizar campañas preventivas tradicionales, características de la biopolítica, ya que el control y la influencia se ejercen de manera mucho más sutil y automática a través de la interacción constante de los usuarios con estas plataformas tecnológicas. Este cambio no significa que la vigilancia algorítmica sea menos intrusiva, sino que se ha adaptado a nuevas formas de regulación que prescinden de la coerción explícita. Más que eliminar el control, lo ha redistribuido y optimizado, haciendo que su funcionamiento pase desapercibido mientras refuerza las dinámicas de biopoder en el capitalismo digital.
En esta transición, la IA representa una utopía hecha realidad para el capitalismo, en línea con lo que Foucault observó sobre las utopías capitalistas que, a diferencia de las utopías socialistas, tienden a materializarse. La IA, al igual que las fábricas o los asilos que surgieron como parte del control disciplinario, ha ampliado su influencia al proporcionar herramientas que permiten modelar y dirigir conductas a gran escala. A través de aplicaciones, asistentes virtuales y otras tecnologías, las RNAs aprenden constantemente de las interacciones de los usuarios, influenciando lo que estos desean y adoptando un rol activo en la formación de estilos de vida y elecciones de consumo. En este sentido, la IA se convierte en un recurso significativo para el capitalismo, masificando resultados de interés económico, político y de conocimiento, sin la necesidad de incurrir en los elevados costos que implican los dispositivos tradicionales de control.
Este estudio ha buscado esclarecer los mecanismos de vigilancia algorítmica presentes en las RNAs, destacando cómo su funcionamiento opaco y descentralizado refuerza las dinámicas de control en el capitalismo digital. En este contexto, la perspectiva foucaultiana resulta útil para interpretar su impacto, ya que estas tecnologías no solo automatizan la extracción de datos, sino que transforman la vigilancia en un proceso continuo e imperceptible. Más allá de una simple evolución tecnológica, las RNAs han consolidado un modelo en el que el poder se ejerce de manera invisible, pero profundamente efectiva sobre la autonomía de los individuos y las poblaciones, y que podría incluso evolucionar de maneras impredecibles hacia formas menos veladamente autoritarias (Morozov 2023).
Aunque se han desarrollado técnicas para entender parcialmente el funcionamiento interno de estos sistemas, la opacidad epistémica que los caracteriza persiste, dificultando la comprensión y el cuestionamiento de sus efectos en las libertades individuales (y profundizando por ello su eficacia). La imposibilidad de los usuarios para comprender cómo funcionan estos sistemas contribuye a la invisibilización del poder. Al igual que en el panóptico de Bentham, donde la incertidumbre de la vigilancia garantizaba el control, la opacidad de los algoritmos asegura que los usuarios internalicen las normas y comportamientos esperados sin cuestionarlos. En este sentido, la opacidad epistémica de las redes neuronales no solo protege el funcionamiento interno de los sistemas, sino que refuerza su eficacia al naturalizar las dinámicas de poder que subyacen en la vigilancia digital contemporánea. Este fenómeno amplifica el alcance del control algorítmico, que opera en las sombras, pero influye profundamente en las decisiones y comportamientos de los usuarios.
Por tanto, el desarrollo de las RNA plantea un desafío contemporáneo: el de mantener la autonomía y la privacidad en un entorno tecnológico que, bajo la apariencia de eficiencia y personalización, fortalece las dinámicas de control y vigilancia en la vida cotidiana.
Referencias
Barak, Omri. 2017. «Recurrent neural networks as versatile tools of neuroscience research». Current Opinion in Neurobiology, 46, 1–6. https://doi.org/10.1016/j.conb.2017.06.003
Benavides, Tulio. 2018. «El cuerpo como espacio de resistencia: Foucault, las heterotopías y el cuerpo experiencial». Co-herencia, 16, 247-272. https://doi.org/10.17230/co-herencia.16.30.10
Bishop, Christopher. 2006. Pattern recognition and machine learning. Springer.
Broncano, Fernando. (2025). «Las entrañas de la inteligencia artificial y lo entrañable de su uso». Revista Iberoamericana De Ciencia, Tecnología Y Sociedad - CTS, 20(58), 179–194. https://doi.org/10.52712/issn.1850-0013-700
Castro-Gómez, Santiago (2010). Historia de la gubernamentalidad. Razón de Estado, liberalismo y neoliberalismo en Michel Foucault. Siglo del Hombre Editores.
Cataldo, Héctor. 2024. Acerca de la Internet de las cosas: vigilancia/libertad como información y mercado. Pecado Ediciones.
Chirimuuta, Mazviita. 2020. «Prediction versus understanding in computational enhanced neuroscience». Synthese, 199(4). https://link.springer.com/article/10.1007/s11229-020-02713-0
Christakis, Theodore, Karine Bannelier, Claude Castelluccia y Daniel Le Métayer. 2022. Mapping the Use of Facial Recognition in Public Spaces in Europe – Part 1: A Quest for Clarity: Unpicking the ‘Catch-All’ Term. https://dx.doi.org/10.2139/ssrn.4110512
Chu, Yan, Fang Huang, Honbin Wang, Guang Li y Xuemeng Song. 2017. «Short-term recommendation with recurrent neural networks». IEEE International Conference on Mechatronics and Automation (ICMA), Takamatsu, Japan, pp. 927-932, https://doi.org/10.1109/ICMA.2017.8015940
Coeckelbergh, Mark (2022). The Political Philosophy of AI. Polity.
Covington, Paul, Jay Adams y Emre Sargin. 2016. «Deep Neural Networks for YouTube Recommendations». Proceedings of the 10th ACM Conference on Recommender Systems (RecSys ‘16). Association for Computing Machinery, New York, NY, USA, 191–198.
Caponi, Sandra. 2014. «Clasificar y medicar: la gestión biopolítica». En R. Karmy y P. Monti (Eds.) Biopolíticas, gobierno y salud pública Miradas para un diagnóstico diferencial (pp. 154- 173). Universidad de Chile.
Deleuze, Guilles. 1973. Foucault. Paidos Studios.
De Regt, Henk W., y Dieks, Dennis. 2005. «A Contextual Approach to Scientific Understanding». Synthese, 144: 137-70. https://doi.org/10.1007/s11229-005-5000-4
Durán, Juan Manuel y Jongsma, Karin Rolanda. 2021. «Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI». Journal of Medical Ethics, 47(5), 329-335. https://doi.org/10.1136/medethics-2020-106820
Feurer, Matthias y Hutter, Frank. 2019. «Hyperparameter Optimization». En: Hutter F., Kotthoff, L., & Vanschoren, J. (eds.) Automated Machine Learning: Methods, Systems, Challenges (pp. 3-33). Cham: Springer Nature Switzerland.
Foucault, Michel. 2019. Microfísica del poder. Siglo XXI Editores.
———. 1994. Vigilar y castigar. Siglo XXI Editores
———. 1996. La verdad y las formas jurídicas. Barcelona: Gedisa.
———. 2001. Defender la sociedad. Curso del College de France. 1975- 1976. Fondo de Cultura Económica.
———. (2006). Seguridad, territorio y población. Curso del College de France. 1977- 1978. Fondo de Cultura Económica.
———. (2007). Nacimiento de la biopolítica. Curso del College de France. 1978- 1979. Fondo de Cultura Económica.
García, Luis. 2011 «¿Qué es un dispositivo?: Foucault, Deleuze, Agamben». A parte rei. 74, 1- 8.
Goodfellow, Ian, Yoshua Bengio y Aaron Courville. 2016. Deep Learning. The MIT Press.
Hawkins, Jeff y Blakeslee, Sandra. 2005. On Intelligence: How a New Understanding of the Brain Will Lead to the Creation of Truly Intelligent Machines. St. Martin’s Griffin.
Hernández, Rigoberto. 2013. «La positividad del poder: la normalización y la norma». Teoría y crítica de la psicología, 3, 81- 102. https://www.teocripsi.com/ojs/index.php/TCP/article/view/105
Jiang, Miao, Ziyi Yang y Chen Zhao. (2017). «What to play next? A RNN-based music recommendation system. En 2017 51st Asilomar Conference on Signals, Systems, and Computers, 356-358. https://doi.org/10.1109/ACSSC.2017.8335200
Morozov, Evgeny. (2023). «The True Threat of Artificial Intelligence». The New York Times, 30 de junio. Recuperado de:
https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html
Nielsen, Michael. 2015. Neural Networks and Deep Learning. Determination Press.
Rubio, Erick, Leandro Giri y Andrés Ilcic. 2023. «Desafíos epistemológicos en la era de las redes neuronales artificiales: abordando sistemas complejos desde una perspectiva computacional». Argumentos de razón técnica, 26, 145-178. https://doi.org/10.12795/Argumentos/2023.i26.06
Russell, Stuart y Norvig, Peter. 2020. Pearson.
Srnicek, Nick. 2017. Platform capitalism. Polity Press.
Taigman, Yaniv, Ming Yang, Marc’ Aurelio Ranzato y Lior Wolf. 2014. «DeepFace: Closing the Gap to Human-Level Performance in Face Verification». IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 2014, pp. 1701-1708. https://doi.org/10.1109/CVPR.2014.220.
UNESCO. 2022. Recomendación sobre la ética de la inteligencia artificial.
Yuing, Tuillang. 2014. «Biopolítica y clínica: Notas para una pregunta por el individuo». En R. Karmy y P. Monti (Eds.) Biopolíticas, gobierno y salud pública Miradas para un diagnóstico diferencial (89- 110). Universidad de Chile.
Zhang, Suai, Lina Yao, Aixin Sun, y Yi Tay. 2018. «Deep Learning based Recommender System: A Survey and New Perspectives». ACM Computing Surveys 1 (1): 1–35. https://arxiv.org/abs/1707.07435
Zuboff, Shoshana. 2019. The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Sara Alarcón (saraalarcon@mail.uniatlantico.edu.co) es filósofa y magíster en Filosofía. Universidad del Atlántico (Puerto Colombia, Atlántico, Colombia). Sus líneas de investigación son la filosofía política y ética. Ha sido co-autora de “El Museo Itinerante de la Memoria y la Identidad de los Montes de María (MIM): El Mochuelo como espacio heterotópico” en la revista Eidos- 2023, ISSN 2011-7477. También publicó en el 2023 en la revista Amauta, “Roberto Esposito: la biopolítica como dispositivo inmunitario”, ISSN 1794-5658.
Leandro Giri (leandrogiri@gmail.com) es Ingeniero Químico por la Universidad Tecnológica Nacional (Facultad Regional Buenos Aires) y Doctor en Epistemología e Historia de la Ciencia por la Universidad Nacional de Tres de Febrero. Actualmente se desempeña como investigador científico en la Universidad Nacional de Tres de Febrero y en el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET, Argentina). Sus áreas de especialización incluyen Filosofía de la Ciencia, Filosofía de la Técnica, Estudios Sociales de la Ciencia y la Técnica y Política Científico-Tecnológica. Ha publicado numerosos artículos académicos, tanto como autor principal como en coautoría, en revistas especializadas de sus áreas de interés.
Erick Rubio (erickmanuelrubio@gmail.com) es doctor en Filosofía por la Universidad de Buenos Aires, especializado en complejidad, redes neuronales artificiales y simulación computacional. Es docente en la Universidad del Norte y la Fundación Universitaria San Martín. Su investigación se enfoca en la filosofía de la ciencia, especialmente en inteligencia artificial, sistemas complejos y modelos computacionales. Ha explorado cómo las tecnologías emergentes afectan la producción del conocimiento científico y las implicaciones epistemológicas de los modelos computacionales en la investigación. Su trabajo busca profundizar en cómo las herramientas computacionales influyen en la validación del conocimiento científico.
Recibido: 13 de diciembre, 2024. Aprobado: 20 de diciembre, 2024.