39
Algorithmic as a theotechnique
Lo algorítmico como teotécnica
Daniel H. Cabrera Altieri
University of Zaragoza / Institute of Philosophy, CSIC, Spain.
Universidad de Zaragoza / Instituto de Filosofía, CSIC, España.
ISSN: 0123-5095 E-ISSN: 2389-9441
Cuestiones de Filosofía Vol. 10 - N° 35, julio - diciembre, año 2024, pp. 39-57
Artículo de Reexión
Resumen
El algoritmo es un elemento central para
pensar la sociedad actual. Más allá de su
sentido técnico, destaca su lugar fantasmal
en el discurso público, nombrando
automatismos ecientes que refuerzan la
desigualdad y la discriminación racial,
de género y de clase social. Un juego
ambivalente de eciencia y refuerzo del
orden social injusto, de transparencia y
opacidad tecnológica, lo muestran como
una teotécnica. Se trata de un dispositivo
dramatúrgico de narrativas e imágenes
justicadas por la efectividad de su acción
técnica y, por lo tanto, objetiva y neutral.
Ese dispositivo implica un conjunto de
estrategias que se analizan en el artículo:
la promoción de una ecacia invisible, la
instalación de interfaces que conectan con
lo operativo, la tendencia extractivista de
conductas y datos, los sesgos humanos
y maquínicos. La teotécnica se reere
a lo algorítmico como sujeto de estas
estrategias sociales para una apuesta
política justa e igualitaria.
Palabras clave: algoritmo, creencias, imaginario, sesgos, extractivismo de datos.
Recepción / Received: 16 de enero del 2024
Evaluado / Evaluated: 12 de febrero del 2024
Aprobado / Accepted: 25 de mayo del 2024
Historia del artículo / Article Info:
Correspondencia / Correspondence: Daniel H. Cabrera
Altieri. Universidad de Zaragoza, Facultad de Filosofía y
Letras, c/ Pedro Cerbuna 12, Zaragoza, España (Código Postal:
50009). Correo-e: danhcab@gmail.com
Citación / Citation: Cabrera, D. (2024). Algorithmic as a
theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
40 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Abstract
The algorithm is a central element for understanding contemporary society.
Beyond its technical meaning, it highlights its ghostly place in public
discourse, by naming ecient automatisms that reinforce inequality and
discrimination based on race, gender and social class. An ambivalent interplay
of eciency and reinforcement of the unjust social order, of technological
transparency and opacity, shows it as a theotechnique. It is a dramaturgical
device of narratives and images that is justied by the eectiveness of its
technical action and is therefore seen as objective and neutral. This device
implies a series of strategies that are analyzed in the article: the promotion
of an invisible eciency, the installation of interfaces that connect with the
operational; the extractivism of behaviors and data; human and machinic
biases. Theotechnique refers to the algorithmic as the subject of these social
strategies that name the epistemological diculty for a fair and egalitarian
political stance.
Keywords: Algorithm, beliefs, imaginary, biases, data extractivism.
41
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
Introducción
Los algoritmos se han convertido en un elemento estratégico para pensar la
cultura y la sociedad digital: “Sin algoritmos, los ordenadores serían inútiles
y no existiría ninguna tecnología moderna” (Louridas, 2023, p. 12). En el
presente artículo lo algorítmico es analizado desde la convicción de que
“no estamos a la altura de la perfección de nuestros productos” (Anders,
2011, p. 13). Paradójicamente, junto al crecimiento de su presencia ubicua
e importancia social, crece también el desconocimiento ciudadano de su
naturaleza, de sus diseños y de sus riesgos. El desconocimiento no se reere
solo a los usuarios. Ante algoritmos complejos los programadores pueden
llegar a decir que “nunca sabremos cómo los algoritmos saben lo que saben”
(Finn, 2018, p. 326). En el aprendizaje maquínico “no hay una teoría del
aprendizaje que explique por qué funcionan tan bien y cómo es que fallan
tan mal” (Pasquinelli y Joler, 2021, p. 2). El desconocimiento es una muestra
de la especicidad de la cuestión de la transparencia/opacidad que muestra el
desafío ante el que nos encontramos.
La Teotécnica es la dimensión dramatúrgica de lo algorítmico que busca
comprender la lógica del sistema sociotecnológico. La Teotécnica describe la
condición de posibilidad, de existencia social, de lo algorítmico. Condición
dramatúrgica, más que mágica o religiosa, que funciona poniendo en escena
un universo narrativo al que somos invitados a participar con la promesa
de “experimentar” un mundo mejor. La contrapartida de esa promesa y
experiencia muestra el juego de opacidad tecnológica y transparencia de uso
y simplicidad para el usuario.
Para pensar la relación entre lo algorítmico y lo social es posible detenerse,
en primer lugar, en la ecacia invisible propia de lo digital. En segundo
lugar, se presentará la cuestión de la transparencia/opacidad algorítmica, y,
nalmente, se postulará la opacidad algorítmica como un dispositivo social
de legitimación de un orden social injusto y extractivista.
La ecacia visible de lo invisible digital: imágenes y narrativas
Toda tecnología tiene algo de magia, algo de efectividad sorpresiva e
inexplicable que se fundamenta en una cierta desconexión entre lo que se hace
visiblemente (deslizar el dedo sobre íconos de una pantalla) y el resultado
obtenido por el usuario (la conectividad, la comunicación o el entretenimiento).
42 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Las tecnologías digitales con sus brillantes pantallas se convierten en “espejos
negros” de transparencia/opacidad. Los algoritmos
1
son una parte de ese
invisible digital porque el usuario no sabe que interactúa directamente con
ellos. Lo supone, se lo han dicho, pero no lo tiene en su rango de percepción.
La interfaz se interpone haciendo fácil una interactividad sensitiva, visual,
auditiva y/o táctil. Los dispositivos están allí para responder y fomentar la
interactividad humana escondiendo la lógica que procesa y responde.
En la era mecánica, la automatización era visible (Giedion, 1978). Palancas,
engranajes, motores, correas, cadenas mediaban, de modo más o menos
visible, moviendo piezas que respondían a la acción humana. Botones, pedales
o manijas eran una interfaz ecaz para conseguir el resultado esperado. Lo
oculto era la energía, la electricidad, por ejemplo, que ayer como hoy, solo
sigue presente para los especialistas. Aunque popularmente se hable de “luz”
para nombrar a la electricidad, es de todo, menos visible. La infraestructura
energética permanece oculta.
Cuando el software tomó el mando (Manovich, 2013), la mediatización
tecnológica se invisibilizó aún más que la propia electricidad. Las pantallas e
interfaces grácas se interpusieron ocultando el “mecanismo”. Su apariencia
visible, entretenida, brillante, luminosa se convirtió en un lugar en sí mismo.
Como si el “detrás de la escena” no interesara o estuviera prohibido para el
usuario, un lugar donde sólo el experto puede entrar. El desajuste y distancia
entre usuario y experto aumentó paralelamente a la complejidad de la
tecnología digital. Las dimensiones de esa opacidad son múltiples y pueden
ser atribuidas a la complejidad general de la tecnología material, sin embargo,
también se deben, y hay que destacarlo, a estrategias de ocultamiento como
son las narrativas de la inmaterialidad y de lo intangible.
Tanto la invisibilidad de la ecacia como las estrategias narrativas del
marketing facilitan mantenerse en la supercie, funcional y efectiva, de
lo que nombran los procedimientos y aparatos. Ello permite esconder la
infraestructura material como el consumo de energía, el gasto de agua para
refrigerar, el uso de mano de obra barata e incluso esclava, la extracción de
tierras raras (neodimio, praseodimio, etc.), las injerencias de los estados y
de ejércitos en una lógica extractivista y explotadora de recursos y humanos
(Parikka, 2021; Crawford, 2022).
1 Para una denición de algoritmo puede consultarse: Goey (2008), Gillespie (2016), Pasquinelli y
Joler (2021), NIST (2023), Louridas (2023).
43
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
Esta opacidad constitutiva –invisibilidad de su ecacia, necesidad de un
imaginario de esperanzas y ocultamiento de su infraestructura material– de
la tecnología digital se presenta con características propias en relación con
los algoritmos. Los sesgos de su diseño y de los datos de entrenamiento,
los prejuicios de los programadores, la imposibilidad de controlar todas las
fases del diseño y su funcionamiento automático, la escala de su trabajo,
la injerencia de lógicas sociales no evaluadas, son algunos de los aspectos
especícos de esa opacidad. Opacidad que no resulta problemática porque
su ecacia es real y visible. Efectividad que reviste a los algoritmos de un
halo técnico, es decir, exacto, imparcial, objetivo y, por tanto, incuestionable
e inevitable.
Contrariamente a lo que podría sugerirse, la opacidad misma –el hecho
de que exista de modo técnicamente tan evidente y en tantos niveles– se
convierte en parte del argumento o pretensión de incuestionabilidad de los
procedimientos y sus resultados. Las tecnologías algorítmicas toman el
lugar de lo neutral, es decir, un puro procedimiento cientíco que, como
tal, produce “resultados exactos” aplicados, por ejemplo, para conceder un
crédito, para evaluar una situación, para predecir comportamientos de las
personas, para clasicar usuarios y gustos (Striphas, 2015). Todo es resuelto,
se dice y se cree, imparcialmente. Una decisión tomada algorítmicamente se
presenta como lo contrario de una decisión ideológica basada en creencias
y pasiones humanas. Esa creencia en la imparcialidad técnica funciona para
suprimir la voluntad de resistencia y, en consecuencia, como estrategia para
su aceptación y colaboración.
El algoritmo aparece como un aspecto privilegiado de lo digital para pensar
el vínculo imaginario entre la dimensión estratégica de la tecnología y el
funcionamiento de la sociedad. Este vínculo puede postularse como teotécnico
en el sentido derivado del teatro clásico griego. Theologeîon, en el siglo V
a. C., en Atenas, signicaba literalmente “plataforma de los dioses”, y hacía
referencia a una grúa que bajaba un estrado al escenario desde el tejado, con
el objetivo de exhibir actores como si de dioses sobrenaturales se tratara
(Perseus Encyclopedia, 2023). Una grúa sujetaba una especie de púlpito que
giraba por encima del escenario y desde allí el dios hablaba a la escena teatral
de los humanos. Peter Sloterdijk (2022, p. 17) subraya el hecho de que el
dios era un actor con una máscara especial, un actor, no un sacerdote ni un
estudioso de la teología. El theologeîon no era un púlpito, sino un dispositivo.
44 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
En el ámbito latino deus ex machina representa algo semejante: una gura
que interviene desde afuera y que puede dar un giro liberador en un conicto
humano aparentemente irresoluble. Pero el theologeîon era algo más que un
giro en la trama. Se usaba “un dios para la disolución del nudo del drama”, lo
que funcionaba como una prueba de que el dios realmente existía, convirtiendo
al mecanismo, arma Sloterdijk, en una “demostración dramatúrgica de la
existencia de Dios” (2022, p. 21). La magia del espectáculo convertía un
efecto teotécnico en una emoción compartida; era una integración simbólica y
emocional de los espectadores. La puesta en escena dramatúrgica formó parte
de los rituales y del culto religioso, y estaba en el centro de las justicaciones
teológicas que muestran los diferentes modos de las apariciones que justican
la fe del creyente.
Los algoritmos, en muchos sentidos, funcionan socialmente como una
teotécnica del sistema digital. Una tecnología que interviene teatralmente a
través de los recursos narrativos de empresarios y promotores que los nombran,
y cuya invisible existencia parece probada por la eciencia de sus resultados.
Los algoritmos son nombrados como presencias efectivas, como dispositivos
que resuelven situaciones que humanamente aparecen como si estuvieran sin
salida. Los algoritmos se presentan desde las alturas del saber tecnológico
actuando efectivamente, haciendo muchas cosas, ante todo, lo más divino:
predecir, presagiar la conducta humana. Así, con su acción resolutiva, rápida,
exacta, sin esfuerzo, y prácticamente sin intervención del usuario, se hace
“evidente” su existencia. Como en el theologeîon, los algoritmos entran en
escena desde un afuera del escenario donde se representa la comedia social.
Hay humanos y hay ordenadores viviendo su interacción, siguiendo sus
papeles, pero cuando llegan las bifurcaciones, los caminos inesperados y los
problemas, se dice que son los algoritmos los que han actuado. Clasicados,
capacitados, divertidos, traducidos y respondidos, los usuarios humanos
poco tienen que decir ante semejante eciencia y velocidad de actuación.
A diferencia del theologeîon, el algoritmo no aparece en la escena de manera
visible, sino a través de las narrativas que lo invocan y sobre todo de sus
efectos en la resolución de problemas y conictos de la vida humana. El
secreto es una parte constitutiva del dispositivo, pues lo legitima frente a las
acciones no maquínicas, es decir, ante las acciones humanas movidas por la
pasión y la irracionalidad. El secreto tiene varias dimensiones de opacidad. La
que es consecuencia del conocimiento experto alejado del saber de usuario;
45
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
la que deriva del oscurantismo técnico fruto de estrategias empresariales
presentes en su diseño, implementación, promoción y circulación, en la
división del trabajo del programador y en los automatismos; la opacidad
social consecuencia de los sesgos de datos y procesamientos, de los secretos
empresariales y políticos, de las retóricas de desinformación y, ante todo,
de la “brecha” entre los procedimientos matemáticos y el lenguaje humano
(Finn, 2018, p. 15).
Este artículo se centra en el algoritmo no tanto como procedimiento lógico
informático, sino como el modo en que ese procedimiento se acepta,
se promueve y encuentra un lugar en lo social. Es por esta razón que se
hace referencia a lo algorítmico como el nombre que reúne un conjunto de
razonamientos informáticos y automatismos maquínicos que se aducen para
justicar acciones empresariales y estatales, supuestamente caracterizada por
ser neutrales y exactas. Como ha sostenido Kate Crawford, se trata de un
“determinismo encantado” (2022, p. 324). Determinismo porque se habla de
probabilidades y patrones predictivos. Encantado porque se lo considera algo
más allá del mundo conocido.
Opacidad/transparencia algorítmica
Jenna Burrel sostiene con toda claridad que “la opacidad parece estar en el
corazón mismo de las nuevas preocupaciones sobre los ‘algoritmos’ entre
los estudiosos del derecho y los cientícos sociales” (2016, p. 1). Como se
ha señalado, los algoritmos usan datos de entrada y producen una salida, una
clasicación. En ese sentido, son opacos porque cuando el usuario recibe el
resultado, no tiene modo de saber cómo o por qué el algoritmo ha llegado a
esa clasicación.
La comprensión de los algoritmos de aprendizaje automático comienza por
dimensionar su objetivo: que las máquinas aprendan y puedan funcionar de
manera automática. A la máquina se le entrena para que su acción y efectividad
mejore mediante el trabajo con grandes masas de datos y, de esta manera,
pueda construir un modelo para caracterizar y predecir nuevos datos, en
forma de, por ejemplo, interpretaciones y comportamientos. El aprendizaje
maquínico busca compensar anomalías y excepciones a sus reglas, para lo que
requiere una retroalimentación que le indique cuándo esas reglas se desvían
de su curso preestablecido. Este paso genera bucles de retroalimentación
en una versión informática del efecto Mateo, que premia al que tiene más
46 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
indicadores positivos y castiga al que tiene pocos. El problema social de los
algoritmos se relaciona directamente con esos modelos estadísticos que, a
partir de los datos preexistentes, actúan predictivamente de manera autónoma.
Algoritmos, datos y modelos existen conjuntamente en los procesos
informatizados. Para generar esos modelos, la “realidad” (nanciera,
deportiva, afectiva, educativa, etc.) debe ser simplicada, y para ello se toman
“decisiones sobre lo que es sucientemente importante como para incluirlo
en el modelo y simplicarlo en una versión de juguete que pueda ser fácil de
comprender y de la que se puedan deducir hechos y acciones importantes”
(O’Neil, 2017, p. 30). Estos procesos de simplicación constituyen uno de los
“puntos ciegos de un modelo [que] reeja las opiniones y prioridades de sus
creadores”, porque “nuestros propios valores y deseos inuyen en nuestras
elecciones, desde los datos que decidimos recopilar hasta las preguntas que
hacemos. Los modelos son opiniones integradas en matemáticas” (p. 31).
La simplicación para la construcción del modelo y para introducir datos sin
contextos conduce al sesgo algorítmico y a clasicaciones arbitrarias, que con
sus generalizaciones pueden contribuir a generar y a reforzar discriminación,
estereotipos, prejuicios, creencias infundadas, opiniones polarizadas,
desinformación, etc. Todas esas posibles consecuencias negativas que, sin
embargo, pueden ser consideradas “objetivas” en tanto su resultado “no
depende de los humanos”. Algunas de las dimensiones del problema de la
opacidad/transparencia algorítmica pueden ejemplicarse con diferentes
enfoques: la pantalla como interfaz que simultáneamente permite ver y
ocultar; la doble dimensión del público como usuario y como contenido; la
cuestión de los sesgos y las clasicaciones de individuos y regiones pobres.
Interfaz: lo visible y lo operativo
En 1984 se lanzó a la venta la computadora Mac de Apple. Este fue el primer
ordenador personal que comercializó con éxito la interfaz gráca de usuario
(GUI) y el ratón en lugar del teclado. Tuvo un gran impacto y profundizó en
el modelo de usabilidad: no importa cómo sea el sistema operativo ni cuántos
cambios haya entre un modelo y otros, porque cualquier actividad del usuario
consistirá en señalar dibujos intuitivos con el ratón o, más actualmente, con
los dedos para activar las funciones deseadas. La “usabilidad” hizo el milagro
de invisibilizar el medio, y su mediatización, a través del uso intuitivo. La
actividad del usuario se alejó cada vez más de los procesos del sistema
47
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
operativo, dando inicio a la era en la que el uso efectivo permite ignorarlo
todo por completo respecto de su funcionamiento.
La interfaz gráca, paradójicamente, hace desaparecer la pantalla
como interfaz del software y con ello, separa la interactividad en dos
territorios. En uno, la interactividad óptica de los usuarios, en otro, la
interoperatividad lógica codicada de los programadores. La caja negra
se oscurece aún más. Detrás de ellos, la interoperatividad lógica de los
informáticos diseña y programa caminos y modelos que son los que
resuelven las cuestiones planteadas.
Contenidos de usuario y el usuario como contenido
Dominique Cardon interpreta la cuestión de los datos distinguiendo entre
“señales” y “rastros”. Las señales son los contenidos explícitos (comentarios,
tweets, compartir, etc.), y los rastros, los implícitos (clicks, geolocalización,
navegación, etc.). Los primeros son visibles para los usuarios, los segundos
para las empresas. De esta manera se valora que “los algoritmos de la web
más ‘ecaces’ son los que emparejan más estrechamente señales informativas
con rastros de comportamiento” (Cardon, 2018, p. 82). Los “rastros” de las
acciones de los usuarios se convierten en datos para entender sus gustos, sus
preferencias de diverso tipo, su orientación ideológica y un largo etcétera con
los que las empresas dueñas de las aplicaciones, redes sociales y plataformas
pueden comercializar al propio usuario prediciendo su comportamiento.
Shoshana Zubo hace referencia al “problema de los dos textos”. El primero,
el del usuario que es autor y lector, es lo que éste tiene ante sus ojos, en
la pantalla. Ese texto, arma Zubo, arrastra “una especie de sombra” que
muestra “la verdadera función del primer texto (…) servir de fuente de
suministro” (2020, p. 256). Este “texto en la sombra” convierte todo lo que
aporta el primero en material para la extracción de un excedente.
La cuestión de las señales y los rastros, o los dos textos, muestra lo
idiosincrásico de la gran asimetría de conocimiento y poder sobre el que
se construye el sistema sociotécnico actual: la extracción y acumulación de
datos con acciones legalmente opacas sobre territorios desconocidos y con
consecuencias inciertas. Por ello, sostiene Cardón, “cuánto más transparentes
son los individuos, más opacos resultan quienes observan” (2018, p. 102).
48 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Sucede lo mismo con el extractivismo de datos que afecta a los ciudadanos
y colectivos de los países del Sur global, con el foco puesto en sus recursos
naturales y sus posibilidades de mano de obra barata. La asimetría de poder
y conocimiento de los ciudadanos respecto de las empresas y del hemisferio
sur respecto del norte, basada en el extractivismo y expropiación de datos,
generan nuevas formas de control social. La capacidad de predecir el futuro de
los usuarios y de los recursos naturales y humanos de los países, en benecio
de unas empresas, implica “una nueva lógica general (que) consagra la
vigilancia y la expropiación unilateral de datos conductuales como la base de
una nueva forma de mercado” (Zubo, 2020, p. 124). Esa lógica se basa en
“la creencia inquebrantable de que cualquier cosa puede ser un dato y de que
los datos están ahí para que los tome quién quiera” (Crawford, 2022, p. 147).
La lógica del extractivismo de conductas, semejante al extractivismo
de recursos naturales, avanza a la par de la digitalización global y de la
conversión de casi todas las cosas en un sensor. Tecnologías domésticas,
tecnologías wearables o ponibles, las tecnologías móviles y “el internet
de las cosas” implican la instalación de sensores que permiten capturar el
excedente conductual en todos los ámbitos de la vida y, con todo ello, poder
ofrecer productos predictivos, así como la posibilidad de dirigir mensajes
(mercantiles, ideológicos, morales) personalizados.
De los sesgos a la clasicación
Cathy O’Neil (2017) alertó del daño y la desigualdad que fomenta el big data
llamándola “armas de destrucción matemática”. En todos los casos que analiza
la autora, arma, “se golpea a los pobres” y se “socava la democracia” porque,
concluye, “el éxito de un modelo suele medirse en términos de benecio,
eciencia o tasas de morosidad” (p. 255), y eso ocupa el lugar de la “verdad”
o la “realidad”. Virginia Eubanks, por su parte, analiza detalladamente el
impacto de los sistemas tecnológicos de clasicación y monitorización sobre
los pobres y la clase trabajadora de Estados Unidos. Concluye que los pobres
y la clase obrera son el objetivo de las nuevas herramientas digitales de
gestión: “la toma automatizada de decisiones hace añicos la red de seguridad
social, criminaliza a los pobres, intensica la discriminación” (2021, p. 25).
El rastreo y la automatización ocultan y distancian la pobreza para poder
tomar decisiones inhumanas protegidas por la “objetividad” de los datos.
49
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
La evaluación también es una prioridad en la implementación de políticas
públicas en el Sur global. Payal Arora (2015) ha señalado que términos como
“big data” son erróneos porque confunden el tamaño con su capacidad de
representar un conjunto. Existen los ricos en datos, aquellas organizaciones
que pueden generar, comprar y almacenar grandes conjuntos de datos. Existen
también los pobres, que son aquellos excluidos del acceso a los datos, la
experiencia y la capacidad de procesamiento. Velasco y Venturini encontraron
que los sistemas controlados algorítmicamente para la toma de decisiones
suponían una delegación de la acción política a un ente corporativo (2021, p.
5). En los casos analizados, los sistemas implementados dieron a empresas
privadas, en particular Microsoft, “la labor de intermediación que vincula
los dispositivos tecnológicos con los planes y políticas diseñadas por los
gobiernos” (p. 30). Natalia Zuazo asegura que en Latinoamérica no se cuenta
con “asesores tecnopolíticos capaces de considerar quiénes ganan y quiénes
pierden” (2018, p. 5). Particularmente, sostiene que “es central preguntarnos
cuánto sabemos los ciudadanos respecto de las decisiones que toman los
algoritmos diariamente sobre nuestras vidas en América Latina” (p. 6).
Estas referencias muestran el problema político del sistema algorítmico y
la posibilidad de reforzar y acrecentar la desigualdad social y geopolítica. La
gobernanza algorítmica se basa en la opacidad, ante todo, de los datos. Como
sostiene Crawford las clasicaciones están incrustadas, invisibles, en la
estructura operativa. Por ello sostiene que “la tendencia a enfocarse en el asunto
de los sesgos nos ha alejado de la tarea de evaluar las prácticas centrales de la
clasicación en la IA, junto a las políticas que las acompañan” (2022, p. 195).
Las acusaciones de sesgo suelen tratarse como una enfermedad y su
resolución como una medicina. No abundan los debates sobre por qué sigue
produciéndose con tanta frecuencia la discriminación por género, raza (Silva,
2022) o clase social. No se discute si los datos de entrenamiento fueron/son
inadecuados o si el algoritmo está mal diseñado. Como sostiene Carwford:
“la industria del IA ha entendido el problema del sesgo típicamente como
un error del sistema que se puede arreglar y no como una característica
de la clasicación en sí” (2022, p. 200). El tema es cómo se construye el
conocimiento: los datos que se extraen para clasicar y reconocer patrones
de reconocimiento (Pasquinelli y Joler, 2021). El resultado: “una máquina de
discriminación que se autoperpetúa amplicando las desigualdades sociales
bajo el disfraz de una neutralidad técnica” (Carwford, 2022, p. 200).
50 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Lo algorítmico y la teotécnica
El juego de transparencia/opacidad en los diferentes aspectos señalados (las
creencias, el interfaz, el usuario como contenido, los sesgos y clasicaciones)
muestran dimensiones del imaginario de lo algorítmico como sistema
sociotecnológico. Los algoritmos se presentan como una cuestión técnica de
modelos y datos, como algo independiente de los individuos, la sociedad y la
cultura. Esa supuesta independencia del diseño de algoritmos y de la obtención
y clasicación de datos con respecto a sus bases sociales y culturales, está en los
fundamentos del optimismo tecnológico y del pesimismo cultural. Lo comentado
hasta aquí muestra hasta qué punto hay una preocupación ética y política por una
regulación y control del sistema algorítmico y la Inteligencia Articial.
Este artículo se aproxima a una interpretación del conjunto de creencias sobre
las tecnologías que facilitan su aceptación, promoción, adopción y apropiación
social. Creencias que constituyen un conjunto de ideas que alientan afectos
y deseos especícos que transforman el desconocimiento y la ignorancia en
certezas de fe (Cabrera Altieri, 2021). De este modo, la opacidad técnica que
podría paralizar la industria y el mercado se convierte en una pieza clave
para la conanza en el funcionamiento del sistema algorítmico. Tal como se
ha presentado en este escrito, es posible considerar la transparencia/opacidad
del sistema algorítmico desde dos enfoques: el código y lo político.
Lo algorítmico: la opacidad del código
Allí donde se encuentra un proceso resuelto algorítmicamente se habla,
como de todo procedimiento tecnológico, de su efectividad y velocidad,
presentándolo como algo imparcial, exacto y, sobre todo, incuestionable. De
esta manera, la opacidad derivada del desconocimiento, las regulaciones, los
secretos, los sesgos, etc. se considera como un saber oculto, solo accesible para
los sacerdotes de la programación y del mercado. La opacidad constituyente
del sistema tecnológico abarca tanto el sistema experto (económico-
ingenieril) como también el marketing y las estrategias de mercado que se
construyen en y a través de los discursos públicos. El actual des/conocimiento
acerca de la naturaleza y del funcionamiento de los distintos algoritmos
alimenta un velo ignorante y misticador para la mayoría de la población.
Esta situación es semejante, tal vez, a aquella que rodeó a la escritura en sus
comienzos en Sumeria (Ong, 2011), cuando la lectura daba vida a las marcas
fantasmagóricas e incomprensibles en sus soportes. La magia aparecía como
51
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
contracara de la ignorancia y, por ello, como una técnica funcional a la
estructura de poder que ostentaba el monopolio de la escritura.
Como entonces, el sistema de algoritmos y datos aparece como técnica
viva y efectiva en el momento en que se perciben sus acciones: identicar,
clasicar, relacionar, predecir. Acciones auráticas no sólo por sus efectos
maravillosos (como fue la contabilidad y los ordenamientos jurídicos en la
escritura del poder mesopotámico), sino también por la invisibilidad de su
poder. En Mesopotamia había soportes materiales y marcas visibles a los ojos,
hechas con las manos. Lo digital, por el contrario –aunque la pantalla es un
soporte vidrioso y visual– encubre las “marcas” de sus “códigos” (software,
metadatos, etc.). Jenna Burrel señala que, efectivamente, la escritura y
lectura de códigos, y el diseño de algoritmos, son habilidades especializadas
e, incluso, inaccesibles para la mayoría de la población porque los lenguajes
de programación son diferentes a los lenguajes humanos (2016, p. 4).
En un primer enfoque, si se quiere “interno” al sistema, la transparencia/
opacidad algorítmica podría ser afrontada con una educación digital
algorítmica, basada en la posibilidad de vencer el prejuicio de la separación
y oposición de la naturaleza humana y la maquínica. Se trataría tanto del
aprendizaje de habilidades concretas (de programación, de diseño de
modelos, etc.) como también del conocimiento, por parte de los ciudadanos,
de los mecanismos que impactan en sus vidas. Ello permitiría estar en
condiciones de considerar su existencia concreta, valorar los algoritmos
críticamente y plantearse alternativas. El resultado de ese proceso podría
ser semejante a la escritura.
Lo algorítmico: opacidad política
La teotécnica reere al nivel en que lo algorítmico pretende convertirse en el
mito y el símbolo que actúa de manera mágica sobre el presente histórico, y
de modo adivinatorio sobre el futuro. En tanto mito y símbolo, lo algorítmico
legitima y alienta el mantenimiento del rumbo político cultural actual, entre
otros posibles caminos posibles y alternativos al presente mundo injusto
y desigual. Esto es posible porque su estrategia consiste en identicar y
confundir el rumbo social con el destino de la humanidad, y en ese proceso se
presenta como una entidad necesaria y esencial en la institución de un nuevo
mundo y una nueva humanidad. Esta tendencia legitimadora del presente
participa de lo que podemos denominar el proyecto capitalista algorítmico
52 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
digital, que implica una tecnologización profunda y radical del pensamiento,
la libertad, la palabra, la subjetividad y la vida de todo el sistema ecosocial.
Todo esto es lo que hoy se promociona con el nombre de inteligencia articial.
La teotécnica consiste en un conjunto de estrategias por las que la tecnología
aparece como solución a los problemas del presente (Morozov, 2016), como
motivo de esperanza para el futuro y como potenciadora del ser humano.
Esas estrategias son, ante todo, discursivas, pero tienen su contraparte en las
manipulaciones de las relaciones públicas y en los incentivos económicos
de las plataformas (p. 183), entre muchas maniobras comerciales y legales
(Srnicek, 2018; Zubo, 2020; Durand, 2021). Las estrategias discursivas
anuncian la proximidad de “lo nuevo” que es necesario esperar, acompañan
la promoción de los aparatos y alientan usos determinados, y valoran las
oportunidades y ventajas de las personas y grupos sociales. Todas estas son
estrategias narrativas acompañadas de estrategias de marketing y de acciones
políticas que se viralizan, es decir, que se extienden capilarmente en la
sociedad e infectan el conjunto de creencias que sostienen el orden social.
Lo discursivo encuentra en el milagro del correcto funcionamiento de los
aparatos la conrmación de su núcleo de fe (Cabrera Altieri, 2021).
‘Teotécnica’ es una palabra que implica la “técnica” como referencia a
reglas de uso, recetas, procedimientos en general. ‘Teo’ por su intento de
convertirse en una teología, es decir, en una explicación sobre lo divino,
lo incognoscible del sistema tecnológico. Ese incognoscible se invoca para
explicar otras palabras más famosas o de moda: hace años se llamaban
“nuevas tecnologías”, luego “tecnologías digitales”, y hoy se denominan
“Inteligencia Articial”. Todas estas son palabras que se vacían de contenido
para nombrar una realidad amigable con el usuario. Y cuando, frente a ese
vacío, la sociedad requiere una explicación acerca de lo que signican, surge
la teotécnica, el concepto técnico que parece explicarlo todo. Lo algorítmico,
desde hace tiempo, nombra esa dimensión técnica, ingenieril, de las redes
sociales, de las aplicaciones, del Internet, del comercio electrónico y de
todo lo digital. ‘Teotécnica’ es el modo en que lo algorítmico se convierte
en una entidad abstracta, invocada a través de un dispositivo narrativo
ingenieril que transforma los procedimientos de uso en reglas de actuación.
En tanto dispositivo, actúa de modo mágico en el sentido que hace percibir la
dimensión misteriosa de la funcionalidad tecnológica como un símbolo del
sistema tecnológico en su conjunto y, por ello, la necesidad de conar en él.
53
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
Conclusión
Se ha planteado la cuestión de la transparencia/opacidad del sistema
algorítmico desde varios puntos de vista. En ese sentido, la teotécnica busca
dar cuenta de los conceptos clásicos del campo, como sesgo –humano y
maquínico–, marcos, datos de entrenamiento, clasicación, modelos etc.
Todos estos son conceptos provenientes –o al menos con una fuerte carga de
enfoques– de la psicología cognitiva y la estadística. Las ciencias sociales,
y ante todo las humanidades, necesitan conceptos que permitan enfrentar
estos conceptos y enfoques dentro de su propia tradición epistemológica para
enriquecer la comprensión y el diálogo interdisciplinar. La losofía de la
técnica es un lugar propicio para pensar en ello.
La lógica probabilística de lo algorítmico actúa y produce modelos de
interpretación y actuación sobre la sociedad y el mundo. Hasta ahora las
probabilidades, como se ha mencionado, refuerzan la estructura desigual y
extractivista de la sociedad. Las elecciones de los individuos y las decisiones
políticas basadas en algoritmos, aunque son rápidas y tienen muchos aciertos,
dependen de unos datos y unas lógicas que profundizan una sociedad denida
desde la asimetría del poder. A diferencia de la probabilidad, lo posible
es el terreno propio de la condición humana. La innovación y la creación
dependen de la imaginación que, asistida tecnológicamente o no, consiste en
la capacidad de establecer lo deseable.
Con y contra la tecnología, la humanidad se hace a sí misma. Cultura,
subjetividad y tecnología han caminado, y caminan, juntas. Lo tecnológico
como dispositivo dramatúrgico nos muestra que el lenguaje maquínico se
impone sobre el lenguaje humano natural, que el conocimiento experto se
aparta peligrosamente de su capacidad de diálogo con la acción política
y que, como ha defendido Stiegler (2002), el constante crecimiento de la
velocidad del sistema tecnológico se aleja de las capacidades humanas y de la
organización social. ‘Teotécnica’ es el truco sistémico por el que se pretende
solventar mágicamente estas distancias ante la impotencia para parar o
ralentizar la máquina, la aparente incapacidad para esperar y reorganizar la
vida humana en su conjunto.
54 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Referencias
AlgoRace (Des)Racializando la IA (2022). Una Introducción a la IA y la
discriminación algorítmica para movimientos sociales. www.algorace.org
Arora, P. (2016). The Bottom of the Data Pyramid: Big Data and the Global
South. International Journal of Communication, 10, pp. 1681-1699.
https://ijoc.org/index.php/ijoc/article/view/4297/1616
Anders, G. (2011). La obsolescencia del Hombre. Sobre el alma en la época
de la segunda revolución industrial. Vol. 1. (J. Monter Pérez, Trad.).
Valencia: Pre-textos.
Bucher, T. (2016). The algorithmic imaginary: exploring the ordinary aects
of Facebook algorithms. Information, Communication & Society, 20
(1), pp. 30-44. https://doi.org/10.1080/1369118X.2016.1154086
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in
machine learning algorithms. Big Data & Society, 3 (1). https://doi.
org/10.1177/2053951715622512
Cabrera, Altieri D. (2021). El algoritmo como imaginario social. ZER: Revista
de Estudios de Comunicación Komunikazio Ikasketen Aldizkaria, 26
(50), pp. 125-145. https://doi.org/10.1387/zer.22206
Cardon, D. (2018). Con qué sueñan los algoritmos. Nuestras vidas en el
tiempo de los big data (A. Dávila, Trad.). Madrid: Dado Ediciones.
Crawford, K. (2022). Atlas de la inteligencia articial. Poder política y
costos planetarios (F. Diaz Klaassen, Trad.). Buenos Aires: Fondo de
Cultura Económica.
Durand, C. (2021). Tecnofeudalismo. Crítica a la economía digital (V.
Goldstein, Trad.). Adrogué: La Cebra / Donostia: Kaxilda.
Eubanks, V. (2021). La automatización de la desigualdad. Herramientas
de tecnología avanzadas para supervisar y castigar a los pobres
(G. Deza, Trad.). Madrid: Capitan Swing.
Finn, E. (2018). La búsqueda del algoritmo. Imaginación en la era de la
informática (H. Castells Albareda, Trad.). Barcelona: Alpha Decay.
55
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
Fuller, M. (Ed.) (2008). Software Studies. A Lexicon. The MIT Press. https://
doi.org/10.7551/mitpress/7725.003.0002
Giedion, S. (1978). La mecanización toma el mando (E. Riambau i Sauri,
Trad.). Barcelona: Editorial Gustavo Gili.
Gillespie, T. (2016). Algorithm. P. Benjamin (Ed.), Digital Keywords. A
Vocabulary of Information, Society and Culture (pp. 19-30). Princeton:
University Press.
Goey, A. (2008). Algorithm. M. Fuller (Ed.), Software Studies: A Lexicon
(pp.15-20). Cambridge (Massachusetts) / London: The MIT Press.
Graeber D. (2005). Fetishism as social creativity: Or, Fetishes are gods in the
process of construction. Anthropological Theory, 5 (4), pp. 407-438.
https://doi.org/10.1177/1463499605059230
Hill, R. K. (2016). What an Algorithm Is? Philosophy and Technology, 29,
pp. 35-59. https://doi.org/10.1007/s13347-014-0184-5
Louridas, P. (2023). Algoritmos (C. Gual Marquést, Trad.). Santa Cruz de
Tenerife: Melusina.
Manovich, L. (2013). El software toma el mando (Y. García Porres, Trad.).
Barcelona: UOC.
Morozov, E. (2016). La locura del solucionismo tecnológico (N. Piñeiro,
Trad.). Buenos Aires: Katz.
National Institute of Standars and Technology (25 de noviembre de 2023).
Dictionary of Algorithms and Data Structures. https://xlinux.nist.gov/dads/
O’Neil, C. (2017). Armas de destrucción matemática. Cómo el big data
aumenta la desigualdad y amenaza la democracia (V. Arranz de la
Torre, Trad.). Madrid: Capitán Swing.
Ong, W. (2011). Oralidad y escritura. Tecnologías de la palabra (A. Scherp,
Trad.). Buenos Aires: Fondo de Cultura Económica.
Parikka, J. (2021). Una geología de los medios (C. Kozak, Trad.). Buenos
Aires: Caja Negra.
56 Cuestiones de Filosofía No. 35 - Vol. 10 Año 2024 ISSN 0123-5095 Tunja-Colombia
Pasquinelli, M. y Joler, V. (2021). El Nooscopio de maniesto. La inteligencia
articial como instrumento de extractivismo del conocimiento.
La Fuga, 25, pp. 1-20. http://lafuga.cl/el-nooscopio-de-maniesto/1053
Perseus Encyclopedia (2023). G. R. Crane (Ed.), Perseus Digital Library.
Tufts University. https://www.perseus.tufts.edu/hopper/
Silva, T. (2022). Racismo algorítmico: inteligência articial e discriminação
nas redes digitais. Sao Paulo: Edições Sesc.
Sloterdijk, P. (2022). Hacer hablar al cielo. La religión como teopoesía (I.
Reguera, Trad.). Madrid: Siruela.
Srnicek, N. (2018). Capitalismo de plataformas (A. Giacometti, Trad.).
Buenos Aires: Caja Negra.
Stiegler, B. (2002). La técnica y el tiempo II. La desorientación (B. Morales
Bastos, Trad.). Hondarribia: Hiru.
Striphas, T. (2015). Algorithmic culture. European Journal of Cultural Studies,
18 (4-5), pp. 395-412. https://doi.org/10.1177/1367549415577392
Velasco Fuentes, P. y Venturini, J. (2021). Decisiones automatizadas en la
función pública en América Latina. Una aproximación comparada
a su aplicación en Brasil, Chile, Colombia y Uruguay. Derechos
Digitales; Asociación para el progreso de las comunicaciones (APC).
https://ia.derechosdigitales.org/wp-content/uploads/2021/03/CPC_
informeComparado.pdf
Zuazo, N. (2018). Algoritmos y desigualdades. La responsabilidad de las
empresas, los gobiernos y la sociedad civil para que las decisiones
automatizadas no afecten a los derechos fundamentales de las personas
en América Latina. Derechos Digitales; Asociación para el progreso
de las comunicaciones (APC). https://www.derechosdigitales.org/wp-
content/uploads/algoritmo_desigualdad_cast.pdf
Zubo, S. (2020). La era del capitalismo de la vigilancia (A. Santos, Trad.).
Barcelona: Paidós.
57
Cabrera, D. (2024). Algorithmic as a theotechnique. Cuestiones de Filosofía, 10 (35), 39-57.
https://doi.org/10.19053/uptc.01235095.v10.n35.2024.17095
Política de acceso abierto
Cuestiones de Filosofía proporciona acceso abierto a su contenido,
propiciando un mayor intercambio global del conocimiento, basado en el
principio de ofrecer al público un acceso libre a las investigaciones, para ello,
los textos publicados cuentan con una licencia Creative Commons BY-NC-
SA 4.0 que posibilita su uso y difusión siempre y cuando se realice la citación
de los autores y la revista, y no se use para nes comerciales. Por esta razón,
los autores aceptan la licencia de uso utilizada por Cuestiones de Filosofía, al
igual que las políticas de autoarchivo y acceso abierto. En consecuencia, los
derechos de los artículos publicados le corresponden a la revista. La revista
Cuestiones de Filosofía no cobra ningún valor por concepto de recepción
de artículos, evaluación o publicación, por consiguiente, la publicación de
artículos en la revista no da derecho a remuneración alguna para autores,
evaluadores y comités (https://creativecommons.org/licenses/by-nc-sa/4.0/).