¿Tienen Derechos los Algoritmos?

Mario González Arencibia 1

Hugo Armando Ordoñez Erazo 2

Juan-Sebastián González-Sanabria 3

Resumen

La creciente influencia de los algoritmos en la sociedad digital plantea interrogantes sobre su estatus legal y ético. A medida que estos algoritmos toman decisiones que afectan a las personas, surge la pregunta de si deberían tener derechos y cómo se pueden proteger esos derechos en un entorno tecnológico en constante evolución. La investigación llevó a cabo un análisis documental exhaustivo de literatura, informes y documentos legales relevantes sobre la ética de los algoritmos, así como investigaciones sobre sus impactos sociales en áreas como la privacidad, la discriminación y la toma automatizada de decisiones. Los hallazgos revelaron que actualmente no existe un consenso claro sobre si los algoritmos deben tener derechos. Sin embargo, se reconoce la necesidad de establecer regulaciones y principios éticos para garantizar su uso responsable y evitar consecuencias negativas. Se identificaron desafíos clave, como la transparencia algorítmica, la discriminación y la privacidad de los datos, que requieren atención adecuada. La regulación y la transparencia son fundamentales para garantizar que los algoritmos

sean utilizados de manera justa y equitativa, de modo que protejan los derechos individuales y sociales.

Palabras clave: derechos, algoritmos, privacidad, transparencia, autonomía.

1. Universidad de las Ciencias Informáticas, La Habana, Cuba

2. Universidad del Cauca, Popayán (Cauca), Colombia

3. Universidad Pedagógica y Tecnológica de Colombia, Tunja (Boyacá), Colombia juansebastian.gonzalez@uptc.edu.co

Recibido: 02/Noviembre/2023

Revisado: 05/Diciembre/2023

Aprobado: 19/Marzo/2024

Publicado: 22/Abril/2024

Para citar este artículo: González , M., Ordoñez, H., & González-Sanabria, J.-S. (2024). ¿Tienen Derechos los Algoritmos?. Praxis & Saber, 15(43), 1–21.

https://doi.org/10.19053/22160159.v15.n43.2024.16779

Do Algorithms have Rights?

Abstract

The growing influence of algorithms in digital society raises questions about their legal and ethical status. As these algorithms make decisions that affect people, the question arises of whether they should have rights and how those rights can be protected in an ever-evolving technological environment. The research carried out an exhaustive documentary analysis of relevant literature, reports and legal documents on the ethics of algorithms, as well as research on their social impacts in areas such as privacy, discrimination and automated decision-making. The findings revealed that there is currently no clear consensus on whether algorithms should have rights. However, the need to establish regulations and ethical principles is recognized to guarantee its responsible use and avoid negative consequences. Key challenges, such as algorithmic transparency, discrimination and data privacy, were identified as requiring adequate attention. Regulation and transparency are essential to ensure that algorithms are used fairly and equitably, in a way that protects individual and social rights.

Keywords: rights, algorithms, privacy, transparency, autonomy.

Os Algoritmos têm Direitos?

Resumo

A crescente influência dos algoritmos na sociedade digital levanta questões sobre o seu estatuto jurídico e ético. À medida que estes algoritmos tomam decisões que afetam as pessoas, surge a questão de saber se estas devem ter direitos e como esses direitos podem ser protegidos num ambiente tecnológico em constante evolução. A pesquisa realizou uma análise documental exaustiva de literatura, relatórios e documentos legais relevantes sobre a ética dos algoritmos, bem como pesquisas sobre seus impactos sociais em áreas como privacidade, discriminação e tomada de decisão automatizada. As conclusões revelaram que atualmente não existe um consenso claro sobre se os algoritmos devem ter direitos. No entanto, reconhece-se a necessidade de estabelecer regulamentos e princípios éticos para garantir o seu uso responsável e evitar consequências negativas. Os principais desafios, como a transparência algorítmica, a discriminação e a privacidade dos dados, foram identificados como exigindo atenção adequada. A regulamentação e a transparência são essenciais para garantir que os algoritmos sejam utilizados de forma justa e equitativa, de uma forma que proteja os direitos individuais e sociais.

Palavras-chave: direitos, algoritmos, privacidade, transparência, autonomia.

Introducción

En el ámbito de la ética digital, surge una pregunta cada vez más relevante y compleja: ¿tienen derechos los algoritmos? A medida que la inteligencia artificial y los algoritmos automatizados desempeñan un papel cada vez más prominente en la sociedad, surge la necesidad de reflexionar sobre su estatus ético y moral (Mittelstadt et al., 2019). El contexto actual se caracteriza por su creciente uso en áreas como la toma automatizada de decisiones, la personalización de contenidos y la recomendación de productos. Estos algoritmos utilizan datos y patrones para realizar tareas de manera eficiente y rápida, pero también plantean cuestiones éticas.

Existe un vacío en los marcos legales y éticos existentes en relación con los derechos de los algoritmos. Los sistemas legales y éticos tradicionales se centran en los derechos y responsabilidades de los seres humanos, dejando un espacio en el que los algoritmos pueden operar sin regulaciones claras (Benthall, 2019). Esta brecha plantea desafíos para enfrentar los posibles abusos y consecuencias no deseadas asociadas con su uso en la toma de decisiones críticas.

Se argumenta que los algoritmos no tienen derechos propios, ya que son creados y controlados por seres humanos (Mittelstadt et al., 2016). Sin embargo, también se sostiene que pueden tener una especie de “derechos indirectos” en relación con su diseño, uso y consecuencias (Balkin, 2016). Estos desacuerdos generan la necesidad de un debate y de llegar a consensos sobre la naturaleza y el alcance de los derechos de los algoritmos en la sociedad.

El objetivo de abordar la cuestión de si los algoritmos tienen derechos es establecer un marco ético que guíe su desarrollo y uso responsable. Al respecto, es fundamental comprender las implicaciones éticas de los algoritmos y establecer salvaguardias para garantizar su transparencia, responsabilidad y no discriminación, así como considerar el impacto que pueden tener en asuntos relacionados con los derechos humanos y toma de decisiones que afectan a las personas.

En el examen del tema es notoria la presencia de dos enfoques, la perspectiva ética y filosófica y la legal-reguladora: La primera se centra en examinar si los algoritmos merecen o no tener derechos desde un punto de vista moral y ético. La pregunta en este marco es la siguiente (Dignum, 2017; Wallach & Allen, 2019; Vallor, 2021): ¿Los algoritmos son seres conscientes o tienen algún tipo de inteligencia emocional que les permita experimentar sufrimiento o bienestar?

El cuestionamiento consiste en el hecho de que, si los algoritmos no tienen la capacidad de sufrir o experimentar emociones, entonces podríamos argumentar que no tienen derechos (Dignum, 2020). Sin embargo, también se argumenta que merecen algún tipo de protección ética debido a su capacidad para influir en la sociedad y tomar decisiones que pueden tener un impacto significativo en las sociedades humanas (Floridi, 2019a).

En el caso de la perspectiva legal-reguladora, esta se enfoca en examinar si los algoritmos deberían tener derechos reconocidos y protegidos por la ley (Hartzog, 2016; Pasquale, 2015; Citron, 2014) Se cuestiona, si pueden ser considerados como entidades legales y si se les debe otorgar algún tipo de estatus legal, como el ser reconocidos como una forma de propiedad intelectual. También se cuestiona cómo los algoritmos pueden afectar los derechos humanos y si es necesario establecer regulaciones y leyes para proteger a las personas de posibles abusos algorítmicos (Calo, 2013a).

Metodología

Este artículo se basó en una investigación cualitativa que empleó técnicas de investigación documental y análisis de contenido. Se llevó a cabo una exhaustiva revisión bibliográfica en reconocidas bases de datos académicas, como Xplore, ACM, Google Scholar y arXiv, con el propósito de encontrar literatura sobre el derecho de los algoritmos publicada en los últimos cinco años. Se utilizaron palabras clave específicas como: derechos de los algoritmos, ética, transparencia, privacidad, discriminación, regulación, supervisión y gobernanza.

Para garantizar una muestra representativa, se aplicó un muestreo intencional aleatorio, seleccionando documentos que abordaran los supuestos derechos de los algoritmos, y también se consideró la autoridad de las fuentes para asegurar la calidad y relevancia de la muestra. Se obtuvieron 78 documentos en inglés, que incluyeron artículos científicos, reportes técnicos y estudios de caso en diversos dominios.

El análisis se llevó a cabo mediante la codificación de contenido, identificando conceptos clave, definiciones, problemáticas, soluciones y aplicaciones documentadas sobre el derecho de los algoritmos. Además, se utilizó la triangulación de datos para contrastar los hallazgos entre las diferentes fuentes y garantizar la robustez de los resultados.

Finalmente, se realizó una síntesis que permitió consolidar los resultados del análisis. Se compararon enfoques y establecieron relaciones entre los conceptos clave, lo cual ofrece un panorama actual del conocimiento en torno a si los algoritmos tienen derechos.

Disciplinas que han abordado el debate

La proliferación de la inteligencia artificial y los algoritmos en la sociedad ha generado un debate sobre si estos debieran tener derechos. A medida que su influencia crece, surge la cuestión de otorgarles algún tipo de estatus legal. Diversas disciplinas han abordado este debate, aportando perspectivas únicas al tema:

En el campo del derecho, los juristas han investigado cómo los algoritmos se insertan en el marco legal existente y han explorado los desafíos legales y regulatorios que plantean (Hartzog, 2012; Pasquale, 2015; Crawford, 2016; Wachter et al., 2017), examinando cuestiones relacionadas con la privacidad, la discriminación, la responsabilidad y la protección de los derechos individuales en el contexto de los algoritmos. Esto implica considerar aspectos como el consentimiento informado, la protección de datos personales y la posibilidad de rendir cuentas por los resultados generados.

Por otro lado, los expertos en ciencias de la computación han abordado los derechos de los algoritmos desde una perspectiva técnica (Boyd & Crawford, 2012; Sweeney, 2013; Barocas & Selbst, 2016; Crawford, 2016; Powles & Nissenbaum, 2017; Boyd et al., 2019), investigando cómo estos son diseñados, programados y ejecutados, explorando sus implicaciones éticas y sociales. Han propuesto métodos para mitigar el sesgo y la discriminación, y desarrollado técnicas para aumentar la transparencia y la explicabilidad de los mismos. La preocupación principal se centra en asegurar que los algoritmos no perpetúen o aumenten las desigualdades sociales y que sean capaces de dar explicaciones razonables de sus decisiones.

La sociología también ha contribuido al debate examinando los efectos sociales y culturales de los algoritmos, incluidos los aspectos relacionados con los derechos individuales (Chun, 2011; Tufekci, 2014; Van Dijck, 2014; Boyd, 2017; Eubanks, 2018; Roberts, 2019). Así mismo, ha investigado cómo influencian la toma de decisiones, la conformación de la opinión pública y la distribución de recursos. Han explorado cómo los derechos pueden verse afectados por estas dinámicas sociales.

La filosofía de la tecnología ha reflexionado sobre la naturaleza y el estatus moral de los algoritmos (Dignum, 2017; Wallach & Allen, 2019; Vallor, 2021), investigando cuestiones ontológicas y epistemológicas relacionadas, como su agencia y capacidad de tomar decisiones éticas. Han explorado conceptos como la responsabilidad algorítmica y la autonomía de los sistemas de IA, y han debatido sobre la atribución de derechos a entidades no humanas, como los algoritmos. La discusión se centra en cuestiones de responsabilidad moral y cómo garantizar que sean éticamente responsables en sus decisiones y acciones.

Algoritmo y derecho: el contexto de la ética y la responsabilidad

El concepto de derecho se refiere a un conjunto de normas y principios que regulan la convivencia humana y garantizan el respeto a los intereses y derechos de las personas (Hart, 2012). Los derechos suelen ser atributos inherentes a la condición humana, protegidos por leyes y reconocidos internacionalmente, como por ejemplo el derecho a la vida, a la libertad de expresión y a la igualdad. Para Radbruch (1946),el derecho es un sistema de normas objetivas que tienen la finalidad de garantizar la justicia y la paz en la sociedad.

Por otro lado, un algoritmo es un conjunto ordenado de instrucciones que permite realizar un proceso, resolver un problema o llevar a cabo una tarea específica (Cormen et al., 2009; Sedgewick & Wayne, 2011). En palabras de Turing (1937), es una descripción de un proceso o procedimiento que puede realizarse de manera mecánica siguiendo reglas predefinidas. En el campo de la informática, Knuth (1997) señaló que un algoritmo es una secuencia finita de instrucciones precisas y no ambiguas que permiten resolver un problema o realizar un cálculo.

Los conceptos de derecho y algoritmo están vinculados, ya que ambos establecen reglas y procedimientos para regular comportamientos y resolver problemas de manera sistemática y predecible. En el contexto de la ética y la responsabilidad, surge la preocupación por el impacto de los algoritmos en los derechos humanos y en la toma de decisiones fundamentales.

En áreas como el empleo, la justicia y la privacidad, los algoritmos utilizados en sistemas de inteligencia artificial pueden tener implicaciones perjudiciales. Es responsabilidad de los creadores e implementadores asegurarse de que sean justos, transparentes y respeten los derechos humanos.

Derechos humanos en el contexto de los algoritmos

El uso de algoritmos en diversas facetas de la sociedad plantea importantes problemas éticos y legales. Ellos se basan en datos recopilados de usuarios y son utilizados para tomar decisiones automáticas que pueden tener un impacto social significativo. En este ámbito existen derechos humanos que se ven involucrados y que deben ser protegidos (Mittelstadt et al., 2016; Pasquale, 2015; O’Neil, 2016; Barocas & Selbst, 2016; Diakopoulos, 2015; Kaye, 2018; United Nations Human Rights Committee, 2019).

Los algoritmos plantean varios desafíos en relación con los derechos fundamentales, que deben abordarse de manera amplia para garantizar la protección de las personas. Uno de los mayores desafíos es el derecho a la privacidad, dado que el procesamiento y la recopilación de datos por parte de los algoritmos plantea preocupaciones sobre la protección de la información personal.

Los algoritmos pueden perpetuar la discriminación y la desigualdad social en diversas áreas al basarse en datos históricos sesgados, lo cual puede generar decisiones discriminatorias en ámbitos como el empleo, los préstamos o la justicia. Para garantizar la igualdad de oportunidades, es crucial que sean imparciales y que su funcionamiento esté libre de sesgos.

Otro desafío importante es el impacto en la libertad de expresión; los algoritmos pueden ser utilizados para controlar o censurar información en línea, limitando la diversidad de opiniones y la expresión de ciertos individuos. Es fundamental establecer regulaciones y salvaguardias adecuadas para garantizar que los algoritmos no sean utilizados de manera abusiva para tal fin.

Los algoritmos también pueden afectar el derecho a la libertad de pensamiento al crear burbujas de filtro que exponen a las personas solo a información que refuerza sus propias creencias. Esto dificulta la formación de opiniones informadas y la diversidad de ideas. Para proteger el derecho a la libertad de pensamiento, es necesario establecer mecanismos y regulaciones que promuevan la exposición a una diversidad de información y eviten la creación de burbujas de filtro (O’Neil, 2016).

Otro aspecto relevante es la personalización de contenidos (Berkeley News, 2020). Los algoritmos en plataformas en línea personalizan los contenidos hacia los usuarios, mostrando información relevante y recomendaciones personalizadas, lo cual puede generar la creación de burbujas de filtro, reduciendo la exposición a opiniones diversas y fomentando la polarización. En consecuencia, los algoritmos tienen un impacto significativo en la sociedad y las personas, generando beneficios como la automatización y personalización, pero también despertando preocupaciones relacionadas con la discriminación, la opacidad en la información y la falta de diversidad.

Casos con impactos éticos

Los algoritmos han demostrado tener impactos éticos significativos en diversas áreas, desde la discriminación algorítmica hasta la manipulación de opiniones. Casos ejemplifican estas consecuencias:

De lo anterior se puede inferir que los algoritmos pueden ser sesgados si se basan en datos históricos que reflejan prejuicios y discriminación. Esto plantea preocupaciones sobre la justicia y la imparcialidad de las decisiones tomadas como fruto de su operación. Por ejemplo, si un algoritmo de contratación se entrena con datos sesgados, es probable que continúe perpetuando ese sesgo en sus decisiones de contratación, lo que puede generar una discriminación injusta.

Para abordar este problema, es fundamental revisar y auditar regularmente los algoritmos. Estos no deben ser utilizados como la única fuente de toma de decisiones, y deben ser supervisados por humanos. Aunque los algoritmos pueden ser herramientas poderosas, carecen del razonamiento y juicio humano necesarios para tomar decisiones éticas y considerar aspectos como la empatía. La supervisión humana es crucial para garantizar que los resultados de su uso sean justos y éticos.

Es importante tener en cuenta las consecuencias éticas y sociales de los algoritmos en todas las etapas de su desarrollo y uso. Los algoritmos pueden tener un impacto significativo en la sociedad y en la vida de las personas, por lo que es esencial considerar las implicaciones éticas y sociales en todas las etapas, desde el diseño hasta la implementación. Esto implica evaluar si pueden causar discriminación, si se respeta el equilibrio entre los beneficios y los costos, y si se respetan los derechos individuales.

Autonomía de los algoritmos

La autonomía de los algoritmos y su capacidad para tomar decisiones por sí mismos es un tema complejo y controvertido en el campo de la inteligencia artificial. Para la reflexión sobre el tema es fundamental comprender cómo son diseñados y programados basados en reglas y lógica predefinidas (Kleinberg & Tardos, 2005; Dasgupta, et al., 2006; Taddeo, et al., 2018).

Estas reglas son implementadas por los programadores para que los algoritmos puedan procesar y analizar datos de manera estructurada, con el fin de obtener resultados predefinidos. Sin embargo, algunos algoritmos pueden ser diseñados para aprender y adaptarse a través de técnicas de aprendizaje automático, lo que les permite tomar decisiones basadas en datos y experiencias previas (Kleinberg & Tardos, 2005). Los algoritmos de aprendizaje automático (machine learning) pueden adaptarse y mejorar con la experiencia, estos se basan en algoritmos de entrenamiento supervisado o no supervisado, los cuales son a su vez diseñados y supervisados por humanos (Floridi & Sanders, 2004).

Aunque los algoritmos pueden parecer autónomos, su funcionamiento depende de la programación realizada por los humanos. Son herramientas creadas para ayudar a los seres humanos, pero no tienen derechos propios. Su capacidad para tomar decisiones está limitada a las instrucciones y datos que se les ha dado. Por lo tanto, no se puede considerar que los algoritmos sean entidades con autonomía, ya que dependen completamente de la programación y configuración proporcionada por los humanos.

Dado que los algoritmos son herramientas creadas por los seres humanos, no pueden considerarse entidades con derechos propios. Los derechos son atribuidos a seres que tienen intereses, capacidades y dignidad inherentes (Jobin et al., 2019). Los algoritmos son extensiones de la propia agencia humana, y herramientas que se utilizan para facilitar tareas y procesos, pero no poseen una existencia independiente ni la capacidad de tener derechos, carecen de moralidad, intencionalidad y capacidad para evaluar el contexto o los valores éticos.

Existen numerosos estudios sobre este tema, uno de los más destacados es “Armas de destrucción matemática: cómo el Big Data aumenta la desigualdad y amenaza la democracia” de Cathy O’Neil (2016), en cual se explora cómo los algoritmos pueden tener implicaciones negativas en la sociedad si no se manejan adecuadamente, destacando la importancia de la responsabilidad y la transparencia en el diseño y uso de estos algoritmos. En el mismo sentido Finn & Selwyn (2017) analizan las implicaciones éticas de su uso y el debate en torno a su autonomía, destacando la necesidad de considerar el contexto social y político en el diseño y desarrollo de estos; o Crawford (2013), quien resalta que los algoritmos pueden perpetuar inequidades sociales y discriminación si no se abordan adecuadamente. Boyd (2017), científica social y experta en el impacto social de la tecnología, examina las responsabilidades éticas y sociales que tienen los desarrolladores y usuarios de algoritmos, y hace énfasis en la necesidad de una mayor transparencia y rendición de cuentas.

Zuboff (2019), profesora emérita de la Universidad de Harvard, ha abordado la autonomía de los algoritmos y su relación con el capitalismo de vigilancia, destacando cómo estos son utilizados por grandes corporaciones para extraer y explotar los datos personales de los usuarios, lo cual genera preocupaciones sobre la privacidad y el control de la información.

La reflexión sobre la autonomía de los algoritmos también ha generado atención por parte de organizaciones como el Institute of Electrical and Electronics Engineers (IEEE) y el European Data Protection Board (EDPB), quienes han desarrollado directrices y recomendaciones éticas para el diseño y uso responsable de algoritmos, con el objetivo de minimizar posibles riesgos y consecuencias negativas.

Perspectivas éticas sobre el derecho de los algoritmos

Los debates sobre si los algoritmos tienen derechos están en constante evolución y pueden cambiar con nuevas reflexiones y desarrollos legales y éticos. Este tema se relaciona con aspectos más amplios, como la ética de la inteligencia artificial, la responsabilidad algorítmica y la regulación tecnológica. No hay un consenso claro al respecto, dado que los derechos tradicionalmente se han atribuido a personas y, en algunos casos, a entidades jurídicas como las corporaciones.

Sin embargo, la cuestión de si los algoritmos, como entidades no humanas, pueden tener derechos propios plantea desafíos conceptuales y éticos. Se argumenta que los algoritmos son simples herramientas creadas por personas, y por lo tanto no tienen una existencia independiente ni capacidad para tener derechos. Según esta perspectiva, los derechos y responsabilidades recaen en las personas que diseñan, implementan y utilizan los algoritmos.

Hay quienes sostienen que los algoritmos pueden tener consecuencias significativas en la sociedad, y por ello pueden tener algún tipo de estatus legal o ético que les otorgue derechos. Argumentan que pueden influir en decisiones importantes, afectar la vida de las personas y tener un impacto en derechos fundamentales como la privacidad, la no discriminación y la libertad de expresión. En última instancia, la determinación de si los algoritmos tienen derechos dependerá de decisiones legales, éticas y sociales futuras, influenciadas por factores como los valores culturales, la legislación existente y el consenso social.

¿Qué implicaciones podría tener la supuesta apreciación de darle derechos a los algoritmos?

Los algoritmos podrían enfrentar responsabilidad legal por sus acciones y decisiones, lo que requeriría un marco legal más amplio. Si los algoritmos tienen derechos, se necesitaría mayor transparencia y explicabilidad en su funcionamiento, incluyendo auditorías y acceso público a los algoritmos utilizados.

Otorgar derechos a los algoritmos implicaría prestar más atención a la ética y equidad en su diseño y uso, evitando sesgos y discriminaciones. Sin embargo, esto plantea preguntas sobre la privacidad y autonomía de las personas, lo cual requiere regulación adecuada. Aunque los algoritmos son desarrollados por humanos, atribuirles derechos podría desviar la responsabilidad de los actores humanos involucrados.

Los algoritmos no tienen capacidad de tomar decisiones autónomas y su funcionamiento está determinado por humanos, por lo que no pueden ser considerados entidades con derechos propios. Los derechos existen para proteger los intereses y dignidad de los seres humanos, por lo que atribuir derechos a los algoritmos podría generar conflictos con los derechos y necesidades de las personas involucradas.

Desafíos éticos

La atribución de derechos a los algoritmos plantea desafíos éticos complejos. En primer lugar, resulta difícil determinar quién es responsable de las acciones y decisiones de los algoritmos, lo que dificulta la rendición de cuentas por cualquier daño causado. Esto es especialmente problemático cuando toman decisiones que afectan a la vida de las personas.

Los algoritmos pueden estar sujetos a sesgos y discriminación, lo que podría perpetuar injusticias y desigualdades. Ellos se basan en datos históricos que pueden reflejar prejuicios y estereotipos existentes en la sociedad, lo que lleva a decisiones discriminatorias. Esto plantea un desafío ético importante, ya que pueden amplificar y perpetuar las desigualdades existentes en lugar de corregirlas.

Por otro lado, los algoritmos de aprendizaje automático y la inteligencia artificial pueden ser complejos y opacos, lo que dificulta identificar y corregir errores o sesgos. Esto puede llevar a tomar decisiones erróneas o injustas sin que se pueda determinar cómo se llegó a ellas. Por último, la atribución de derechos a los algoritmos podría generar una mayor concentración de poder en manos de quienes controlan estos sistemas. Esto podría aumentar las desigualdades sociales, ya que aquellos con acceso y control sobre los algoritmos tendrían un mayor poder para influir en la toma de decisiones y en la distribución de recursos.

Ante todos estos desafíos éticos, es fundamental tener un enfoque cuidadoso y considerado al otorgar derechos a los algoritmos. Es necesario tener en cuenta valores éticos fundamentales como la justicia, la equidad y el respeto a los derechos humanos. Es importante promover la transparencia y la rendición de cuentas en el diseño y uso de los algoritmos, así como fomentar la diversidad y la inclusión en su desarrollo para evitar sesgos y discriminación.

Existen criterios que argumentan que los algoritmos merecen ciertos derechos debido a su importancia en la sociedad. Estos argumentos resaltan los siguientes puntos (Pasquale, 2015; Calo, 2017; Doctorow, 2019):

Entonces, ¿Tienen derechos los algoritmos?

La pregunta sobre si los algoritmos tienen derechos plantea un debate complejo y en constante evolución en el campo de la ética y la inteligencia artificial (Bostrom & Yudkowsky, 2014; Floridi, 2016; Mittelstadt, et al., 2016; Jobin, et al., 2019; Moor, 2007; Bryson & Winfield, 2018; Floridi, 2019b). Existen elementos que ponen en duda esta pregunta en relación con su naturaleza:

La regulación de la inteligencia artificial es, a día de hoy, uno de los principales desafíos éticos y legales, y la idea de proporcionar derechos a los algoritmos podría tener impactos indeseables en la regulación de la IA y la responsabilidad moral de la nueva era tecnológica. Bryson (2018) afirma que la idea central es que los robots y los algoritmos no deben tener derechos legales o autonomía moral dado que son herramientas creadas por humanos y, por lo tanto, deben ser tratados como tal, y no como entidades con derechos propios. Esto implica que la responsabilidad y la rendición de cuentas deben recaer en los seres humanos que diseñan y utilizan los robots.

Eubanks (2018) destaca la idea central de que los algoritmos y las tecnologías automatizadas pueden perpetuar y amplificar las desigualdades existentes en la sociedad. Mientras que Zarsky (2016), se centra en las preocupaciones sobre falta de transparencia en las decisiones algorítmicas. Sostiene que la toma de decisiones automatizada puede ser problemática, dado que no se comprende plenamente cómo los algoritmos llegan a sus conclusiones.

Burrell (2016) examina la opacidad en los algoritmos de aprendizaje automático. Argumenta que pueden ser difíciles de entender y explicar debido a su complejidad y naturaleza no lineal. Esto plantea desafíos para la rendición de cuentas y la toma de decisiones éticas, ya que la opacidad puede dificultar la identificación y corrección de sesgos y discriminación en los resultados algorítmicos.

Aceptar la idea de que los algoritmos tienen derechos plantea diversos peligros que deben ser considerados cuidadosamente

La concesión de derechos a los algoritmos generaría confusiones, desplazaría la responsabilidad y la rendición de cuentas de los seres humanos hacia las máquinas. Esto dificulta la identificación y atribución de responsabilidad por las consecuencias negativas de las decisiones algorítmicas (Bryson, 2018). Estos algoritmos están sujetos a sesgos inherentes a los datos de entrenamiento y a las decisiones de los programadores. Si se les otorgan derechos, existe el riesgo de que estos sesgos se perpetúen y se amplifiquen, lo que podría tener consecuencias negativas para grupos marginados y vulnerables (Eubanks, 2018).

Los algoritmos a menudo operan de manera opaca y pueden ser difíciles de comprender y explicar. Concederles derechos obstaculiza aún más la transparencia y la explicabilidad de las decisiones algorítmicas, lo que podría socavar la confianza y la rendición de cuentas (Zarsky, 2016). En este sentido, propiciar derechos a los algoritmos abre la puerta a su explotación y mal uso. Si se considera que tienen derechos, podrían surgir escenarios en los que se utilicen con fines perjudiciales o se les otorgue un poder desproporcionado sobre los seres humanos (Burrell, 2016).

¿Existen marcos legales que aborden la cuestión de los derechos de los algoritmos?

Actualmente, no existe este tipo de marco. Sin embargo, algunos aspectos relacionados con los algoritmos y su impacto en la sociedad pueden estar cubiertos por leyes y regulaciones existentes en diferentes jurisdicciones. Estos pueden incluir:

La existencia de marcos legales y regulaciones específicas que aborden los derechos de los algoritmos es limitada en la mayoría de los países. Sin embargo, se están realizando esfuerzos para abordar esta cuestión en algunos lugares.

Es importante destacar que la legislación y las regulaciones están en constante evolución y pueden variar entre países. La creciente preocupación por los derechos de los algoritmos está generando un mayor debate y atención en todo el mundo, lo que está conduciendo a la implementación de marcos legales más sólidos en el futuro.

Lagunas en la actualización de la legislación

Los derechos de los algoritmos son un tema emergente y en constante evolución en el campo del derecho y la ética de la inteligencia artificial. Aunque existen legislaciones vigentes en muchos países para abordar la IA y sus implicaciones, todavía hay lagunas y necesidades de actualización en relación con los derechos de los algoritmos (Burrell, 2016; Wachter et al., 2017; Jobin et al., 2019; Selbst et al., 2019):

Una de las principales lagunas es la falta de transparencia en los algoritmos utilizados en sistemas importantes que afectan a las personas, como los sistemas de toma de decisiones en el ámbito judicial, de contratación o de concesión de créditos. La falta de transparencia dificulta la rendición de cuentas y la comprensión de cómo se toman las decisiones, lo que puede dar lugar a discriminación o injusticia. Se requieren leyes que exijan la transparencia algorítmica, es decir, la divulgación de información sobre los algoritmos utilizados y los datos en los que se basan.

Por otro lado, los algoritmos pueden estar sesgados y perpetuar injusticias o discriminación. Por ejemplo, los sistemas de reconocimiento facial han demostrado tener un sesgo racial y de género. Las legislaciones actuales pueden no abordar adecuadamente este problema y no establecer los mecanismos necesarios para detectar y mitigar el sesgo algorítmico manera efectiva.

Es difícil atribuir la responsabilidad por los daños causados por algoritmos. Los sistemas de IA a menudo involucran múltiples actores, como desarrolladores, proveedores de datos y usuarios finales, lo que complica la determinación de quién es responsable en caso de daños. Asimismo, los algoritmos pueden ser opacos y difíciles de comprender, lo que dificulta la atribución de responsabilidad. Se necesitan legislaciones que aclaren los mecanismos de responsabilidad y establezcan las condiciones para la compensación en caso de daños causados por algoritmos.

Los algoritmos a menudo requieren grandes cantidades de datos personales para funcionar correctamente. Las legislaciones actuales de protección de datos, como el Reglamento General de Protección de Datos (RGPD) en la Unión Europea, pueden no abordar completamente los desafíos específicos relacionados con los datos utilizados en algoritmos. Se necesitan marcos legales actualizados que aborden las implicaciones de privacidad y protección de datos específicas de los algoritmos.

Es importante tener en cuenta que el campo de los derechos de los algoritmos es relativamente nuevo y está en constante desarrollo. Las lagunas y necesidades de actualización pueden variar dependiendo del país y el contexto específico.

Responsabilidad humana en el diseño y uso de los algoritmos

La responsabilidad humana en el diseño y uso de los algoritmos puede abordarse a través de varias acciones:

La transparencia en los algoritmos es esencial por parte de aquellos que los crean y utilizan, ya que implica documentar y comunicar de manera clara los principios, supuestos y criterios utilizados en su diseño, así como los datos y fuentes empleados. Esto permite comprender mejor cómo se toman las decisiones y qué impacto pueden tener, lo que facilita la detección de posibles sesgos, errores o consecuencias no deseadas.

Es fundamental realizar evaluaciones de impacto ético durante el diseño y desarrollo de algoritmos. Estas evaluaciones deben abarcar los posibles efectos sociales, económicos, políticos y éticos de los algoritmos, así como los riesgos relacionados con el sesgo, la discriminación y la violación de la privacidad. Esto permite identificar y mitigar posibles problemas antes de su implementación.

Es fundamental promover la diversidad y la inclusión en los equipos de diseño de algoritmos, ya que esto permite identificar y abordar sesgos y prejuicios presentes. Asimismo, el diseño inclusivo asegura que los algoritmos sean accesibles y equitativos para todos los usuarios, sin dejar a nadie atrás. Los individuos deben tener la capacidad de intervenir, corregir o modificar los resultados de su operación según sea necesario. Esto asegura que las decisiones finales sean éticas, justas y responsables, y evita una transferencia ciega de responsabilidad a los algoritmos.

El desarrollo de marcos legales y regulaciones específicas para el diseño y uso de algoritmos tiene el potencial de abordar de manera efectiva la responsabilidad humana. Estos marcos pueden establecer estándares éticos y legales claros, así como mecanismos de rendición de cuentas y sanciones para aquellos que no cumplan con ellos.

Directrices éticas para los algoritmos

El desarrollo y uso responsable de los algoritmos puede guiarse por varias directrices éticas como:

Frente al debate sobre si los algoritmos tienen derechos, se pueden plantear diversas soluciones éticas y legales para abordar las implicaciones y desafíos asociados

Es fundamental establecer marcos regulatorios y mecanismos de supervisión adecuados para garantizar un uso ético y responsable de los algoritmos. Esto implica la creación de leyes y políticas que aborden cuestiones como la transparencia, la equidad y la responsabilidad en la toma de decisiones algorítmicas (Mittelstadt et al., 2016).

Se deben desarrollar métodos y herramientas para evaluar el impacto ético de los algoritmos antes de su implementación. Estas evaluaciones deben considerar aspectos como sesgos, discriminación, privacidad y derechos humanos, y deben llevarse a cabo de manera transparente y participativa (Floridi, 2016).

Los algoritmos deben ser diseñados teniendo en cuenta principios éticos desde su concepción. Esto implica considerar la equidad, la transparencia, la explicabilidad y la responsabilidad en su diseño y desarrollo, con el objetivo de minimizar sesgos y maximizar la confianza y la rendición de cuentas (Jobin et al., 2019).

Es importante fomentar la participación y la diversidad en la toma de decisiones relacionadas con los algoritmos. Esto implica involucrar a diferentes actores, como expertos en ética, grupos afectados y la sociedad en general, para garantizar una variedad de perspectivas y evitar la concentración de poder (Eubanks, 2018).

Estas soluciones éticas y legales buscan abordar los desafíos y riesgos asociados con los algoritmos, promoviendo un uso responsable y ético de la inteligencia artificial en beneficio de la sociedad en su conjunto. El desafío principal que se aborda es el posible sesgo en los algoritmos. Ellos son creados por seres humanos, y por lo tanto pueden reflejar los sesgos y prejuicios no intencionales de sus creadores.

A medida que la inteligencia artificial se vuelve más compleja, puede resultar difícil entender cómo se toman las decisiones o se generan los resultados. Esto puede ser problemático cuando estas decisiones afectan aspectos importantes de la vida de las personas, como la selección de candidatos para un empleo o la determinación de si alguien es elegible para un préstamo. Las soluciones éticas y legales buscan garantizar que los algoritmos sean transparentes y comprendidos por aquellos que los utilizan.

Conclusiones

El debate sobre si los algoritmos debiesen tener derechos ha surgido en el contexto de la inteligencia artificial y el aprendizaje automático. Los algoritmos son secuencias ordenadas de instrucciones diseñadas para realizar tareas específicas, como clasificar datos o tomar decisiones basadas en información disponible.

La idea de otorgar derechos a los algoritmos se basa en la premisa de que son entidades inteligentes que pueden tener autonomía y tomar decisiones por sí mismos. Sin embargo, esto plantea una serie de preocupaciones y desafíos éticos y sociales.

En primer lugar, atribuir derechos a los algoritmos podría generar problemas de responsabilidad. Si un algoritmo toma una decisión perjudicial para un individuo o una comunidad, ¿quién debe ser considerado responsable? Los algoritmos son creados por humanos, y por lo tanto podría argumentarse que la responsabilidad recae en los diseñadores o en las personas que los implementan.

La atribución de derechos a los algoritmos plantea interrogantes sobre la justicia y la equidad. Ellos son programados con datos y reglas que pueden contener sesgos inherentes, reflejando creencias o prejuicios de sus diseñadores. Esto puede conducir a que tomen decisiones discriminatorias o injustas, como en los casos de sistemas de puntuación crediticia que penalizan injustamente a ciertos grupos demográficos. Asignar derechos a los algoritmos podría perpetuar esas injusticias y dificultar la corrección de los sesgos en la toma de decisiones algorítmicas.

Los algoritmos son a menudo cajas negras, es decir, no se puede acceder fácilmente al proceso de toma de decisiones interno de un algoritmo. Esto puede dificultar la detección de posibles sesgos o decisiones injustas. Si los algoritmos tienen derechos, ¿significa eso que también tienen derecho a la privacidad y no se les debe pedir que revelen cómo llegan a sus decisiones? Esto podría generar opacidad de la información y dificultar la rendición de cuentas.

En términos más generales, conceder derechos a los algoritmos podría tener implicaciones para la toma de decisiones y la confianza en las tecnologías basadas en inteligencia artificial. Si tienen derechos, podrían desplazar el papel de los seres humanos en la toma de decisiones clave en la sociedad. Esto plantea inquietudes sobre la democracia y la participación ciudadana, ya que se podría ceder autoridad a entidades no humanas e imparciales.

Declaraciones finales

Contribución de los autores

Mario González Arencibia: Conceptualización, Investigación, Metodología, Escritura-Borrador Original.

Hugo-Armando Ordoñez-Erazo: Investigación, Validación, Escritura-Revisión y Edición.

Juan-Sebastián González-Sanabria: Investigación, Validación, Escritura-Revisión y Edición.

Conflictos de interés: Los autores manifiestan no tener ningún conflicto de interés

Financiación: Este artículo deriva del proyecto de investigación “Impacto de las TIC en la Sociedad”, financiado por la Universidad de las Ciencias Informáticas.

Implicaciones éticas: No aplica, ya que no involucra el tratamiento de datos de personas o animales.

Referencias

Balkin, J. M. (2016). The Three Laws of Robotics in the Age of Big Data. Washington Law Review, 91(4), 1005-1051.

Barocas, S. & Selbst, A. D. (2016). Fairness in Machine Learning: Lessons from Political Philosophy. arXiv preprint, 1609.07236.

BBC. (2018). 5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$37.000 millones en un día. https://www.bbc.com/mundo/noticias-43472797

Benthall, S. (2019). The Moral Economy of Algorithms. In Dubber, Markus D., Frank Pasquale, & Sunit Das (eds.), The Oxford Handbook of Ethics of AI (pp. 91-112). Oxford University Press.

Berkeley News. (2020). Algorithmic Bias: UC Berkeley School of Information Study Finds Discrimination in Online Ad Delivery. https://news.berkeley.edu/2020/02/28/algorithmic-bias-uc-berkeley-school-of-information-study-finds-discrimination-in-online-ad-delivery/.

Bostrom, N. & Yudkowsky, E. (2014). The ethics of artificial intelligence. In Keith Frankish & William Ramsey (eds.), Cambridge handbook of artificial intelligence (pp. 316-334). Cambridge University Press.

Boyd, D. (2017). The ethics of big data: Confronting the challenges of an algorithmic society. Data & Society Research Institute.

Boyd, D. & Crawford, K. (2012). Critical questions for big data: Provocations for a cultural, technological, and scholarly phenomenon. Information, Communication & Society, 15(5), 662-679.

Boyd, D., Crawford, K., Keller, E., Gangadharan, S. P. & Eubanks, V. (2019). AI in the public interest: Seven principles for ethical AI in society. AI & Society, 34(1), 1-14.

Bracha, O. (2012). Owning ideas: A history of Anglo-American intellectual property. MIT Press.

Brundage, M. et al. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation. Future for Humanity Institute, Oxford University, Centre for the Study of Existential Risk, University of Cambridge, Centre for a New American Security, Electronic Frontier Foundation, Open AI. arXiv preprint, 1802.07228.

Bryson, J. J. (2018). Robots should be slaves. In The ethics of artificial intelligence (pp. 123-138). MIT Press.

Bryson, J. J. & Winfield, A. F. (2018). Standardizing ethical design for artificial intelligence and autonomous systems. Computer, 51(5), 116-119.

Burrell, J. (2016). How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithm. Big Data & Society, 3(1). https://doi.org/10.2139/ssrn.2660674.

Calo, R. (2013a). Digital Market Manipulation. George Washington Law Review, 81(3), 725-772.

Calo, R. (2013b). The drone as privacy catalyst. Stanford Law Review, 64(2), 29-71.

Calo, R. (2017). Artificial intelligence policy: A primer and roadmap. Policy Research Working Paper, World Bank Group.

Chun, W. H. K. (2011). Programmed visions: Software and memory. MIT Press.

Citron, D. K. (2014). Hate crimes in cyberspace. Harvard University Press.

Cormen, T. H., Leiserson, C. E., Rivest, R. L. & Stein, C. (2009). Introduction to Algorithms. MIT Press.

Crawford, K. (2013). The Hidden Biases in Big Data. Harvard Business Review. https://hbr.org/2013/04/the-hidden-biases-in-big-data.

Crawford, K. (2016). Can an algorithm be agonistic? Ten scenes from life in calculated publics. Science, Technology & Human Values, 41(1), 77-92. https://doi.org/10.1177/0162243915608947

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Crawford, K. & Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Crawford, K. et al. (2019). AI Now 2019 Report. AI Now Institute. https://ainowinstitute.org/AI_Now_2019_Report.pdf

Dasgupta, S., Papadimitriou, C. H. & Vazirani, U. V. (2006). Algorithms. McGraw-Hill Education.

Data & Society Research Institute. (2018). Principles for Accountable Algorithms and a Social Impact Statement for Algorithms.

Diakopoulos, N. (2015). Algorithmic accountability: Journalistic investigation of computational power structures. Digital Journalism, 3(3), 398-415.

Diakopoulos, N. (2019). Algorithmic Accountability Reporting: On the Investigation of Black Boxes. In The Oxford Handbook of Journalism and AI (pp. 141-162). Oxford University Press.

Dignum, V. (2017). Ethics in the design and use of artificial intelligence. Springer.

Dignum, V. (2020). Responsible artificial intelligence: How to develop and use AI in a responsible way. Springer.

Doctorow, C. (2019). Radicalized. Tor Books.

Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.

Finn, E. & Selwyn, N. (2017). The Ethics of Algorithms: Mapping the Debate. International Journal of Communication, 11, 2787-2805.

Floridi, L. (2013). The Ethics of Information. Oxford University Press.

Floridi, L. (2014). The fourth revolution: How the infosphere is reshaping human reality. Oxford University Press.

Floridi, L. & Taddeo, M. (2016). What is data ethics? Philosophical transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374(2083), e20160360. https://doi.org/10.1098/rsta.2016.0360

Floridi, L. (2018). Artificial Intelligence’s Fourth Revolution. Philosophy & Technology, 31(2), 317-321.

Floridi, L. (2019a). Soft Ethics and the Governance of the Digital. Philosophy & Technology, 32(2), 185-187.

Floridi, L. (2019b). The logic of digital beings: on the ontology of algorithms, bots, and chatbots. Philosophy & Technology, 32(2), 209-227.

Floridi, L. & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349-379.

Hart, H. L. A. (2012). The concept of law. Oxford University Press.

Hartzog, W. (2012). Privacy’s outsourced dilemma: analyzing the effectiveness of current approaches to regulating, “Notice and Choice”. Loyola of Los Angeles Law Review, 46(2), 413-468.

Hartzog, W. (2016). The case for a duty of loyalty in privacy law. North Carolina Law Review, 94(4), 1151-1203.

Hildebrandt, M. (2013). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing.

Jobin, A., Ienca, M. & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.

Kaye, D. (2018). Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. United Nations General Assembly, A/73/348.

Kerr, O. S. (2019). The fourth amendment in the digital age. Harvard Law Review, 127(6), 1672-1756.

Kleinberg, J. & Tardos, E. (2005). Algorithm Design. Pearson Education.

Knuth, D. E. (1997). The Art of Computer Programming. Addison-Wesley.

Mittelstadt, B. (2019). AI ethics, oversight and accountability: A mapping report. Big Data & Society, 6(1), 2053951718823039.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3(2), 2053951716679679.

Mittelstadt, B.D., Russell, C. & Wachter, S. (2019). Exploring the Impact of Artificial Intelligence: Transparency, Fairness, and Ethics. AI & Society, 34(4), 787-793.

Moor, J. H. (2007). Why we need better ethics for emerging technologies. Ethics and Information Technology, 9(2), 111-119.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.

Pasquale, F. (2015). The Black Box Society: The Secret Algorithms that Control Money and Information. Harvard University Press.

Powles, J. & Nissenbaum, H. (2017). The seductive diversion of ‘solving’ bias in AI. Harvard Law Review, 131(6), 1641-1677.

ProPublica. (2016). Machine Bias: There’s Software Used across the Country to Predict Future Criminals. And It’s Biased Against Blacks. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Radbruch, G. (1946). Cinco minutos de filosofía del derecho. https://www.infojus.gob.ar/sites/default/files/5minutosderechoradbruch.pdf

Roberts, S. T. (2019). Behind the screen: Content moderation in the shadows of social media. Yale University Press.

Sedgewick, R. & Wayne, K. (2011). Algorithms (Fourth Edition). Addison-Wesley Professional.

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S. & Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT*), 59-68.

Sweeney, L. (2013). Discrimination in online ad delivery. Communications of the ACM, 56(5), 44-54.

Taddeo, M., & Floridi, L. (2018b). Regulate Artificial Intelligence to avert cyber arms race. Nature, 556(7701), 296-298.

Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7).

Turing, A. M. (1937). On computable numbers, with an application to the Entscheidung’s problem. https://www.cs.virginia.edu/~robins/TuringPaper1936.pdf

United Nations Human Rights Committee (2019). General Comment No. 37 on the right of peaceful assembly under the International Covenant on Civil and Political Rights. United Nations General Assembly, CCPR/C/GC/37.

Vallor, S. (2021). Technology and the virtues: A philosophical guide to a world worth wanting. Oxford University Press.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197-208.

Wachter, S., Mittelstadt, B. & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76-99. https://doi.org/10.1093/idpl/ipx017

Wallach, W. & Allen, C. (2019). Moral machines 2.0: Teaching robots right from wrong. Oxford University Press.

Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision-making. Science, Technology, & Human Values, 41(1), 118-132.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Citron, D. K. (2014). Hate crimes in cyberspace. Harvard University Press.

Cormen, T. H., Leiserson, C. E., Rivest, R. L. & Stein, C. (2009). Introduction to Algorithms. MIT Press.

Crawford, K. (2013). The Hidden Biases in Big Data. Harvard Business Review. https://hbr.org/2013/04/the-hidden-biases-in-big-data.

Crawford, K. (2016). Can an algorithm be agonistic? Ten scenes from life in calculated publics. Science, Technology & Human Values, 41(1), 77-92. https://doi.org/10.1177/0162243915608947

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Crawford, K. & Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Crawford, K. et al. (2019). AI Now 2019 Report. AI Now Institute. https://ainowinstitute.org/AI_Now_2019_Report.pdf

Dasgupta, S., Papadimitriou, C. H. & Vazirani, U. V. (2006). Algorithms. McGraw-Hill Education.

Data & Society Research Institute. (2018). Principles for Accountable Algorithms and a Social Impact Statement for Algorithms.

Diakopoulos, N. (2015). Algorithmic accountability: Journalistic investigation of computational power structures. Digital Journalism, 3(3), 398-415.

Diakopoulos, N. (2019). Algorithmic Accountability Reporting: On the Investigation of Black Boxes. In The Oxford Handbook of Journalism and AI (pp. 141-162). Oxford University Press.

Dignum, V. (2017). Ethics in the design and use of artificial intelligence. Springer.

Dignum, V. (2020). Responsible artificial intelligence: How to develop and use AI in a responsible way. Springer.

Doctorow, C. (2019). Radicalized. Tor Books.

Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.

Finn, E. & Selwyn, N. (2017). The Ethics of Algorithms: Mapping the Debate. International Journal of Communication, 11, 2787-2805.

Floridi, L. (2013). The Ethics of Information. Oxford University Press.

Floridi, L. (2014). The fourth revolution: How the infosphere is reshaping human reality. Oxford University Press.

Floridi, L. & Taddeo, M. (2016). What is data ethics? Philosophical transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374(2083), e20160360. https://doi.org/10.1098/rsta.2016.0360

Floridi, L. (2018). Artificial Intelligence’s Fourth Revolution. Philosophy & Technology, 31(2), 317-321.

Floridi, L. (2019a). Soft Ethics and the Governance of the Digital. Philosophy & Technology, 32(2), 185-187.

Floridi, L. (2019b). The logic of digital beings: on the ontology of algorithms, bots, and chatbots. Philosophy & Technology, 32(2), 209-227.

Floridi, L. & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349-379.

Hart, H. L. A. (2012). The concept of law. Oxford University Press.

Hartzog, W. (2012). Privacy’s outsourced dilemma: analyzing the effectiveness of current approaches to regulating, “Notice and Choice”. Loyola of Los Angeles Law Review, 46(2), 413-468.

Hartzog, W. (2016). The case for a duty of loyalty in privacy law. North Carolina Law Review, 94(4), 1151-1203.

Hildebrandt, M. (2013). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing.

Jobin, A., Ienca, M. & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.

Kaye, D. (2018). Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. United Nations General Assembly, A/73/348.

Kerr, O. S. (2019). The fourth amendment in the digital age. Harvard Law Review, 127(6), 1672-1756.

Kleinberg, J. & Tardos, E. (2005). Algorithm Design. Pearson Education.

Knuth, D. E. (1997). The Art of Computer Programming. Addison-Wesley.

Mittelstadt, B. (2019). AI ethics, oversight and accountability: A mapping report. Big Data & Society, 6(1), 2053951718823039.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3(2), 2053951716679679.

Mittelstadt, B.D., Russell, C. & Wachter, S. (2019). Exploring the Impact of Artificial Intelligence: Transparency, Fairness, and Ethics. AI & Society, 34(4), 787-793.

Moor, J. H. (2007). Why we need better ethics for emerging technologies. Ethics and Information Technology, 9(2), 111-119.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.

Pasquale, F. (2015). The Black Box Society: The Secret Algorithms that Control Money and Information. Harvard University Press.

Powles, J. & Nissenbaum, H. (2017). The seductive diversion of ‘solving’ bias in AI. Harvard Law Review, 131(6), 1641-1677.

ProPublica. (2016). Machine Bias: There’s Software Used across the Country to Predict Future Criminals. And It’s Biased Against Blacks. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Radbruch, G. (1946). Cinco minutos de filosofía del derecho. https://www.infojus.gob.ar/sites/default/files/5minutosderechoradbruch.pdf

Roberts, S. T. (2019). Behind the screen: Content moderation in the shadows of social media. Yale University Press.

Sedgewick, R. & Wayne, K. (2011). Algorithms (Fourth Edition). Addison-Wesley Professional.

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S. & Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT*), 59-68.

Sweeney, L. (2013). Discrimination in online ad delivery. Communications of the ACM, 56(5), 44-54.

Taddeo, M., & Floridi, L. (2018b). Regulate Artificial Intelligence to avert cyber arms race. Nature, 556(7701), 296-298.

Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7).

Turing, A. M. (1937). On computable numbers, with an application to the Entscheidung’s problem. https://www.cs.virginia.edu/~robins/TuringPaper1936.pdf

United Nations Human Rights Committee (2019). General Comment No. 37 on the right of peaceful assembly under the International Covenant on Civil and Political Rights. United Nations General Assembly, CCPR/C/GC/37.

Vallor, S. (2021). Technology and the virtues: A philosophical guide to a world worth wanting. Oxford University Press.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197-208.

Wachter, S., Mittelstadt, B. & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76-99. https://doi.org/10.1093/idpl/ipx017

Wallach, W. & Allen, C. (2019). Moral machines 2.0: Teaching robots right from wrong. Oxford University Press.

Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision-making. Science, Technology, & Human Values, 41(1), 118-132.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Philosophy & Technology, 32(2), 209-227.

Floridi, L. & Sanders, J. W. (2004). On the morality of artificial agents. Minds and Machines, 14(3), 349-379.

Hart, H. L. A. (2012). The concept of law. Oxford University Press.

Hartzog, W. (2012). Privacy’s outsourced dilemma: analyzing the effectiveness of current approaches to regulating, “Notice and Choice”. Loyola of Los Angeles Law Review, 46(2), 413-468.

Hartzog, W. (2016). The case for a duty of loyalty in privacy law. North Carolina Law Review, 94(4), 1151-1203.

Hildebrandt, M. (2013). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing.

Jobin, A., Ienca, M. & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.

Kaye, D. (2018). Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. United Nations General Assembly, A/73/348.

Kerr, O. S. (2019). The fourth amendment in the digital age. Harvard Law Review, 127(6), 1672-1756.

Kleinberg, J. & Tardos, E. (2005). Algorithm Design. Pearson Education.

Knuth, D. E. (1997). The Art of Computer Programming. Addison-Wesley.

Mittelstadt, B. (2019). AI ethics, oversight and accountability: A mapping report. Big Data & Society, 6(1), 2053951718823039.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. & Floridi, L. (2016). The Ethics of Algorithms: Mapping the Debate. Big Data & Society, 3(2), 2053951716679679.

Mittelstadt, B.D., Russell, C. & Wachter, S. (2019). Exploring the Impact of Artificial Intelligence: Transparency, Fairness, and Ethics. AI & Society, 34(4), 787-793.

Moor, J. H. (2007). Why we need better ethics for emerging technologies. Ethics and Information Technology, 9(2), 111-119.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.

Pasquale, F. (2015). The Black Box Society: The Secret Algorithms that Control Money and Information. Harvard University Press.

Powles, J. & Nissenbaum, H. (2017). The seductive diversion of ‘solving’ bias in AI. Harvard Law Review, 131(6), 1641-1677.

ProPublica. (2016). Machine Bias: There’s Software Used across the Country to Predict Future Criminals. And It’s Biased Against Blacks. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Radbruch, G. (1946). Cinco minutos de filosofía del derecho. https://www.infojus.gob.ar/sites/default/files/5minutosderechoradbruch.pdf

Roberts, S. T. (2019). Behind the screen: Content moderation in the shadows of social media. Yale University Press.

Sedgewick, R. & Wayne, K. (2011). Algorithms (Fourth Edition). Addison-Wesley Professional.

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S. & Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT*), 59-68.

Sweeney, L. (2013). Discrimination in online ad delivery. Communications of the ACM, 56(5), 44-54.

Taddeo, M., & Floridi, L. (2018b). Regulate Artificial Intelligence to avert cyber arms race. Nature, 556(7701), 296-298.

Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7).

Turing, A. M. (1937). On computable numbers, with an application to the Entscheidung’s problem. https://www.cs.virginia.edu/~robins/TuringPaper1936.pdf

United Nations Human Rights Committee (2019). General Comment No. 37 on the right of peaceful assembly under the International Covenant on Civil and Political Rights. United Nations General Assembly, CCPR/C/GC/37.

Vallor, S. (2021). Technology and the virtues: A philosophical guide to a world worth wanting. Oxford University Press.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197-208.

Wachter, S., Mittelstadt, B. & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76-99. https://doi.org/10.1093/idpl/ipx017

Wallach, W. & Allen, C. (2019). Moral machines 2.0: Teaching robots right from wrong. Oxford University Press.

Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision-making. Science, Technology, & Human Values, 41(1), 118-132.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Sedgewick, R. & Wayne, K. (2011). Algorithms (Fourth Edition). Addison-Wesley Professional.

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S. & Vertesi, J. (2019). Fairness and Abstraction in Sociotechnical Systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT*), 59-68.

Sweeney, L. (2013). Discrimination in online ad delivery. Communications of the ACM, 56(5), 44-54.

Taddeo, M., & Floridi, L. (2018b). Regulate Artificial Intelligence to avert cyber arms race. Nature, 556(7701), 296-298.

Tufekci, Z. (2014). Engineering the public: Big data, surveillance and computational politics. First Monday, 19(7).

Turing, A. M. (1937). On computable numbers, with an application to the Entscheidung’s problem. https://www.cs.virginia.edu/~robins/TuringPaper1936.pdf

United Nations Human Rights Committee (2019). General Comment No. 37 on the right of peaceful assembly under the International Covenant on Civil and Political Rights. United Nations General Assembly, CCPR/C/GC/37.

Vallor, S. (2021). Technology and the virtues: A philosophical guide to a world worth wanting. Oxford University Press.

Van Dijck, J. (2014). Datafication, dataism and dataveillance: Big data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197-208.

Wachter, S., Mittelstadt, B. & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the general data protection regulation. International Data Privacy Law, 7(2), 76-99. https://doi.org/10.1093/idpl/ipx017

Wallach, W. & Allen, C. (2019). Moral machines 2.0: Teaching robots right from wrong. Oxford University Press.

Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision-making. Science, Technology, & Human Values, 41(1), 118-132.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.