✍️ Column by Mariana Sánchez Caparrós, an investigator in the area of AI, gender and non discrimination at the Innovation and Artificial Intelligence Laboratory of the University of Buenos Aires (IALAB-UBA). Mariana’s research focuses on global consensus around what ethical principles are necessary to achieve an anthropocentric AI. Some of the topics she works on include: the risks associated with the use of AI, the importance of thinking of AI as a sociotechnical system and the analysis of a limited but representative number of documents that enunciate ethical principles.
Overview: La inteligencia artificial es uno de los grandes motores de la cuarta revolución debido al impacto que tiene en las diversas industrias y sectores de la sociedad. Y a medida que crecen las posibilidades de uso de la AI se observan varios de sus beneficios pero también aparecen las advertencias acerca de los potenciales riesgos que plantea y los desafíos éticos asociados a su diseño, desarrollo y despliegue.
El trabajo trata sobre los riesgos asociados al uso de sistemas inteligentes e intenta responder por qué debe garantizarse un diseño, desarrollo y despliegue de la inteligencia artificial ligado a principios éticos.
Asimismo, a partir de una selección que procura ser representativa de diversas áreas geográficas del mundo, el trabajo repasa diversos documentos relevantes en la materia emitidos en el último quinquenio, con el objetivo de extraer de ellos algunas conclusiones respecto de los consensos existentes en torno qué principios son necesarios para lograr una IA antropocéntrica.
1. Introducción.
El mundo se encuentra frente a las puertas de la cuarta revolución industrial3. Ésta, en comparación con las anteriores revoluciones iniciadas a partir de la introducción del acero, la electricidad, los ordenadores e internet4, toma impulso gracias a la combinación de una enorme cantidad de datos disponibles, poderosos algoritmos y una capacidad de procesamiento computacional que va en constante crecimiento5.
En otras palabras, la cuarta revolución industrial se ve posibilitada por el incremento acelerado en la capacidad de cómputo de los sistemas informáticos6; la menor ocupación de espacio en hardware; y el enorme volumen de datos generados desde el boom de internet en los ´90 y las redes sociales a mediados de los 20007, que se colectan y conectan mediante el empleo de sistemas algorítmicos complejos y ubicuos que los analizan, aprenden de ellos y utilizan la información obtenida para hacer predicciones o tomar decisiones8.
En ese marco, la inteligencia artificial —en adelante, IA o sistemas inteligentes— aparece como uno de los grandes motores de la cuarta revolución debido al impacto que tiene en las diversas industrias y sectores de la sociedad. La salud, la educación, las finanzas, el entretenimiento y las comunicaciones se verán transformadas por este conjunto de tecnologías que día a día se posiciona en la vida de las personas, sin que en ocasiones lo noten9.
De hecho, las personas interactúan a diario con sistemas de recomendación que les sugieren productos, películas, series o música en función de sus intereses o búsquedas que hacen en internet10; traductores en línea; asistentes de voz y motores de búsqueda. También sectores como las finanzas11, la salud12, la educación13, la administración pública14 y los tribunales15 se apoyan cada vez más en los algoritmos para tomar decisiones relevantes.
En los últimos años el planeta ha sido testigo de numerosos casos de uso de IA en las diversas industrias, en general, como complemento —aunque a veces en reemplazo— de actividades que hasta ahora solo podían ser hechas por los seres humanos.
A modo de ejemplo, puede recordarse el hito de AlphaGo, de Google, que en el año 2015 derrotó Lee Se-Dol, el mejor jugador del mundo en Go16. También el de la versión beta de GPT-3, el modelo de lenguaje de OpenAI, que es capaz de programar, diseñar y conversar sobre política y economía17, o más cercano geográficamente, el de la red neuronal Artemisia del Hospital Italiano, desarrollada por investigadores y profesionales argentinos para asistir a los profesionales en el diagnóstico de patologías mamarias18, entre otros casos de uso.
A medida que crecen las posibilidades de uso de la IA se observan varios de sus beneficios, pero también aparecen las advertencias acerca de los potenciales riesgos que plantea y los desafíos éticos asociados a su diseño, desarrollo y despliegue19.
En ese marco, la omnipresencia de la IA en diversas aplicaciones de la vida cotidiana llevó a que, en los últimos años, tanto desde la academia como desde la industria y el sector público, se ponga un mayor foco en la investigación y el estudio de los extremos vinculados con su impacto social y ético, en aras de identificar cuáles son los estándares que deben guiar su diseño, desarrollo y despliegue para promover su adecuada gobernanza y regulación20.
Ello ha dado lugar al surgimiento de numerosos documentos, provenientes de diversas fuentes, en los que se han propuesto una serie de principios éticos que deben guiar la labor de quienes intervienen a lo largo de todo el ciclo de vida de los sistemas inteligentes, con el objetivo de lograr una IA que esté centrada en el ser humano, respete sus derechos y valores, sea segura y confiable.
El presente trabajo se propone volver sobre los riesgos asociados al uso de sistemas inteligentes para comprender por qué debe garantizarse un diseño, desarrollo y despliegue de la IA ligado a principios éticos, para entonces indagar en diversos documentos relevantes en el tópico emitidos en el último quinquenio, con el objetivo de extraer de ellos algunas conclusiones respecto de la eventual existencia de consensos en torno cuáles son necesarios para lograr una IA antropocéntrica.
2. Inteligencia artificial: concepto y riesgos asociados.
2.1. ¿Qué es la inteligencia artificial?
El término “inteligencia artificial” fue introducido en los años ’50 para describir las máquinas que podían hacer más que tareas rutinarias21. En concreto, se trata de un término que fue acuñado en 1955 por un grupo de investigadores —John McCarthy, Marvin L. Minsky, Nathaniel Rochester and Claude E. Shannon— que organizó el evento que luego sería reconocido como el que dio inicio al estudio de la IA: el workshop de verano llamado “Estudio de la Inteligencia Artificial”22.
Con el tiempo, este campo de investigación y desarrollo se amplió y diversificó, dando lugar a numerosas maneras de definir el término “inteligencia artificial”. Ello al punto de que, al día de la fecha, no existe una única definición de inteligencia artificial que sea universalmente aceptada23, sino diferentes definiciones que nacen de las distintas disciplinas que han abordado a la IA como objeto de estudio, tal como las ciencias de la computación, la ingeniería, la robótica, la psicología o la filosofía24.
De hecho, en el documento titulado “Recomendación sobre la ética de la inteligencia artificial” producido por la UNESCO a fines del año 2021, el organismo internacional concluyó que para el abordaje de la cuestión ética, en lugar de lograr una definición común y en tanto se trata de una noción que tiende a modificarse con el tiempo en función de los avances tecnológicos que acontecen, resultaba más adecuado enfocarse en las características de los sistemas inteligentes que adquieren importancia cuando se estudia el tema25.
En virtud de ello, para el propósito de este trabajo se tomará una definición amplia de IA, que la describe como un conjunto de técnicas y tecnologías guiadas por un grupo de objetivos definido por seres humanos, que cuentan con cierto grado de autonomía para tomar decisiones o hacer predicciones en base a los datos que recibe26.
Por “sistema inteligente” se entenderá a todo sistema de software o hardware que incorpore IA27. En este trabajo, uno y otro término se emplearán de forma indistinta para referirse a la IA.
2.2. La IA como sistema sociotécnico.
Los sistemas inteligentes integran modelos y algoritmos que, a partir de los datos disponibles y la capacidad de cómputo, pueden aprender y realizar tareas cognitivas que dan lugar “…a resultados como la predicción y la adopción de decisiones en entornos materiales y virtuales…”28.
Las diversas técnicas de IA, se ha señalado, “…se basan en detectar y reconocer patrones de información en los datos (…) a partir de combinar ordenadores, internet, algoritmos29 y lenguajes de programación para resolver problemas o tomar decisiones que antes solo podían ser realizadas por nuestras capacidades cognitivas…”30.
Es importante tener presente que la IA que conocemos hasta el momento pertenece al ámbito de la IA restringida, que comprende aquellos sistemas informáticos que sólo pueden ejecutar tareas programadas y brindar soluciones en dominios particulares del conocimiento humano31.
Como contrapartida, la IA general —cuyos desafíos éticos no serán abordados en este trabajo— describe sistemas que aún no existen, que serían capaces de reproducir nuestra habilidad para gestionar varios campos de conocimiento a la vez, así como nuestro sentido común. Es decir, sistemas que simulan enteramente el comportamiento humano32.
En cualquier caso, y más allá de cómo se defina a la IA, así como de sus alcances —IA general vs. IA restringida—, los sistemas inteligentes deben ser comprendidos como sistemas sociotécnicos, es decir, sistemas cuyo objeto de transformación lo constituyen los seres humanos33.
Este enfoque permite considerar que se trata de sistemas más complejos que las construcciones matemáticas y computacionales que les dan sostén, para poder observarlos de manera integral y, desde esa óptica, estudiar la interacción que se produce entre las personas y la IA.
Esto es, cómo las primeras influyen en lo relativo a su desarrollo desde una mirada amplia, y también cómo ésta última impacta para transformar y reconfigurar la vida individual y social de los seres humanos.
Se trata de una visión que permite tener en cuenta, por su relevancia, los valores, sesgos y comportamientos que vienen embebidos en los sets de datos y en los humanos que intervienen en las diversas etapas del ciclo de vida del sistema, así como otros factores propios de la complejidad de las organizaciones en las que éstos se crean y que tienen impacto en su diseño, desarrollo y despliegue.
Desde dicha perspectiva, las consideraciones acerca del impacto de la IA atenderán, no sólo de cómo se diseña el sistema desde lo eminentemente técnico —v.gr. que algoritmo o modelo se selecciona—, sino también a la manera en que éste se desarrolla y despliega en un contexto más amplio, lo que alcanza tanto los datos utilizados, el propósito declarado del sistema, su funcionalidad y precisión, la escala de implementación y el contexto organizacional, social y legal en el que se lo implementa34.
2.3. Riesgos asociados al uso de sistemas inteligentes.
El mundo se enfrenta a un crecimiento acelerado del uso de sistemas con capacidad para aprender y realizar tareas cognitivas que antes sólo podían ser realizadas por las personas35. Y cada vez es más consciente de que el potencial de los sistemas inteligentes para mejorar el bienestar social e individual36, viene acompañado de riesgos significativos para los derechos humanos.
De hecho, hay quienes han llegado a señalar que lo que se pone en riesgo frente a la posibilidad de un desarrollo de la IA sin ningún tipo de regulación ética ni jurídica es la supervivencia misma de la especie humana, pues estos sistemas tienen el potencial de afectar gravemente nuestros derechos37.
El poder creativo y destructivo de la inteligencia artificial, se ha apuntado, es comparable con el de la energía nuclear, “…en el sentido de que ambas tecnologías, bajo ciertas variables, están en condiciones de provocarle un daño devastador a la especie humana…”38.
Es que aun cuando los sistemas inteligentes se presentan a la comunidad bajo un ropaje de neutralidad, veracidad y cientificismo, lo cierto es que su naturaleza sociotécnica permite inferir que no son neutrales, porque no lo son los datos con los que se los entrena, ni tampoco las personas detrás de su diseño, definición de sus objetivos, desarrollo y despliegue39.
Cada una de estas etapas del ciclo de vida de la IA está a cargo de seres humanos responsables de definir sus características, objetivos, reglas de éxito, métricas y estructuras de análisis, así como de elegir los sets de datos para su entrenamiento, validación y testeo, lo que lleva ínsito el riesgo de que esas personas reflejen sus malas intenciones, así como sus propios valores, prejuicios y sesgos en el sistema40.
Además, estos sistemas obtienen su conocimiento de las estructuras y dinámicas de la sociedad que produce los datos que los nutren, por lo que también pueden reproducir, reforzar y amplificar, con relativa facilidad, los patrones de exclusión, desigualdad y discriminación existentes41.
Por otro lado, representan un riesgo para la autonomía de las personas debido a su capacidad de influir en su comportamiento, ya que a partir de los datos que emplean como combustible pueden perfilarlas42 para darles “pequeños empujones”43 que inciden en sus decisiones sin que sean conscientes de ello44.
Y también un riesgo a la privacidad desde que permiten la identificación, el monitoreo y seguimiento de las actividades y comportamientos de las personas, tanto en el espacio público como privado45, no sólo vía el reconocimiento facial, sino también de voz y el tracking de sus movimientos a través de los dispositivos inteligentes que llevan consigo.
En suma, los sistemas inteligentes plantean nuevos desafíos éticos desde que pueden afectar la autonomía personal para la toma de decisiones46; el futuro del empleo47; el acceso a la información48, a la educación49 y a la salud50; la democracia y el estado de derecho51; la brecha digital; la protección del consumidor y de los datos personales; el derecho a la privacidad y a la no discriminación52.
Todo ello en un contexto al que se agrega que ciertos enfoques de aprendizaje automático se caracterizan porque los pasos a través de los cuales el sistema ha arribado a una decisión se presentan inteligibles para los expertos humanos, incluidos, quienes han diseñado el sistema53.
Esto último da lugar al denominado “problema de las cajas negras”, noción que se emplea para describir la dificultad que sobreviene para explicar el resultado obtenido por la IA en términos comprensibles por el común de las personas, más cuyo abordaje excedería el objeto de estudio aquí planteado.
No obstante, si puede señalarse que frente a los riesgos que suponen los sistemas inteligentes que se han mencionado, no quedan dudas de que la falta de transparencia acerca de cómo operan y las dificultades para lograr una plena explicabilidad, se convierten en un obstáculo adicional para su control.
3. El florecimiento de documentos que abordan principios éticos para una IA antropocéntrica.
3.1. Breve introducción: ¿Por qué se necesita una ética para la inteligencia artificial?
Aun cuando no existe certeza acerca del alcance de los daños que la IA podría provocar en la humanidad y en la continuidad del ser humano como especie, lo cierto es que no hay dudas respecto de los riesgos que entraña y, particularmente, de ciertos peligros que representa para derechos fundamentales como el derecho a la privacidad, a la igualdad, la autonomía y la libertad de expresión, entre otros54.
En este contexto, frente al despliegue y empleo creciente de la IA y sus riesgos asociados, no hay dudas de que ésta debe construirse con un enfoque antropocéntrico, que respete los derechos y garantías fundamentales de las personas; debe ser predecible, responsable y verificable; y guiarse por una ética por diseño que atraviese todo su ciclo de vida55.
De hecho, es debido a las profundas implicancias sociales que trae aparejado el uso de sistemas inteligentes, que la Comisión Europea propició la creación del Grupo de Expertos de Alto Nivel en IA, integrado por representantes de la academia, la sociedad civil y la industria, para que funcione como un foro abierto de estudio y debate acerca de todos los aspectos vinculados con el desarrollo e impacto de la IA en la sociedad56.
Es que, como se dijo, los sistemas inteligentes son diseñados por personas que, consciente o inconscientemente, incorporan o trasladan sus propios valores al sistema. En palabras de Cathy O´Neil: “Los algoritmos son opiniones embebidas en código”57. Esta circunstancia, sumada a la enorme influencia y capacidad de decisión autónoma de los sistemas inteligentes, en tanto sistemas sociotécnicos, obliga a considerar cuáles son los valores de los que se nutren58.
El campo de la ética de la IA emerge entonces para tratar de dar respuesta a los riesgos individuales y sociales que puede provocar el mal uso, el abuso, el diseño defectuoso o mal intencionado59 de sistemas que, en definitiva, son construidos por seres humanos que tienen sus propios valores, a la par de que se nutren de datos producidos por una sociedad en la que la desigualdad, la marginación, la pobreza, la violencia y la manipulación son moneda corriente.
Como área de estudio, la ética de la IA se ocupa de analizar los aspectos vinculados con los propósitos y objetivos de investigación en materia de IA; la relación entre la ciencia y la política; la seguridad de los sistemas; la responsabilidad de los diversos actores que toman parte en el desarrollo y uso de la IA; la incorporación de valores a los sistemas y, en general, la orientación de la IA hacia el bienestar común60.
Es importante tener presente que, en tanto área de investigación multidisciplinaria comprensiva de una gran variedad de temas, no existe un consenso universal acerca de cómo definirla61.
No obstante, por su utilidad a los fines del presente trabajo, tomaremos aquella que la describe como un conjunto de valores, principios y técnicas basados en estándares ampliamente aceptados acerca de lo que es bueno y lo que es malo, con el fin de guiar la conducta de quienes intervienen en el ciclo de vida de la IA62.
En ese limitado contexto, la ética de la IA se presenta como un subcampo de la ética aplicada que se focaliza en las cuestiones éticas relacionadas con el diseño, desarrollo y despliegue de sistemas inteligentes63, para lograr que beneficien a las personas y a la sociedad, y se eviten consecuencias negativas, inclusive, más allá de lo que prevean las normas formales.
3.2. Guías, recomendaciones y otros documentos que contienen principios éticos.
Las guías y recomendaciones éticas tienen por objetivo lograr que las personas que intervienen a lo largo del ciclo de vida de los sistemas inteligentes cumplan su labor siguiendo un conjunto prestablecido y consensuado de valores, principios y técnicas que orienten su comportamiento en pos de lograr una IA antropocéntrica, que se utilice al servicio de la humanidad y del bien común, que respete los derechos fundamentales y la dignidad del ser humano.
Se trata de instrumentos de soft law que hacen a la gobernanza de la IA en los que se abordan los diversos desafíos y problemas que surgen durante las etapas de diseño, desarrollo y despliegue de los sistemas, usualmente a través de una serie de recomendaciones expresadas en forma de principios64 que describen qué características son deseables para garantizar un desarrollo de la IA con visión antropocéntrica.
Sucede que muchos de los interrogantes éticos del tipo “debería” van más allá del alcance, a veces acotado, de las normas legales existentes, que suelen responder más bien a preguntas del tipo “podría” 65. Es en este espacio es en el que adquieren protagonismo los principios éticos.
Ello sin perjuicios de que el debido respeto de los derechos fundamentales reconocidos en instrumentos internacionales de derechos humanos, en un marco de democracia y vigencia del Estado de Derecho, proporciona una base fundamental para identificar los principios éticos que se pueden poner en práctica en el contexto de la IA66.
3.3. Panorama global y regional principios éticos para una IA antropocéntrica.
3.3.1. Introducción.
Podría decirse que la primera guía ética para sistemas inteligentes fue introducida por el famoso escritor de ciencia ficción Isaac Asimov, que en el año 1942 presentó las que se conocen como “las tres leyes de la robótica”, a las que luego se incorporó una cuarta ley en 198667.
Las cuatro leyes de Asimov sostienen que68:
1. Un robot no debe provocar un daño a un ser humano o, a través de su inacción, permitir que un ser humano sufra un daño;
2. Un robot debe obedecer las órdenes dadas por los seres humanos salvo que esas órdenes entren en conflicto con la primera ley;
3. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la primera y la segunda ley;
4. Un robot no debe dañar a la humanidad o, por inacción, permitir que la humanidad sufra un daño.
Ha transcurrido un tiempo desde aquellas leyes y la IA se ha vuelto cada vez más omnipresente en la vida de las personas. Por tal motivo, en los últimos años, se ha dictado una diversidad de guías éticas. De hecho, en el informe producido recientemente por el Observatorio del Impacto Social y Ético de la IA se menciona que, para el mes de julio de 2021, podían identificarse al menos ciento cincuenta —150— iniciativas en la materia69.
Aun a pesar de la cantidad de documentos propuestos, todavía se observa una participación muy desigual en el debate global en torno a la ética de la inteligencia artificial, en tanto existe una muy baja representación de documentos provenientes de áreas geográficas como África, América del Sur y Central y el centro de Asia 70.
Considerando las limitaciones señaladas, a los fines de llevar a cabo un análisis que permita extraer algunas conclusiones en torno a los consensos que existen acerca de los principios éticos aplicables al diseño, desarrollo y despliegue de sistemas inteligentes, en el presente trabajo se apela a un método de muestreo para lograr un set de datos reducido, que facilite la comparación y extracción de información relevante y representativa de los puntos de vista de distintas partes interesadas con influencia en la materia, provenientes de diferentes sectores, geografías y culturas.
Para ello, se han seleccionado diecisiete (17) documentos provenientes del sector privado y del sector público, tanto de nivel nacional como supranacional.
Las cinco (5) iniciativas del sector privado seleccionadas provienen de:
a) el grupo de investigación de la Conferencia de Asilomar sobre IA beneficiosa71;
b) el Instituto de Ingenieros Eléctricos y Electrónicos IEEE72; y,
c) tres de las “cuatro grandes” empresas tecnológicas73.
Las doce (12) que se eligen y provienen del sector público se diferencian entre:
a) documentos de orden supranacional, entre los cuales, por su relevancia, se han elegido:
1. La Recomendación de la UNESCO;
2. La recomendación de la OCDE; y,
3. Las Directrices Éticas del Grupo de Expertos de la Comisión Europea.
b) documentos de orden nacional, entre los que se han seleccionado:
1. Aquellos del ámbito latinoamericano que enuncian principios éticos —Colombia, Uruguay y Brasil—74; y,
2. Los producidas por seis (6) de los diez países que lideran la carrera mundial por la IA, que también contemplan principios de la especie75.
3.3.2. Principales iniciativas del sector privado.
Debido al rápido avance de la IA, que se desacopla de los tiempos que lleva a los Estados dictar los marcos regulatorios que los acompañen, muchas compañías han decidido tomar la iniciativa y dictar diversas guías para fijar los estándares necesarios para innovar y operar de forma responsable, guiadas por principios éticos sólidos en áreas que aún no se encuentran debidamente cubiertas por esos marcos76.
La auto regulación a través de guías éticas es una herramienta que, si bien no reemplazan a la ley, si está debida y responsablemente formulada y es bien aplicada, puede constituirse en un elemento complementario de aquella77.
Seguidamente, se expondrán los principios contenidos en las cinco iniciativas del sector privado —provenientes de la academia, así como de empresas tecnológicas relevantes— que fueron elegidas en virtud de los criterios explicados en el apartado 3.3.
3.3.2.1. Principios de la IA por Asilomar.
La Conferencia Asilomar sobre IA beneficiosa, organizada por The Future of Life Institute, dio lugar a un intenso debate entre investigadores en materia de IA provenientes de la academia y la industria, así como de otras disciplinas como la economía, el derecho, la ética y la filosofía, y dejó como saldo una guía de veintitrés directrices para la investigación y el desarrollo de la IA en la que se pueden encontrar trece principios éticos78. Estos son79:
1. Seguridad: los sistemas inteligentes deben ser seguros durante toda su vida operativa, y verificables cuando sea aplicable y factible;
2. Transparencia frente a fallas: si un sistema inteligente causa daño debería ser posible determinar por qué;
3. Transparencia Judicial: cualquier intervención de un sistema autónomo en la toma de decisiones judiciales debe brindar una explicación satisfactoria y auditable por una autoridad humana competente;
4. Responsabilidad: los diseñadores y desarrolladores de sistemas inteligentes son parte interesada en las implicancias morales de su uso, mal uso y acciones, y deben contar con la posibilidad y la responsabilidad de darle forma a esas implicancias;
5. Alineación de valores: los sistemas inteligentes altamente autónomos deben diseñarse de un modo que se pueda garantizar que sus objetivos y comportamientos se alinean con los valores humanos a lo largo de su despliegue;
6. Valores humanos: los sistemas inteligentes deben diseñarse y operarse de modo que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural;
7. Privacidad personal: las personas deben tener derecho a acceder, administrar y controlar los datos que generan dado el poder de los sistemas inteligentes para analizar y utilizar esos datos.
8. Libertad: la aplicación de la IA a los datos personales no debe restringir injustificadamente la libertad real o percibida de las personas;
9. Beneficio compartido: los sistemas inteligentes deben beneficiar y empoderar a tantas personas como sea posible;
10. Prosperidad compartida: la prosperidad económica creada por la IA debe compartirse ampliamente para beneficiar a toda la humanidad;
11. Control humano: los humanos deben elegir si delegan decisiones a los sistemas inteligentes para lograr los objetivos elegidos por ellos y, en su caso, cómo lo hacen;
12. No subversión: el poder conferido a sistemas inteligentes altamente avanzados debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad;
13. Carrera armamentista de la IA: se debe evitar una carrera armamentista en materia de armas letales autónomas.
3.3.2.2. Iniciativa global para la ética de los sistemas autónomos e inteligentes del Instituto de Ingenieros Eléctricos y Electrónicos —IEEE—.
El IEEE es una organización técnica de alcance mundial que nuclea a más de cuatrocientos veinte mil ingenieros, científicos, tecnólogos y profesionales en más de ciento sesenta países, que se dedican a la innovación tecnológica y la excelencia en beneficio de la humanidad80.
El documento propuesto por la Iniciativa Global para la Ética de los Sistemas Autónomos e Inteligentes del IEEE81, publicado en el año 2019, enumera ocho principios éticos que deberían guiar el diseño, desarrollo y despliegue de estos sistemas:
1. Derechos humanos: los sistemas deberían respetar, promover y proteger los derechos humanos.
2. Bienestar: el principal criterio de éxito al desarrollar estos sistemas debería ser el de mejorar el bienestar de las personas.
3. Agencia de datos: los desarrolladores deberían facultar a las personas para que puedan acceder y compartir sus datos, para mantener su capacidad de tener el control de su identidad.
4. Efectividad: los creadores y operadores de los sistemas deben proveer evidencia de la efectividad e idoneidad de estos últimos.
5. Transparencia: las decisiones de los sistemas deben ser descubribles.
6. Rendición de cuentas: los sistemas deben crearse y operarse para proveer una explicación razonable de las decisiones que adopten.
7. Conciencia sobre el mal uso: los creadores de los sistemas deben protegerlos contra usos indebidos y riesgos de funcionamiento.
8. Competencia: los creadores deberán especificar y los operadores adherirse a los conocimientos y habilidades necesarias para un funcionamiento seguro y eficaz de los sistemas.
3.3.2.3. Inteligencia artificial ética en Google.
Google aspira a desarrollar tecnologías que resuelvan problemas importantes y que ayuden a las personas en su día a día. En ese marco, evalúa las aplicaciones de IA con base en siete principios éticos82:
1. Beneficio a la sociedad: se debe proceder con los desarrollos sólo en aquellos casos en los que se crea que los posibles beneficios generales superan sustancialmente los riesgos y desventajas previsibles; la información precisa y de calidad debe estar disponible cuando se utiliza la IA; se deben respetar las normas sociales, culturales y legales de los países en los que se opera y se debe evaluar en qué casos las tecnologías disponibles no deben ser comercialmente accesibles.
2. Evitar crear y reforzar sesgos injustos: se debe procurar evitar impactos injustos en las personas, especialmente en aquellas relacionadas con características especialmente protegidas como la raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias religiosas o políticas.
3. Garantizar la seguridad de los sistemas inteligentes: se deben desarrollar y emplear prácticas de seguridad y protección que eviten resultados dañosos no deseados; los sistemas deben ser cautelosos y deben desarrollarse de acuerdo con las mejores prácticas materia de seguridad de la IA; en casos apropiados los desarrollos deben testearse en entornos controlados y restringidos, y monitorear su funcionamiento tras su implementación.
4. Ser responsables ante las personas: los sistemas deben proveer oportunidades adecuadas de respuesta, explicación y apelación, y deben estar sujetos a un adecuado control y dirección humana.
5. Incorporar principios de diseño de privacidad: se deben incorporar los principios de privacidad en el desarrollo y uso de IA; brindar oportunidad de notificación y consentimiento; fomentar arquitecturas con garantías de privacidad y proporcionar transparencia y control adecuados sobre el uso de los datos.
6. Mantener altos estándares de excelencia científica: se deben mantener altos estándares mientras se trabaja para avanzar en el desarrollo de la IA; trabajar con múltiples partes interesadas para promover un liderazgo reflexivo; compartir responsablemente el conocimiento.
7. Estar disponible para usos que estén de acuerdo con estos principios: se debe trabajar para limitar aplicaciones potencialmente dañinas o abusivas y evaluar usos probables a la luz de otros factores como el propósito principal y uso probable de la tecnología, su naturaleza y singularidad, su escalabilidad, la naturaleza de la participación de Google en el desarrollo.
3.3.2.4. Iniciativa de Microsoft.
Microsoft Corporation adopta una estrategia de IA responsable para desarrollar e implementar su tecnología que se basa en seis principios éticos83:
1. Equidad: los sistemas inteligentes deben tratar a las personas de manera justa;
2. Confiabilidad y Seguridad: los sistemas inteligentes deben funcionar de manera confiable y segura;
3. Privacidad y Seguridad: los sistemas inteligentes deben asegurar y respetar la privacidad;
4. Inclusión: los sistemas inteligentes deben empoderar a todos e involucrar a las personas;
5. Transparencia: los sistemas inteligentes deben ser comprensibles, y
6. Responsabilidad: las personas deben responsabilizarse por los sistemas inteligentes.
3.3.2.5. Iniciativa de Meta (ex Facebook).
Meta reconoce que la IA forma parte de múltiples sistemas propios que se encargan, entre otras tareas relevantes, de clasificar publicaciones en el news feed hasta abordar el discurso del odio y la desinformación84.
También admite que la IA plantea numerosos interrogantes en materia de privacidad, equidad, responsabilidad y transparencia, razón por la cual creó un equipo especializado y de integración interdisciplinaria para estudiar la cuestión, que funciona dentro de la organización.
A su vez, organiza sus esfuerzos para una IA responsable en torno a cinco pilares clave inspirados en las Directrices Éticas para una IA fiable del Grupo de Expertos de Alto Nivel de la Comisión Europea y los Principios sobre inteligencia artificial de la Organización para la Cooperación y el Desarrollo Económicos. Ellos son:
1. Privacidad y seguridad: proteger la privacidad y la seguridad de los datos de las personas es responsabilidad de todos en la empresa;
2. Equidad e inclusión: los productos de la empresa deben tratar a todos de manera justa y funcionar igual de bien para todas las personas;
3. Solidez y seguridad: los sistemas de inteligencia artificial deben cumplir con altos estándares de rendimiento y deben probarse para garantizar que se comportan de manera segura y según lo previsto, incluso cuando están sujetos a un ataque;
4. Transparencia y control: las personas que usan nuestros productos deben tener más transparencia y control sobre cómo se recopilan y usan los datos sobre ellos; las decisiones deben ser más explicables; se debe informar a las personas sobre los controles que se aplican, así como sobre cómo se toman esas decisiones;
5. Responsabilidad y gobernanza: se debe garantizar la responsabilidad de los sistemas de inteligencia artificial y las decisiones que toman, para lo que deben crearse sistemas de gobernanza para garantizar su funcionamiento bajo altos estándares y para mitigar impactos negativos potenciales.
3.3.3. Iniciativas desde el sector público.
Los Estados no pueden desentenderse de su deber de garantizar el cumplimiento de los derechos y garantías reconocidos en sus respectivas constituciones y en los tratados internacionales de derechos humanos.
Por ello, deben tomar parte activa en el establecimiento de los marcos regulatorios que aseguren un desarrollo seguro de la IA, contribuya al bienestar general de la sociedad y eviten los efectos no deseados que su uso creciente puede provocar85.
En los últimos años, frente al empleo creciente de sistemas inteligentes y el florecimiento de numerosas guías éticas provenientes de empresas y asociaciones privadas, la IA también comenzó a formar parte de los temas más relevantes de la agenda del sector público.
En ese marco, diversos organismos internacionales han tomado la iniciativa de dictar recomendaciones y otros documentos en los que se propician ciertos principios éticos para una IA antropocéntrica y confiable. A la par, algunos países han desarrollado guías éticas propias, que en muchas ocasiones integran las estrategias nacionales de IA86.
A continuación, se exponen los principios contenidos en tres iniciativas supranacionales y ocho gubernamentales, que fueron seleccionadas en función de los criterios expuestos en el apartado 3.3.
3.3.3.1. Iniciativas supranacionales.
3.3.3.1.1. UNESCO.
El 25 de noviembre de 2021, los Estados Miembros de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial87, el primer acuerdo mundial sobre la temática, con el objetivo de establecer una serie de valores y principios comunes que sirvan de guía para la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la IA88.
El documento diferencia entre valores y principios, estableciendo que los primeros cumplen la función de ser ideales que orientan las medidas de política y las normas jurídicas, y los segundos se ocupan de revelar los valores subyacentes de forma más concreta, de modo tal que se los pueda aplicar con mayor facilidad89.
En los valores enumera: el respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana; la prosperidad del medio ambiente y los ecosistemas; la garantía de la diversidad y la inclusión; el vivir en sociedades pacíficas, justas e interconectadas.
A nivel de principios adopta los siguientes:
1. Principio de proporcionalidad e inocuidad: ningún proceso relacionado con el ciclo de vida de los sistemas inteligentes podrá ir más allá de lo necesario para lograr propósitos u objetivos legítimos, y en caso de posibles daños a las personas y a los derechos humanos, debería garantizarse la aplicación de procedimientos de evaluación de riesgos y la adopción de medidas para impedir que ese daño se produzca.
Cuando las decisiones que tome el sistema puedan ser irreversibles o de vida o muerte, la decisión final siempre debería ser adoptada por un ser humano; y los sistemas no deberían usarse con fines de vigilancia masiva o calificación social.
2. Seguridad y protección: los sistemas deben ser seguros y no deben ser vulnerables a ataques; deben proteger a las personas, los datos, el medioambiente y la privacidad; deben utilizar datos de calidad.
3. Equidad y no discriminación: los actores de la IA deben promover la equidad y luchar contra la discriminación; los sistemas deben adoptar un enfoque inclusivo; debería disponerse de un recurso efectivo contra la discriminación y la determinación algorítmica sesgada, y reducirse la brecha digital.
4. Sostenibilidad: se deben evaluar de forma continua los efectos humanos, sociales, culturales, económicos y ambientales de la IA y su impacto en la sostenibilidad, entendidas como un conjunto de metas en constante evolución en toda una serie de dimensiones.
5. Derecho a la intimidad y protección de datos: la privacidad debe respetarse, protegerse y promoverse a lo largo de todo el ciclo de vida de los sistemas inteligentes; los datos para los sistemas se deben recopilar, utilizar, archivar y suprimir de conformidad con el derecho internacional y nacional aplicable y de acuerdo con los valores y principios enunciados en la presente; deberían establecerse marcos de protección de datos y mecanismos de gobernanza adecuados; se deben realizar evaluaciones de impacto en la privacidad que incluyan consideraciones sociales y éticas de su utilización y un enfoque de privacidad desde la etapa de concepción.
6. Supervisión y decisión humanas: se debe velar porque siempre que sea posible la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas, se atribuya a una persona física o jurídica; los sistemas deben hallarse bajo supervisión humana constante, lo que incluye la supervisión pública inclusiva, según corresponda; un sistema inteligente nunca puede reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas, y debería evitarse que las decisiones de vida o muerte sean cedidas a sistemas inteligentes.
7. Transparencia y explicabilidad: ambos están íntimamente relacionados entre sí, y con la responsabilidad, la rendición de cuentas y la confianza en los sistemas. La transparencia procura proporcionar información adecuada para permitir la comprensión y fomentar la confianza en los sistemas por parte de sus destinatarios, y la explicabilidad hacer inteligible la entrada, la salida y el funcionamiento de cada componente algorítmico y la forma en que contribuye a los resultados del sistema.
Se deben adoptar todas las medidas posibles para incrementar la transparencia y la explicabilidad de los sistemas a lo largo de su ciclo de vida; el grado de transparencia y explicabilidad debería ser siempre adecuado al contexto y al efecto; las personas deberían estar informadas cuando una decisión es adoptada por un sistema inteligente o con base en éste y cuando un producto o servicio se proporciona directamente o con ayuda de IA; las personas deberían poder conocer los motivos por los que un sistema inteligente ha adoptado una decisión que afecta sus derechos o libertades, y la oportunidad de cuestionarla o solicitar información; la transparencia procura proporcionar información adecuada para permitir la comprensión y fomentar la confianza en los sistemas por parte de sus destinatarios.
8. Responsabilidad y rendición de cuentas: la responsabilidad ética y la obligación de rendir cuentas siempre deberían ser atribuibles, en última instancia, a los actores de la IA conforme a la función que tengan en el ciclo de vida del sistema; deberían elaborarse mecanismos adecuados de supervisión, evaluación de impacto, auditoría y diligencia debida para garantizar la rendición de cuentas; se debería garantizar la auditabilidad y trazabilidad de los sistemas.
9. Sensibilización y educación: se debería promover una educación abierta, comprensible y accesible sobre las tecnologías de la IA, la ética de la IA, competencias digitales; el valor de los datos y los derechos fundamentales para garantizar la participación efectiva y la adopción de decisiones informadas;
10. Gobernanza y colaboración adaptativas y de múltiples partes interesadas: los Estados pueden regular en materia de protección de datos sobre la base del derecho a la privacidad y el respeto por los derechos humanos; se debe promover la participación de las diversas partes interesadas a lo largo del ciclo de vida de los sistemas inteligentes, especialmente de las comunidades y grupos más marginados, para garantizar enfoques inclusivos, compartir beneficios y contribuir al desarrollo sostenible.
3.3.3.1.2. Principios de la IA por la OCDE.
El 22 de mayo de 2019 los treinta y seis países socios de la OCDE —Organización para la Cooperación y el Desarrollo Económico—, entre los que se encuentra la República Argentina, adoptaron el primer conjunto de directrices de políticas intergubernamentales sobre IA, con el objetivo de promover desarrollos robustos, seguros, imparciales y fiables.
En ese marco, reconocieron la vigencia de cinco principios complementarios en orden a la promoción de una IA fiable90:
1. Crecimiento inclusivo, desarrollo sostenible y bienestar: se debe promover una IA que beneficie a las personas y al planeta; aumente las capacidades humanas y la creatividad; fomente la inclusión; reduzca desigualdades económicas, sociales y de género, entre otras; proteja los entornos naturales y dinamice el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
2. Respetar los valores humanos y la justicia: el estado de derecho, los derechos humanos y los valores democráticos deben respetarse durante todo el ciclo de vida de los sistemas inteligentes. Esto incluye la libertad, la dignidad, la autonomía, la privacidad y protección de datos, el derecho a la igualdad y no discriminación, y los demás derechos reconocidos internacionalmente.
3. Transparencia y explicabilidad: los actores de la IA deben comprometerse con su transparencia y divulgación responsable, para lo cual deben proveer información significativa y adecuada al contexto en pos de fomentar una comprensión general de los sistemas inteligentes; que las personas conozcan que interactúan con este tipo de sistemas; que los afectados por ellos puedan comprender el resultado y cuestionarlo con base en información simple y fácilmente comprensible, relativa a los factores y la lógica que sirvió de base a la predicción, recomendación o decisión.
4. Robustez, seguridad y protección: los sistemas inteligentes deben ser robustos y seguros durante todo su ciclo de vida para que, en condiciones de uso normal, uso previsible, mal uso u otras condiciones adversas, no supongan un riesgo de seguridad irrazonable; se debe garantizar la trazabilidad del sistema para asegurar el análisis de sus resultados de acuerdo con las reglas del arte.
5. Responsabilidad: quienes intervengan como actores durante el ciclo de vida de la IA deben responsabilizarse por el adecuado funcionamiento de los sistemas y por el respeto de los principios enunciados.
3.3.3.1.3. Directrices éticas del Grupo de expertos de alto nivel de la Comisión Europea.
En el mes de abril de 2019 se publicó el documento producido por el Grupo de expertos de alto nivel sobre IA, constituido por la Comisión Europea, titulado “Directrices Éticas para una IA fiable”.
En aquel documento se enumeran cuatro principios éticos, arraigados en los derechos fundamentales, que deben orientar la búsqueda de soluciones para garantizar que los sistemas inteligentes se diseñen, desarrollen y desplieguen de manera confiable. Se trata de los principios de91:
1. Respeto de la autonomía humana: los sistemas inteligentes no deberían subordinar, coaccionar, engañar, manipular, condicionar o dirigir a los seres humanos de forma injustificada, y deberían diseñarse de un modo que complemente, aumente y potencie sus capacidades cognitivas, sociales y culturales; se debe garantizar la supervisión y control humano.
2. Prevención del daño: los sistemas inteligentes no deberían provocar daños (o agravar los existentes), ni perjudicar a las personas; deben ser seguros, robustos desde lo técnico y garantizar que no se puedan destinar a usos malintencionados, con especial foco en las situaciones en las que los efectos adversos puedan producirse debido a asimetrías de poder o de información.
3. Equidad: el desarrollo, despliegue y uso de los sistemas inteligentes debe ser equitativo; se debe garantizar una distribución equitativa de los beneficios y costos asociados, también que las personas no sufran sesgos injustos, estigmatización, ni discriminación;
4. Explicabilidad: las decisiones de los sistemas inteligentes deben poder explicarse —en la medida de lo posible— a las partes que se vean afectadas por ellos de manera directa o indirecta. El mayor o menor grado de explicabilidad dependerá del contexto y gravedad de las consecuencias derivadas de un resultado erróneo o equivocado.
Los principios señalados se traducen en siete requisitos concretos que son aplicables a las múltiples partes interesadas que intervienen durante el ciclo de vida de la IA. Estos son: 1. Acción y supervisión humana; 2. Solidez Técnica y seguridad; 3. Gestión de privacidad de datos; 4. Transparencia; 5. Diversidad, no discriminación y equidad; 6. Bienestar social y ambiental, y 7. Rendición de cuentas.
Luego, para cumplir cada uno de esos requisitos se proponen una serie de métodos técnicos y no técnicos que se deben aplicar, también, durante todo el ciclo de vida de la IA.
3.3.3.2. Iniciativas gubernamentales.
3.3.3.2.1. Brasil.
En línea con las directrices de la OCDE, la Estrategia de Brasil para la Inteligencia Artificial, publicada en el año 2021, se basa en los cinco principios para una IA responsable definidos por dicha organización, que deben ser seguidos en todas las etapas de desarrollo y uso de la IA pudiendo, inclusive, ser elevados a requisitos normativos para todas las iniciativas gubernamentales en la materia92.
Los principios a los que refiere el documento son:
1. Crecimiento y desarrollo inclusivo, desarrollo sostenible y bienestar: los sistemas inteligentes deben beneficiar a las personas y al planeta, impulsar el crecimiento inclusivo y el desarrollo sustentable, así como el bienestar.
2. Valores centrados en el ser humanos y la equidad: la IA debe respetar el Estado de Derecho, los derechos humanos, los valores democráticos y la diversidad, e incluir los resguardos adecuados para garantizar una sociedad más justa.
3. Transparencia y explicabilidad: se debe garantizar la transparencia y la divulgación responsable en relación con los sistemas inteligentes, de acuerdo con las reglas del arte, que permitan promover una comprensión general sobre estos sistemas, que las personas sean conscientes de cuando interactúan con IA, que los afectados puedan comprender cómo se ha producido el resultado y que los afectados adversamente puedan cuestionarlo.
4. Robustez, seguridad y protección: los sistemas deben ser robustos y seguros a lo largo de su ciclo de vida, y los riesgos potenciales deben ser gerenciados continuamente.
5. Rendición de cuentas y responsabilidad: dependiendo de la aplicación de IA y los riesgos asociados, se deben establecer estructuras de gobernanza que aseguren la adopción de los principios para una IA confiable y los mecanismos para su observancia. La idea de rendición de cuentas debe guiarse por el principio de precaución.
3.3.3.2.1. China.
El comité de expertos formado por el Ministerio de Ciencia y Tecnología de la República Popular China produjo en el año 2017 el documento titulado “Principios de Gobernanza para una Nueva Generación de IA: Desarrollo Responsable de la Inteligencia Artificial”93.
Allí se establece que, en orden a promover un desarrollo saludable de la IA, se deben coordinar las relaciones entre el desarrollo y la gobernanza, así como asegurar que la IA sea segura, confiable, controlable y que promueva el desarrollo económico, social y ecológicamente sustentable, para lo cual las múltiples partes interesadas deben seguir los siguientes principios:
1. Armonía y amistad: el desarrollo de la IA debería tener como objetivo promover el bienestar común; conformarse con los valores humanos, la ética y la moral; fomentar la armonía hombre-máquina y servir al progreso de la humanidad; salvaguardar la seguridad de la sociedad, respetar los derechos humanos y evitar el uso malintencionado o abusivo.
2. Equidad y justicia: los desarrollos inteligentes deben promover la justicia y la equidad; proteger los derechos e intereses de sus usuarios y la igualdad de oportunidades; eliminar el sesgo y la discriminación.
3. Inclusión y desarrollo compartido: la IA debe promover el desarrollo verde y cumplir con los requisitos de protección del medio ambiente; impulsar la mejora en todos los ámbitos de la vida; reducir disparidades regionales y fomentar el desarrollo inclusivo. Se debe eliminar la brecha digital; promover el desarrollo compartido; evitar el monopolio de datos y plataformas y fomentar una competencia abierta y ordenada.
4. Privacidad: el desarrollo de sistemas inteligentes debe respetar y proteger la privacidad y el derecho de las personas de conocer y decidir; fomentar la autorización para el uso de datos y los mecanismos para combatir robos y otros usos ilegítimos de la información personal.
5. Seguridad: los sistemas deberían mejorar continuamente en materia de transparencia, explicabilidad, confiabilidad, auditabilidad y seguridad.
6. Responsabilidad compartida: quienes intervengan en el ciclo de vida de la IA deberán tener un fuerte sentido de la responsabilidad social y la autodisciplina, respetar las normas y los estándares éticos y morales aplicables. Se deben asegurar mecanismos para identificar la responsabilidad de desarrolladores, usuarios y beneficiarios, promover que las personas conozcan los riesgos asociados al uso de estos sistemas y evitar su empleo para actividades ilícitas.
7. Colaboración abierta: se debe promover la cooperación y el intercambio a través de las distintas disciplinas, regiones y fronteras, así como la coordinación entre organizaciones nacionales e internacionales; el diálogo respetuoso entre países y los consensos para un marco legal internacional para la gobernanza de la IA.
8. Gobernanza ágil: se debe promover la innovación y el desarrollo ordenado de la IA; optimizar los mecanismos de gestión; perfeccionar los sistemas de gobernanza; promover el cumplimiento de los principios de gobernanza durante todo el ciclo de vida de la IA; investigar y anticipar desafíos y riesgos futuros y asegurar que la IA avanza siempre en pos del beneficio de la comunidad.
3.3.3.2.2. Colombia.
En octubre de 2021 Colombia aprobó su Marco Ético para la Inteligencia Artificial en Colombia, como un instrumento de soft law mediante el que se incorporan principios para el uso de la IA en Colombia, con el objetivo de proteger, reforzar y garantizar los derechos humanos en el desarrollo, uso y gobernanza de la IA94.
En este documento se reconocen los siguientes principios éticos:
1. Transparencia y explicación: los sistemas deben poder brindar información significativa y comprensible —sin comprometer la confidencialidad del modelo— sobre su diseño, funcionamiento e impacto, tanto para los desarrolladores como para los usuarios e individuos que puedan verse afectados por sus decisiones y resultados.
2. Privacidad: los sistemas deben respetar la intimidad de las personas, evitar utilizar información que no hayan autorizado y el perfilamiento.
3. Control humano de las decisiones: cuando se trate de sistemas con relativa autonomía en la toma de decisiones el ser humano siempre debe estar en control, especialmente en la etapa de implementación. El control humano debe ser proporcional al nivel de riesgo de los sistemas.
4. Seguridad: los sistemas no deben vulnerar la integridad y la salud física y mental de las personas. La seguridad y confidencialidad de los datos personales y en especial de los datos sensibles es fundamental para evitar afectaciones a la seguridad física y mental de los individuos.
5. Responsabilidad: se debe partir de la solidaridad de los diversos actores que intervienen en el ciclo de vida de los sistemas por los daños que su uso pueda provocar a las personas.
6. No discriminación: los sistemas no pueden tener resultados o respuestas que afecten los derechos de grupos específicos o poblaciones históricamente marginadas; deben adoptar un enfoque de neutralidad de género y garantizar que ese parámetro no sea empleado como factor de discriminación; no pueden estar limitados a un grupo específico por motivos de raza, sexo, religión, edad, discapacidad u orientación sexual.
7. Inclusión: se debe dar participación a los grupos históricamente marginados en el ciclo de vida de los sistemas, así como en su evaluación.
8. Prevalencia de los derechos de niños, niñas y adolescentes: los sistemas de inteligencia artificial deben reconocer, respetar y privilegiar los derechos de niños niñas y adolescentes; siempre deben respetar su interés superior; se los debe empoderar y educar para que puedan tomar parte efectiva.
9. Beneficio social: los sistemas deben permitir o estar directamente relacionados con una actividad que genere un beneficio social claro y determinable. Aquellos que persigan otro tipo de fines no deben ser implementados en el sector público y se debe desincentivar su uso en otros sectores.
3.3.3.2.3. Estados Unidos.
En el mes de noviembre de 2020 la Casa Blanca publicó el Memorándum para los responsables de departamentos y agencias ejecutivas95, que proporciona consideraciones de política que deben guiar, en la medida de lo permitido por la ley, los enfoques regulatorios y no regulatorios para las aplicaciones de IA desarrolladas y desplegadas fuera del gobierno federal96.
Allí se dispone que, de manera consistente con la ley, al formular enfoques regulatorios y no regulatorios para el diseño, desarrollo, despliegue y operación de sistemas inteligentes, las agencias gubernamentales deben tener en cuenta estos diez principios:
1. Confianza pública en la IA: se debe promover una IA segura, robusta y confiable.
2. Participación pública: el público debe tener la oportunidad de participar en todas las etapas del proceso de elaboración de la regulación.
3. Integridad científica e información de calidad: las decisiones políticas deben basarse en la ciencia.
4. Evaluación y manejo de riesgos: las agencias deberían definir cuándo los riesgos son inaceptables.
5. Beneficios y costos: las agencias deberían elegir enfoques que maximicen los beneficios netos.
6. Flexibilidad: las agencias deberían perseguir enfoques tecnológicamente neutrales y flexibles.
7. Equidad y no discriminación: las agencias deberían asegurarse de que los sistemas inteligentes no provoquen discriminación.
8. Divulgación y transparencia: las medidas de transparencia para cada contexto específico son necesarias para la confianza en los sistemas.
9. Seguridad y protección: las agencias deben promover sistemas que sean seguros y que operen según lo previsto.
10. Coordinación intergubernamental: la cooperación y coordinación entre agencias es necesaria para una política consistente.
3.3.3.2.4. India.
En el documento titulado “Hacia el desarrollo de una IA responsable”, el Instituto Nacional para la Transformación de India identifica siete principios para la gestión responsable de los sistemas inteligentes que deberían ser seguidos por los múltiples actores de la IA en ese país97:
1. Seguridad y confiabilidad: los sistemas inteligentes se deben implementar de forma confiable, de acuerdo con lo previsto, y se deben tomar los recaudos necesarios para garantizar seguridad a las personas. Los sistemas deben monitorearse a lo largo de todo su ciclo de vida.
2. Equidad: los sistemas deben tratar por igual a las personas en iguales circunstancias.
3. Carácter inclusivo y no discriminación: los sistemas no deben profundizar divisiones sociales históricas basadas en la religión, la raza, el sexo, la descendencia, el lugar de nacimiento y la residencia; no deben dar un trato desigual en materia de acceso a bienes y servicios; y en caso de una decisión adversa las personas deben poder recurrir de forma accesible, sin discriminación.
4. Privacidad y Seguridad: los sistemas inteligentes deben preservar la seguridad y la privacidad de los datos de entrenamiento. El acceso sólo debe autorizarse con salvaguardas suficientes.
5. Transparencia: el diseño y funcionamiento de los sistemas debe hacerse de forma tal que pueda estar sujeto al escrutinio externo, en la medida de lo posible, para asegurar que la implementación sea justa, honesta e imparcial y se garantice la rendición de cuentas.
6. Rendición de cuentas: las partes interesadas que participen del ciclo de vida de los sistemas inteligentes son responsables por su accionar; deberían llevar a cabo evaluaciones de impacto y de riesgo para evaluar los posibles impactos directos e indirectos en los usuarios finales de los sistemas, supervisar el cumplimiento de los principios éticos y establecer mecanismos para el reclamo en caso de impactos adversos.
7. Protección y refuerzo de los valores humanos: la IA debe promover los valores humanos positivos y no afectar la armonía de la sociedad.
3.3.3.2.5. Japón.
En marzo de 2019 Japón publicó un documento titulado “Principios sociales de la IA centrada en el ser humano”, adoptado por el Consejo para la Promoción de la Estrategia de Innovación Integrada, en el que se establecen una serie de principios para la IA que deben ser implementados por los múltiples actores involucrados en el desarrollo y despliegue de estos sistemas98:
1. El humano en el centro: el uso de sistemas inteligentes no debe vulnerar los derechos fundamentales garantizados por la Constitución y los estándares internacionales; los sistemas deben utilizarse para impulsar a las personas y promover su bienestar.
2. Educación: quienes intervengan en el desarrollo de sistemas inteligentes deben tener conocimiento adecuado sobre IA y los principios éticos que permiten su empleo adecuado; las personas deben tener acceso a adecuación adecuada para comprender las bases de la IA, la matemática y la ciencia de datos.
3. Privacidad: los datos personales se deben proteger adecuadamente; se deben administrar de manera tal de garantizar que ninguna persona se vea afectada por la distribución o usos no deseados de sus datos personales; se debe permitir que las personas se involucren en la gestión de la privacidad de sus datos personales.
4. Seguridad: la sociedad debe conocer los beneficios y riesgos que conlleva el uso de sistemas inteligentes; se deben realizar esfuerzos por mejorar la seguridad de los sistemas y su sostenibilidad.
5. Competencia justa: se debe promover y mantener un entorno competitivo para crear nuevos negocios y servicios para fomentar un crecimiento sostenible y proveer soluciones a los desafíos sociales que surjan.
6. Equidad, rendición de cuentas y transparencia: se debe promover la equidad y transparencia de los sistemas, la responsabilidad sobre sus resultados y la confianza en la tecnología; también que las personas que la utilizan no sean objeto de discriminación o un trato injusto que afecte su dignidad.
7. Innovación: se debe promover la globalización, diversificación y cooperación entre la industria, la academia y el gobierno en orden a implementar la IA de forma eficiente y segura.
3.3.3.2.6. Reino Unido.
En el documento “Inteligencia Artificial en el Reino Unido: ¿preparada, dispuesta y capaz?”, publicado en abril del año 2018, el Comité Especial para la IA de la Cámara de los Lores, creado para considerar y analizar las implicancias económicas, éticas y sociales de los avances de la IA, sugirió cinco principios generales para un código de la IA99:
1. Bien Común: la IA debería ser desarrollada para el bien común y el bienestar de la humanidad.
2. Transparencia y equidad: la IA debería operar sobre la base de los principios de inteligibilidad y equidad.
3. Privacidad y protección de derechos: la IA no debería emplearse para afectar los derechos y la privacidad de las personas, sus familias o la comunidad.
4. Educación: todas las personas tienen derecho a recibir una educación adecuada que les permita prosperar mental, económica y emocionalmente junto con la IA.
5. Prevención del daño: nunca debería conferirse a la IA el poder autónomo de dañar, destruir o engañar al ser humano.
3.3.3.2.7. España.
La Estrategia Nacional de Inteligencia Artificial aprobada por España en noviembre de 2020, postula que la ética es fundamental para asegurar que el uso de la IA acompañe los valores de la sociedad y opere en beneficio de la inclusión y el bienestar.
A ese fin, los sistemas inteligentes deben desarrollarse siguiendo los principios éticos de100:
1. Inclusión: no deben discriminar, deben considerar toda la gama de habilidades y requisitos humanos y deben garantizar la accesibilidad.
2. Bienestar social: la IA debe contribuir al bien común; apoyar el bienestar y los derechos humanos; y no reducir, limitar o desviar la autonomía de las personas.
3. Sostenibilidad: los sistemas inteligentes deben promover la sostenibilidad y la responsabilidad ecológica.
4. Supervisión humana adecuada: los sistemas inteligentes deben estar sometidos a supervisión continua y ser comprensibles por las personas.
5. Gobierno de datos y sistemas: los datos no pueden usarse para perjudicar a las personas o violar sus derechos fundamentales.
6. Transparencia (trazabilidad): se debe garantizar la trazabilidad de los sistemas inteligentes para garantizar que sus decisiones puedan ser auditadas, evaluadas y explicadas por los responsables.
3.3.3.2.8. Uruguay.
El 1° de enero del año 2020 Uruguay aprobó la Estrategia de Inteligencia Artificial para el Gobierno Digital, con el objetivo de promover y fortalecer el uso responsable de IA en su Administración Pública101.
En aquel documento se enumeran nueve principios generales que deben guiar el diseño, desarrollo y despliegue de sistemas inteligentes:
1. Finalidad: los sistemas inteligentes deben potenciar las capacidades humanas, complementarlas y mejorar la calidad de vida de las personas.
2. Interés general: los sistemas inteligentes impulsados desde el Estado deben tender al interés general, garantizar la inclusión y la equidad, reducir sesgos no deseados en datos y modelos y no incurrir en prácticas discriminatorias.
3. Respeto de los Derechos Humanos: los sistemas inteligentes deben respetar los Derechos Humanos, las libertades individuales y la diversidad.
4. Transparencia: los sistemas inteligentes que se utilicen en el sector público deben ser transparentes y cumplir con la normativa vigente, para lo que se debe poner a disposición los algoritmos y datos utilizados para su entrenamiento y puesta en práctica, así como las pruebas y validaciones realizadas, y visibilizar explícitamente todos aquellos procesos que utilicen IA, sea como apoyo o para tomar decisiones.
5. Responsabilidad: los sistemas inteligentes deben tener un responsable claramente identificable que responda por las consecuencias derivadas del accionar de la solución.
6. Ética: cuando los sistemas inteligentes presenten dilemas éticos, éstos deben ser abordados y resueltos por seres humanos.
7. Valor agregado: los sistemas inteligentes sólo deben usarse cuando agreguen valor a un proceso. La IA no debe ser un fin en sí mismo.
8. Privacidad por diseño: los sistemas inteligentes deben contemplar la privacidad de las personas desde su diseño.
9. Seguridad: los sistemas inteligentes deben cumplir con los principios básicos de seguridad de la información desde su diseño.
4. Consensos en torno a los principios éticos necesarios para una IA antropocéntrica.
Del examen de las guías y recomendaciones seleccionadas para este trabajo se puede extraer que, si bien existe consenso en torno a varios principios éticos relevantes para lograr una IA con las características ya señaladas, éstos no siempre se denominan de la misma forma, ni se les asigna idéntico alcance.
Aun así, independientemente de cómo se los denomine en cada guía o recomendación, cuando se realiza un examen del contenido y alcance dado a cada uno de ellos es posible agruparlos e identificar puntos de acuerdo entre los distintos documentos.
A continuación, se incorpora un cuadro de producción propia en el que se agrupan los diversos principios enunciados en las guías y recomendaciones relevadas, y se indica cuáles de ellos son abordados por cada una de éstas:
Del estudio realizado se observa que el principio de transparencia y explicabilidad es reconocido en todos los instrumentos relevados —17/17 documentos—, más allá de que en algunos de ellos se lo menciona como principio de transparencia y en otros de explicabilidad, o bien se los refiere de forma unificada o se los describe a partir de su interrelación.
De hecho, el único documento que diferencia de forma expresa el contenido de ambos principios es el de la UNESCO, que refiere a la transparencia como un principio que hace a la adecuada información para permitir una mejor comprensión del funcionamiento del sistema por parte de los usuarios, y la explicabilidad como aquel que hace a la inteligibilidad de la entrada, la salida y el funcionamiento de cada componente algorítmico, así como a la forma en que contribuye a los resultados del sistema.
También existe un consenso muy importante en el reconocimiento de los principios de seguridad, confiabilidad y robustez; responsabilidad y rendición de cuentas; privacidad y control de los propios datos; equidad, no discriminación e inclusión y bienestar común y social —>15 documentos—.
En líneas generales se observa que: (i) el principio de seguridad y robustez procura que los sistemas garanticen la seguridad de su funcionamiento y de los datos que los alimental, que no sean vulnerables a ataques y que operen de acuerdo con los objetivos previstos; (ii) el de responsabilidad hace a que los actores que participan del ciclo de vida de la IA respondan por su adecuado funcionamiento y, en algunos documentos —China, Brasil y OCDE—, por el cumplimiento de los principios éticos; (iii) el de privacidad, apunta a la privacidad por diseño de los sistemas con foco en la protección de datos personales; (iv) el de equidad y no discriminación a que los sistemas promuevan la primera y eviten provocar, y (v) el de inclusión y bienestar común procura lograr que la IA beneficie a las personas y a la sociedad.
Por otro lado, un número relevante de documentos —>7 guías y recomendaciones— presentan acuerdo en torno a los principios de supervisión y control humano de los sistemas; sostenibilidad; prevención de riesgos y respeto por los derechos y los valores humanos.
En cuanto a su contenido y alcance: (i) la supervisión y control humano se presenta como un principio que busca lograr que la IA esté bajo supervisión humana constante; (ii) la sostenibilidad, como uno que tiende a que los sistemas inteligentes impulsen el crecimiento inclusivo y el desarrollo sustentable; (iii) la prevención de riesgos como aquel que procura que la IA no provoque daños o agrave los existentes, ni perjudique a las personas, y (iv) el respeto por los derechos y valores humanos, procura que la IA esté de conformidad con ambos, así como con la normativa que los ampara.
En menor medida —=<6 documentos— se visualiza consenso para considerar como principios éticos para una IA antropocéntrica a los principios de libertad y autonomía; proporcionalidad; colaboración en el desarrollo de la IA; educación y sensibilización; gobernanza de datos y sistemas; neutralidad tecnológica; excelencia científica y prioridad para los derechos de niños, niñas y adolescentes.
En cuanto a su alcance, los principios de: (i) libertad y autonomía procuran que los sistemas inteligentes no subordinen, coaccionen, manipulen o condiciones a las personas; (ii) proporcionalidad, que los procesos de la IA no vayan más allá de lo necesario para el logro de los objetivos propuestos; (iii) colaboración en el desarrollo, que se promueva la participación de múltiples partes interesadas, así como de los gobiernos y el sector privado; (iv) educación y sensibilización, que se promueva una educación amplia y comprensible en materia de IA; (v) gobernanza, que se establezcan y adopten mecanismos dirigidos a regular la IA, así como a asegurar la adopción y el cumplimiento de los diversos principios éticos; (vi) excelencia científica, que cumplan los más elevados estándares científicos al desarrollar estos sistemas, y (vii) prioridad para los derechos de niños, niñas y adolescentes, que la IA reconozca, respete y privilegie los derechos de este grupo, así como su interés superior.
Es importante poner de resalto que algunos de estos principios, como el de prioridad de derechos para grupos vulnerables, aparecen incorporados en guías de fecha más reciente102, lo que da cuenta de la evolución constante en la materia a partir de la experiencia que trae el empleo de sistemas inteligentes en la práctica.
5. Conclusiones.
La IA comprende un conjunto de tecnologías estratégicas que, sin dudas, pueden traer muchos beneficios para los ciudadanos, las empresas y la sociedad en su conjunto.
Paralelo a ello, también despierta preocupación debido a los riesgos y desafíos que trae asociados para derechos fundamentales como la libertad, la libertad de expresión, la autonomía, la privacidad, la igualdad y no discriminación, entre otros, así como su impacto en el medio ambiente, en el consumo de energía, en la confianza en el sistema democrático y en las relaciones de poder103.
Dado que la IA será cada vez más importante y omnipresente, se debe propiciar su adecuada gobernanza104 para que funcione de manera fiable y segura, de forma tal que todos puedan confiar en que será empleada en beneficio del ser humano, de la sociedad y del medio ambiente, y no para dañarlos o vulnerar los derechos de las personas105.
En otras palabras, el diseño, desarrollo y despliegue de la IA requiere de un serio debate y consenso social y político en vista a lograr una estrategia de largo plazo acerca de qué tipo de sistemas inteligentes deberían desarrollarse, para qué propósito, para quiénes y de acuerdo con qué principios éticos106.
Por esta razón, quienes sean parte de la transición hacia sociedades cada vez más atravesadas por la IA tienen la enorme oportunidad, desafío y responsabilidad de encauzar el camino para que los cambios que se avecinan sean con el ser humano en el centro y en beneficio de toda la comunidad; respeten los derechos humanos fundamentales y colaboren al desarrollo y crecimiento sostenible de este mundo en crisis.
Afortunadamente, en los últimos años, el debate acerca de las consecuencias éticas de la IA ha ocupado un lugar central en el ámbito de la academia, los organismos internacionales, los Estados, las empresas y los medios de comunicación, y ha dado lugar —aunque con la disparidad regional señalada en el apartado 3.3— al nacimiento de numerosos documentos en los que se enuncian una serie de principios éticos que deberán regir todo el ciclo de vida de los sistemas inteligentes para garantizar que sean antropocéntricos, respeten los derechos y la dignidad humana.
Así, diversos principios éticos —aunque con diferencias en la forma de denominarlos y también en cuanto a su alcance— se han volcado en códigos, guías y recomendaciones producidas durante los últimos años, tanto desde el sector público como desde el ámbito privado, con el objetivo de que los equipos de desarrollo puedan navegar este mar de incertidumbre regulatoria con algunas referencias sólidas.
No hay dudas de que principios como los de transparencia y explicabilidad; seguridad, confiabilidad y robustez; responsabilidad y rendición de cuentas; privacidad y control de los propios datos; equidad, no discriminación e inclusión y bienestar común y social; enunciados en la mayoría de los documentos relevados, deben ser respetados por las múltiples partes interesadas a lo largo de todo el ciclo de vida de los sistemas y deben ser promovidos, no sólo a través de iniciativas de un determinado sector o empresa, sino desde el propio Estado mediante el dictado de los marcos regulatorios necesarios para garantizar su obligatorio cumplimiento.
Luego, otros más novedosos o en los que no hay tanto acuerdo, como los de libertad y autonomía; proporcionalidad; colaboración en el desarrollo de la IA; educación y sensibilización; gobernanza de datos y sistemas; neutralidad tecnológica; excelencia científica y prioridad para los derechos de niños, niñas y adolescentes, sin dudas merecen ser explorados para examinar su incorporación en guías ya aprobadas, en tanto —como ya se señaló más arriba— cuando se habla de IA, se habla de sistemas sociotécnicos, que se ven influidos por las personas que los crean, pero que a su vez se insertan en la sociedad con la posibilidad real de transformarla, con efectos aún desconocidos.
Como conclusión adicional del estudio realizado, se estima importante advertir que la gran proliferación de documentos que se observa en la materia puede traer efectos contraproducentes debido a la inconsistencia y confusión que provoca la sobreabundancia de información disponible para las partes interesadas, sobre todo en un contexto en que existen notorias diferencias semánticas y descriptivas para definir y delimitar los principios éticos relevantes.
Esto puede colocar a los desarrolladores en situación de tener preferir unas guías por sobre otras dado que cumplir con todas las recomendaciones aplicables puede ser muy dificultoso, sino imposible. Pero también los presiona para producir sus propias declaraciones de modo que no parezca que se quedan atrás, lo que no hace más que sumar a ese exceso de información y puede dar espacio a comportamientos no deseados del tipo “forum shopping”, en los que se elige cuál aplicar en función del interés propio del desarrollador y no con el objetivo real de promover una IA antropocéntrica107.
Ello da lugar a nuevos interrogantes del tipo: ¿Todas las organizaciones deberían darse sus propios principios o deberían incorporar los existentes? Si incorporan los existentes, ¿Cuáles deberían adoptar? Si el Estado toma parte activa en la gobernanza de la IA, ¿Debería dictar un marco único con principios comunes o debería hacer diferencias por sectores? Y en su caso, ¿Qué principios tendrían que ser receptados por la regulación para que rijan con carácter obligatorio?108.
Sumado a lo anterior, en el último tiempo se ha advertido que aun frente a los numerosos documentos existentes éstos tienen poco impacto en la práctica109, lo que ha llevado a que muchos académicos planteen que ya es tiempo de que el debate sobre la ética de la IA evolucione del qué al cómo, es decir, que no sólo recaiga en qué principios éticos se necesitan, sino en cómo se los aplica efectiva y exitosamente en las diferentes industrias y sectores, en orden a generar impactos verdaderamente positivos110.
Es que por sí solos, los principios éticos han mostrado ser insuficientes para mejorar los sistemas inteligentes. Es necesario que éstos se hagan operativos y se integren en sus flujos de trabajo111. Profundizar en este extremo, sin embargo, excedería el objeto de estudio de este trabajo.
Lo que es importante dejar planteado frente a una realidad que da cuenta de una IA cada vez más presente en la vida de las personas, es que la insuficiente consideración de las cuestiones éticas en juego, tanto desde la perspectiva de la identificación de principios como desde su aplicación concreta, dará lugar a diseños pobres que terminarán por afectar negativamente a las personas.
Notas al final:
1. La presente es una monografía de investigación presentada el 15/6/2022 para el Seminario de Derecho Privado I, correspondiente al Doctorado en Ciencias Jurídicas de la Pontificia Universidad Católica Argentina, y calificada con la máxima nota.
2. Relatora en el Superior Tribunal de Justicia de la Provincia de Tierra del Fuego AeIAS. Abogada (UBA, Diploma de honor), Mg. en Derecho Administrativo (Universidad Austral, Diploma de honor y tesis premiada) y Ph.D. Student (UCA). Autora del libro Categorías Sospechosas (Astrea, 2020) y coautora del Tratado de Inteligencia Artificial y Derecho (La Ley, 2021) y del Código Contencioso Administrativo de la Provincia de Tierra del Fuego AeIAS: comentado y anotado (RAP, 2013). Profesora de grado (UBA, UCES y UNTDF). Profesora de posgrado: Programa Blockchain, Derecho y Empresa (Universidad Austral) e invitada del Posgrado en Inteligencia Artificial y Derecho (UBA-IALAB), así como de sus cápsulas en IA y Administración Pública e IA y Género. Conferencista. Autora de artículos de doctrina de la especialidad derecho público y derecho y tecnología. Investigadora en el área de género e igualdad y no discriminación del Laboratorio de Innovación e Inteligencia Artificial de la Universidad de Buenos Aires y miembro del Laboratorio de Inteligencia Artificial, Innovación y Transformación Digital -Dyntec.LAB- de la Facultad de Derecho de la Universidad Nacional de Tucumán.Responsable del comité editorial de la Revista en Legaltech y Derecho 4.0 de IJ Editores y de Legaltech Seed.
3. Cfr. Marcos López Oneto, “Fundamentos antropológicos, éticos, filosóficos, históricos, sociológicos y jurídicos para la constitución universal de un derecho de la inteligencia artificial (DIA)”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial y Derecho, La Ley, Buenos Aires, 2021, t. 1, p. 83.
4. La cuarta revolución industrial se entiende a partir de pensar la tercera, que consistió en el comienzo de la era digital a mediados del siglo XX y en la computarización de los procesos industriales. Cfr. María Jesús Pérez, “Davos y la cuarta revolución industrial”, Nueva Revista, 26 de mayo de 2016, en https://www.nuevarevista.net/davos-y-la-cuarta-revolucion-industrial/ [accedido el 15/3/2022].
5. Cfr. Axel Voss, “Draft Report on artificial intelligence in a digital age (2020/2266(INI))”, Parlamento Europeo, 2 de noviembre de 2021, en https://www.europarl.europa.eu/doceo/document/AIDA-PR-680928_EN.pdf [accedido el 2/3/2022], p. 36. También ver Marcos López Oneto, “Fundamentos antropológicos, éticos…”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial…, t. I, p. 83.
6. En el año 1967 la velocidad de un procesador era de 0,25 millones de instrucciones por segundo (MIPS), mientras que en el año 2004 era de a 2.000 MIPS. Cfr. Juan G. Corvalán, “Preludio ¿Qué hay de nuevo, viejo? Bienvenidos a la era de la inteligencia artificial”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial…, t. 1, p. 13.
7. Para el año 2018 se estimaba que el noventa por ciento (90%) de los datos en todo el mundo se había generado en los últimos cinco años. Cfr. Luis Doncel, “La era del algoritmo ha llegado y tus datos son un tesoro”, El País, en https://elpais.com/economia/2018/03/01/actualidad/1519921981_137226.html [accedido el 5/3/2022].
8. Cfr. Sarah J. Becker, “A Code of Digital Ethics: laying the foundation for digital ethics in a science and technology company”, AI & Soc, 11 de enero de 2022, en https://doi.org/10.1007/s00146-021-01376-w [accedido el 30/3/2022], p. 2. También: Philip Jansen y Philip Brey, “Ethical Analysis of AI and Robotics Technologies”, SIENNA Project, 17 de junio de 2020, en http://en.philosophylab.philosophy.uoa.gr/fileadmin/philosophylab.ppp.uoa.gr/uploads/D4.4_Ethical_analysis__AI_R_.pdf [accedido el 3/3/2022], p. 52.
9. Andrew Ng sostiene que la inteligencia artificial es la nueva electricidad pues, así como sucedió en el pasado con esta última, la inteligencia artificial tiene la capacidad de transformar todas las industrias. Ampliar en https://www.youtube.com/watch?v=NQK4ZY_gwKI [accedido el 1/4/2022]. En el mismo sentido: Anna Jobin, Marcello Ienca y Effy Vayena, “The global landscape of ethics guidelines”, Nat Mach Intell 1, 2 de septiembre de 2019, en https://www.nature.com/articles/s42256-019-0088-2#citeas [accedido el 25/2/2022], p. 389.
10. Cfr. Andreas Tsamados, Nikita Aggarwal, Josh Cowls, Jessica Morley, Huw Roberts, Maria Rosaria Taddeo y Luciano Floridi, “The ethics of algorithms: key problems and solutions”, AI & Society 37, 20 de febrero de 2021, en https://doi.org/10.1007/s00146-021-01154-8 [accedido el 17/2/2022], p. . 215.
11. BBVA, “Cinco aportaciones de la inteligencia artificial al sector financiero”, 3 de julio de 2018, en https://www.bbva.com/es/cinco-aportaciones-inteligencia-artificial-sector-financiero/ [accedido el 15/2/2022].
12. CAF, “¿Cómo puede la inteligencia artificial mejorar la salud de los latinoamericanos?”, 2 de septiembre de 2021, en https://www.caf.com/es/conocimiento/visiones/2021/09/como-puede-la-inteligencia-artificial-mejorar-la-salud-de-los-latinoamericanos/ [accedido el 21/2/2022].
13. Eticas Foundation, “Inglaterra sustituye exámenes de verano por un algoritmo de predicción de calificaciones”, 13 de septiembre de 2021, en https://eticasfoundation.org/es/inglaterra-sustituye-los-examenes-de-verano-por-un-algoritmo-de-prediccion-de-calificaciones/ [accedido el 4/4/2022].
14. Cfr. Isabel Ferrer, “El Gobierno holandés dimite en bloque por el escándalo en las ayudas al cuidado de niños”, El País, 15 de enero de 2021, en https://elpais.com/internacional/2021-01-15/el-gobierno-holandes-estudia-la-dimision-en-bloque-por-el-escandalo-en-las-ayudas-al-cuidado-de-ninos.html [accedido el 4/4/2022].
15. Cfr. Mauro Berchi, “La inteligencia artificial se asoma a la justicia pero despierta dudas éticas”, El País, 4 de marzo de 2020, en https://elpais.com/retina/2020/03/03/innovacion/1583236735_793682.html [accedido el 4/4/2022].
16. BBC Mundo, “AlphaGo vs. Lee: la máquina venció al humano”, 12 de marzo de 2016, en
17. Cfr. Cristian Rus, “GPT-3, el nuevo modelo de lenguaje de OpenAI, es capaz de programar, diseñar y hasta conversar sobre política o economía”, 20 de julio de 2020, en https://www.xataka.com/robotica-e-ia/gpt-3-nuevo-modelo-lenguaje-openai-capaz-programar-disenar-conversar-politica-economia [accedido el 1/4/2022].
18. Infobae, “Aplican inteligencia artificial para un mejor diagnóstico de las mamografías”, 26 de noviembre de 2019, en https://www.infobae.com/tendencias/innovacion/2019/11/26/con-inteligencia-artificial-desarrollaron-una-tecnica-que-detecta-cancer-de-mama-con-mayor-precision/ [accedido el 1/4/2022].
19. Cfr. Jessica Morley, Anat Elhalal, Francesca García, Libby Kinsey, Jakob Mökander y Luciano Floridi, “Ethics as a service: a pragmatic operationalisation of AI Ethics”, 11 de febrero de 2021, en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3784238 [accedido el 5/3/2022], p. 1.
20. Cfr. Marina Jirotka y Alan F. T. Winfield, “Ethical governance is essential to building trust in robotics and artificial intelligence systems”, Phil. Trans. R. Soc. A 376: 20180085, 15 de octubre de 2018, en https://doi.org/10.1098/rsta.2018.0085 [accedido el 5/3/2022], p. 7.
21. Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study on the Ethics of Artificial Intelligence”, Paris, UNESCO, 26 de febrero de 2019, en https://unesdoc.unesco.org/ark:/48223/pf0000367823 [accedido el 4/4/2022], p. 3.
22. Cfr. Nick Bostrom, “The Ethics of Artificial Intelligence”, Draft for Cambridge Handbook of Artificial Intelligence, Londres, 2011, en https://www.nickbostrom.com/ethics/artificial-intelligence.pdf [accedido el 4/3/2022], p. 2. También: Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study on…”, p. 5.
23. Ampliar en Sofia Samoili, Montserrat López Cobo, Blajob Delipetrev, Fernando Martínez-Plumed, Emilia Gómez y Giuditta De Prato, AI Watch. Defining Artificial Intelligence 2.0: Towards an operational definition and taxonomy for the AI landscape, Publications Office of the European Union, Luxembourg, 2021, en https://publications.jrc.ec.europa.eu/repository/handle/JRC118163 [accedido el 30/4/2022.]
24. Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, «Preliminary Study on…” p. 5.
25. UNESCO, “Recomendación sobre la ética de la inteligencia artificial”, 22 de noviembre de 2022, en https://unesdoc.unesco.org/ark:/48223/pf0000379920_spa.page=15 [accedido el 3/3/2022], p. 16.
26. Cfr. Axel Voss, “Draft Report on artificial intelligence…”, p. 38.
27. Grupo de Expertos de Alto Nivel sobre IA, “Directrices éticas para una IA fiable”, abril de 2019, en https://urjes.com/pruebas/wp-content/uploads/2021/05/Grupo-independiente-de-expertos-…-Directrices-eticas-para-una-inteligencia-artificial-IA-fiable-ES.pdf [accedido el 26/2/2022], p. 48.
28. UNESCO, “Recomendación sobre…”, p. 16.
29. Un algoritmo es una estructura de control finita, abstracta, efectiva y compuesta, dada de manera imperativa, que cumple un propósito dado bajo provisiones dadas. Cfr. Robin K. Hill, “What an Algorithm Is”, Philos. Technol, 11 de mayo de 2015, en https://link.springer.com/article/10.1007/s13347-014-0184-5 [accedido el 6/4/2022], p. 47.
30. Cfr. Juan G. Corvalán, Perfiles Digitales Humanos, La Ley, Buenos Aires, 2020, p. 33.
31. Asamblea General de las Naciones Unidas, “Resolución 73/348”, en http://undocs.org/es/A/73/348 [accedido el 15/3/2022], p. 4.
32. Cfr. Juan G. Corvalán, Perfiles Digitales…, p. 37/39.
33. Los sistemas sociotécnicos son “…aquellos sistemas técnicos cuyo objeto de transformación lo constituyen los propios seres humanos (…) las sociotecnologías forman parte de la rama general de la tecnología, siendo su objeto el diseño de planes de acción para transformar lo social y para resolver los problemas que surgen en las sociedades…”. Cfr. German Hevia Martínez, “La sociedad como artefacto. Sistemas sociotécnicos, sociotecnologías y sociotécnicas”, Revista Iberoamericana de Ciencia Tecnología y Sociedad, No 40 , febrero de 2019, en https://www.researchgate.net/publication/332863180_La_sociedad_como_artefacto_Sistemas_sociotecnicos_sociotecnologias_y_sociotecnicas [accedido el 15/5/2022], p. 291.
34. Council of Europe, A legal framework for AI systems. Feasibility study for a legal framework for the development, design and application of artificial intelligence, based on Council of Europe´s standards on human rights, democracy and the rule of law, adoptado por la CAHAI en su 3ra reunion plenaria el 17 de diciembre de 2020, en https://media-exp1.licdn.com/dms/document/C4D1FAQEe4eGCLGf6CA/feedshare-document-pdf-analyzed/0/1649063227482?e=2147483647&v=beta&t=ODWWaRAOoF3tufI-aNt1wCP57PWKqf8mk8FkJ6alA58 [accedido el 5/3/2022], p. 7.
35. Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study …”, p. 3.
36. A modo de ejemplo, el dispositivo Or Cam que se acopla a cualquier lente, se activa por comando de voz y permite leer instantáneamente el texto de libros, pantallas y otras superficies, reconocer rostros e identificar el lugar en que están ubicados los objetos, ayudando a las personas con discapacidad visual a vivir una vida más independiente. Ver https://www.youtube.com/watch?v=mwXGivl77Tg, [accedido el 22/5/2022].
37. Cfr. Marcos López Oneto, “Fundamentos antropológicos, éticos, filosóficos, históricos…”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial…, p. 75 y 78.
38. Ibid., p. 75.
39. Ampliar en Cathy O´Neil, “La era de la fe ciega en los algoritmos debe terminar”, abril de 2017, https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end?language=es [accedido el 18/3/2022].
40. Ver Cathy O´Neil, “La era de la fe…”. También: Andreas Tsamados, Nikita Aggarwal, Josh Cowls, Jessica Morley, Huw Roberts, María Rosaria Taddeo y Luciano Floridi, “The ethics of algorithms…”, p. 245.
41. Cfr. Karen Hao, “This is how AI bias really happens – and why is so hard to fix”, MIT Technology Review, 4 de febrero de 2019, en https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/ [accedido el 10/4/2022].
42. El perfilado se refiere al proceso de emplear el reconocimiento de patrones y correlaciones para crear perfiles de usuarios que representan o identifican personas. Ampliar en Philip Jansen y Philip Brey, “Ethical Analysis of AI and Robotics Technologies”, p. 67.
43. La teoría del empujón, propuesta por Richard Thaler, parte de la premisa de que, entre dos opciones, las personas suelen escoger aquella que es más fácil sobre la que resulta más adecuada. Ampliar en BBC Mundo, “Qué es la ‘teoría del empujón’ que le hizo ganar al estadounidense Richard H. Thaler el Nobel de Economía”, 9 de octubre de 2017, en https://www.bbc.com/mundo/noticias-41551856 [accedido el 30/5/2022].
44. Cfr. David Leslie, “Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector”, The Alan Turing Institute, 2019, en https://www.turing.ac.uk/research/publications/understanding-artificial-intelligence-ethics-and-safety [accedido el 15/3/2022], p. 5.
45. RETINA Tendencias, “¿Qué es y en qué consiste el sistema de crédito social chino?”, 5 de febrero de 2021, en https://www.youtube.com/watch?v=lun7V7TPmmM [accedido el 10/4/2022].
46. Cfr. Ricardo Senra, “El dilema de las redes sociales’ de Netflix: 5 secretos de los dueños de las redes para engancharnos y manipularnos, según el documental”, BBC News Brasil, 3 de octubre de 2020, en https://www.bbc.com/mundo/noticias-54385775 [accedido el 10/4/2022].
47. Cfr. Laura Ripani, Adriana Kugler, Nicolás Soler, Maurice Kugler y Ramiro Rodrigo, El futuro del trabajo en América Latina y el Caribe: ¿Cuál es el impacto de la automatización en el empleo y los salarios?, Banco Interamericano de Desarrollo, diciembre de 2020, en https://publications.iadb.org/es/el-futuro-del-trabajo-en-america-latina-y-el-caribe-cual-es-el-impacto-de-la-automatizacion-en-el [accedido el 10/4/2022].
48. Cfr. Joseph Palermo, “Deepfakes: Why you can´t believe everything you see and hear”, 12 de febrero de 2020, e n https://www.youtube.com/watch?v=JXBBalHl_cI [accedido el 10/4/2022].
49. Cfr. Patricia Tubella, “Los estudiantes británicos derrotan al algoritmo de Johnson”, El País, 18 de agosto de 2020, en https://elpais.com/internacional/2020-08-18/los-estudiantes-britanicos-propician-la-primera-gran-derrota-de-johnson.html [accedido el 10/4/2022].
50. Cfr. Javier Salas, “El algoritmo que discrimina a los pacientes negros sin conocer su raza”, El País, 24 de octubre de 2019, en https://elpais.com/elpais/2019/10/24/ciencia/1571909798_596622.html [accedido el 10/4/2022].
51. Basta recordar el caso de Cambridge Analytica” y Facebook. Ampliar en BBC Mundo, “5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera U$S 37.000 millones en un día”, 20 de marzo de 2018, en https://www.bbc.com/mundo/noticias-43472797 [accedido el 8/4/2022].
52. UNESCO, “Recomendación sobre la ética…”, p. 17.
53. Cfr. Marcelo Ienca y Effy Vayena, “AI Ethics Guidelines: European and Global Perspectives”, en CAHAI Secretariat (Comp.), Towards Regulation of AI Systems, diciembre de 2020, en https://www.coe.int/en/web/artificial-intelligence/-/- toward-regulation-of-ai-systems- [accedido el 5/3/2022], p. 51. También David Leslie, “Understanding artificial intelligence ethics and safety…”.
54. Cfr. Marcos López Oneto, “Fundamentos antropológicos, éticos, filosóficos, históricos…”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial…, p. 119.
55. El ciclo de vida de los sistemas inteligentes comprende las etapas de diseño, desarrollo y despliegue, en cada una de las cuales, a su vez, pueden identificarse subetapas. Ampliar en: David Leslie, Christopher Burr, Mhairi Aitken, Josh Cowls, Mike Katell y Morgan Briggs, “Artificial intelligence, human rights, democracy and the rule of law: a primer”, The Alan Turing Institute, junio de 2021, en https://rm.coe.int/primer-en-new-cover-pages-coe-english-compressed-2754-7186-0228-v-1/1680a2fd4a [accedido el 9/4/2022], p. 9/11.
56. Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study…”, p. 3/4.
57. Ampliar en Cathy O´Neil, “La era de la fe ciega…”.
58. Cfr. Ville Vakkuri y Pekka Abrahamsson, “The Key Concepts of Ethics of Artificial Intelligence: A Keyword based Systematic Mapping Study”, junio de 2018, en ttps://doi.org/10.1109/ICE.2018.8436265 [accedido el 15/2/2022], p. 1.
59. Cfr. David Leslie, “Understanding artificial intelligence ethics and safety…”, p. 4.
60. Cfr. Angela Daly, Thilo Hagendorff y Hui Li, “AI, Governance and Ethics: Global Perspectives”, 4 de julio de 2019, en https://www.researchgate.net/publication/334381864_Artificial_Intelligence_Governance_and_Ethics_Global_Perspectives?enrichId=rgreq-093ee71a817c502a5a2b6d171e1a8f9e-XXX&enrichSource=Y292ZXJQYWdlOzMzNDM4MTg2NDtBUzoxMDkzNTgxMTEyNjQ3NjgwQDE2Mzc3NDE0NjM5MDg%3D&el=1_x_2&_esc=publicationCoverPdf [accedido el 15/3/2022], pág. 7.
61. Cfr. Ville Vakkuri y Pekka Abrahamsson, “The Key Concepts of Ethics of Artificial Intelligence…”, p.2.
62. Cfr. David Leslie, “Understanding artificial intelligence ethics and safety…”, p. 3. Para una crítica a esta visión de la ética de la IA ver: Anaïs Rességuier y Rowena Rodrigues, “AI Ethics Should Not Remain Toothless! A Call to Bring Back the Teeth of Ethics”, Big Data & Society, julio de 2020, en https://doi.org/10.1177/2053951720942541 [accedido el 30/5/2022].
63. Grupo de Expertos de Alto Nivel sobre IA, “Directrices Éticas…”.
64. Cfr. Michele Farisco, Kathinka Evers, y Arleen Salles, “On the Contribution of Neuroethics to the Ethics and Regulation of Artifcial Intelligence”, Neuroethics 15:4, 3 de febrero de 2022, en https://doi.org/10.1007/s12152-022-09484-0 [accedido el 8/4/2022], p. 1.
65. Sarah J. Becker, “A Code of Digital Ethics…”, p. 2.
66. Grupo de Expertos de Alto Nivel sobre IA, “Directrices Éticas…”, p. 12 y sig.
67. Nick Bostrom, “The Ethics of Artificial Intelligence…”, p. 4/5.
68. Ibid.
69. Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), “GuIA de buenas prácticas en el uso de la inteligencia artificial ética”, 17 de febrero de 2022, en https://www.pwc.es/es/publicaciones/tecnologia/odiseia-pwc-guia-responsable-ia.html [accedido el 5/4/2022], p. 23.
70. Cfr. Anna Jobin, Marcello Ienca y Effy Vayena, “The global landscape…”, p. 396. También ver https://www.linkedin.com/posts/ravit-dotan_global-ai-ethics-directory-linkedin-activity-6917235749377429504-QQFl?utm_source=linkedin_share&utm_medium=member_desktop_web.
71. La Conferencia de Asilomar sobre IA beneficiosa fue organizada por The Future of Life Institute en enero de 2017 y reunió más de 100 líderes de opinión e investigadores en economía, informática, robótica, ética, derecho y filosofía con el fin de formular principios para una IA beneficiosa, dando lugar a un conjunto de 23 directrices para el desarrollo de estos sistemas. Ampliar en https://futureoflife.org/2017/08/11/ai-principles/ [accedido el 21/5/2022].
72. El IEEE es una organización técnica de alcance mundial que nuclea a más de cuatrocientos veinte mil ingenieros, científicos, tecnólogos y profesionales en más de ciento sesenta países, que se dedican a la innovación tecnológica y la excelencia en beneficio de la humanidad. Ampliar en https://ieeespain.org/quienes-somos/ [accedido el 15/3/2022].
73. Actualmente se considera que las cuatro empresas más grandes en materia de tecnología son Google, Facebook —ahora Meta—, Amazon y Microsoft. Ampliar en: BBC News, “Hoy much power does tech ‘big four’ have?”, en https://www.bbc.com/news/av/world-us-canada-53575974 [accedido el 30/5/2022].
74. Existen otros documentos que presentan la estrategia nacional para impulsar la IA en Chile, Argentina y Perú, pero en ellos no se enumeran principios éticos.
75. Ampliar en Scimago Journal & Country Rank https://www.scimagojr.com/countryrank.php?area=1700&category=1702 [accedido el 12/4/2022].
76. Cfr. Sarah J. Becker, “A Code of Digital Ethics…”, p. 3.
77. Cfr. Luciano Fioridi, “Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical”, Philosophy & Technology volume 32, 15 de junio de 2019, en https://link.springer.com/article/10.1007/s13347-019-00354-x [accedido el 15/3/2022], p. 189.
78. Ampliar en Future of Life Institute, https://futureoflife.org/bai-2017/ [accedido el 8/4/2022].
79. Future of Life Institute, “Asilomar AI Principles”, en https://futureoflife.org/2017/08/11/ai-principles/ [accedido el 8/4/2022].
80. Ampliar en https://ieeespain.org/quienes-somos/ [accedido el 15/3/2022].
81. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically aligned design: A Vision for Priorizing Human Well-being with Autonomous and Intelligent Systems, IEEE, 2019, en https://standards.ieee.org/content/ieee-standards/en/industry-connections/ec/ autonomous-systems.html [accedido el 11/4/2022], p. 11.
82. Google LLC, “Artificial Intelligence at Google: Our Principles”, en https://ai.google/principles/ [accedido el 9/4/2022].
83. Microsoft Corporation, Ampliar en “Responsible IA”, en https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6 [accedido el 9/4/2022].
84. Meta Platforms, Inc, “Facebook five pillars of responsible AI”, en https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/ [accedido el 9/4/2022].
85. Cfr. Mariana Sánchez Caparrós, “Prevenir y controlar la discriminación algorítmica. Sobre regulaciones y otras herramientas disponibles para impugnar la decisión automatizada que discrimina”, Rubinzal Culzoni, RC D 427/2021, p. 8.
86. Se pueden explorar las diversas iniciativas en OECD.AI Policy Observatory, https://oecd.ai/en/dashboards [accedido el 12/4/2022].
87. Ampliar en UNESCO, “Recomendación sobre la Ética…”,.
88. UNESCO, “Los Estados Miembros de la UNESCO adoptan el primer acuerdo mundial sobre la ética de la inteligencia artificial”, 25 de noviembre de 2021, en https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-inteligencia-artificial [accedido el 10/4/2022].
89. UNESCO, “Recomendación sobre la Ética…” p. 7.
90. OECD, “Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449”, 22 de mayo de 2019, en https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 [accedido el 10/4/2022].
91. Comisión Europea, “Directrices Éticas para una IA fiable”, noviembre de 2019, en https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/language-es/format-PDF#:~:text=La%20fiabilidad%20de%20la%20inteligencia,respeto%20de%20los%20principios%20y [accedido el 31/5/2022].
92. Ministerio de Ciencia, Tecnología e Innovación del Gobierno Federal de Brasil, “Estrategia Brasilera de Inteligencia Artificial”, año 2021, en https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ia_estrategia_diagramacao_4-979_2021.pdf [accedido el 14/4/2022], p. 17.
93. Ampliar en Ministerio de Ciencia y Tecnología de la República Popular China, “Principios de Gobernanza para una Nueva Generación de IA: Desarrollo Responsable de la Inteligencia Artificial”, 2017, en https://www.newamerica.org/cybersecurity-initiative/digichina/blog/translation-chinese-expert-group-offers-governance-principles-responsible-ai/ [accedido el 12/4/2022].
94. IA-LATAM, “Marco Ético para la Inteligencia Artificial en Colombia”, Colombia, octubre de 2021, en https://ia-latam.com/portfolio/marco-etico-para-la-inteligencia-artificial-en-colombia/ [accedido el 12/4/2022].
95. Executive Office of the President, “Guidance for regulation of Artificial Intelligence applications”, 17 de noviembre de 2020, en https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf [accedido el 11/4/2022].
96. En el documento se aclara que, no obstante que las agencias federales utilizan IA, se encuentran expresamente fuera de su alcance.
97. Ampliar en Instituto Nacional para la Transformación de India, “Hacia el desarrollo de una IA responsable”, en https://www.niti.gov.in/sites/default/files/2021-02/Responsible-AI-22022021.pdf [accedido el 12/4/2022].
98. Ampliar en Consejo para la Promoción de la Estrategia de Innovación Integrada, titulado “Principios sociales de la IA centrada en el ser humano”, marzo de 2019, https://ai.bsa.org/wp-content/uploads/2019/09/humancentricai.pdf [accedido el 12/4/2022].
99. Select Committee on Artificial Intelligence of House of Lords, “AI in the UK: ready, willing and able?”, 16 de abril de 2018, House of Lords, e https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf [accedido el 13/4/2022].
100. Gobierno de España, “Estrategia Nacional de Inteligencia Artificial”, noviembre de 2020, en https://www.lamoncloa.gob.es/presidente/actividades/Documents/2020/021220-ENIA.pdf [accedido el 12/4/2022], p. 67/69.
101. Ampliar en Agencia de Gobierno Electrónico, Sociedad de la información y el Conocimiento, “Estrategia de Inteligencia Artificial para el Gobierno Digital”, 1° de enero de 2020, Uruguay, en https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/estrategia-inteligencia-artificial-para-gobierno-digital/estrategia [accedido el 12/4/2022].
102. El “Marco Ético para la Inteligencia Artificial en Colombia”, se dictó en octubre de 2021. Ver en IA-LATAM, en https://ia-latam.com/portfolio/marco-etico-para-la-inteligencia-artificial-en-colombia/ [accedido el 12/4/2022].
103. Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study on the Ethics…”, p. 8.
104. Se entiende por gobernanza de la IA a las diversas formas en que los actores del sector público y privado la abordan para ejercer autoridad sobre ella. Cfr. Huw Roberts, “Achieving a ‘Good AI Society’: Comparing the Aims and Progress of the EU and the US”, Science and Engineering Ethics 27, 12 de noviembre de 2021, en https://doi.org/10.1007/s11948-021-00340-7 [accedido el 13/4/2022], p. 2.
105. Cfr. Luciano Floridi, “Establishing the Rules for Building Trustworthy AI”, 7 de mayo de 2019, en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3858392 [accedido el 5/3/2022], p. 2.
106. Ibid.
107. Cfr. Luciano Fioridi, “Translating Principles into Practices of Digital Ethics…”, p. 186
108. Cfr. Ravit Dotan, “The Proliferation of AI Ethics Principles: What’s Next?”, en The State of AI Ethics Report, vol. 6, Montreal AI Ethics Institute, enero 2022, en https://arxiv.org/abs/2202.07435 [accedido el 8/2/2022], p. 48.
109. Cfr. Ville Vakkuri, Kai-Kristian Kemell, Marianna Jantunen y Pekka Abrahamsson, “This is Just a Prototype”: How Ethics Are Ignored in Software Startup-Like Environments”, en Viktoria Stray, Rashina Hoda, Maria Paasivaara, Phillippe Kruchten (Eds.) Agile Processes in Software Engineering and Extreme Programming, en https://doi.org/10.1007/978-3-030-49392-9_13, p. 198.
110. Cfr. Luciano Fioridi, “Translating Principles into Practices…”, p. 185.
111. Cfr. Ravit Dotan,, “Focus on the Process: Formulating AI Ethics Principles More Responsibly”, The Gradient, en https://thegradient.pub/focus-on-the-process-formulating-ai-ethics-principles-more-responsibly/ [accedido el 30/5/2022].
Bibliografía:
Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento de Uruguay, “Estrategia de Inteligencia Artificial para el Gobierno Digital”, 1 de enero de 2020, Uruguay, en https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/estrategia-inteligencia-artificial-para-gobierno-digital/estrategia.
Asamblea General de las Naciones Unidas, “Resolución 73/348”, en http://undocs.org/es/A/73/348.
BBC Mundo, “5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera U$S 37.000 millones en un día”, 20 de marzo de 2018, en https://www.bbc.com/mundo/noticias-43472797.
BBC Mundo, “AlphaGo vs. Lee: la máquina venció al humano”, 12 de marzo de 2016, https://www.bbc.com/mundo/noticias/2016/03/160312_alphago_inteigencia_artificial_go_victoria_humano_men.
BBC Mundo, “Qué es la ‘teoría del empujón’ que le hizo ganar al estadounidense Richard H. Thaler el Nobel de Economía”, 9 de octubre de 2017, en https://www.bbc.com/mundo/noticias-41551856.
BBC News, “Hoy much power does tech ‘big four’ have?”, en https://www.bbc.com/news/av/world-us-canada-53575974.
BBVA, “Cinco aportaciones de la inteligencia artificial al sector financiero”, 3 de julio de 2018, en https://www.bbva.com/es/cinco-aportaciones-inteligencia-artificial-sector-financiero/.
Becker Sarah J., “A Code of Digital Ethics: laying the foundation for digital ethics in a science and technology company”, AI & Soc, 11 de enero de 2022, en https://doi.org/10.1007/s00146-021-01376-w, p. 1-11.
Berchi Mauro, “La inteligencia artificial se asoma a la justicia pero despierta dudas éticas”, El País, 4 de marzo de 2020, en https://elpais.com/retina/2020/03/03/innovacion/1583236735_793682.html.
Bostrom Nick, “The Ethics of Artificial Intelligence”, Draft for Cambridge Handbook of Artificial Intelligence, Londres, 2011, en https://www.nickbostrom.com/ethics/artificial-intelligence.pdf, p. 1-20.
CAF, “¿Cómo puede la inteligencia artificial mejorar la salud de los latinoamericanos?”, 2 de septiembre de 2021, en https://www.caf.com/es/conocimiento/visiones/2021/09/como-puede-la-inteligencia-artificial-mejorar-la-salud-de-los-latinoamericanos/.
Comisión Europea, “Directrices Éticas para una IA fiable”, noviembre de 2019, en https://op.europa.eu/en/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1/language-es/format-PDF#:~:text=La%20fiabilidad%20de%20la%20inteligencia,respeto%20de%20los%20principios%20y.
Comisión Mundial de Ética del Conocimiento Científico y la Tecnología, “Preliminary Study on the Ethics of Artificial Intelligence”, Paris, UNESCO, 26 de febrero de 2019, en https://unesdoc.unesco.org/ark:/48223/pf0000367823
Consejo para la Promoción de la Estrategia de Innovación Integrada, titulado “Principios sociales de la IA centrada en el ser humano”, marzo de 2019, https://ai.bsa.org/wp-content/uploads/2019/09/humancentricai.pdf.
Corvalán Juan Gustavo, Perfiles Digitales Humanos, La Ley, Buenos Aires, 2020.
Corvalán, Juan Gustavo, “Preludio ¿Qué hay de nuevo, viejo? Bienvenidos a la era de la inteligencia artificial”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial…, t. 1, p. 5/14.
Council of Europe, A legal framework for AI systems. Feasibility study for a legal framework for the development, design and application of artificial intelligence, based on Council of Europe´s standards on human rights, democracy and the rule of law, adoptado por la CAHAI en su 3ra reunion plenaria el 17 de diciembre de 2020, en https://media-exp1.licdn.com/dms/document/C4D1FAQEe4eGCLGf6CA/feedshare-document-pdf-analyzed/0/1649063227482?e=2147483647&v=beta&t=ODWWaRAOoF3tufI-aNt1wCP57PWKqf8mk8FkJ6alA58, p. 1-50.
Daly Angela, Hagendorff Thilo y Li Hui, “AI, Governance and Ethics: Global Perspectives”, 4 de julio de 2019, en https://www.researchgate.net/publication/334381864_Artificial_Intelligence_Governance_and_Ethics_Global_Perspectives?enrichId=rgreq-093ee71a817c502a5a2b6d171e1a8f9e-XXX&enrichSource=Y292ZXJQYWdlOzMzNDM4MTg2NDtBUzoxMDkzNTgxMTEyNjQ3NjgwQDE2Mzc3NDE0NjM5MDg%3D&el=1_x_2&_esc=publicationCoverPdf, p. 1-42.
Doncel Luis, “La era del algoritmo ha llegado y tus datos son un tesoro”, El País, en https://elpais.com/economia/2018/03/01/actualidad/1519921981_137226.html.
Dotan Ravit, “Focus on the Process: Formulating AI Ethics Principles More Responsibly”, The Gradient, en https://thegradient.pub/focus-on-the-process-formulating-ai-ethics-principles-more-responsibly/.
Dotan Ravit, “The Proliferation of AI Ethics Principles: What’s Next?”, en The State of AI Ethics Report, vol. 6, Montreal AI Ethics Institute, enero 2022, en https://arxiv.org/abs/2202.07435.
Eticas Foundation, “Inglaterra sustituye exámenes de verano por un algoritmo de predicción de calificaciones”, 13 de septiembre de 2021, en https://eticasfoundation.org/es/inglaterra-sustituye-los-examenes-de-verano-por-un-algoritmo-de-prediccion-de-calificaciones/.
Executive Office of the President, “Guidance for regulation of Artificial Intelligence applications”, 17 de noviembre de 2020, en https://www.whitehouse.gov/wp-content/uploads/2020/11/M-21-06.pdf.
Farisco Michele, Evers Kathinka y Salles Arleen, “On the Contribution of Neuroethics to the Ethics and Regulation of Artifcial Intelligence”, Neuroethics 15:4, 3 de febrero de 2022, en https://doi.org/10.1007/s12152-022-09484-0, p. 1-12.
Ferrer Isabel, “El Gobierno holandés dimite en bloque por el escándalo en las ayudas al cuidado de niños”, El País, 15 de enero de 2021, en https://elpais.com/internacional/2021-01-15/el-gobierno-holandes-estudia-la-dimision-en-bloque-por-el-escandalo-en-las-ayudas-al-cuidado-de-ninos.html.
Floridi Luciano, “Establishing the Rules for Building Trustworthy AI”, 7 de mayo de 2019, en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3858392, p. 1-2.
Floridi Luciano, “Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical”, Philosophy & Technology volume 32, 15 de junio de 2019, en https://link.springer.com/article/10.1007/s13347-019-00354-x, p. 185–193.
Future of Life Institute, “Asilomar AI Principles”, en https://futureoflife.org/2017/08/11/ai-principles/.
Gobierno de España, “Estrategia Nacional de Inteligencia Artificial”, noviembre de 2020, en https://www.lamoncloa.gob.es/presidente/actividades/Documents/2020/021220-ENIA.pdf
Google LLC, “Artificial Intelligence at Google: Our Principles”, en https://ai.google/principles/
Grupo de Expertos de Alto Nivel sobre IA, “Directrices éticas para una IA fiable”, abril de 2019, en https://urjes.com/pruebas/wp-content/uploads/2021/05/Grupo-independiente-de-expertos-…-Directrices-eticas-para-una-inteligencia-artificial-IA-fiable-ES.pdf [accedido el 26/2/2022].
Hao Karen, “This is how AI bias really happens – and why is so hard to fix”, MIT Technology Review, 4 de febrero de 2019, en https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/.
Hevia Martínez German, “La sociedad como artefacto. Sistemas sociotécnicos, sociotecnologías y sociotécnicas”, Revista Iberoamericana de Ciencia Tecnología y Sociedad, no 40 , febrero de 2019, en https://www.researchgate.net/publication/332863180_La_sociedad_como_artefacto_Sistemas_sociotecnicos_sociotecnologias_y_sociotecnicas, p. 267-295.
Hill Robin K., “What an Algorithm Is”, Philos. Technol, 11 de mayo de 2015, en https://link.springer.com/article/10.1007/s13347-014-0184-5, 35-59.
IA LATAM, “Marco Ético para la Inteligencia Artificial en Colombia”, Colombia, octubre de 2021, en https://ia-latam.com/portfolio/marco-etico-para-la-inteligencia-artificial-en-colombia/.
Ienca Marcelo y Vayena Effy, “AI Ethics Guidelines: European and Global Perspectives”, en CAHAI Secretariat (Comp.), Towards Regulation of AI Systems, diciembre de 2020, en https://www.coe.int/en/web/artificial-intelligence/-/-toward-regulation-of-ai-systems-.
Infobae, “Aplican inteligencia artificial para un mejor diagnóstico de las mamografías”, 26 de noviembre de 2019, en https://www.infobae.com/tendencias/innovacion/2019/11/26/con-inteligencia-artificial-desarrollaron-una-tecnica-que-detecta-cancer-de-mama-con-mayor-precision/.
Instituto Nacional para la Transformación de India, “Hacia el desarrollo de una IA responsable”, en https://www.niti.gov.in/sites/default/files/2021-02/Responsible-AI-22022021.pdf.
Jansen Philip y Brey Philip, “Ethical Analysis of AI and Robotics Technologies”, SIENNA Project, 17 de junio de 2020, en http://en.philosophylab.philosophy.uoa.gr/fileadmin/philosophylab.ppp.uoa.gr/uploads/D4.4_Ethical_analysis__AI_R_.pdf, p. 1-226.
Jirotka Marina y Winfield Alan F. T., “Ethical governance is essential to building trust in robotics and artificial intelligence systems”, Phil. Trans. R. Soc. A 376: 20180085, 15 de octubre de 2018, en https://doi.org/10.1098/rsta.2018.0085, p. 1-13.
Jobin Anna, Ienca Marcello y Vayena Effy, “The global landscape of ethics guidelines”, Nat Mach Intell 1, 2 de septiembre de 2019, en https://www.nature.com/articles/s42256-019-0088-2#citeas, p. 389-399.
Leslie David, “Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector”, The Alan Turing Institute, 2019, en https://www.turing.ac.uk/research/publications/understanding-artificial-intelligence-ethics-and-safety, p. 1-97.
Leslie David, Burr Christopher, Aitken Mhairi, Cowls Josh, Katell Mike y Briggs Morgan, “Artificial intelligence, human rights, democracy and the rule of law: a primer”, The Alan Turing Institute, junio de 2021, en https://rm.coe.int/primer-en-new-cover-pages-coe-english-compressed-2754-7186-0228-v-1/1680a2fd4a, p. 1-48.
Meta Platforms, Inc, “Facebook five pillars of responsible AI”, en https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/
Microsoft Corporation, Ampliar en “Responsible IA”, en https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6
Ministerio de Ciencia, Tecnología e Innovación del Gobierno Federal de Brasil, “Estrategia Brasilera de Inteligencia Artificial”, año 2021, en https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ia_estrategia_diagramacao_4-979_2021.pdf
Ministerio de Ciencia y Tecnología de la República Popular China, “Principios de Gobernanza para una Nueva Generación de IA: Desarrollo Responsable de la Inteligencia Artificial”, 2017, en https://www.newamerica.org/cybersecurity-initiative/digichina/blog/translation-chinese-expert-group-offers-governance-principles-responsible-ai/
Morley Jessica, Elhalal Anat, García Francesca, Kinsey Libby, Mökander Jakob y Floridi Luciano, “Ethics as a service: a pragmatic operationalisation of AI Ethics”, 11 de febrero de 2021, en https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3784238, p. 1-21.
Ng Andrew, https://www.youtube.com/watch?v=NQK4ZY_gwKI.
Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), “GuIA de buenas prácticas en el uso de la inteligencia artificial ética”, 17 de febrero de 2022, en https://www.pwc.es/es/publicaciones/tecnologia/odiseia-pwc-guia-responsable-ia.html
OECD.AI Policy Observatory, https://oecd.ai/en/dashboards.
OECD, “Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449”, 22 de mayo de 2019, en https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
O´Neil Cathy, “La era de la fe ciega en los algoritmos debe terminar”, abril de 2017, https://www.ted.com/talks/cathy_o_neil_the_era_of_blind_faith_in_big_data_must_end?language=es.
Oneto Marcos López, “Fundamentos antropológicos, éticos, filosóficos, históricos, sociológicos y jurídicos para la constitución universal de un derecho de la inteligencia artificial (DIA)”, en Juan G. Corvalán (Dir.), Tratado de Inteligencia Artificial y Derecho, La Ley, Buenos Aires, 2021, t. 1, p. 69/158.
Palermo Joseph, “Deepfakes: Why you can´t believe everything you see and hear”, 12 de febrero de 2020, e n https://www.youtube.com/watch?v=JXBBalHl_cI.
Pérez María Jesús, “Davos y la cuarta revolución industrial”, Nueva Revista, 26 de mayo de 2016, en https://www.nuevarevista.net/davos-y-la-cuarta-revolucion-industrial/
Rességuier Anaïs y Rodrigues Rowena, “AI Ethics Should Not Remain Toothless! A Call to Bring Back the Teeth of Ethics”, Big Data & Society, julio de 2020, en https://doi.org/10.1177/2053951720942541, p. 1-5.
RETINA Tendencias , “¿Qué es y en qué consiste el sistema de crédito social chino?”, 5 de febrero de 2021, en https://www.youtube.com/watch?v=lun7V7TPmmM.
Ripani Laura, Kugler Adriana, Soler Nicolás, Kugler Maurice y Rodrigo Ramiro, El futuro del trabajo en América Latina y el Caribe: ¿Cuál es el impacto de la automatización en el empleo y los salarios?, Banco Interamericano de Desarrollo, diciembre de 2020, en https://publications.iadb.org/es/el-futuro-del-trabajo-en-america-latina-y-el-caribe-cual-es-el-impacto-de-la-automatizacion-en-el, p. 1-27.
Roberts Huw, “Achieving a ‘Good AI Society’: Comparing the Aims and Progress of the EU and the US”, Science and Engineering Ethics 27, 12 de noviembre de 2021, en https://doi.org/10.1007/s11948-021-00340-7, p. 1-25.
Rus Cristian, “GPT-3, el nuevo modelo de lenguaje de OpenAI, es capaz de programar, diseñar y hasta conversar sobre política o economía”, 20 de julio de 2020, en https://www.xataka.com/robotica-e-ia/gpt-3-nuevo-modelo-lenguaje-openai-capaz-programar-disenar-conversar-politica-economia.
Salas Javier, “El algoritmo que discrimina a los pacientes negros sin conocer su raza”, El País, 24 de octubre de 2019, en https://elpais.com/elpais/2019/10/24/ciencia/1571909798_596622.html.
Samoili Sofia, López Cobo Montserrat, Delipetrev Blajob, Martínez-Plumed Fernando, Gómez Emilia y De Prato Giuditta, AI Watch. Defining Artificial Intelligence 2.0: Towards an operational definition and taxonomy for the AI landscape, Publications Office of the European Union, Luxembourg, 2021, en https://publications.jrc.ec.europa.eu/repository/handle/JRC118163, p. 1-97.
Sánchez Caparrós Mariana, “Prevenir y controlar la discriminación algorítmica. Sobre regulaciones y otras herramientas disponibles para impugnar la decisión automatizada que discrimina”, Rubinzal Culzoni, RC D 427/2021, p. 1-34.
Scimago Journal & Country Rank https://www.scimagojr.com/countryrank.php?area=1700&category=1702
Select Committee on Artificial Intelligence of House of Lords, “AI in the UK: ready, willing and able?”, 16 de abril de 2018, House of Lords, e https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf, p. 5-180.
Senra Ricardo, “El dilema de las redes sociales’ de Netflix: 5 secretos de los dueños de las redes para engancharnos y manipularnos, según el documental”, BBC News Brasil, 3 de octubre de 2020, en https://www.bbc.com/mundo/noticias-54385775.
The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, Ethically aligned design: A Vision for Priorizing Human Well-being with Autonomous and Intelligent Systems, IEEE, 2019, en https://standards.ieee.org/content/ieee-standards/en/industry-connections/ec/ autonomous-systems.html.
Tsamados Andreas, Aggarwal Nikita, Cowls Josh, Morley Jessica, Roberts Huw, Taddeo Maria Rosaria y Floridi Luciano, “The ethics of algorithms: key problems and solutions”, AI & Society 37, 20 de febrero de 2021, en https://doi.org/10.1007/s00146-021-01154-8, p. 215-230.
Tubella Patricia, “Los estudiantes británicos derrotan al algoritmo de Johnson”, El País, 18 de agosto de 2020, en https://elpais.com/internacional/2020-08-18/los-estudiantes-britanicos-propician-la-primera-gran-derrota-de-johnson.html.
UNESCO, “Los Estados Miembros de la UNESCO adoptan el primer acuerdo mundial sobre la ética de la inteligencia artificial”, 25 de noviembre de 2021, en https://es.unesco.org/news/estados-miembros-unesco-adoptan-primer-acuerdo-mundial-etica-inteligencia-artificial
UNESCO, “Recomendación sobre la ética de la inteligencia artificial”, 22 de noviembre de 2022, en https://unesdoc.unesco.org/ark:/48223/pf0000379920_spa.page=15.
Vakkuri Ville, Kemell Kai-Kristian, Jantunen Marianna y Abrahamsson Pekka, “This is Just a Prototype”: How Ethics Are Ignored in Software Startup-Like Environments”, en Viktoria Stray, Rashina Hoda, Maria Paasivaara, Phillippe Kruchten (Eds.) Agile Processes in Software Engineering and Extreme Programming, en https://doi.org/10.1007/978-3-030-49392-9_13, p. 195-210.
Vakkuri Ville y Abrahamsson Pekka, “The Key Concepts of Ethics of Artificial Intelligence: A Keyword based Systematic Mapping Study”, junio de 2018, en https://doi.org/10.1109/ICE.2018.8436265, p. 1-6.Voss Axel, “Draft Report on artificial intelligence in a digital age (2020/2266(INI))”, Parlamento Europeo, 2 de noviembre de 2021, en https://www.europarl.europa.eu/doceo/document/AIDA-PR-680928_EN.pdf.