• Skip to main content
  • Skip to secondary menu
  • Skip to primary sidebar
  • Skip to footer
Montreal AI Ethics Institute

Montreal AI Ethics Institute

Democratizing AI ethics literacy

  • Articles
    • Public Policy
    • Privacy & Security
    • Human Rights
      • Ethics
      • JEDI (Justice, Equity, Diversity, Inclusion
    • Climate
    • Design
      • Emerging Technology
    • Application & Adoption
      • Health
      • Education
      • Government
        • Military
        • Public Works
      • Labour
    • Arts & Culture
      • Film & TV
      • Music
      • Pop Culture
      • Digital Art
  • Columns
    • AI Policy Corner
    • Recess
    • Tech Futures
  • The AI Ethics Brief
  • AI Literacy
    • Research Summaries
    • AI Ethics Living Dictionary
    • Learning Community
  • The State of AI Ethics Report
    • Volume 7 (November 2025)
    • Volume 6 (February 2022)
    • Volume 5 (July 2021)
    • Volume 4 (April 2021)
    • Volume 3 (Jan 2021)
    • Volume 2 (Oct 2020)
    • Volume 1 (June 2020)
  • About
    • Our Contributions Policy
    • Our Open Access Policy
    • Contact
    • Donate

Episodio 3 – Idoia Salazar: Sobre la Vital Importancia de Educar al Ciudadano en los Usos Responsables de la Inteligencia Artificial

May 26, 2022

🔬 Research summary by Connor Wright, our Partnerships Manager.

[Original work by Juan Carlos Muñoz e Idoia Salazar]

NOTE: This is a special piece since it is our first in Spanish! Feedback is appreciated!


Introduction

Este podcast liderado por Juan Carlos Muñoz presenta la carrera de Idoia Salazar. Es la cofundadora de un observatorio sobre el impacto ético de la intelgencia artificial (OdiseIA) y su rol como profesora en la Universidad CEU San Pablo, entre más puestos impresionantes. Con respecto a la visión ética de OdiseIA es ser muy realista, reaccionando a cómo actúan las empresas y las personas dentro del estudio de la IA. De ahí, el podcast cubre lo que significa ser un eticista de la IA, los sesgos algorítmicos y la importancia de la educación antes de presentar la situación actual de España en cuanto a la IA. Para terminar, concluye que lo que resulta lo más pertinente es que la tecnología no es peligrosa en sí, sino es nuestra manera de usarla que cuenta.

Key Insights

Lo que significa ser un eticista de la IA

A veces, el mundo tecnológico aparece inasequible e intelligible. Sin embargo, Salazar revela que no es así. No hace falta que dispongas de un grado universitario para participar, ni un acercamiento profundo del tema. En cuanto a los profesionales, sí que es necesario gozar de una base filosófica y legal al lado de conocimiento tecnológico para mejor controlar los problemas que surgen dentro del estudio. Es decir, una eticista debe presentar un perfil generalista en vez de especialista.

Ante este panorama, se halla el núcleo del escenario de la IA. El peligro no está en la tecnología en sí, sino en la manera por la que usamos como seres humanos.

Los sesgos algorítmicos

Los sesgos algorítmicos dejan el problema de la influencia del ser humano lo más patente. Los sesgos forman parte de nuestro ser; nuestro contexto, nuestras experiencias y nuestras preferencias nos condicionan de forma inconsciente. Por ejemplo, en términos del modelo, los data scientist pueden influir a las conclusiones de su investigación a través de elegir el sistema que ellos piensan que encaja lo mejor. Esta decisión, sea consciente o no, está dirigida por nuestras preferencias. 

Para mitigar las consecuencias de esta realidad, Salazar nos guía hacia la ley. Iniciativas como poniendo multas altas para si las empresas no cumplen con la legislación son unas de las maneras más prominentes de legislar contra los problemas éticos. A través de esta estrategia, preparamos la escena legislativa para mejor responder a las situaciones que provoca la tecnología. Esto informó la decisión de Amazon en 2021 de retrasar el inicio del uso de su tecnología de reconocimiento de cara por la policía otra vez. 

Para realizar dicha legislación, es menester que eduquemos tanto a los políticos como al público.

La educación

Dicha educación no centra solamente en los técnicos programáticos, sino también en las cuestiones sobre la aplicación de la IA. Por ejemplo, señalaremos que el lenguaje como ‘el algoritmo dice’, ‘el algoritmo resuelve’ pinta una imagen imaginaria de la IA. El algoritmo es software de ayuda a los seres humanos. Es decir, la tecnología está aquí para ayudarnos y no reemplazarnos. Por ejemplo, vemos que los coches autónomos facilitan el aumento de movilidad para la gente discapacitada y los ciegos. Guiado por esta visión, somos capaces de desarrollar perfiles adaptables a un mundo constantemente evolucionando.

Con este pensamiento en la mente, Salazar guarda muchas aspiraciones para el futuro de España en el entorno tecnológico.

España

Salazar comenta que hay fondos destinados a realizar una inversión en las empresas tecnológicas españolas que significan que el país va a conseguir una posición fuerte en el mundo de la IA. Incluyen la posibilidad de realizar bancos de datos públicos para mejor informar a los sistemas IA, especialmente a nivel sanitario. Sobre todo, un proyecto legislativo nacional lo está debatiendo el parlamento español ahora mismo, previsto para 2024.

Between the lines

En general, creo en que la tecnología debe soportar al ser humano y no reemplazarlo. Un tema muy tratado para los seguidores de MAIEI es nuestra creencia en el poder de la democratización y educación para concretar el rol de los humanos en el ámbito tecnológico. Sobre todo, el aprendizaje más punzante que he sacado de este podcast es que la IA es peligroso si la diseñamos así. Nuestro rol que nos toca es gestionar bien las situaciones que resultan por parte de nuestras preferencias y hacer que la tecnología se convierta en una herramienta beneficiosa para todos.

Want quick summaries of the latest research & reporting in AI ethics delivered to your inbox? Subscribe to the AI Ethics Brief. We publish bi-weekly.

Primary Sidebar

🔍 SEARCH

Spotlight

Illustration of a coral reef ecosystem

Tech Futures: Diversity of Thought and Experience: The UN’s Scientific Panel on AI

This image shows a large white, traditional, old building. The top half of the building represents the humanities (which is symbolised by the embedded text from classic literature which is faintly shown ontop the building). The bottom section of the building is embossed with mathematical formulas to represent the sciences. The middle layer of the image is heavily pixelated. On the steps at the front of the building there is a group of scholars, wearing formal suits and tie attire, who are standing around at the enternace talking and some of them are sitting on the steps. There are two stone, statute-like hands that are stretching the building apart from the left side. In the forefront of the image, there are 8 students - which can only be seen from the back. Their graduation gowns have bright blue hoods and they all look as though they are walking towards the old building which is in the background at a distance. There are a mix of students in the foreground.

Tech Futures: Co-opting Research and Education

Agentic AI systems and algorithmic accountability: a new era of e-commerce

ALL IN Conference 2025: Four Key Takeaways from Montreal

Beyond Dependency: The Hidden Risk of Social Comparison in Chatbot Companionship

related posts

  • The State of Artificial Intelligence in the Pacific Islands

    The State of Artificial Intelligence in the Pacific Islands

  • Digital Sex Crime, Online Misogyny, and Digital Feminism in South Korea

    Digital Sex Crime, Online Misogyny, and Digital Feminism in South Korea

  • AI Framework for Healthy Built Environments

    AI Framework for Healthy Built Environments

  • Research summary: Machine Learning Fairness - Lessons Learned

    Research summary: Machine Learning Fairness - Lessons Learned

  • Artificial Intelligence - Application to the Sports Industry (Research summary)

    Artificial Intelligence - Application to the Sports Industry (Research summary)

  • The increasing footprint of facial recognition technology in Indian law enforcement - pitfalls and r...

    The increasing footprint of facial recognition technology in Indian law enforcement - pitfalls and r...

  • Research Summary: Towards Evaluating the Robustness of Neural Networks

    Research Summary: Towards Evaluating the Robustness of Neural Networks

  • 2022 AI Index Report - Technical AI Ethics Chapter

    2022 AI Index Report - Technical AI Ethics Chapter

  • Managing Human and Robots Together - Can That Be a Leadership Dilemma?

    Managing Human and Robots Together - Can That Be a Leadership Dilemma?

  • Incentivized Symbiosis: A Paradigm for Human-Agent Coevolution

    Incentivized Symbiosis: A Paradigm for Human-Agent Coevolution

Partners

  •  
    U.S. Artificial Intelligence Safety Institute Consortium (AISIC) at NIST

  • Partnership on AI

  • The LF AI & Data Foundation

  • The AI Alliance

Footer


Articles

Columns

AI Literacy

The State of AI Ethics Report


 

About Us


Founded in 2018, the Montreal AI Ethics Institute (MAIEI) is an international non-profit organization equipping citizens concerned about artificial intelligence and its impact on society to take action.

Contact

Donate


  • © 2025 MONTREAL AI ETHICS INSTITUTE.
  • This work is licensed under a Creative Commons Attribution 4.0 International License.
  • Learn more about our open access policy here.
  • Creative Commons License

    Save hours of work and stay on top of Responsible AI research and reporting with our bi-weekly email newsletter.