top of page
Foto del escritorLaura Sanchis

IA Act: normativa de la UE sobre inteligencia artificial

Introducción sobre la IA


La creciente accesibilidad a la tecnología y la explosión en la generación de datos han impulsado el crecimiento y la importancia de la IA. Este desarrollo se basa en la disponibilidad generalizada de internet y equipos de cómputo. Además, el hecho de que la IA esté produciendo resultados aceptables en situaciones de la vida cotidiana ha acelerado su adopción, marcando una transición desde el estudio teórico hacia la implementación y la innovación práctica, ejemplificada por tecnologías como la IA generativa.

Aprendizaje Automático y Aprendizaje Profundo

El Aprendizaje Automático (Machine Learning) representa una rama fundamental de la IA, permitiendo que las máquinas aprendan de los datos proporcionados y descubran patrones en diversas fuentes de información, incluyendo bases de datos, texto y videos. Por otro lado, el Aprendizaje Profundo (Deep Learning) se basa en algoritmos que emulan la estructura de las redes neuronales humanas, representando una evolución más compleja del Machine Learning.


Propuesta de Reglamento: IA Act

Las instituciones de la Unión Europea se encuentran actualmente en el proceso de finalización de un nuevo reglamento destinado a regular algunos aspectos relacionados con el uso de la Inteligencia Artificial (IA), un asunto que hasta ahora no había sido regulado. Esta normativa, popularmente conocida como el 'AI Act', se basa en un enfoque basado en el riesgo que impone requisitos y prohibiciones más rigurosos a los sistemas de IA en función del riesgo que puedan representar para la integridad de las personas, bienes e infraestructuras, así como para evitar la discriminación y la violación de la privacidad.

La propuesta de Reglamento de Inteligencia Artificial se basa en un enfoque de riesgo y establece un marco legal horizontal y uniforme para la IA en la Unión Europea. Este reglamento define los sistemas de IA como aquellos desarrollados mediante estrategias de aprendizaje automático y estrategias basadas en la lógica y el conocimiento.


Se prohíben prácticas de IA como la puntuación ciudadana y el uso de sistemas de IA que exploten vulnerabilidades de grupos específicos de personas. Además, se restringe el uso en tiempo real de sistemas de identificación biométrica remota en espacios de acceso público por parte de las autoridades encargadas de la aplicación de la ley, excepto en casos excepcionales.


El reglamento clasifica los sistemas de IA de alto riesgo y establece requisitos específicos para ellos, aclarando las responsabilidades y funciones de los agentes en la cadena de valor de la IA. También se contemplan sistemas de IA de uso general y se promueven medidas de apoyo a la innovación, como espacios de pruebas controlados.


Modelos de IA afectados

El 'AI Act' reconoce que no todos los modelos de IA tienen el mismo impacto y, por lo tanto, establece requisitos específicos para diferentes sectores y aplicaciones. Algunos de los modelos de IA más afectados por esta normativa son:

  1. Modelos de IA utilizados en entornos críticos y peligrosos, como la industria energética, dispositivos médicos y vehículos de motor.

  2. Modelos de identificación biométrica a distancia, que plantean preocupaciones de privacidad y discriminación.

  3. Uso de IA en la educación, donde se busca garantizar un acceso justo y sin sesgos a recursos educativos.

  4. Modelos de IA utilizados en Recursos Humanos, donde se deben evitar sesgos y proteger la privacidad de los trabajadores.

  5. Modelos de IA para evaluar la solvencia financiera y el crédito de las personas.

  6. Selección de riesgos y tarificación en seguros, específicamente en seguros de vida y salud.

  7. Sistemas de IA que interactúan con humanos, como chatbots y deep fake.


Transparencia y Sesgos

La regulación en torno a la Inteligencia Artificial (IA) es un campo de gran amplitud, abordando diversos aspectos que, a menudo, involucran complejidades que hacen que estas regulaciones sean extensas y minuciosas. Entre estos aspectos, dos de los más destacados y debatidos son la promoción de la transparencia y la mitigación de sesgos en el ámbito técnico de la IA. No obstante, la aplicación efectiva de tales medidas presenta considerables desafíos.


Transparencia

Transparency means that Al system shall be developed and used in a way that allows appropiate traceability and explainability, while making humans aware that they communicate or interact with an Al system as well as duly informing users of the capabilities and limitations of that Al system and affected persons about their rights.

La transparencia en la IA se refiere a la necesidad de desarrollar y utilizar sistemas de IA de manera que permitan su trazabilidad y explicabilidad adecuadas. Esto incluye la concientización de los usuarios sobre la interacción con sistemas de IA, así como la debida información sobre las capacidades y limitaciones de la IA.


Explainability = explicabilidad

La explicabilidad en la IA se refiere a la medida en que los procesos internos de un sistema pueden ser entendidos por los humanos. Se relaciona con la capacidad de un algoritmo para describir sus decisiones, acciones o resultados de una manera que los humanos puedan entender.


Problemas de transparencia

Los sistemas de IA, especialmente aquellos que utilizan técnicas avanzadas como el aprendizaje profundo, pueden ser altamente complejos y difíciles de entender para los no expertos. Proporcionar transparencia y explicabilidad significativas a los usuarios, que pueden no tener experiencia técnica, es un desafío significativo. Simplificar las explicaciones puede llevar a una pérdida de precisión y completitud al transmitir el funcionamiento y las limitaciones del sistema.

La complejidad inherente de los sistemas de IA, especialmente aquellos basados en el aprendizaje profundo, dificulta su explicabilidad para usuarios no expertos. Hallar el equilibrio adecuado entre la autonomía de la IA y el control humano es un reto importante. La supervisión humana puede ser limitada en sistemas avanzados, lo que plantea cuestiones sobre la efectividad de dicha supervisión.


Sesgos

Al systems shall be developed and used in a way that includes diverse actors and promotes equal access, gender equality and cultural diversity, while avoiding discriminatory impacts and unfair biases that are prohibited by Union or national law

La IA se nutre y construye a partir de los datos que le proporcionamos. Si le damos datos que no son ciertos, adecuados, o si la construimos con nuestras propias creencias, la IA podría aprender y repetir esos mismos errores, tomando decisiones que no son justas para todos.

Este riesgo de transmitir sesgos y prejuicios al entrenar a los modelos de IA es lo que se ha de tener en cuenta y tratar de paliar. No obstante, en muchas ocasiones, estos sesgos son inherentes a la persona y los propios creadores no son conscientes de ellos al transmitirlos.

Por ello, es importante que empleemos la propia IA para tratar de que esta balancee por si misma los datos y elimine estos sesgos.


La normativa nos indica que estas herramientas deben ser desarrolladas y utilizadas de manera inclusiva y sin discriminación, promoviendo el acceso igualitario, la equidad de género y la diversidad cultural. Es imperativo evitar impactos discriminatorios y sesgos injustos, tal como lo prohíbe la legislación vigente.


Robustez técnica.

Means that Al systems shall be developed and used as a tool that serves people, respects human dignity and personal autonomy, and that is functioning in a way that can be appropriately controlled and overseen by humans.

Encontrar el equilibrio correcto entre permitir que los sistemas de la operen de manera autónoma y mantener el control humano suficiente puede ser complicado, especialmente en sistemas de IA avanzados y autónomos donde la intervención humana puede ser limitada.


Consideraciones éticas en la IA

La ética en la IA busca abordar cuestiones fundamentales sobre lo que es moralmente aceptable en su desarrollo y uso. Dado que la IA actual no es autónoma, sino una herramienta utilizada por humanos para lograr objetivos específicos, la ética se centra en la implementación de principios éticos básicos para garantizar que la IA sea confiable.


Directrices éticas para una IA Fiable

Un grupo de expertos independientes ha desarrollado directrices éticas para asegurar la confiabilidad de la IA, destacando la importancia de la transparencia y la mitigación de sesgos como principios fundamentales.

Esquema sobre los elementos para una configuación ética de la inteligencia artificial
  1. Acción y supervisión humanas

  2. Solidez técnica y seguridad - capacidad de resistencia a los ataques y la seguridad, un plan de repliegue y la seguridad general, precisión, fiabilidad y reproducibilidad

  3. Gestión de la privacidad y de los datos - respeto de la privacidad, lo calidad y la integridad de los datos, así como el acceso a estos.

  4. Transparencia - trazabilidad, la explicabilidad y la comunicación.

  5. Diversidad, no discriminación y equidad - ausencia de sesgos injustos, lo accesibilidad y el diseño universal así como la participación de los partes interesadas

  6. Bienestar social y ambiental - la sostenibilidad y el respeto del medio ambiente, el impacto social y la democracia.

  7. Rendición de cuentas - auditabilidad, la minimización de efectos negativos y le notificación de estos, la búsqueda de equilibrios y las compensaciones


Identificación de Sesgos en Chat GPT4

En el caso específico de Chat GPT4, es posible identificar sesgos en los datos a través de un proceso que incluye la exploración de datos, la identificación de variables sensibles, el análisis de representación, el análisis de asociación y pruebas estadísticas para evaluar la significancia de las asociaciones y diferencias identificadas.


1. Exploración de Datos (EDA):

  • Analiza la distribución de las variables categóricas. Visualiza la distribución de las variables numéricas.

  • Analiza las relaciones entre diferentes variables.

2. Identificación de Variables Sensibles:

  • Identifica las variables que podrían estar asociadas con sesgos, como género, edad,

3. Análisis de Representación: raza, etc.

  • Examina si algunos grupos están subrepresentados o sobrerrepresentados en el conjunto de datos.

4. Análisis de Asociación:

  • Analiza si existe alguna asociación indebida entre las variables sensibles y la variable objetivo.

5. Pruebas Estadísticas:

  • Realiza pruebas estadísticas para verificar la significancia de las asociaciones y diferencias identificadas.


En resumen, la regulación de la IA aborda una amplia gama de cuestiones, siendo la transparencia y la mitigación de sesgos dos de las áreas más destacadas y complejas. A medida que la IA se integra cada vez más en la sociedad, la ética y la regulación desempeñan un papel esencial en la gestión responsable de esta tecnología en constante evolución.

2件のコメント


Luis Alberto
Luis Alberto
2024年1月13日

Este espacio dedicado a la normativa de la Unión Europea sobre inteligencia artificial (IA) es simplemente imprescindible para todos aquellos inmersos en el fascinante mundo de la IA y el derecho. La profundidad y el enfoque detallado con el que se desglosa la IA Act demuestran un compromiso excepcional con la comprensión de esta legislación crucial.

La regulación de la inteligencia artificial es un desafío emergente, y este sitio se erige como una guía esencial para desentrañar sus complejidades. La forma en que se presenta la información aquí no solo informa, sino que también invita a la reflexión sobre las implicaciones éticas y legales de la IA en la Unión Europea.

La importancia de estar al tanto de la normativa…

いいね!
Laura Sanchis
Laura Sanchis
2024年1月25日
返信先

Me alegra saber que la entrada le resultó útil y que el tema de la IA resulta interesante. Tu apoyo significa mucho. Seguiré esforzándome para seguir ofreciendo información clara y valiosa. ¡Gracias por ser parte de esto!

編集済み
いいね!
bottom of page