Glosario del Reglamento de IA
Los términos más importantes del Reglamento de IA, explicados en lenguaje sencillo.
DeployerLa organización que utiliza un sistema de IA (usted como propietario de la tienda en línea).
Un deployer es cualquier persona u organización que pone en uso un sistema de IA en un contexto profesional. Si coloca un chatbot de IA en su sitio web, usted es el deployer, aunque no haya construido la IA. Tiene obligaciones bajo el Reglamento de IA.
Comparación con RGPD
Comparable al 'responsable del tratamiento' del RGPD: usted es responsable de cómo se utiliza la IA.
Una tienda en línea que utiliza el chatbot de IA Tidio es el deployer de ese sistema de IA.
ProviderDe organisatie die een AI-systeem ontwikkelt of op de markt brengt.
De provider is de maker van de AI. OpenAI (maker van ChatGPT), Google (Gemini) of Anthropic (Claude) zijn providers. Zij hebben de zwaarste verplichtingen onder de AI Act.
Comparación con RGPD
Vergelijkbaar met 'verwerker' in de AVG, maar met meer eigen verantwoordelijkheid.
OpenAI is de provider van ChatGPT. Als jij ChatGPT inzet, ben jij de deployer.
Hoog-risico AIAI-systemen die significante impact hebben op mensen, zoals kredietscoring of HR-besluiten.
De AI Act classificeert bepaalde AI-systemen als hoog-risico vanwege hun impact op mensenlevens. Denk aan AI voor werving, kredietbeoordeling, verzekeringsprijzen of onderwijs. Deze systemen moeten aan strenge eisen voldoen.
Comparación con RGPD
De AVG kent 'hoog-risico verwerking' waarvoor een DPIA nodig is. De AI Act gaat veel verder met conformiteitseisen.
Een AI-systeem dat bepaalt of je een lening krijgt is hoog-risico.
Verboden AIAI-toepassingen die zo schadelijk zijn dat ze volledig verboden zijn in de EU.
Sommige AI-toepassingen zijn zo gevaarlijk dat ze niet mogen bestaan: sociale scoring, subliminale manipulatie, emotieherkenning op werk, en het scrapen van gezichten voor databases. De boete: tot 7% van de jaaromzet.
Een systeem dat klanten een 'score' geeft op basis van hun sociale media-gedrag.
Limited riskAI met beperkt risico waarvoor transparantieverplichtingen gelden.
De meeste AI op websites valt in deze categorie: chatbots, aanbevelingssystemen, AI-gegenereerde content. Je moet gebruikers informeren dat AI wordt gebruikt, maar hoeft geen conformiteitsbeoordeling te doen.
Comparación con RGPD
Vergelijkbaar met de AVG-eis om mensen te informeren over hoe je hun data verwerkt.
Een AI-chatbot op een webshop is limited risk: je moet melden dat het AI is.
AI-geletterdheidDe verplichting om medewerkers die met AI werken voldoende kennis te geven.
Artikel 4 van de AI Act verplicht organisaties om te zorgen dat iedereen die met AI werkt begrijpt wat het kan, wat de risico's zijn en hoe de AI Act werkt. Dit geldt al sinds februari 2025.
Comparación con RGPD
Vergelijkbaar met de AVG-eis om medewerkers te trainen in privacy en dataverwerking.
Een klantenservicemedewerker die een AI-tool gebruikt moet weten wanneer AI fout kan zitten.
GPAIGeneral Purpose AI: modelos de IA versátiles como ChatGPT, Claude o Gemini.
Los modelos GPAI son sistemas de IA que pueden utilizarse para muchos propósitos. El Reglamento de IA establece requisitos tanto para los proveedores (creadores) como para los deployers (usuarios) de estos modelos.
ChatGPT es un modelo GPAI. Si lo despliega en su sitio, debe indicar qué modelo utiliza.
TransparantieverplichtingDe plicht om gebruikers te vertellen dat ze met AI te maken hebben.
Transparantie is de kerneis van de AI Act voor de meeste websites. Als AI betrokken is bij wat een bezoeker ziet of ervaart, moet je dat melden. Dit geldt voor chatbots, aanbevelingen, AI-content en tracking.
Comparación con RGPD
De AVG kent al transparantie-eisen voor dataverwerking. De AI Act voegt transparantie over AI-gebruik toe.
Een banner bij je chatbot: 'U spreekt met een AI-assistent'.
DeepfakeVídeo, audio o imágenes generados o manipulados por IA.
Los deepfakes son cada vez más difíciles de distinguir de los reales. El Reglamento de IA exige que todos los medios generados por IA estén claramente etiquetados.
Una foto de producto generada por IA debe marcarse como 'generada por IA'.
ConformiteitsbeoordelingEen formele beoordeling die bewijst dat een hoog-risico AI-systeem aan alle eisen voldoet.
Voor hoog-risico AI moet worden aangetoond dat het systeem veilig, eerlijk en transparant is. Dit is vergelijkbaar met een CE-markering voor fysieke producten.
Een AI-kredietsysteem moet een conformiteitsbeoordeling doorlopen voor inzet.
DPIAData Protection Impact Assessment: een verplichte risicobeoordeling voor privacy.
Een DPIA is al verplicht onder de AVG bij hoog-risico verwerking. De AI Act benadrukt dat de DPIA specifiek moet ingaan op de AI-aspecten van je systeem.
Comparación con RGPD
De DPIA komt uit AVG Artikel 35. De AI Act versterkt de eis voor AI-systemen.
Voordat je AI-kredietscoring inzet, beschrijf je de risico's in een DPIA.
FRIAFundamental Rights Impact Assessment: evaluación del impacto sobre los derechos fundamentales.
Una FRIA va más allá de una EIPD. Se evalúan no solo los riesgos para la privacidad, sino también el impacto sobre la igualdad, la no discriminación y otros derechos fundamentales.
Una aseguradora que utiliza IA para fijar precios evalúa si el sistema perjudica a determinados grupos.
ProveedorLa organización que desarrolla o comercializa un sistema de IA.
El proveedor es el creador de la IA. OpenAI (creador de ChatGPT), Google (Gemini) o Anthropic (Claude) son proveedores. Tienen las obligaciones más exigentes bajo el Reglamento de IA.
Comparación con RGPD
Comparable al 'encargado del tratamiento' del RGPD, pero con más responsabilidad propia.
OpenAI es el proveedor de ChatGPT. Si usted despliega ChatGPT, usted es el deployer.
IA de alto riesgoSistemas de IA con un impacto significativo en las personas, como la puntuación crediticia o las decisiones de RR. HH.
El Reglamento de IA clasifica determinados sistemas de IA como de alto riesgo por su impacto en la vida de las personas. Piense en IA para reclutamiento, evaluación crediticia, tarificación de seguros o educación. Estos sistemas deben cumplir requisitos estrictos.
Comparación con RGPD
El RGPD reconoce el 'tratamiento de alto riesgo' que requiere una EIPD. El Reglamento de IA va mucho más allá con requisitos de conformidad.
Un sistema de IA que decide si recibe un préstamo es de alto riesgo.
IA prohibidaAplicaciones de IA tan perjudiciales que están totalmente prohibidas en la UE.
Algunas aplicaciones de IA son tan peligrosas que no pueden existir: puntuación social, manipulación subliminal, reconocimiento de emociones en el trabajo y la recopilación de rostros para bases de datos. La multa: hasta el 7 % de la facturación anual.
Un sistema que asigna a los clientes una 'puntuación' basada en su comportamiento en redes sociales.
Riesgo limitadoIA con riesgo limitado, sujeta a obligaciones de transparencia.
La mayor parte de la IA presente en sitios web entra en esta categoría: chatbots, sistemas de recomendación, contenido generado por IA. Debe informar a los usuarios de que se utiliza IA, pero no es necesario realizar una evaluación de conformidad.
Comparación con RGPD
Comparable a la exigencia del RGPD de informar a las personas sobre cómo trata sus datos.
Un chatbot de IA en una tienda en línea es de riesgo limitado: debe indicar que es IA.
Alfabetización en IALa obligación de dotar a los empleados que trabajan con IA de los conocimientos suficientes.
El artículo 4 del Reglamento de IA obliga a las organizaciones a garantizar que todas las personas que trabajan con IA comprendan qué puede hacer la IA, cuáles son los riesgos y cómo funciona el Reglamento. Esta obligación se aplica desde febrero de 2025.
Comparación con RGPD
Comparable a la exigencia del RGPD de formar a los empleados en privacidad y tratamiento de datos.
Un agente de atención al cliente que utilice una herramienta de IA debe saber cuándo la IA puede equivocarse.
Obligación de transparenciaEl deber de informar a los usuarios de que están interactuando con IA.
La transparencia es el requisito clave del Reglamento de IA para la mayoría de los sitios web. Si la IA interviene en lo que un visitante ve o experimenta, debe indicarlo. Esto se aplica a chatbots, recomendaciones, contenidos de IA y seguimiento.
Comparación con RGPD
El RGPD ya prevé requisitos de transparencia para el tratamiento de datos. El Reglamento de IA añade transparencia sobre el uso de IA.
Un banner en su chatbot: 'Está hablando con un asistente de IA'.
Evaluación de conformidadUna evaluación formal que demuestra que un sistema de IA de alto riesgo cumple todos los requisitos.
Para la IA de alto riesgo debe demostrarse que el sistema es seguro, justo y transparente. Es comparable al marcado CE para productos físicos.
Un sistema de IA de puntuación crediticia debe superar una evaluación de conformidad antes de su despliegue.
EIPDEvaluación de Impacto en la Protección de Datos: evaluación obligatoria de riesgos para la privacidad.
Una EIPD ya es obligatoria bajo el RGPD para tratamientos de alto riesgo. El Reglamento de IA subraya que la EIPD debe abordar específicamente los aspectos de IA de su sistema.
Comparación con RGPD
La EIPD proviene del artículo 35 del RGPD. El Reglamento de IA refuerza este requisito para sistemas de IA.
Antes de desplegar la puntuación crediticia con IA, describe los riesgos en una EIPD.