Con hasta 35 millones de euros o un 7% de su cifra anual de negocio, serán sancionadas las empresas que violen la Ley de Inteligencia Artificial de la Unión Europea.
Esta normativa clasifica las aplicaciones de IA en tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y sistemas que supongan un riesgo inaceptable, como los sistemas de puntuación social gestionados por el gobierno, como los que se utilizan en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos.
Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran medida sin regular.
Con la entrada en vigor del reglamento, no se permitirá el uso de dispositivos o aplicaciones de IA que usen técnicas subliminales dirigidas a influir en el comportamiento de personas, que se aprovechen de las vulnerabilidades, que sirvan para categorizar individuos o para identificarlos a través de la biometría, entre otros.
Además, el reglamento establece que los proveedores y responsables del despliegue de sistemas de IA deben adoptar medidas para garantizar que su personal tenga un nivel suficiente de alfabetización en esta materia.
Al momento entró en vigor el Capítulo I de la ley, con las disposiciones generales, y el capítulo II, con las prácticas prohibidas. El resto se aplicará en varias fases hasta llegar al 2 de febrero de 2027, cuando ya esté completamente en vigor en su totalidad.
Con esto, dentro de dos años, cualquier tipo de IA de uso laboral deberá ser «explicable, transparente, controlada por humano y deberá superar auditorias de riesgos y de calidad».