La UE comienza a vigilar la inteligencia artificial

Según la Unión Europea, la ley establece el primer sistema regulatorio centrado en la inteligencia artificial del mundo. La ley entró en vigor el jueves y tiene como objetivo garantizar que los sistemas de IA respeten la dignidad humana, la seguridad y los derechos fundamentales, según la UE. Los sistemas de IA clasificados como de alto riesgo (por ejemplo, los que utilizan los profesores, los reclutadores de personal o las fuerzas del orden) están sujetos a regulaciones estrictas antes de poder comercializarse. Los sistemas de IA de riesgo limitado deben cumplir obligaciones como informar a los humanos de que están hablando con un chatbot o etiquetar algunos tipos de contenido generado por IA.

Aunque la ley ya está en vigor, la normativa para las empresas no se aplicará hasta bien entrado el año que viene, según la UE. Algunas de las normas de la ley no entrarán en vigor hasta al menos tres años después.

¿Qué hace la ley? La Oficina Europea de Inteligencia Artificial es responsable de supervisar la implementación de la ley en los estados miembros, dijo la UE. La ley requiere que los sistemas de IA sean probados antes de ser incluidos en una base de datos de la UE. Un sistema no puede aparecer en el mercado hasta que sea aprobado. Si el sistema de IA se modifica después de una aprobación inicial, debe volver a pasar por la evaluación de conformidad y el registro en la base de datos para ser aprobado nuevamente.

La ley clasifica los sistemas de IA como de riesgo inaceptable, alto, limitado o mínimo.

  • Inaceptable: Los sistemas de inteligencia artificial que representan una clara amenaza para los medios de vida, los derechos y la seguridad de las personas son ilegales según la ley. Entre ellos se incluyen los juguetes que fomentan el mal comportamiento con mensajes de voz y los sistemas de inteligencia artificial que los gobiernos pueden utilizar para implementar sistemas de puntuación social.

  • Alto riesgo: Los sistemas que conllevan un alto riesgo de peligro deben funcionar con una supervisión humana adecuada, proporcionar registros de actividad para ayudar a las autoridades a rastrear sus resultados y recibir información solo de lo que el UE Se define como información de alta calidad que no discrimina a ciertos grupos.

  • Riesgo limitado: Estos sistemas de IA deben informar a las personas que interactúan con ellos que son sistemas de IA y deben identificar el contenido que producen como generado por IA.

  • Riesgo mínimo: Las personas pueden utilizar libremente estas IA, que incluyen filtros de spam de IA y algunos videojuegos.