ISO/IEC 42001
La IA es la teoría y desarrollo de sistemas informáticos capaces de realizar tareas que históricamente requerían inteligencia humana, como reconocer el habla, tomar decisiones e identificar patrones. Hoy en día es preciso afirmar que los sistemas de IA se han vuelto cada vez más frecuentes en diversos sectores, que van desde la salud y las finanzas hasta la fabricación y el transporte. Sin embargo, el desarrollo y el uso responsables de los sistemas de IA son fundamentales para abordar posibles preocupaciones éticas y garantizar la protección de las personas y la sociedad.
ISO/IEC 42001 nació sobre la necesidad de hacer una evaluación de conformidad para una IA responsable, teniendo en cuenta lo importante para establecer competencia y confianza para que tanto las empresas como la sociedad en general puedan maximizar los beneficios derivados de las tecnologías de IA. Al mismo tiempo, ISO/ IEC 42001 implica la primera norma certificable, incluyendo requerimientos y controles para sistemas de IA en el contexto de una organización que proporciona requerimientos específicos y orientación para establecer, implementar y mejorar continuamente un sistema de gestión de IA.
ISO/IEC 42001
¿Qué es ISO/IEC 42001?
Es una norma internacional que especifica requisitos para establecer, implementar, mantener y mejorar continuamente un Sistema de Gestión de Inteligencia Artificial (AIMS) dentro de las organizaciones. Está diseñado para entidades que proporcionan o utilizan productos o servicios basados en IA, asegurando el desarrollo responsable y el uso de los sistemas de IA.
ISO/IEC 42001 enfatiza el compromiso con las prácticas responsables de IA, alentando a las organizaciones a adoptar controles específicos para sus sistemas de IA, fomentando la interoperabilidad global y estableciendo una base para el desarrollo y despliegue de IA responsable. Esta norma ayuda a las empresas y a la sociedad a beneficiarse de la IA y garantizar un desarrollo responsable.
Impacto futuro en el uso y desarrollo de IA.
Este estándar va a ser la base para poder tener un cierto nivel de gobierno y calidad para las organizaciones, ya sea que se estén desarrollando, implementando o utilizando sistemas de IA. El estándar proporciona un marco de sistema de administración de IA en el que los sistemas de IA se pueden desarrollar e implementar como parte de un ecosistema de aseguramiento de IA. Está diseñado para organizaciones y entidades que proporcionan o utilizan productos o servicios basados en IA, asegurando el desarrollo responsable y el uso de los sistemas de IA
La norma garantiza el desarrollo responsable y el uso de los sistemas mediante:
- Promover el desarrollo y uso de sistemas de IA que sean confiables, transparentes y responsables.
- Enfatizar los principios y valores éticos al implementar sistemas de IA, como la imparcialidad, la no discriminación y el respeto por la privacidad.
- Ayude a las organizaciones a identificar y mitigar los riesgos relacionados con la implementación de IA, asegurando que se implementen las medidas de mitigación adecuadas.
- Alentar a las organizaciones a priorizar el bienestar humano, la seguridad y la experiencia del usuario en el diseño e implementación de IA.
- Ayudar a las organizaciones en el cumplimiento de las leyes pertinentes, regulaciones, requisitos de protección de datos u obligaciones con las partes interesadas.
La norma ISO/IEC 42001 puede mejorar la competencia de una organización al promover el uso responsable de IA, facilitar el cumplimiento normativo y mejorar la administración de riesgos. Sin embargo, el impacto específico probablemente variará dependiendo de las circunstancias únicas de la organización y la eficacia con la que implemente el estándar. Los siguientes puntos clave nos ayudan a entender qué características puede obtener una organización para destacarse de otras que no han implementado este estándar y qué beneficios pueden obtener de él.
- Enfoque basado en riesgos: Este enfoque permite a las organizaciones equilibrar los beneficios del uso de IA con los riesgos potenciales, asegurando que los objetivos del negocio no se vean comprometidos.
- Integración con los Sistemas de Gestión Existentes: La norma ha sido redactada para facilitar la integración con los sistemas de gestión existentes.
- Promoción de IA confiable: Al establecer las mejores prácticas para un sistema de gestión de IA, ISO 42001 tiene como objetivo promover el uso responsable de la IA.
- Cumplimiento normativo: ISO 42001 puede ayudar a las organizaciones a cumplir con los requerimientos reglamentarios aplicables relacionados con el uso de IA
Impacto notable en los usuarios finales
Muchos empleados dudan en adoptar la IA por temor al desplazamiento laboral. Esta preocupación tiene cierto mérito, ya que informes de muchas fuentes predicen que la IA reemplazará 85 millones de empleos para 2025. No obstante, el estudio también estima que la IA creará aproximadamente 97 millones de nuevos empleos.
La IA no reemplaza el talento humano, y las empresas deberían utilizarla como ayuda de soporte para mejorar la productividad. Los usuarios finales pueden beneficiarse de un sistema que cuenta con una certificación ISO/IEC 42001 de varias maneras, la IA ha comenzado a tener un punto de apoyo más firme en nuestras vidas. Estos son los principales puntos clave a considerar como un buen impacto para los usuarios finales a la hora de implementar este estándar.
- Confianza: La certificación de un sistema de administración de IA demuestra el compromiso de una organización con la consistencia, la mejora continua y la satisfacción del cliente.
- Garantía de calidad: Los usuarios finales de todo el mundo se beneficiarán de un reclamo de calidad y confianza comparable del certificado y del sistema de gestión de inteligencia artificial certificado.
- Uso responsable de IA: La certificación garantiza un uso confiable y responsable de la IA, salvaguardando a todas las personas involucradas.
- Transparencia y rendición de cuentas: La norma promueve el desarrollo y el uso de sistemas de IA que sean confiables, transparentes y responsables
- Principios Éticos: Hace hincapié en los principios y valores éticos al implementar sistemas de IA, como la equidad, la no discriminación y el respeto a la privacidad.
- Mitigación de Riesgos: El estándar ayuda a las organizaciones a identificar y mitigar los riesgos relacionados con la implementación de IA, asegurando que se implementen las medidas de mitigación adecuadas
- Bienestar Humano: El estándar alienta a las organizaciones a priorizar el bienestar humano, la seguridad y la experiencia del usuario en el diseño e implementación de IA.
- Cumplimiento Normativo: Asiste a las organizaciones en el cumplimiento de las leyes pertinentes, regulaciones, requerimientos de protección de datos u obligaciones con las partes interesadas.
Conclusión:
El modo en que la Inteligencia Artificial ha ido mejorando a lo largo de los años es una gran manera de medir cómo ha impactado a nuestra sociedad, y como tantos sistemas o herramientas, es importante estandarizar cómo las organizaciones están trabajando con esta tecnología para asegurar que en los próximos años solo va a ser mejor. Esa es la razón principal por la que la ISO/IEC 42001 es una excelente manera de comenzar a mejorar los sistemas de IA, ya que proporciona un libro de jugadas para las organizaciones y contiene las mejores prácticas de Administración de IA y Gestión de Riesgos de IA, junto con el ahorro de costos y las ganancias de eficiencia.
Referencias:
- Coursera. (2023, 29 de noviembre). ¿Qué es la Inteligencia Artificial? Definición, Usos y Tipos. Recuperado de Coursera: https://www.coursera.org/articles/what-is-artificial-intelligence
- DICIEMBRE (2024, 01 16). ISO/IEC 42001 — Inteligencia Artificial (IA). Recuperado de DNV: https://www.dnv.com/services/iso-iec-42001-artificial-intelligence-ai--250876
- Kidd, D. (2023, 8 de noviembre). Entender la ISO 42001: Una guía para sistemas de gestión de IA responsables. Recuperado de https://www.linkedin.com/pulse/understanding-iso-42001-guide-responsible-ai-management-david-kidd-notnc/: https://www.linkedin.com/pulse/understanding-iso-42001-guide-responsible-ai-management-david-kidd-notnc/
- Ogonjo, F. (2024, 15 de enero). ISO/IEC 42001:2023 — ESTABLECER NORMAS PARA UNA IA RESPONSABLE. Obtenido de Strathmore University: https://cipit.strathmore.edu/iso-iec-420012023-establishing-standards-for-responsible-ai/#sdfootnote2sym
- Sivasubramanian, S. (2023, 18 de diciembre). ISO 42001: Un nuevo estándar global fundamental para avanzar en la IA responsable. Recuperado de AWS: https://aws.amazon.com/blogs/machine-learning/iso-42001-a-new-foundational-global-standard-to-advance-responsible-ai/