Los principios de la inteligencia artificial responsable (RIA)
| Principio | Description |
|---|---|
![]() Equidad | Los modelos de inteligencia artificial se entrenan mediante datos, que generalmente son de origen y seleccionados por los seres humanos. Existe un riesgo considerable de que los criterios de selección de datos o los propios datos reflejen sesgos inconscientes que pueden provocar que un modelo genere salidas discriminatorias. Los desarrolladores de inteligencia artificial deben tener cuidado para minimizar el sesgo en los datos de entrenamiento y probar los sistemas de inteligencia artificial para la equidad. |
![]() Confiabilidad y seguridad | La inteligencia artificial se basa en modelos probabilísticos, no es infalible. Las aplicaciones con tecnología de inteligencia artificial deben tener esto en cuenta y mitigar los riesgos en consecuencia. |
![]() Privacidad y seguridad | Los modelos se entrenan mediante datos, que pueden incluir información personal. Los desarrolladores de inteligencia artificial tienen la responsabilidad de asegurarse de que los datos de entrenamiento se mantienen seguros y que los propios modelos entrenados no se pueden usar para revelar detalles personales o organizativos privados. |
![]() Inclusión | El potencial de la inteligencia artificial para mejorar la vida y impulsar el éxito debe estar abierto a todos los usuarios. Los desarrolladores de inteligencia artificial deben esforzarse por asegurarse de que sus soluciones no excluyan a algunos usuarios. |
![]() Transparencia | A veces, la inteligencia artificial puede parecer «mágica», pero es importante que los usuarios sepan cómo funciona el sistema y las posibles limitaciones que puede tener. |
![]() Responsabilidad | En última instancia, las personas y las organizaciones que desarrollan y distribuyen soluciones de inteligencia artificial son responsables de sus acciones. Es importante que las organizaciones que desarrollan modelos y aplicaciones de inteligencia artificial definan y apliquen un marco de gobernanza para ayudar a garantizar que aplican principios de inteligencia artificial responsables a su trabajo. |
Ejemplos de IA Responsable
Entre algunos ejemplos de escenarios en los que se deben aplicar prácticas de inteligencia artificial responsables se incluyen:
- Se debe probar un sistema de admisiones universitarias con tecnología de inteligencia artificial para asegurarse de que evalúa todas las aplicaciones de forma justa, teniendo en cuenta los criterios académicos pertinentes, pero evitando la discriminación infundada basada en factores demográficos irrelevantes.
- Una solución robótica impulsada por inteligencia artificial que usa visión por computadora para detectar objetos debe evitar daños no intencionados. Una manera de lograr este objetivo es usar valores de probabilidad para determinar la «confianza» en la identificación de objetos antes de interactuar con objetos físicos y evitar cualquier acción si el nivel de confianza está por debajo de un umbral específico.
- Un sistema de identificación facial usado en un aeropuerto u otro área segura debe eliminar imágenes personales que se usan para el acceso temporal tan pronto como ya no sean necesarias. Además, las medidas de seguridad deben impedir que las imágenes sean accesibles para operadores o usuarios que no tengan necesidad de verlos.
- Un agente de inteligencia artificial que ofrece interacción basada en voz también debe generar subtítulos de texto para evitar que el sistema sea inutilizable para los usuarios con discapacidades auditivas.
- Un banco que use una solicitud de aprobación de préstamo basada en inteligencia artificial debe revelar el uso de la inteligencia artificial y describir las características de los datos en los que se entrenó (sin revelar información confidencial).






