Una tecnología transformadora con riesgos
La Inteligencia Artificial (IA) ya forma parte de nuestras vidas: nos ayuda a encontrar el camino a casa más rápido, nos recomienda música y programas de televisión, y potencia los asistentes de voz. Asimismo, impulsa funcionalidades importantes de nuestros productos de tecnología educativa. A medida que la IA sigue evolucionando a un ritmo vertiginoso, tiene el potencial necesario para generar innovaciones transformadoras en la educación y en otros ámbitos de la vida que redundarán en beneficio de nuestros clientes y de la sociedad en general.
Toda tecnología nueva y potente conlleva un riesgo. Lo mismo ocurre con la IA. Los sesgos nocivos, los resultados imprecisos, la falta de transparencia y responsabilidad, así como una IA que no sea consecuente con los valores inherentes al ser humano, constituyen solo algunos de los riesgos que deben gestionarse para lograr un uso seguro y responsable de esta tecnología. Entendemos que somos responsables de gestionar estos riesgos y de ayudar a nuestros clientes a hacerlo.
Nuestro enfoque confiable de IA
El uso legal, ético y responsable de la IA es una de las principales prioridades de Anthology. Aunque la aparición de herramientas sofisticadas de IA generativa ha puesto más en relieve los riesgos de la IA, estos no son nuevos. Tampoco lo son para nosotros. Hace años que nos planteamos activamente la gestión de riesgos de la IA: en 2018 convocamos a diversas instituciones y profesores para debatir sobre la IA ética en educación superior. Desde entonces, llevamos a cabo varios seminarios web y sesiones con el objetivo de mostrar cómo gestionamos los riesgos de la IA al tiempo que ayudamos a educar a nuestros clientes.
En 2022, creamos un grupo de trabajo multidisciplinario y diverso para implementar un programa específico de IA confiable. En 2023, lo pusimos en marcha oficialmente (véase más abajo) bajo la dirección de nuestro Global Privacy Officer.
Nuestro programa de IA confiable está alineado con el Marco de gestión de riesgos de IA del NIST y con próximas legislaciones, como la Ley de IA de la UE. Se basa en nuestros programas y procesos de gestión de riesgos de privacidad y seguridad con certificación ISO y se integra a ellos.
Como ya se mencionó, la IA seguirá evolucionando rápidamente. A su vez, esto nos obliga a mantenernos ágiles y a continuar mejorando nuestro programa de IA confiable. Estamos comprometidos con la mejora continua de este a fin de garantizar que nosotros y nuestros clientes podamos utilizar las funcionalidades de los productos basados en IA de forma segura y responsable.
Nuestros principios de IA confiable
Como parte de nuestro programa de IA confiable, nos comprometemos a poner en práctica los siguientes principios. Estos se basan en los principios del Marco de gestión de riesgos de IA del NIST, la Ley de IA de la UE y los Principios de la OCDE sobre la IA, y están en consonancia con ellos. Todos ellos se aplican tanto a nuestro uso interno de la IA como a las funcionalidades propias de esta tecnología en los productos que ofrecemos a nuestros clientes.
- Equidad: minimizar los sesgos nocivos en los sistemas de IA.
- Confiabilidad: tomar medidas para garantizar que los resultados de los sistemas de IA sean válidos y confiables.
- Personas al mando: asegurarse de que sean las personas quienes tomen las decisiones finales de trascendencia jurídica u otra índole.
- Transparencia y explicabilidad: explicar a los usuarios cuándo se utilizan y cómo funcionan los sistemas de IA, además de ayudarlos a interpretar y usar de forma adecuada sus resultados.
- Privacidad, seguridad y protección: los sistemas de IA deben ser seguros y proteger la privacidad.
- Alineación de valores: los sistemas de IA deben adecuarse a los valores inherentes al ser humano, en particular a los de nuestros clientes y usuarios.
- Responsabilidad: asegurarse de que existe una responsabilidad clara con respecto al uso confiable de los sistemas de IA en Anthology, al igual que entre Anthology, sus clientes y sus proveedores.
Nuestro programa de IA confiable
- Gobernanza: un grupo de trabajo interdisciplinario supervisa y promueve el programa. Aprovechamos nuestros procesos actuales de gestión de riesgos de seguridad y privacidad de datos con certificación ISO.
- Política: implementamos una política interna que documenta los principios mencionados y nuestro enfoque en materia de gobernanza y gestión de riesgos.
- Capacitación y concienciación: nuestros empleados reciben capacitación anual sobre IA ética, y utilizamos comunicaciones periódicas para que tomen conciencia al respecto.
- Inventario de sistemas de IA: establecimos inventarios para realizar un seguimiento y gestionar el uso de los sistemas de IA en nuestra infraestructura corporativa y nuestros productos.
- Requisitos y revisión de productos: formalizamos nuestro enfoque de requisitos y revisión de productos, para lo cual aprovechamos nuestros procesos de privacidad y seguridad de datos.
Si tiene alguna pregunta sobre nuestro programa de IA confiable, póngase en contacto con nosotros en [email protected].