Desde octubre 2022, la Inteligencia Artificial parece haber tomado el mundo por asalto. Somos mucho más digitales, comenzando por nuestros teléfonos y redes sociales. En los diferentes dispositivos y plataformas, cada aplicación está cambiando para incluir la Inteligencia Artificial Generativa (IAG), así que aun cuando no lo sepamos o no lo quisiéramos, ya la estamos usando. Además de eso, muchas personas y organizaciones la están probando y usando de maneras muy diferentes, prácticamente la estamos descubriendo día a día. Para aprovechar todo el potencial de IA en una manera responsable y sostenible, y asegurar que esta contribuya en una forma positiva a la sociedad es necesario hacer un uso responsable y ético de la Inteligencia Artificial (IA). Entendiendo que la Inteligencia Artificial es un hecho muy importante, y está para quedarse y para transformar como hacemos las cosas y a todos los sectores de la economía también, es determinante identificar lo que se debe hacer para controlar los riesgos y reforzar la seguridad en su uso y lograr la confianza de la gente, y para ello podemos identificar los siguientes elementos:
- Seguridad – Garantizar la seguridad de los sistemas de IA es vital para poder prevenir ataques maliciosos y el robo de data. Esto incluye asegurar la data usada por IA, proteger los modelos de IA y asegurar que existan robustas medidas de ciberseguridad.
- Administración del riesgo – Los sistemas de IA plantean riesgos como filtraciones o violaciones de la data, su mal uso y las consecuencias no deseadas e involuntarias de estas. La administración efectiva del riesgo involucra la identificación temprana de los riesgos potenciales, la implementación de medidas preventivas y el continuo monitoreo de los sistemas de IA.
- Confianza – Generar confianza en los sistemas de IA es esencial para su adopción. Ello involucra asegurar la transparencia en la forma en la cual se toman las decisiones en IA y se abordan los sesgos, y haciendo los sistemas de IA entendibles para los usuarios.
- Consideraciones éticas – La IA ética involucra la equidad, la responsabilidad y la transparencia. Ello implica enfrentar temas como los sesgos, asegurar que las decisiones de IA sean explicables y lograr que los sistemas de IA sean utilizados de manera que beneficien a toda la sociedad.
Sesgo y equidad
El sesgo y la equidad son temas críticos en el desarrollo e implementación de los sistemas de IA, y son determinantes para que estos sean transparentes y beneficiosos para todos. El sesgo en IA ocurre cuando un sistema de IA produce resultados que están sistemáticamente cargados de prejuicios, debido a presunciones erróneas en el proceso de aprendizaje automático, los cuales pueden tener diferentes orígenes: (a) Sesgo de la data – Si la data que se usa para entrenar el modelo de IA esta sesgada, el modelo seguramente reflejará dicha parcialidades y prejuicios. Por ejemplo, si un modelo de reconocimiento facial es entrenado principalmente con imágenes de personas asiáticas, seguramente tendrá un desempeño pobre con individuos caucásicos o de piel oscura; (b) Sesgo algorítmico – Los algoritmos pueden introducir el sesgo y esto puede ocurrir en el diseño del algoritmo, o la forma en la cual procesa la data internamente, favoreciendo ciertos resultados sobre otros y (c) Sesgo humano – Los prejuicios pueden ser introducidos por los humanos que diseñan, entrenan e implementan los sistemas de IA. Sus propios sesgos y presunciones pueden influir en el comportamiento de IA.
En cuanto a la equidad o imparcialidad, esta involucra lograr que los sistemas de IA operen en una forma justa e imparcial y ello incluye: (a) Transparencia – Hacer que los sistemas de IA sean entendibles y explicables a los usuarios, lo cual a su vez ayuda a corregir los sesgos; (b) Responsabilidad (accountability) – Asegurar que existan mecanismos que responsabilicen a los sistemas de IA y a sus creadores de sus acciones y decisiones; (c) Inclusividad – Diseñar los sistemas de manera que consideren las necesidades y perspectivas de diversos tipos de públicos, ayudando así a crear resultados más imparciales y (d) Estrategias de mitigación – Implementar técnicas que detecten y reduzcan los sesgos en los sistemas de IA. Esto puede abarcar el uso de data de entrenamiento diversa, auditorias programadas y algoritmos conocedores o familiarizados con la imparcialidad.
Existen varias estrategias para enfrentar el sesgo y lograr la equidad y estas incluyen: (a) Recolección de data diversa – Asegurar que la data utilizada para entrenar los modelos de IA es representativa de todos los públicos, lo cual ayuda a reducir el sesgo de la data; (b) Herramientas de detección de sesgo – Utilizar herramientas y técnicas que ayuden a detectar prejuicios en los modelos de IA. Esto puede involucrar pruebas estadísticas y métricas de imparcialidad; (c) Guías éticas – Adoptar guías y estructuras para el desarrollo de IA, para asegurar que los sistemas de IA sean diseñados y utilizados responsablemente y (d) Monitoreo continuo – Monitorear el sistema de IA con regularidad para detectar señales de sesgo y de ventajismo, lo cual permite identificar y enfrentar las situaciones en la medida que ellas aparecen.
Chatbots éticos
Los chatbbots públicos adquieren más importancia cada vez y son medios que las personas y las organizaciones utilizan para complementar el conocimiento y la información que se maneja en sus sistemas internos. El desarrollo de chatbots éticos implica adherirse a varios lineamientos para asegurar que ellos sean responsables, transparentes y útiles para los usuarios. Algunos de los principios más importantes son:
- Transparencia, revelación y divulgación – incluyendo: (1) Identidad – para generar confianza y establecer las expectativas apropiadas, revelarle con claridad a los usuarios que están interactuando con un chatbot y no con un ser humano; (2) Propósito – con el fin de ayudar a los usuarios a conocer el alcance y las limitaciones del chatbot, explicando el propósito del chatbot y cómo este puede asistir a los usuarios.
- Consentimiento informado – abarcando: (1) Recolección de data – obtener la aprobación explícita de los usuarios antes de recolectar cualquier data personal. Asegurar que los usuarios entienden cual data está siendo recolectada y como será utilizada y (2) Uso – informar a los usuarios como su data será procesada y almacenada, incluyendo las prácticas para asegurar el anonimato que proteja la identidad de los usuarios.
- Privacidad y seguridad de la data, abarcando: (1) Protección – implementar medidas de seguridad robustas para proteger la data del usuario de violaciones o de accesos no autorizados y (2) Compliance – asegurar el cumplimiento de las regulaciones de protección data, tales como el Reglamento General de Protección de Datos.
- Responsabilidad, abarcando: (1) Manejo de errores – establecer mecanismos para detectar y corregir errores o daños causados por el chatbot e identificar el responsable por las acciones y decisiones del chatbot y (2) Ciclo de retroalimentación – proveer a los usuarios una vía para reportar y retroalimentar temas asociados al chatbot, y utilizar dicha retroalimentación para continuamente mejorar el chatbot.
- Guías éticas y el ámbito, comprendiendo: (1) Principios éticos – adoptar guías y esquemas para el desarrollo de IA, como equidad, imparcialidad, responsabilidad y transparencia y (2) Control humano – asegurar que exista vigilancia humana en los procesos críticos de toma de decisiones.
- Diseño centrado en el usuario, abarcando: (1) Inclusividad – diseñar los chatbots tomando en consideración las necesidades de diversos grupos de usuarios, ayudando a crear interacciones más equitativas y asequibles y (2) Experiencia del usuario – focalizarse en una experiencia del usuario positiva a través de un chabot intuitivo y confiable.
- Mitigación del sesgo – incluyendo: (1) Data variada – utilizar conjuntos de datos variados y representativos para entrenar al chatbot, reduciendo el riesgo de respuestas sesgadas y (2) Auditorías programadas – ejecutar auditorias para identificar y corregir cualquier prejuicio que haya aparecido en las interacciones del chatbot.
Se hace referencia a AI’s Trust Problem – Harvard Business Review, AI and cybersecurity: Navigating the risks and opportunities, The ethics of artificial intelligence: Issues and initiatives, Navigating the Ethics of AI in Chatbot Development – Libraria, Responsible bots: 10 guidelines for developers of conversational AI, Building Ethical AI Chatbots: A Guide to Responsible AI – Mohamed Soufan, Legal and Ethical Frameworks for AI Chatbot Development y Responsible bots: 10 guidelines for developers of conversational AI. La imagen es cortesía de Bing Image Creator.
Comentarios recientes