Millones de personas y múltiples empresas y organizaciones en todo el mundo están usando y trabajando con Inteligencia Artificial (IA). Parece muy difícil, para no decir imposible, paralizar el uso de IA en el mundo por seis meses como lo ha solicitado la carta abierta que apareció hace pocos días en The Future of Life Institute, firmada por más de 14.000 personas, incluyendo miembros influyentes de la comunidad de IA. En la mencionada carta, los temas descritos y las acciones propuestas no necesariamente son las más realistas, necesarias o viables. No existe un botón mágico que pueda frenar todas las investigaciones “peligrosas”, permitiendo solamente las “seguras”. Además, allí la atención está focalizada en los grandes modelos de lenguajes de las empresas comerciales, cuándo estos no son los únicos tipos de trabajo de IA que se están realizando. La investigación práctica de IA está ocurriendo en múltiples empresas, en el mundo académico, en competencias Kaggle (diseñadas para retar a los competidores en las diferentes etapas de sus carreras en Aprendizaje de Máquina).
Una experiencia vivida
Quiero aprovechar para relatar una experiencia personal relevante para este importante tema. Hace varias décadas, trabajando como consultor en un proyecto de tecnología en una importante siderúrgica, causé estupor entre el personal de tecnología de la empresa al dedicarme a probar individualmente cada programa y todo el sistema, esas acciones provocaron múltiples caídas del computador central. Por cierto, el sistema tuvo que ser desechado por mal concebido y mal programado. Esa situación ocurrió en los albores del uso de la tecnología. Con el tiempo, esta práctica de probar los sistemas se convirtió en un estándar común en la implementación de los sistemas internos en las empresas. Existiendo ahora sistemas que están siendo usados por millones de consumidores en forma global, no se ha conformado el mecanismo que pruebe y certifique dichos sistemas. Si se permite que las apps de uso universal sean cajas negras, no sorprende que ellas reflejen los prejuicios del programador. Esas Apps están funcionando, muchas con elementos de IA y ahora con la adopción masiva de tecnologías como ChatGPT, hay que acelerar los pasos necesarios para lograr la transparencia de las Apps.
Responsabilidad y transparencia
Esta carta abierta parecer plantear que el IA superhumano es un hecho. En la realidad, los sistemas actuales de IA son simplemente loros estocásticos, construidos sobre data generada por trabajadores de bajos ingresos, bajo una ingeniería elaborada que provee la semblanza de inteligencia. Es importante comenzar a cuestionar las capacidades y las limitaciones de estos sistemas y exigir responsabilidad y transparencia. Esto debería ser realizado dentro de instituciones, que incluyan hacedores de políticas, al igual que usuarios de dichas tecnologías, con el poder para darle forma tanto al presente como al futuro de IA. Por cuanto los modelos de IA son sistemas que están siendo implementados en todos los sectores de la sociedad, incluyendo áreas críticas como educación, medicina y salud mental, todos deben tener un rol en aquello que se considere aceptable y no aceptable. Idealmente debería incluir la participación en procesos democráticos enfocados a la legislación de IA y pudiendo llegar al extremo, como medida de presión, de forzar la no utilización de sistemas insuficientemente transparentes, exigiendo vigilancia sobre y responsabilidad por parte de los creadores e implementadores de tecnologías de IA.
Las posibilidades existentes
En lugar de frenar las investigaciones, se necesita mejorar la transparencia y la responsabilidad, mientras se desarrollan las directrices y las normas para la implementación de los sistemas de IA. Las políticas, la investigación y las iniciativas lideradas por usuarios han existido por décadas y existen proposiciones concretas para abordar los riesgos actuales de IA, que incluyen:
- Autoridades reguladoras – en diferentes países ya se están redactando leyes y protocolos para administrar el uso y el desarrollo de nuevas tecnologías de IA. En el senado estadounidense está en elaboración la Ley de Responsabilidad Algorítmica y hay otras iniciativas similares en Estados Unidos, Canadá y otros países. Estos proyectos están ayudando a definir: (1) que data se puede o no se puede utilizar para entrenar sistemas de IA, (2) temas de derechos de autor y licenciamiento y (3) las consideraciones especiales para el uso de IA en entornos de alto riesgo.
- Transparencia – esto implica exigirle a los creadores de sistemas de IA proveer mayor información sobre los detalles internos de los sistemas: la procedencia de la data de entrenamiento, el código utilizado para entrenar los modelos y las características de la implementación de los filtros de seguridad.
- Auditoría externa de los sistemas – que obligue a los responsables a asumir la responsabilidad de resolver los riesgos y la corrección de las deficiencias detectadas. Muchos de los modelos de IA más recientes como ChatGPT, Bard y GPT-4 son también los más restrictivos. Esencialmente ello los convierte en cajas negras cuyos resultados pueden cambiar de un día al otro o producir resultados distintos para personas diferentes. Hoy en día, para los investigadores no existe forma de acceder a los sistemas subyacentes, imposibilitando el análisis científico y la auditoría. Esto contraviene los enfoques de auditoría de sistemas de IA.
- Establecimiento de Normas y Guías – Para generar seguridad es necesario el replanteamiento colectivo de la forma en que se crea y se utiliza IA. Los desarrolladores e investigadores de IA pueden comenzar estableciendo las normas y guías para la práctica de IA, donde muchos individuos han venido proponiéndolas enfocadas a una IA más ética. Esto incluye a investigadores como Timnit Gebru, quién propuso un movimiento de “IA lento”, Ruha Benjamin quién se ha concentrado en la importancia de principios guía para un IA ético e iniciativas que parten de la comunidad como el Código de Ética que se está implementando en la conferencia NeurIPS.
Se hace referencia a The Call to Halt ‘Dangerous’ AI Research Ignores a Simple Truth, In Sudden Alarm, Tech Doyens Call for a Pause on ChatGPT y Pause Giant AI Experiments: An Open Letter. La imagen es cortesía de DALL-E.
Comentarios recientes