Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Falta claridad en el uso gubernamental de la IA en México

https://imagenes.eleconomista.com.mx/files/image_853_480/uploads/2025/01/22/6791baf394f49.jpeg

​La incorporación de la inteligencia artificial (IA) en el ámbito público mexicano ha aumentado considerablemente en tiempos recientes. No obstante, este progreso tecnológico ha sido acompañado por inquietudes acerca de la transparencia y la responsabilidad en su aplicación por las entidades gubernamentales.​

​La implementación de la inteligencia artificial (IA) en el sector público mexicano ha crecido significativamente en los últimos años. Sin embargo, este avance tecnológico ha estado acompañado de preocupaciones relacionadas con la transparencia y la rendición de cuentas en su uso por parte de las instituciones gubernamentales.​

Científicos del Centro de Investigación y Docencia Económicas (CIDE) han detectado al menos 119 usos de IA en funcionamiento dentro de los tres poderes de la Unión y los tres niveles de gobierno en México. Estas herramientas incluyen desde chatbots para servicio al ciudadano hasta sistemas de análisis de datos para apoyar en la toma de decisiones. No obstante, acceder a detalles específicos sobre estas aplicaciones ha resultado complicado debido a la falta de transparencia y la reticencia de ciertas instituciones a ofrecer información precisa sobre su utilización y operativa.

Retos en la claridad y disponibilidad de la información

Con el propósito de impulsar la transparencia, académicos del CIDE han creado un registro de algoritmos empleados por el sector público en México. Este esfuerzo tiene como objetivo documentar las aplicaciones de IA en diversas instituciones y subrayar los obstáculos para acceder a información esencial sobre su uso, regulación y fines. Durante el proceso de obtención de datos, se enviaron cerca de 2,200 solicitudes de transparencia a entidades gubernamentales. Sin embargo, muchas dependencias mostraron reticencia a la hora de proveer información o respondieron de forma ambigua. En ciertas ocasiones, las instituciones solo admitieron el uso de IA tras interponer recursos de revisión ante los entes de transparencia. Estados como el Estado de México y Nayarit se destacaron por su falta de respuesta generalizada.

Confusión y escasa comprensión sobre la IA

Otro inconveniente detectado es el desconocimiento existente dentro de las mismas instituciones acerca de qué califica como una aplicación de IA. En numerosas respuestas a solicitudes de transparencia, las dependencias mencionaron herramientas de software convencional, como paquetes de oficina o sistemas de ciberseguridad, como si fueran inteligencia artificial. En total, 223 aplicaciones reportadas no cumplían con los requisitos fundamentales para ser clasificadas como IA, lo que evidencia un problema de desinformación incluso en las áreas de tecnología de la información del gobierno.

Aspectos éticos y riesgos vinculados al uso de la IA

El empleo de IA en el ámbito público también ha suscitado debates éticos sobre privacidad, transparencia, responsabilidad y el derecho al acceso a la información. La falta de claridad en los algoritmos puede minar la confianza de la población en estas herramientas, particularmente si no se conocen los criterios que guían su funcionamiento o si presentan sesgos que podrían desembocar en decisiones discriminatorias. Por ejemplo, durante la pandemia de COVID-19, se pusieron en marcha chatbots como «Susana Distancia» y «Dr. Armando Vaccuno» para orientar a la ciudadanía. No obstante, surgieron inquietudes éticas respecto a la transparencia y privacidad en su utilización, lo que resultó en una disminución de la confianza y uso por parte del público.

El uso de IA en el sector público también ha generado debates éticos relacionados con la privacidad, la transparencia, la rendición de cuentas y el derecho de acceso a la información. La opacidad en los algoritmos puede afectar la confianza de la ciudadanía en estas herramientas, especialmente si no se conocen los criterios bajo los cuales operan o si existen sesgos que puedan conducir a decisiones discriminatorias. Por ejemplo, durante la pandemia de COVID-19, se implementaron chatbots como «Susana Distancia» y «Dr. Armando Vaccuno» para informar a la población. Sin embargo, surgieron preocupaciones éticas sobre la transparencia y la privacidad en su uso, lo que llevó a una baja confianza y uso por parte de la ciudadanía. ​

Necesidad de un marco regulatorio adecuado

La falta de transparencia en el uso de IA por parte de los gobiernos resalta la necesidad de establecer marcos regulatorios que garanticen la auditabilidad y responsabilidad en el uso de estas tecnologías. Es esencial analizar las legislaciones en diferentes ámbitos e identificar cómo podrían ser utilizadas adecuadamente para garantizar que la implementación de IA respete los derechos de la ciudadanía y opere de manera ética y transparente.

Por Otilia Adame Luevano

También te puede gustar

  • Conciencia e inteligencia: un debate sobre la vida y las máquinas

  • Investigación en IA cuestiona el futuro de la inteligencia como la humana

  • ¿Cómo funciona la antimateria?

  • IA y su adopción por gobiernos estatales