I. Introducción
La inteligencia artificial (IA) refiere a los sistemas o máquinas que imitan la inteligencia humana para realizar diversas tareas. Gracias al aprendizaje automático, estos sistemas pueden mejorar iterativamente a partir de la información que recopilan. La IA se trata del conjunto de algoritmos, tecnologías y técnicas implicadas para que los softwares o las máquinas puedan realizar funciones cognitivas enfocadas en la toma de decisiones, la resolución de problemas, la búsqueda, la comprensión de imágenes, el procesamiento de datos y la interpretación de la información (Gutiérrez et al., 2018).
En el contexto general, el uso de la IA en los gobiernos de muchos países se ha expandido en la última década. Gobiernos de países como Estados Unidos, China y Corea del Sur, así como la mayoría de los países de la Unión Europea, comenzaron a utilizar la IA para optimizar sus procesos organizacionales para una mejor prestación de servicios, para impulsar la interacción con los ciudadanos y para la toma de mejores decisiones (Valle-Cruz et al., 2020). De hecho, autores como Ronzhyn y Wimmer (2018), Charalabidis et al. (2019) y Misuraca et al. (2020) consideran que la implementación y el uso de la IA en el gobierno es una nueva etapa de desarrollo del gobierno electrónico, conocida como gobierno electrónico 3.0.
En el contexto particular de la pandemia de COVID-19 y el estado derivado conocido como la “nueva normalidad”,1 el uso de la IA por parte de los gobiernos ha adquirido mayor relevancia (Bonales et al., 2020; Cascón-Katchadourian, 2020; Cotino-Hueso, 2020; Rivera-Eisenmann, 2021). Esto se debe a que las administraciones públicas de todo el mundo se han visto en la necesidad de acelerar aún más sus estrategias de IA para la vigilancia y el monitoreo del comportamiento de la pandemia y de la población en general, para el seguimiento de los ciudadanos infectados con la enfermedad, para generar mapas informativos y modelos predictivos, así como para la prestación de servicios públicos y el intercambio de información a través de medios digitales (Sandoval-Almazán et al., 2020). El uso de la IA ha permitido procesar y analizar la gran cantidad de información que ha producido la pandemia y que ha contribuido a la generación de estrategias que permiten mitigar algunos de sus impactos.
Es así como los chatbots se han convertido en una de las principales herramientas que utiliza la IA y que están siendo utilizados con mayor frecuencia en el ámbito público. De acuerdo con la Encuesta de Gobierno Electrónico de la Organización de las Naciones Unidas (ONU) de 2020, el número de gobiernos que utilizan chatbots en sus portales nacionales se duplicaron de 28 en 2018 a 59 en 2020. Con la llegada y permanencia de la pandemia de COVID-19, esta tendencia continúa al alza; por ejemplo, en marzo de 2020, la Organización Mundial de la Salud (OMS) lanzó un chatbot por WhatsApp para compartir consejos e información respecto a la COVID-19.
A partir de ese momento, la mayoría de los gobiernos nacionales y locales comenzaron a implementar sus propios chatbots a propósito de la pandemia, los cuales funcionan por WhatsApp, Facebook y otras redes sociales y plataformas. De esta manera, en la actualidad los chatbots son la principal herramienta para compartir información sobre la COVID-19, para el monitoreo y control de los contagios, para el seguimiento de los enfermos y sus síntomas, 88 así como para los trámites y dudas de los respectivos procesos de vacunación.
En el caso de México, los chatbots que funcionan a partir de IA también han comenzado a ser utilizados en los últimos años, con el propósito de contribuir a la gestión de la pandemia de COVID-19. Algunos ejemplos son los siguientes: MARCia del Instituto Mexicano de la Propiedad Industrial (IMPI), Susana Distancia y Dr. Armando Vaccuno de la Secretaría de Salud, Sam Petrino del gobierno municipal de San Pedro Garza García en el estado de Nuevo León, Victoria y Adelita sin Delito del gobierno de la Ciudad de México. Los chatbots como MARCia y Adelita sin Delito fueron creados para mejorar y facilitar la atención ciudadana, el intercambio de información, la atención de reportes y la prestación de servicios públicos. Por su parte, los chatbots como Sam Petrino y Victoria fueron implementados inicialmente para cumplir los objetivos antes mencionados, incorporando posteriormente funciones para atender temas relacionados con la COVID-19. Por último, los chatbots como Susana Distancia y Dr. Armando Vaccuno fueron creados exclusivamente con motivo de la pandemia de COVID-19.
El uso de los chatbots en el gobierno, al igual que todas las herramientas que funcionan a partir de IA, han generado ciertos debates en los ámbitos público y académico en cuanto a las preocupaciones éticas que emergen al implementar dichas herramientas. Esto se debe a que, si bien el uso de ciertas tecnologías -como es el caso de la IA- puede representar una oportunidad para mejorar la gestión de algunos servicios, también puede aumentar la desigualdad en el acceso y el control de la información, acrecentar la vulnerabilidad y privacidad de los datos personales, generar mal uso de los datos, hacer difusa la responsabilidad del gobierno y dificultar la alineación de valores en los servicios públicos (Ronzhyn y Wimmer, 2019).
Por ejemplo, los chatbots permiten la toma de decisiones de forma automatizada, lo que se traduce en una falta de transparencia y en una disociación de la responsabilidad, pues no está claro cómo se toman las decisiones ni quién se hace responsable en caso de tomar una mala decisión por parte de los algoritmos utilizados. Estas preocupaciones éticas pueden tener repercusiones negativas para los usuarios y la ciudadanía en general, además de que resultan ser fundamentales al momento de que los usuarios acepten o adopten las diferentes herramientas que utilizan la IA (Misuraca et al., 2020).
En el contexto de la pandemia de COVID-19, la OMS mencionó que las herramientas de gobierno electrónico, como los chatbots, son fundamentales para hacerle frente a este problema. Adicionalmente, este organismo internacional menciona que la pandemia sorprendió de manera legal a muchos gobiernos alrededor del mundo, pues no se tienen los marcos regulatorios adecuados para gestionar muchas tecnologías que utiliza el gobierno electrónico, como la IA. En este sentido, dicho organismo enfatizó que la urgencia por 89 utilizar estas tecnologías y la ausencia de marcos regulatorios no deben ser un pretexto para vulnerar la privacidad, la protección y la transparencia en torno al uso de datos personales (OMS, 2020). Tal y como menciona Parselis: “El interés por estudiar y gestionar la trazabilidad de contagios en una pandemia no puede generar tecnologías que lesionen derechos individuales a la privacidad que el Estado debe garantizar, además de auditar el proceso de diseño y gestión de dicha tecnología” (2020: 326).
Para ello, la OMS emitió una serie de recomendaciones que deben seguir todas las herramientas de gobierno electrónico que sean utilizadas con motivo de la pandemia de COVID-19 para garantizar el derecho a la información y la privacidad, y son las siguientes: deben ser de carácter voluntario; tienen que ser transparentes en cuanto a la recopilación, almacenamiento y uso de los datos; deben de priorizar la privacidad de los usuarios (especialmente de aquellos que resulten positivos para COVID-19); los datos deben almacenarse de forma descentralizada; es necesario contar con protocolos estrictos de ciberseguridad, y los datos se deben conservar por un tiempo limitado (OMS, 2020).
En este sentido y dada la coyuntura actual, es de gran relevancia identificar y analizar cuáles son las principales preocupaciones en torno a los valores éticos que emergen al implementar chatbots con IA en el gobierno con motivo de la pandemia de COVID-19. Esto se hace con el fin de proponer marcos regulatorios innovadores que garanticen que esas herramientas sean implementadas bajo un marco ético para beneficio de los usuarios y los ciudadanos, favoreciendo así su aceptación y adopción. Por lo tanto, la pregunta que conduce esta investigación es la siguiente: ¿cuáles son las principales preocupaciones éticas y legales, fundamentalmente con respecto a la transparencia y al derecho a la información, implicadas en la implementación de chatbots basados en IA en México en el contexto de la pandemia de COVID-19?
Para responder esta pregunta se analiza el caso particular de dos chatbots implementados por el gobierno federal de México a propósito de la COVID-19: Susana Distancia y Dr. Armando Vaccuno. El objetivo de esta investigación es identificar y analizar las principales preocupaciones éticas que emergen al implementar y utilizar estos chatbots, las cuales son: 1) rendición de cuentas; 2) transparencia; 3) privacidad; 4) confianza, y 5) inclusión.
En este artículo se plantea como hipótesis que el gobierno mexicano cuenta con un marco legal débil e inadecuado ante los retos éticos que implica la implementación de la IA dentro de la esfera pública. Esa carencia genera afectaciones a la transparencia, la rendición de cuentas y la privacidad de los usuarios, vulnerando el derecho a la información y generando una percepción de desconfianza y exclusión, lo cual se traduce en un bajo nivel de apropiación por la sociedad.
La metodología de la investigación consiste en un análisis exploratorio, en el que se efectuó un sondeo abierto de percepción ciudadana para identificar la opinión de los usuarios en torno a las cinco preocupaciones éticas men cionadas. El cuestionario que conforma el sondeo fue diseñado a partir de la aplicación Google Forms, lo que permitió difundir el cuestionario a través de redes sociales, como Facebook y WhatsApp, así como por correo electrónico.
La estructura del trabajo es la siguiente: en el segundo apartado se mencionan los principales conceptos y las preocupaciones éticas relacionadas con la IA y los chatbots en el gobierno; en el tercer apartado se describe la metodología empleada para el diseño y la aplicación del sondeo de percepción ciudadana; en el cuarto apartado se desarrollan los casos estudiados y se analizan los resultados obtenidos mediante el sondeo, y en el último apartado se plasman las principales conclusiones de este trabajo, las limitaciones y las futuras líneas de investigación.
II. Gobierno electrónico, inteligencia artificial, chatbots y preocupaciones éticas con respecto a la transparencia y el derecho a la información
El gobierno electrónico se refiere al uso, desarrollo e implementación de las tecnologías de la información y comunicación (TIC) en el sector público, con el fin de mejorar y hacer más eficientes los procesos organizacionales (LunaReyes et al., 2015), proveer nuevos y mejores servicios públicos (Massal y Sandoval, 2010), promover la transparencia y la rendición de cuentas (Seo et al., 2018) y generar mecanismos más eficientes de participación democrática (Misuraca et al., 2020).
El uso de las TIC en las tareas cotidianas del gobierno comenzó a principios de la década de los sesenta al introducir computadoras para la automatización de algunas tareas repetitivas (Luna-Reyes et al., 2015). Sin embargo, es hasta la década de los noventa cuando el fenómeno del gobierno electrónico se reconoce propiamente como tal,2 al introducir la Internet en las organizaciones públicas para hacer más eficientes los procesos organizacionales y la prestación de servicios, principalmente sustituyendo muchas de las transacciones que eran realizadas en papel por transacciones electrónicas y digitales (Charalabidis et al., 2019).
En las últimas décadas, el fenómeno del gobierno electrónico se ha expandido y se ha vuelto más complejo. Esto se debe principalmente a que los gobiernos de todo el mundo han utilizado las TIC con mayor intensidad en sus 91 tareas cotidianas, y para ello han introducido tecnologías cada vez más complejas, como las nuevas generaciones de Internet, las redes sociales, el cómputo en la nube, el Big Data y, más recientemente, la IA. De acuerdo con autores como Nam (2013), Valle-Cruz y Sandoval-Almazán (2014), Ronzhyn y Wimmer (2018), Charalabidis et al. (2019) y Misuraca et al. (2020), la introducción e implementación de estas tecnologías en el gobierno se conoce como gobierno electrónico 3.0.
Países como Estados Unidos, Corea y China, así como la mayoría de los países de Europa, tienen estrategias nacionales de gobierno electrónico centradas en la IA para la optimización de sus procesos organizacionales, la prestación de servicios y la toma de decisiones (Valle-Cruz et al., 2020). Por otro lado, algunos gobiernos han implementado proyectos aislados que tienen como eje el uso de la IA y que se han convertido en casos exitosos a nivel nacional (Sandoval-Almazán et al., 2020).
La IA se refiere a las funciones cognitivas típicamente asociadas con la inteligencia humana, pero que son realizadas por parte de las máquinas, las computadoras y los softwares, con el objetivo de resolver problemas a partir de algoritmos y técnicas de aprendizaje automático que recopilan información para adquirir conocimientos, permitiendo la toma de decisiones autónomas (Ronzhyn y Wimmer, 2018). La IA tiene un gran potencial para transformar las funciones del gobierno, ya que puede hacer los procesos más eficientes y precisos, mejorar la interacción con los ciudadanos al recopilar y procesar mayor cantidad de información, brindar servicios de mayor calidad y de carácter personalizado, realizar una mejor toma de decisiones y permitir el diseño y la evaluación de políticas públicas (Valle-Cruz et al., 2020).
Con la llegada de la llamada “nueva normalidad”, los gobiernos nacionales y locales de todo el mundo se han visto en la necesidad de acelerar aún más sus estrategias de gobierno electrónico. La IA es una de las tecnologías que ha mostrado un creciente incremento de su uso debido a dicha situación, y se ha utilizado principalmente para la prestación de servicios a distancia, para la vigilancia y el monitoreo del comportamiento de la pandemia y de la población en general, así como para generar mapas informativos y modelos predictivos de los contagios (Sandoval-Almazán et al., 2020). Estas estrategias han permitido de cierta manera mitigar los impactos de la pandemia.
El uso generalizado e intensivo de las TIC en los gobiernos ha generado impactos positivos en los últimos años y en la coyuntura inmediata. Sin embargo, esto también implica grandes retos en torno al derecho de acceso a la información, pues se han generado mayores brechas como resultado de la diversidad de acceso y uso de las TIC por parte de los distintos estratos poblacionales. Adicionalmente, la falta de legislaciones o marcos normativos que brinden confianza a las y los usuarios sobre el uso de la información recopilada ha provocado que gran parte del debate público y académico referente al tema se centre en abordar los problemas éticos que surgen cuando el gobierno implementa estas tecnologías.
En términos generales, la ética en el gobierno se refiere al sistema de valores y normas que está implicado en todos los procesos de gobierno, desde la selección de los problemas públicos, los métodos para definirlos y su racionalidad hasta el desempeño de las instituciones públicas y sus funcionarios (Bautista, 2007; Uvalle, 2014). Es fundamental que el espacio público a cargo de los gobiernos sea regulado por valores normativos que definan ventajas, restricciones y sanciones, así como un sistema de incentivos que motive a los individuos a obrar con sentido constructivo en la vida democrática (Uvalle, 2014). La legalidad, la imparcialidad, la justicia, la igualdad, la libertad, el pluralismo, la responsabilidad, la inclusión, la participación y la transparencia son algunos de los valores de un gobierno democrático que tienen como horizonte la preservación del interés público, generar conductas en favor de la vida colectiva y el sentido de pertenencia a la vida comunitaria, así como asegurar el bienestar general de los ciudadanos y los grupos de interés (Uvalle, 2014; Ronzhyn y Wimmer, 2019). Por lo tanto, la ética de gobierno es el elemento fundamental para garantizar la confianza y la legitimidad del gobierno ante la sociedad, lo cual es vital en cualquier sistema democrático, en donde los ciudadanos esperan que la acción pública sirva a la pluralidad de intereses con equidad y que se administren los recursos de forma correcta (Bautista, 2007).
En términos particulares y en el contexto actual en el cual el uso de las TIC por parte del gobierno se ha intensificado, la ética en el gobierno adquiere mayor relevancia. Esto se debe a que dichas tecnologías permiten generar, recolectar, almacenar, procesar y distribuir importantes cantidades de información, gran parte de la cual está conformada por datos personales de los usuarios que utilizan los servicios públicos; estos datos son considerados sensibles, pues contienen información sobre la identidad, las características y las acciones de los ciudadanos (Luna-Reyes et al., 2015). Adicionalmente, el uso de estas tecnologías acentúa la relación desigual entre el gobierno y los ciudadanos, ya que el gobierno tiene el control de la información, mientras que los ciudadanos pueden ser dependientes y vulnerables (Ronzhyn y Wimmer, 2019). Finalmente, las TIC tienen un potencial transformador en la vida y los valores públicos; por lo tanto, pueden ser usadas para modificar las conductas 93 de los ciudadanos (Ronzhyn y Wimmer, 2019). En este sentido, resulta fundamental que la implementación de estas tecnologías por parte de los gobiernos sea enmarcada dentro de un marco ético que cuente con un sistema de valores y normas enfocadas en salvaguardar el bienestar de los individuos y la sociedad en general.
Ronzhyn y Wimmer (2019) realizan una exhaustiva revisión de la literatura e identifican diez valores en torno a los que se han manifestado preocupaciones éticas cuando se habla de gobierno electrónico: 1) inclusión; 2) privacidad; 3) uso de datos; 4) calidad y precisión de la información; 5) transparencia; 6) rendición de cuentas; 7) propiedad de la información; 8) confianza; 9) alineación de valores, y 10) costos.
Las preocupaciones éticas sobre estas categorías son consideradas una de las principales barreras para la transformación digital en el ámbito gubernamental en la actualidad. Esto se debe a que la falta de consideración o el incumplimiento de estos valores éticos genera afectaciones en los derechos de los usuarios y los ciudadanos. Dichas afectaciones provocan que la aceptación y adopción de las nuevas tecnologías por parte de los usuarios y los ciudadanos se pueda ver comprometida. Por ejemplo, aquellas nuevas tecnologías que no son consideradas transparentes y que no garanticen la privacidad de la información de los usuarios no generarán confianza y, por lo tanto, no serán aceptadas por la ciudadanía en general ni utilizadas por los usuarios potenciales.
En otras palabras, para que estas tecnologías sean aceptadas y utilizadas, y generen impactos positivos dentro de la sociedad, además de contar con características técnicas superiores, es necesario que se respeten el derecho a la información, la transparencia y la rendición de cuentas, y que existan condiciones necesarias para la protección de datos y privacidad de la información, restricciones claras sobre el uso, distribución y almacenamiento de los datos, así como mecanismos de ciberseguridad para evitar el robo de datos.
En el contexto particular del uso de la IA en el gobierno, el debate sobre las preocupaciones éticas se ha vuelto aún más recurrente y complejo (Valle-Cruz et al., 2020; Misuraca et al., 2020). Esto se debe a que el uso de estas tecnologías aumenta exponencialmente la recopilación, la generación, el almacenamiento, el procesamiento, el uso y la difusión de la información y, por consiguiente, de los datos personales de los ciudadanos, generando así una mayor vulnerabilidad (Ronzhyn y Wimmer, 2018). De acuerdo con Ronzhyn y Wimmer (2019), las principales preocupaciones éticas asociadas al uso de la IA en el gobierno son:
Responsabilidad. La IA permite la toma de decisiones de forma automatizada; por lo tanto, puede no ser del todo claro quién es el 94 responsable de estas decisiones, sobre todo cuando se toma una mala decisión por parte de los algoritmos utilizados, la cual puede tener repercusiones de gran escala en la sociedad.
Privacidad. La IA puede vulnerar la privacidad de los usuarios, ya que puede ser utilizada para la vigilancia, la creación de perfiles y la recopilación de datos personales.
Inclusión. La IA podría aumentar la desigualdad en dos sentidos: a) entre aquellos ciudadanos que tienen acceso a la tecnología y entre aquellos que no lo tienen, y b) entre quienes controlan la IA -por ejemplo, el gobierno- y entre aquellos que no tienen el control de ésta -por ejemplo, los ciudadanos-.
Transparencia. La IA resulta ser una “caja negra” para la mayoría de los ciudadanos; por tal motivo, el proceso de toma de decisiones por parte de estos sistemas será desconocido para la mayoría de las personas.
Confianza. La IA puede tomar decisiones autónomas que generen cierta desconfianza en los ciudadanos, pues se desconocen tanto la utilización de los datos (los cuales pueden ser incorrectos e incompletos) como la forma en la que se procesan esos datos.
En el contexto actual de la pandemia de COVID-19, en donde las herramientas de IA han adquirido mayor difusión e importancia, resulta fundamental analizar las preocupaciones en torno a estos valores éticos en busca de un mayor entendimiento de su dinámica e impactos. Esto se hace con la finalidad de generar propuestas que eventualmente se traduzcan en lineamientos y marcos regulatorios innovadores que garanticen que las nuevas tecnologías serán implementadas bajo un marco ético que minimice los riesgos para los usuarios, y con ello favorecer una mayor aceptación por parte de los ciudadanos y un mayor uso por parte de los usuarios (Oszlak, 2020).
Este trabajo pretende contribuir con dicho propósito y se enfoca al análisis de los chatbots, que son una de las herramientas que utilizan IA y que figuran como una de las principales estrategias del gobierno electrónico que se están implementando en todo el mundo.
Los chatbots son interfaces que simulan una conversación humana a partir de la IA y el aprendizaje computacional, lo cual permite asociar el lenguaje introducido y la toma de decisiones para brindar algún tipo de información o un servicio de forma autónoma (Cabello et al., 2018; Rivera-Eisenmann, 2021). Los chatbots no sólo sirven para responder preguntas sencillas, sino que también son asistentes digitales que aprenden a través de la interacción para ofrecer una comunicación cada vez más inteligente y personalizada. Adicionalmente, los chatbots funcionan las 24 horas del día, los siete días de la semana, con lo que se puede obtener una respuesta prácticamente inmediata, reduciendo drásticamente el tiempo de respuesta de los servicios tradicionales (Herrera-Monje, 2021).
En el caso de su aplicación en el gobierno, los chatbots pueden permitir brindar información básica con fines de transparencia, rendición de cuentas y prestación de servicios; no obstante, sobre todo y a partir del aprovechamiento del Big Data y el cómputo en la nube, los chatbots pueden usarse para el aprovechamiento de grandes conglomerados de datos para comprenderlos, procesarlos y analizarlos, lo que puede apuntar al mejoramiento en la prestación de servicios y el fomento a la participación directa de la ciudadanía, todo esto de forma automatizada y con un aprendizaje constante (Rivera-Eisenmann, 2021).
Al igual que otras herramientas que utilizan la IA, el uso de chatbots se ha incrementado durante la pandemia de COVID-19, pues los gobiernos han visto en esta herramienta un aliado para la prestación de información y servicios a distancia, para compartir información sobre el virus y la enfermedad derivada, para monitorear y controlar los contagios, para el seguimiento de los enfermos y sus síntomas, así como para los trámites y dudas sobre la disponibilidad hospitalaria y los procesos de vacunación (Cascón-Katchadourian, 2020; Cotino-Hueso, 2020; Herrera-Monje, 2021; Peña-Torres et al., 2022).
En este trabajo se aborda el caso de dos chatbots: Susana Distancia y Dr. Armando Vaccuno, que han sido implementados en el gobierno de México por motivos de la COVID-19. Se analizan las preocupaciones éticas referentes a los siguientes valores de gobierno: 1) rendición de cuentas; 2) transparencia; 3) privacidad; 4) confianza, y 5) inclusión. También se generan una serie de recomendaciones y lineamientos para la implementación ética de este tipo de herramientas. En el siguiente apartado se describe la metodología empleada para este fin.
III. Metodología
Para cumplir con el objetivo de este trabajo, la metodología se dividió en dos partes. En la primera parte se presentó un análisis exploratorio para conocer las principales características de los chatbots Susana Distancia y Dr. Armando Vaccuno, así como los debates éticos que han generado sobre los datos personales, la privacidad, la transparencia, la confianza, la inclusión y la responsabilidad. Este ejercicio exploratorio se basó en el análisis documental hemerográfico, en el cual la información que se recopiló, seleccionó y procesó proviene de diferentes fuentes externas, como artículos académicos, artículos periodísticos, documentos de instituciones mundiales y documentos de organismos nacionales.
En la segunda parte se aplicó un sondeo abierto a la población para identificar la percepción de la ciudadanía sobre los chatbots Susana Distancia y Dr. Armando Vaccuno en México. Se buscó identificar la opinión de los usuarios sobre cinco valores éticos que generan preocupaciones y están relacionados con el uso de la IA en el gobierno y el derecho de acceso a la información, los cuales son: 1) la responsabilidad; 2) la privacidad; 3) la inclusión; 4) la transparencia, y 5) la confianza.
La elección metodológica del sondeo como herramienta responde a los siguientes criterios: permite recolectar información sobre la opinión pública de los ciudadanos de forma ágil; es adecuado para hacer análisis empírico exploratorio y conocer el panorama general de un tema en particular; es rápido y conciso, y puede ser aplicado a través de medios como la Internet y las redes sociales. El cuestionario que conforma el sondeo que se usó fue diseñado a partir de la aplicación Google Forms. Esto permitió difundir el cuestionario a través de redes sociales, como Facebook y WhatsApp, así como por correo electrónico, aplicándolo durante abril de 2022. La población objetivo del sondeo fueron personas mayores de quince años que habitan en el territorio mexicano.
El cuestionario consta de tres secciones. En la primera sección se preguntan datos generales de los participantes, como edad, género, último grado de estudio y sector en el que laboran; también se pregunta si han utilizado algunos de los chatbots Susana Distancia y Dr. Armando Vaccuno. Si los participantes han utilizado alguno de estos chatbots, el sondeo continúa en la segunda sección; si no los han utilizado, el sondeo continúa en la tercera sección.
En la segunda sección se pregunta a los participantes la principal razón por la que han utilizado los chatbots mencionados. Posteriormente, se les hacen cuatro preguntas de cada una de las preocupaciones éticas que son objeto de este trabajo. Por otro lado, en la tercera sección se pregunta a los participantes la principal razón por la que no han utilizado los chatbots. Después, se hacen las mismas preguntas que a aquellos que sí utilizaron la aplicación. Cabe mencionar que todas las preguntas realizadas en el sondeo son de opción múltiple.
Es necesario puntualizar que el sondeo no permite generalizar ni presentar resultados concluyentes sobre el comportamiento poblacional y se pueden presentar sesgos, dado que su diseminación se ubica sobre todo en población urbana con cierto nivel de escolaridad, acceso a Internet y medios digitales. Además, al usarse como estrategia “la bola de nieve”, se conecta fundamentalmente con un círculo de personas con características similares o cercanas. No obstante, a pesar de las limitaciones, en este trabajo se considera que, dada la coyuntura de lo que significa el uso de los chatbots elegidos, era un instrumento que valía la pena utilizar para poder recopilar información lo más rápido posible. Finalmente, se reconoce que el número de respuestas también es una limitante; sin embargo, la tendencia coincide con otro tipo de análisis que han levantado este tipo de percepciones.
IV. Chatbots y COVID-19: ética, responsabilidad y acceso a la información en México
1. Susana Distancia
El chatbot Susana Distancia fue implementado el 21 de abril de 2020 y estuvo en funcionamiento hasta el final de la Jornada Nacional de Sana Distancia, en julio de 2020. Fue creado por la empresa tecnológica YaloChat, en alianza con Facebook, la Coordinación de Estrategia Digital Nacional de la Presidencia de la República, la Dirección General de Promoción de la Salud y la Dirección General de Tecnologías de la Información de la Secretaría de Salud del gobierno federal de México (Salud Digital, 2020).
Este chatbot de atención inmediata, automatizado, gratuito y siempre disponible (veinticuatro horas, siete días a la semana) tuvo como objetivo general ser el principal canal de comunicación oficial a través de medios digitales en temas referentes a la pandemia de COVID-19 en México (Forbes, 2020; Guevara, 2020). Sus objetivos particulares fueron los siguientes: responder dudas a la población en general sobre COVID-19; ayudar a identificar síntomas de la enfermedad derivada y orientar sobre las acciones a seguir; ser un contacto inmediato con la población usuaria de WhatsApp, y generar respuestas automáticas y actualizadas sobre la pandemia (Expansión, 2020).
Para acceder al chatbot se requería el envío de un mensaje de texto mediante la aplicación de WhatsApp al número 55-8633-8589; de esta manera, se desplegaba un menú con cinco opciones, que posteriormente fueron ampliadas a nueve. Los usuarios podían responder con un número del 0 al 8, dependiendo la opción deseada, que en este caso eran las siguientes (Salud Digital, 2020): 0) un test de riesgo de COVID-19 para realizar un diagnóstico simple de síntomas; 1) ¿qué es la COVID-19 y cómo se transmite?; 2) ¿cuáles son los síntomas de COVID-19?; 3) ¿qué debo hacer si yo o alguien de mi familia presenta algún síntoma de COVID-19?; 4) información sobre medidas básicas de prevención; 5) preguntas frecuentes; 6) recomendaciones a viajeros; 7) enlace para consultar el último reporte de caso, y 8) opción de compartir el chatbot con tus contactos.
El chatbot Susana Distancia se diseñó para hacer, mediante la IA y el aprendizaje automático, un análisis de las preguntas que no se estaban respondiendo, lo cual le permitía aprender de éstas al generar y mapear categorías de interés. De esta manera, el sistema se iba nutriendo y actualizando de la interacción con los usuarios, a fin de agregar nuevas preguntas y respuestas (IA por dentro, 2020).
2. Dr. Armando Vaccuno
El chatbot Dr. Armando Vaccuno fue implementado el 13 de mayo de 2021 para sustituir al chatbot Susana Distancia, convirtiéndose así en la principal herramienta oficial de contacto inmediato, gratuito y automático en temas referentes a la pandemia de COVID-19 en todo el territorio mexicano (Ramos, 2021). Fue creado por la empresa Auronix, líder de proveedores globales de mensajería empresarial, en conjunto con WhatsApp, Facebook y la Secretaría de Salud del gobierno federal de México (Gobierno de México, 2021). Este chatbot, al igual que el anterior, se caracteriza por ser de atención inmediata, automatizado, gratuito y siempre disponible (veinticuatro horas, siete días a la semana). Asimismo, su objetivo fue el de brindar información y servicios a la población en cuanto al proceso de vacunación de COVID-19 (Forbes, 2021).
Los objetivos particulares planteados fueron los siguientes: informar sobre el procedimiento a seguir antes y después de recibir la vacuna contra la COVID-19; brindar la ubicación de las locaciones donde se aplica dicha vacuna; atender cualquier pregunta, duda e información sobre las diferentes vacunas; hacer recordatorios de citas de vacunación; emitir certificados oficiales de vacunación, y difundir las medidas básicas de prevención para seguir mitigando la propagación del virus (Sáenz, 2021).
Para iniciar una conversación con el chatbot, es necesario mandar un mensaje por la aplicación de WhatsApp al número 56-1713-0557 y escribir la palabra “hola”. De esta manera, el chatbot responde inmediatamente con un menú de opciones de acuerdo con la etapa del proceso de vacunación en la que se encuentre el usuario, opciones que pueden ser las siguientes (Infobae, 2021): recibir notificaciones cuando comience la fecha de vacunación conforme al grupo de edad; mostrar las locaciones donde se aplica la vacuna; comenzar el registro en el proceso de vacunación; consultar la cita para la vacunación; recibir un recordatorio de esta cita, y obtener el certificado de vacunación. Además, este chatbot te puede contestar preguntas precargadas 99 y relacionadas con cada una de las etapas del proceso de vacunación en la que se encuentre el usuario.
El chatbot brinda un canal de comunicación bidireccional entre el gobierno y la población sobre los procesos de vacunación de COVID-19. Sin embargo, no puede brindar una atención personalizada a los usuarios ni responder preguntas que no aparezcan dentro de las opciones del menú. Para ello se activaron otros canales de comunicación, como un sitio web (vacunacovid.gob.mx), un correo electrónico (buzon.covid@salud.gob.mx) y un centro de atención telefónica (55-3684-0370) (Infobae, 2021).
Resultados y análisis del sondeo
A partir de la descripción presentada y de acuerdo con la metodología descrita en el tercer apartado, se muestran los resultados obtenidos en las cinco variables propuestas en el marco teórico: transparencia, rendición de cuentas, privacidad, confianza e inclusión.
El sondeo aplicado identifica tanto a los usuarios de chatbots como aquellos que nunca han hecho uso de este tipo de tecnología, ya que para ambas poblaciones interesaba indagar sobre el nivel de conocimiento y, en general, las opiniones sobre las variables mencionadas. El primer elemento que destaca es que, del total de la población que participó en el sondeo, sólo el 36.6% ha utilizado algún tipo de chatbot, frente a la mayoría representada por el 63.4%, quienes nunca han usado alguno. Este primer dato permite observar que, a pesar de que el gobierno mexicano considera que es una de las principales herramientas para proveer de información y servicios relacionados con la COVID-19 a la población, aún se tiene un bajo nivel de penetración. Si bien éste no es un dato generalizable, permite identificar que es una herramienta con amplio potencial de uso, pero dependerá de que la población la conozca y se apropie de ella.
Dentro de la diversidad de razones por las cuales la población sondeada reporta que ha utilizado los chatbots analizados, se ubica la de obtener información con 48.2%, seguida de la realización de algún trámite con 46.4%, la curiosidad con 3.6% y, por último, 1.8% mencionó otra opción. Por otro lado, en cuanto a la población que no los ha usado, el 58.8% dice que no ha sido necesario; el 17.5% respondió que tiene algún tipo de preocupación con respecto al uso de sus datos personales; el 11.3% señaló que no los considera útiles; el 9.3% mencionó que no los conoce, y, finalmente, el 3.1% estableció que tiene dificultad para usarlos. En este caso, destaca el resultado sobre la preocupación en el uso de datos personales, ya que representa justamente un tema ético que se convierte en una barrera importante para que la población use los chatbots. Estas razones éticas serán desglosadas a continuación.
a. Transparencia
Como se ha mencionado previamente, la forma en que funcionan los chatbots sigue siendo una “caja negra”, en el sentido de que las y los usuarios desconocen el tipo de información que se recopila, la forma en la que se procesa y la manera en la que se usan los datos derivados. De acuerdo con las respuestas obtenidas en el sondeo con respecto a la transparencia, se puede observar que, del total de usuarios que han utilizado este tipo de servicios, alrededor del 60% desconoce qué información se recopila y cómo se usa posteriormente. Un porcentaje importante de los usuarios -cerca del 30%- considera que los chatbots no son lo suficientemente claros en torno a su funcionamiento y al tipo de datos que se recopilan. En cuanto al aviso de privacidad, el 38% de los usuarios estima que éste no es lo suficientemente claro y fácil de entender.
A pesar de estas percepciones de los usuarios sobre la transparencia de los chatbots en cuestión, cerca del 77% de los usuarios considera que este tipo de instrumentos favorecen la disponibilidad y el acceso a cierto tipo de información a través de medios digitales. Se puede pensar que el usuario identifica lo que es un mecanismo útil a pesar de percibir que no existe suficiente transparencia sobre el funcionamiento de éstos. Finalmente, puede observarse que, del porcentaje de personas sondeadas que reportaron no haber hecho uso de alguno de los chatbots, existe un alto nivel de desconocimiento e incertidumbre sobre el funcionamiento, las características, los datos recopilados y el aviso de privacidad. Estos hallazgos respecto a la transparencia se muestran a continuación.
¿Sabe qué tipo de información personal se recopila cuando usa estos chatbots y cómo se usa dicha información posteriormente? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 41.1 | 8.2 |
No | 58.9 | 91.8 |
¿Considera que estos chatbots son lo suficientemente claros en cuanto a su funcionamiento y sobre los datos personales que se recopilan? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 25 | 4.1 |
No | 28.5 | 22.7 |
Tal vez | 41.1 | 22.7 |
No sé | 5.4 | 50.5 |
¿Considera que el aviso de privacidad de estos chatbots es lo suficientemente claro y es fácil de entender? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 23.2 | 8.2 |
No | 37.5 | 28.9 |
Tal vez | 33.9 | 18.6 |
No sé | 5.4 | 44.3 |
¿Considera que estos chatbots favorecen la disponibilidad y el acceso a la información a través de medios digitales? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 76.8 | 25.8 |
No | 0 | 9.2 |
Tal vez | 21.4 | 39.2 |
No sé | 1.8 | 25.8 |
Fuente: elaboración propia.
b. Rendición de cuentas
Al preguntarle a las personas sobre quién considera que es el responsable de las respuestas y decisiones tomadas por los chatbots, se identifica que la gran mayoría refiere al gobierno, puntualmente 55.4% de quienes los han usado y 33% de quienes no los han usado (véase Tabla 2). Además, las personas mencionan que el gobierno es el principal responsable de la rendición de cuentas y de hacerse cargo de las consecuencias de las decisiones que toman los chatbots. Adicionalmente, un importante porcentaje de personas piensa que está plenamente justificado el uso de chatbots, pues mencionan que existen razones suficientes para hacer uso de este tipo de tecnologías, específicamente 57% de los que los han usado y 26% de los que no los han usado. Sin embargo, un punto importante para destacar es que la mayoría de las personas sondeadas considera que el gobierno no responderá de manera adecuada ante un mal funcionamiento de estos chatbots, específicamente 59% de los que los han usado y 66% de los que no los han usado. Esto refleja una percepción negativa de los ciudadanos sobre la rendición de cuentas por parte del gobierno.
¿Quién considera que es el responsable de las respuestas y decisiones tomadas por estos chatbots? | Han utilizado chatbots | No han utilizado chatbots |
El gobierno en general | 55.4 | 33 |
Las empresas que apoyaron en su creación | 12.5 | 26.8 |
Los funcionarios públicos encargados de su creación | 30.4 | 29.9 |
Otro | 1.7 | 10.3 |
¿Considera que el gobierno es responsable (está obligado a rendir cuentas y a hacerse cargo de las consecuencias) por las respuestas y las decisiones tomadas por estos chatbots? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 80.4 | 69.1 |
No | 5.4 | 6.2 |
Tal vez | 14.2 | 15.5 |
No sé | 0 | 9.2 |
¿Considera que existen razones suficientes para justificar el uso de estos chatbots que ofrecen respuestas automáticas? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 57.1 | 25.8 |
No | 8.9 | 20.6 |
Tal vez | 28.6 | 32 |
No sé | 5.4 | 21.6 |
¿Considera que el gobierno responderá de manera adecuada ante un mal funcionamiento (por ejemplo, respuestas erróneas, pérdida y fuga de la información, etcétera) de estos chatbots? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 10.7 | 11.3 |
No | 58.9 | 66 |
Tal vez | 25 | 6.2 |
No sé | 5.4 | 16.5 |
Fuente: elaboración propia.
c. Privacidad
Como se ha mencionado en las dos primeras partes de este artículo, el tema de la privacidad es crucial en el uso de tecnologías disruptivas y sus herramientas derivadas, como los chatbots, y se ha convertido en una de las principales barreras para que los usuarios hagan uso de este tipo de tecnologías. Dentro de las preguntas dedicadas a esta categoría, se puede observar en las respuestas que la mayor parte de las personas considera que no existen medidas de seguridad adecuadas para proteger la privacidad de los datos personales ante algún robo de información, específicamente 30.4% de los que los han usado y 35.1% de quienes no los han utilizado (véase Tabla 3).
¿Considera que estos chatbots tienen las medidas de seguridad adecuadas para proteger la privacidad de los datos personales de los usuarios y minimizar los riesgos de robo de esta información? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 5.4 | 5.2 |
No | 30.4 | 35.1 |
Tal vez | 33.9 | 28.9 |
No sé | 30.3 | 30.8 |
¿Considera que estos chatbots hacen un uso no autorizado o inapropiado de los datos personales de los usuarios? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 26.8 | 22.7 |
No | 14.3 | 16.5 |
Tal vez | 48.2 | 29.9 |
No sé | 10.7 | 30.9 |
¿Considera que los datos personales de los usuarios son compartidos o distribuidos con otras instancias u organizaciones? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 33.9 | 35.1 |
No | 7.1 | 9.3 |
Tal vez | 50 | 37.1 |
No sé | 9 | 18.5 |
¿Considera que estos chatbots pueden ser utilizados como una medida de vigilancia de los usuarios y la población en general? | Han utilizado chatbots | No han utilizado chatbots |
Sí | 39.3 | 34 |
No | 10.7 | 17.5 |
Tal vez | 37.5 | 33 |
No sé | 12.5 | 15.5 |
Fuente: elaboración propia.
Por otro lado, una parte importante de las personas estima que los chatbots hacen un uso no autorizado o inadecuado de los datos personales, principalmente 26.8% de los usuarios y 22.7% de los no usuarios. De igual manera, un gran número de personas considera que los datos personales son compartidos con otras instancias, especialmente 33.9% de los usuarios y 35.1% de los no usuarios. A pesar de todos estos resultados, un porcentaje importante de los usuarios y de los no usuarios manifiesta un desconocimiento de estos temas de privacidad de los datos personales, tal y como lo demuestra la Tabla 3.
Por último, la mayoría de las personas sondeadas estima que estos chatbots pueden ser utilizados como una medida de vigilancia de la población en general, primordialmente 39.3% de los usuarios y 34% de los no usuarios. Esto refuerza la idea que muchas personas tienen sobre el gobierno electrónico y la paradoja del “gran hermano”, en donde las tecnologías de la información utilizadas por el gobierno pueden ser empleadas como una medida de vigilancia y control hacia los ciudadanos. A su vez, esta idea puede ser uno de los principales obstáculos para la apropiación de los chatbots.
d. Confianza
Debido a que una parte importante de las personas sondeadas tienen algunas percepciones negativas sobre la transparencia, la rendición de cuentas y la privacidad, se refleja una falta de confianza en estas herramientas. Por ejemplo, 42.9% de los usuarios y 50.5% de los no usuarios manifestaron que tienen poca confianza en las respuestas y decisiones automáticas que son tomadas por estos chatbots; 58.9% de los usuarios y 51.5% de los no usuarios mencionaron que tienen poca confianza en que los datos personales recopilados por los chatbots serán utilizados solamente para los fines que se indican; por último, 57.1% de los usuarios y 48.5% de los no usuarios indicaron tener poca confianza en la forma en la que estos chatbots procesan y utilizan sus datos personales.
Esto refuerza el tema que se ha planteado en este trabajo, siendo el tema de la confianza en el uso y recopilación de los datos una de las preocupaciones fundamentales de la población y una de las principales barreras para la apropiación de este tipo de tecnologías. De hecho, el 75% de los usuarios y el 69.1% de los no usuarios dijeron que alguna vez han dudado en usar los chatbots, porque les preocupa el uso que le pueden dar a la información personal recopilada. En este sentido, mientras no exista suficiente transparencia, no se asegure la rendición de cuentas y no se tengan las medidas para salvaguardar la privacidad de la información personal, las personas tendrán poca confianza para utilizar las nuevas herramientas, como los chatbots, generando bajos niveles de utilización, tal y como se aprecia en este caso.
e. Inclusión
Finalmente, otra de las variables de interés de este trabajo es la correspondiente a la inclusión, la cual permite identificar cómo las personas perciben la accesibilidad en el uso de este tipo de chatbots. Esto es importante en el contexto mexicano, pues existen falencias en cuanto al desarrollo de habilidades digitales; sin embargo, el nivel de penetración de la telefonía celular podría permitir que este tipo de herramientas sean más utilizadas para ofrecer diversos tipos de servicios. De acuerdo con las respuestas obtenidas, se observa que el 53.6% de los usuarios considera que los chatbots son accesibles, mientras que el 33.9% estima que son poco accesibles. Por otro lado, el 39.2% de los no usuarios considera que los chatbots son accesibles, en tanto que el 51.5% estima que son poco accesibles.
Algo similar pasa cuando se considera la percepción sobre la facilidad de uso, pues el 51.8% de quienes han usado los chatbots estima que son fáciles de usar, seguido por un 37.5% que dijo que son poco fáciles de usar. Por otro lado, el 41.2% de quienes no han usado los chatbots considera que son fáciles de usar, mientras que el 48.5% menciona que son poco fáciles de usar. Estas percepciones sobre la accesibilidad y la facilidad de uso de los chatbots abren una oportunidad de mejora en dichas herramientas, ya que a pesar de que una buena parte de los usuarios y no usuarios tiene percepciones positivas, otro segmento de este conjunto tiene percepciones menos favorables respecto a estas cuestiones.
Dados los objetivos de los chatbots, fundamentalmente los de brindar información, se les preguntó a las personas sondeadas si dichos servicios incluían todas las necesidades de los usuarios. En términos generales, se obtuvieron un gran número de respuestas negativas, ya que el 42.9% de los usuarios respondió que no se incluían todas las necesidades de éstos, mientras que el 49.5% de los no usuarios dio también esta respuesta. Solamente el 5.4% de los usuarios y el 3.1% de los no usuarios mencionaron que estos chatbots sí incluyen todas las necesidades de los usuarios. A pesar de estas percepciones, las personas sondeadas consideran que este tipo de herramientas son de gran utilidad, pues el 57.1% de los usuarios y el 24.7% de los no usuarios estiman que los chatbots facilitan la disponibilidad y el acceso a la información a través de medios digitales.
V. Conclusiones
El desarrollo y uso de la IA puede tener un gran impacto en muy diversas áreas de la vida económica y social. Los sistemas autónomos podrían permitir avanzar en el procesamiento de grandes datos de información y contribuir con una mejor toma de decisiones. La actual pandemia de COVID-19 marcó un punto de inflexión para el uso de esta tecnología dentro del gobierno, ya que fue utilizada de manera intensiva en diversas herramientas para el monitoreo y control de los contagios, así como para la prestación de servicios a distancia. Esto permitió contener la propagación de la enfermedad y mitigar algunos de los efectos negativos de la pandemia, y observar así de forma inmediata los beneficios del uso de la IA en la esfera pública.
A pesar de los beneficios esperados y observados de la IA, su uso también plantea grandes retos importantes sobre la forma en que este tipo de tecnología actúa y los riesgos asociados. Si bien se arguye que las decisiones basadas en IA pueden ser más informadas y carentes de sesgos y subjetividad, esto no es del todo cierto, ya que dichas decisiones son susceptibles a inexactitudes, sesgos y discriminación.
Asimismo, existe una persistente preocupación por la falta de transparencia no sólo en la forma en que se procesa la información y el tipo de uso y almacenamiento de ésta, sino también en la inteligibilidad de muchas de las decisiones, poniendo en duda la rendición de cuentas por parte de las organizaciones públicas que utilizan dicha tecnología. Esto ha sido motivo de diversas controversias que han llegado al ámbito judicial en distintos países, ya que hay fuertes sospechas de la puesta en marcha de prácticas de control y vigilancia resultado de la recopilación de datos, además de que no hay suficiente transparencia en cuanto a la privacidad de los usuarios y sus datos personales.
Todo lo anterior genera nuevas preocupaciones en torno a los valores éticos, el derecho a la información, la equidad y el riesgo que el uso de la IA representa para los derechos humanos. Se trata de un tema que en ningún país ha sido plenamente resuelto y que en el contexto mexicano todavía se carece de espacios de discusión y aún menos de materiales normativos sobre la ética en el uso de la IA. En este sentido, valdría la pena poner especial atención en los instrumentos que promueven algunas organizaciones internacionales, como la UNESCO, los cuales buscan generar marcos regulatorios y políticas nacionales e internacionales que permitan establecer condiciones éticas en el uso de la IA.
Dada la multiplicidad de aristas que se despliegan alrededor del tema, esta investigación se concentró en cinco valores éticos que generan preocupaciones relacionadas con el derecho de acceso a la información: la transparencia, la rendición de cuentas, la privacidad, la confianza y la inclusión. Adicionalmente, debido a las múltiples herramientas que utilizan IA, este trabajo centró su análisis en los chatbots, una herramienta que se ha difundido con mayor rapidez y, especialmente, con motivo de la pandemia de COVID-19.
Para analizar dichas preocupaciones éticas en el uso de chatbots, se aplicó un sondeo abierto a la población para identificar opiniones y percepciones, fundamentalmente, en el uso de dos chatbots en México: Susana Distancia y Dr. Armando Vaccuno, los cuales fueron elegidos dada la promoción para su uso durante la pandemia y por ser declarados en diversas ocasiones como parte de una estrategia fundamental del denominado “gobierno electrónico”.
Si bien se reconoce que el sondeo no es representativo del comportamiento poblacional y no puede generalizarse dadas sus características metodológicas, éste fue un instrumento útil que permitió analizar algunas de las preocupaciones mencionadas. De los resultados se destaca que hay un porcentaje importante de personas que, a pesar de conocer los chatbots, no han hecho uso de ellos, pues el número de personas que no han utilizado los chatbots resulta mayor en comparación de aquellos que sí los han utilizado. Esto podría estar relacionado con los altos niveles de desconfianza que se reportaron en el sondeo, los cuales son consecuencia de la falta de transparencia, de mecanismos para la rendición de cuentas y de medidas adecuadas para salvaguardar la privacidad de los datos personales de los usuarios. De hecho, tanto los usuarios como los no usuarios manifestaron una falta de información acerca de cómo son tratados y procesados los datos que se recopilan, una falta de credibilidad en la responsabilidad por parte del gobierno ante el funcionamiento de estas herramientas y, además, un alto nivel de preocupación sobre el uso, distribución y protección de sus datos personales.
A pesar de la desconfianza asociada a la falta de transparencia, rendición de cuentas y privacidad, las personas sondeadas dijeron considerar a los chatbots como un instrumento útil que favorece el derecho a la información a través de medios digitales. En términos de políticas públicas, esto puede representar una oportunidad para que los gobiernos hagan un uso más constante de este tipo de tecnología, siempre y cuando se subsanen los vacíos de información sobre los temas antes mencionados y, sobre todo, porque esto se relaciona directamente con el derecho a la información y a la transparencia, elementos que son piedra angular en el gobierno electrónico.
De modo que si los gobiernos en México, en sus distintos niveles, quieren transitar hacia el uso de este tipo de tecnologías digitales, se requiere desarrollar marcos normativos que expresen claramente qué tipo de información se recaba, cómo se procesa, quién queda a cargo de su tratamiento y almacenamiento, las instancias responsables de un mal funcionamiento y de las decisiones tomadas, así como el aseguramiento para que no haya fugas de información que vulneren la privacidad de los usuarios. También es necesario recalcar y asegurar que estas tecnologías no serán utilizadas como una medida de control y vigilancia de la población.