Crece el uso de los chatbots gubernamentales, pero ¿es seguro utilizarlos?
Los chats requieren el otorgamiento de un gran caudal de información personal para funcionar. En ese sentido, los expertos cuestionan las políticas de privacidad y lo poco claros que son los consentimientos que se firman, además de que la legislación quedó obsoleta.
Mientras que un representante de servicio al cliente solo puede mantener una conversación a la vez, un chatbot puede atender a decenas de usuarios de manera simultánea por WhatsApp. Los bots están diseñados para comprender mensajes humanos y responder a cada consulta. Cuanto más se usa, más preciso se vuelve. Sin embargo, no todas son ventajas. También hay riesgos. ¿Qué pasa con los datos personales que se intercambian con esta inteligencia artificial (IA)? ¿Hay un registro de la información que se le brinda? ¿La ciudadanía queda más expuesta ante posibles vulneraciones del sistema?
“Las políticas de privacidad, en general, tienen falencias como vaguedad, dificultad de acceso, incompletitud, redacción confusa, términos legales que no están adaptados a la comprensión de los ciudadanos, que carecen de formación en estos temas”, señala a El Auditor.info Juan Corvalán, doctor en Derecho, docente de la Universidad de Buenos Aires y director del Laboratorio de Innovación e Inteligencia Artificial (IALAB UBA).
En este sentido, el analista sostiene que “el ciudadano suele interpretar el chat como un simple trámite”, sin advertir que cada mensaje puede dejar huellas de identidad, ubicación y comportamiento, especialmente al operar mediante la API (una interfaz que permite que dos o más aplicaciones de software se comuniquen) de WhatsApp o servicios en la nube. Tampoco tiene conocimiento sobre los desafíos del tratamiento automatizado de datos personales con IA y los riesgos y estrategias a implementar para su uso en el sector público.
“Es muy difícil pensar en la posibilidad de que los ciudadanos brinden un consentimiento realmente informado a la hora de usar las plataformas”, asegura Corvalán.
“El ciudadano suele interpretar el chat como un simple trámite”, advierte el especialista Juan Corvalán
En Argentina, distintos niveles del Estado desarrollaron chatbots para mejorar la atención ciudadana y facilitar el acceso a servicios públicos. A nivel nacional, TINA brinda información sobre trámites, turnos, vacunación, servicios del Estado, Anses, Renaper y PAMI. En tanto, el Gobierno de la Ciudad cuenta con BOTI, el chat que responde sobre diversas gestiones, lugares para estacionar y propuestas turísticas; en la Ciudad de Mendoza funciona el Chat Muni Ciudad; en Córdoba, CIDI; entre otras ciudades del país. Organismos como PAMI y AFIP también tienen sus propios canales de inteligencia artificial en WhatsApp.
Sesgos y estereotipos
La Inteligencia Artificial Generativa, aplicada en chatbots como TINA o BOTI, puede brindar respuestas que se encuentren sesgadas por reflejar estereotipos de género, prejuicios, creencias o valores sociales negativos. En este sentido, desde el IALAB-UBA aseguran que la supervisión humana se torna esencial para garantizar la precisión, calidad y ética de las respuestas generadas con IA.
La Defensoría del Pueblo de la Ciudad de Buenos Aires es el organismo de control de la Ley de Protección de Datos Personales de la Ciudad. Ante la consulta de este portal, señalaron que, a pesar de ser muy útiles, los chatbots tienen límites. “Las tecnologías cargan, siempre, con intenciones, apreciaciones, incluso prejuicios en su diseño y sus formas de uso, porque son dispositivos situados en un contexto histórico-cultural y desarrollados por personas humanas que vuelcan allí sus propias intenciones e inclinaciones”.
En el caso particular de los chatbots, destacan que su utilización puede acarrear problemas como la limitación de opciones de respuesta, el deslinde de tareas o responsabilidades, la falta de comprensión de las solicitudes que recibe o las desigualdades en su acceso y uso, dadas las diferencias de familiaridad con estas tecnologías.
BOTI, entre el éxito y la vulnerabilidad de registros
Al chatbot del Gobierno de la Ciudad de Buenos Aires se lo puede consultar por gestión de trámites, realización de reclamos, lugares para estacionar o sobre qué actividades gratuitas habrá durante los fines de semana en la Ciudad. También se le pueden pedir chistes, trivias, adivinanzas y cuentos infantiles. Desde su lanzamiento en 2019 hasta hoy recibió varios reconocimientos, algunos internacionales. Pero también, cuestionamientos.
Un estudio realizado por la Asociación por los Derechos Civiles (ADC), publicado este año, plantea observaciones críticas y dudas sobre la conformidad del uso de datos personales por parte del Gobierno de la Ciudad. Estas preocupaciones se sostuvieron en hallazgos previos de la Auditoría General de la Ciudad que, en 2022, analizó los sistemas y procesos asociados con el chatbot Boti, durante 2021. Este análisis, publicado en marzo de 2023, reveló logros importantes, pero también identificó áreas críticas de mejora y destacó la necesidad de contar con políticas informáticas y de protección de datos personales más precisas, subrayando la importancia de una gobernanza efectiva de las tecnologías de la información y las comunicaciones.
“Si bien el Gobierno de la Ciudad afirmó haber implementado medidas correctivas, durante la investigación que realizamos en 2024 no se encontró documentación oficial que lo acredite. Esta ausencia de evidencia reforzó las dudas sobre la transparencia y la rendición de cuentas en el tratamiento de los datos personales”, señaló Marianela Milanés, manager de proyectos de la ADC, a El Auditor.info.
En cuanto al consentimiento informado, para Milanés debe haber un acceso a información clara, específica y comprensible sobre qué datos se recopilan, con qué finalidad, por cuánto tiempo se conservan y si se comparten con terceros. “El estudio identificó dificultades para acceder al aviso legal y observó una redacción ambigua en los términos de uso, lo que podría dificultar que las personas comprendan el alcance del tratamiento de sus datos”, advirtió.
Falta de legislación
En el país, la Ley nacional 25.326 y la Ley 1845 de CABA fueron diseñadas antes del auge de la inteligencia artificial. Para Juan Corvalán, resultan insuficientes para afrontar sus desafíos. En este sentido enumera que hay un tratamiento automatizado de los datos personales, a partir de los agentes basados en Inteligencia Artificial Generativa, donde los usuarios brindan datos sensibles, laborales, de su vida cotidiana, sin información clara acerca de las consecuencias y el uso por parte de los desarrolladores y posibles terceros.
Además señala que otra debilidad se presenta ante las “decisiones automatizadas”. No existe un derecho expreso a conocer la lógica o criterios utilizados por los algoritmos que afectan derechos o servicios.
La Ley nacional 25.326 y la Ley 1845 de CABA fueron diseñadas antes del auge de la inteligencia artificial
Para Corvalán no hay una evaluación previa de riesgos ya que la ley no exige pruebas de impacto antes de implementar sistemas automatizados como chatbots o reconocimiento facial.
“En septiembre de 2024 ingresó al Senado un proyecto de reforma de la Ley 25.326 que incluye definiciones precisas sobre biometría, transparencia algorítmica y obligaciones de explicabilidad”, cuenta. Sin embargo, todavía no fue tratado.
No solo debe haber una modernización urgente de la normativa. El especialista sostiene que, además, se requieren auditorías algorítmicas periódicas, protocolos claros y comprensibles para el ciudadano y establecimiento de obligaciones adicionales en el sector público. “Sin estos mecanismos, los agentes de IA en la administración pública podrían agravar las brechas de confianza y responsabilidad entre el Estado y la sociedad”, sentencia.