Políticas públicas y regulación en las tecnologías disruptivas. Группа авторов

Чтение книги онлайн.

Читать онлайн книгу Políticas públicas y regulación en las tecnologías disruptivas - Группа авторов страница 22

Жанр:
Серия:
Издательство:
Políticas públicas y regulación en las tecnologías disruptivas - Группа авторов

Скачать книгу

sonido, imágenes, números y textos; procesos, en forma de algoritmos, y soluciones y decisiones que resultan de los dos anteriores. En efecto, las tecnologías que han hecho posible la Inteligencia Artificial, después de décadas de intentos, son aquellas que permiten capturar y procesar datos sensoriales por computadores, tales como la visión por computador y el análisis de imágenes y videos a través del reconocimiento de voz y procesamiento de lenguaje natural (NLP)44. Ahora bien, existen diferentes tecnologías asociadas a la Inteligencia Artificial actual, como son el aprendizaje de máquina, el aprendizaje profundo (Deep learning), las redes neuronales y la robótica45.

      Este conjunto de tecnologías que se identifica como Inteligencia Artificial puede ser utilizado por las administraciones públicas para el cumplimiento de sus distintas misiones46. El ejemplo comúnmente mencionado en investigaciones es el de los carros autónomos (sin conductor humano), los cuales ya están en circulación limitada en varios países desarrollados (Stone et al., 2016; von Krogh, 2018) y serían útiles para el transporte público de pasajeros, utilizando la tecnología de automatización en buses, trenes y tranvías, o para el transporte de carga. Otros ejemplos presentados en el informe de cien años de investigación en Inteligencia Artificial de la Universidad de Stanford son: los sistemas de armas automáticos, los robots para el cuidado de adultos mayores y las ayudas para decisiones clínicas en medicina (Stone et al., 2016). En particular, el sector salud tiene los mayores avances hasta la fecha en aplicar la Inteligencia Artificial en el sector público, y ofrece soluciones innovadoras para la integración y manejo de las historias clínicas, el diseño de tratamientos personalizados y el diagnóstico automatizado de enfermedades. La administración algorítmica o computacional se está aplicando también en el campo tributario, de investigación criminal y en la regulación comercial (Ramió, 2019).

      A pesar de que Colombia adhirió al acuerdo de la OCDE sobre Inteligencia Artificial en el año 2019, su utilización por la Administración pública sigue siendo baja. El crecimiento es más acelerado y la Inteligencia Artificial es una realidad en el sector privado47, el cual la usa en mercadeo, el sistema financiero48, la investigación académica49 y en análisis de otros datos. En 2019 se aprobó el Conpes 3975 “Política nacional para la transformación digital e Inteligencia Artificial”, documento que formula una política de adaptación a las exigencias de la cuarta revolución a través de la tecnología digital y la Inteligencia Artificial y advierte que el país no está preparado para estas tecnologías, ni establece los requisitos para la automatización basada en la IA. Para este órgano consultivo, es necesario comenzar la discusión acerca de la implementación de los lineamientos y principios de la OCDE.

      De acuerdo con este mismo organismo, un ejemplo aislado de uso actual de esta tecnología por parte de la Administración existe en el sector defensa: “En Colombia, la Alianza Data-Pop usa datos de delincuencia y transporte para predecir los puntos álgidos de crimen en Bogotá. La policía se despliega entonces a los lugares y tiempos específicos donde hay mayor riesgo de crimen” (OECD, 2019). Esta aplicación todavía no se ha evaluado en términos de resultados sobre mejor prevención de la delincuencia, pero se encuentra en pilotaje por la Policía. El caso ya mencionado de la administración tributaria es el otro ejemplo del sector público. Pese a estos usos, la Administración colombiana aún parece no estar lista para estos cambios y solo de forma parcial está adoptando algunas de las herramientas de IA, pero sin que medie debate alguno acerca de las altas externalidades sociales, éticas y económicas, negativas y positivas, asociadas a la producción y explotación de estos recursos por parte de organismos y entidades administrativos.

      2.2. RETOS DE LA INTELIGENCIA ARTIFICIAL PARA LA SOCIEDAD Y PARA LA ADMINISTRACIÓN PÚBLICA

      El desarrollo de una Inteligencia Artificial de tipo general significaría para algunos una suplantación50 o el dominio de los seres humanos por máquinas (Harari, 2018). Más allá de estas preocupaciones, relacionadas con la Inteligencia Artificial fuerte o general51, vale la pena examinar preguntas cercanas al tipo de inteligencia que está diseñada para resolver un problema específico, que surgen de sus usos por parte de las administraciones públicas y para las cuales el Derecho administrativo no parece estar preparado. En este orden de ideas, es posible interrogarse, por ejemplo, acerca del ejercicio de actividades administrativas por sujetos que sean máquinas o programas de computador programados para actuar de forma autónoma. O quién debe responder por los daños causados por una Inteligencia Artificial o robot, esto es, si estas tecnologías constituirían un centro de imputación distinto o si, por el contrario, comprometerían la responsabilidad del funcionario que los programa y del sujeto de Derecho público dentro del cual cumplen sus misiones. El uso de la Inteligencia Artificial por las administraciones públicas hace parte de una compleja nueva realidad que ya está siendo discutida en varios países; encontrándose problemáticas relacionadas con los derechos de los ciudadanos, la responsabilidad y cuestiones sociales52 y éticas (Turner, 2018). ¿Serán estas máquinas o programas agentes morales? (Etzioni & Etzioni, 2017). Aunque esto puede parecer todavía especulativo, la realidad enseña que no lo es y, en el caso de los carros autónomos y los accidentes causados por los mismos, se ha presentado la necesidad de obtener respuestas.

      Autores como Andrews (2018) señalan seis tipos de retos que los algoritmos plantean a la Administración pública: (1) el error de selección algorítmico, que se refiere a los sesgos y prejuicios que se han visto reflejados en programas de reconocimiento facial, de revisión de elegibilidad de individuos para programas sociales y en materia de riesgo de criminalidad y reincidencia (con relación a estos problemas, se denuncia racismo y sexismo, derivado en parte de los sesgos de programadores y en parte a los sesgos en la información de bases de datos históricos con los que se alimentan y aprenden las máquinas); (2) el uso de algoritmos para evitar la ley, ayudando al usuario a hacer trampa en controles de emisiones, aplicaciones de transporte ilegales o de evasión de cámaras de tránsito y de seguridad; (3) la manipulación algorítmica en elecciones democráticas y en toma de decisiones individuales de varios tipos, como es el caso de guerra psicológica de Facebook y Cambridge Analítica53; (4) la propaganda algorítmica dirigida por programas que masifican mensajes políticos y falsas noticias para incidir en las preferencias y en los comportamientos de los ciudadanos, como es la incidencia de Rusia en las pasadas elecciones estadounidenses; (5) la contaminación de marca por algoritmos a través de la publicidad personalizada y programada de acuerdo con el comportamiento en línea, y (6) las áreas desconocidas de los algoritmos, en la medida en que estos aprenden y determinan de forma autónoma su proceso de toma de decisiones. Por ende, no es posible conocer con exactitud con qué criterios están llegando a los resultados que arrojan, al ser demasiado complejos para ser controlados y para activar procesos de rendición de cuentas de sus decisiones54 (Andrews, 2018, pp. 300-301).

      Se discute además el futuro del gobierno electrónico con la aparición de interacciones por voz y aplicativos móviles más sofisticados, pero también temas relacionados con la protección y la privacidad de los administrados (Agarwal, 2018). Se examina cómo proteger la privacidad de los usuarios sin perder la eficiencia en la prestación de servicios; evitar mayores sesgos humanos al incorporarlos en un algoritmo, esto es, casos de discriminación, y mantener un balance entre eficacia de las soluciones y la humanización del trato (sobre todo en servicios como la salud). Con relación a los sesgos al identificar o clasificar personas para diferentes fines, el ejemplo conocido está dado por la tendencia de algoritmos de uso de la policía de los Estados Unidos que consideran a los afroamericanos como sospechosos de ser criminales. Aunque se está trabajando en la corrección de estos sesgos, la tarea no es sencilla. El desafío de tratar de manera imparcial a las personas parece ser particularmente difícil para los algoritmos que se basan en estadísticas pasadas y probabilidades. Sin embargo, las administraciones deben ser imparciales y respetar la igualdad de derechos, la dignidad humana y la presunción de inocencia, entre otros principios.

      Un segundo reto relacionado con la equidad económica y social consiste en asegurar

Скачать книгу