Protección de Datos: «DATOS Y PRIVACIDAD: LOS RIESGOS QUE NO CONOCEMOS»
Portada » Noticias » Protección de Datos: «DATOS Y PRIVACIDAD: LOS RIESGOS QUE NO CONOCEMOS»
Internet te conoce mejor que tu propia familia o amigos. Casi sin darnos cuenta, cada día generamos miles de datos personales que se suben a Internet: dónde hemos estado, a quien le hemos enviado un mensaje, qué música hemos escuchado o qué búsquedas hemos hecho. Quedan registradas incluso aquellas que quisiéramos que permanecieran en la privacidad de nuestro historial.
Toda esta información es procesada y agregada en los servidores de las compañías cuyos productos digitales usas. Son utilizadas, por si no lo sabías, para generar un modelo virtual de quién eres. Al conocer tu perfil, las compañías pueden ofrecerte servicios personalizados y más valiosos para ti, como mostrarte anuncios relacionados con tus intereses, adelantarse a tus pasos o segmentar aún más tus decisiones de compra.
Gracias al volumen masivo de datosy los avances como la inteligencia artificial, estos procesos se han vuelto extremadamente eficaces, pero ¿realmente sabemos qué datos tienen las empresas y los gobiernos sobre nosotros y cómo los están usando?
Sin embargo, los gobiernos que todavía no han implementado estas innovaciones no deben caer en la tentación de adoptarlas rápidamente, sin haber considerado los riesgos que conllevan. “Los ciudadanos realmente no saben las implicaciones de dar sus datos”, dice Cristina Pombo, asesora del sector social del Banco Interamericano de Desarrollo (BID). “Está bien que queramos personalizar los servicios, pero hagámoslo de manera responsable, y no recolectemos datos solo por hacerlo”.
El derecho a la privacidad es reconocido por muchas constituciones de la región. No solo se trata de garantizar la seguridad y la legalidad de los datos, sino que los encargados de recolectarlos y procesarlos deben solicitar el consentimiento de los usuarios, y en caso de que se vayan a compartir, garantizar el anonimato para evitar el mal uso por parte de terceros.
Por ejemplo, la mala gestión de un partido político mexicano en 2016provocó que los datos personales de 93.4 millones de personas mayores de 18 años —como nombre, apellido, dirección y otros— estuvieran expuestos sin protección en Internet durante meses.
2. Inequidad
La capacidad predictiva de la inteligencia artificial se basa en aprender de datos históricos. Estos datos suelen ser imperfectos y, en ocasiones, reflejan los sesgos de las propias personas que los recolectaron. Si no queremos que los modelos sean discriminatorios, es necesario identificar y corregir estos sesgos.
Se debe informar a los ciudadanos sobre qué datos se recogen, cómo se almacenan, analizan o qué decisiones se toman y en base a qué factores, y si fuera necesario, permitir auditar los algoritmos.
Un caso que está generando mucha discusión es el tema del reconocimiento facial. La tecnología está lejos de ser perfecta y, en ocasiones, identifica a personas incorrectamente. En ciudades como San Francisco, en Estados Unidos, han decidido prohibir el uso de esta tecnología por parte de la policía. En Chile, la Policía de Investigaciones ha puesto en práctica un sistema de reconocimiento facial para prevenir la delincuencia a través de cámaras instaladas en lugares públicos, pero no indica qué pasará cuando se identifica como autor de un delito a una persona que no lo cometió.
UN NUEVO CONTRATO SOCIAL
Los gobiernos pueden tratar y manejar algunos de los datos personales de la población como la información tributaria o las propiedades. Sin embargo, cuando se trata de modelos predictivos o de políticas de gran impacto, es necesario que exista un contrato social que genere confianza entre quienes proporcionan los datos y quienes los manejan.
“Nuestro objetivo es abrir un debate para reflexionar sobre el uso ético de los datos, con el objetivo de tener modelos aplicados en beneficio de los ciudadanos”, comenta César Buenadicha, especialista líder de BID Lab, el laboratorio de innovación del Banco Interamericano de Desarrollo. “Debemos velar de que todo esto se haga para un bien social y siempre teniendo en cuenta a los más desprotegidos”.
A diferencia de Europa, en la actualidad no existen estrategias nacionales o regionales en América Latina y el Caribe para el uso responsable de datos en el sector público y de cómo generar una relación de confianza con la ciudadanía.
El Sector Social del BID ha analizado marcos de referencia ya existentes alrededor del mundo sobre la gestión responsable de los datos. De esta investigación se ha creado un manual que no solo sintetiza las mejores prácticas, sino que ofrece una hoja de ruta para una gestión responsable de datos por parte del sector público.
Video: ¿cómo podemos proteger mejor nuestros datos?
Además, el BID está preparando una iniciativa regional conocida como fAIr LAC, cuyo objetivo es acelerar la adopción responsable de la Inteligencia Artificial por parte de los gobiernos de América Latina y el Caribe. La iniciativa tendrá un programa piloto —en colaboración con el Gobierno de Jalisco, el Instituto Tecnológico de Monterrey y C Minds, entre otros socios— que desarrollará experiencias prácticas del uso de la inteligencia artificial para el impacto social.
Estudiante de Diseño Industrial de la Universidad Jorge Tadeo Lozano. Caracterizo por la creatividad y la capacidad a la hora de emplear herramientas digitales, para desarrollo de trabajo como, ilustración digital, vectorial y diagramación. Con conocimientos básicos en modelado 3D, bocetación y vistas de objetos. Apasionado por el Diseño, y con intereses en seguir adquiriendo conocimientos para desarrollar soluciones que satisfaga de manera creativa e innovadora las necesidades del cliente.
Diseño Industrial - Universidad Jorge Tadeo Lozano
Utilizamos cookies propias y de terceros, únicamente se limitan a recoger información técnica para identificar la sesión con la finalidad de obtener información estadística, facilitar el acceso seguro y eficiente de la página web, con el fin de darle mejor servicio en la página. Si continúas navegando este sitio asumiremos que estás de acuerdo.