{"id":191,"date":"2021-04-22T16:25:38","date_gmt":"2021-04-22T19:25:38","guid":{"rendered":"https:\/\/www.empatia.la\/?p=191"},"modified":"2021-04-22T16:41:34","modified_gmt":"2021-04-22T19:41:34","slug":"los-datos-nos-cuentan-a-todas-las-personas","status":"publish","type":"post","link":"https:\/\/ilda.la\/empatia\/los-datos-nos-cuentan-a-todas-las-personas\/","title":{"rendered":"\u00bfLos datos nos cuentan a todas las personas?"},"content":{"rendered":"\n<p class=\"has-text-align-right\"><strong><em>Silvana Fumega, PhD<\/em><br><em>Directora de Investigaci\u00f3n y Pol\u00edticas&nbsp;<\/em><br><em>ILDA<\/em><\/strong><\/p>\n\n\n\n<p>Con frecuencia hablamos de datos como un insumo para algoritmos, pero tambi\u00e9n son el producto de est\u00e1ndares y marcos legales que dan forma a su producci\u00f3n. Por un lado, algo que suena tan t\u00e9cnico como desarrollar un est\u00e1ndar es un ejercicio que nos permite repensar la producci\u00f3n de datos y su uso, as\u00ed como los problemas existentes con sesgos en su construcci\u00f3n. Por otro lado, los algoritmos aprenden de los datos y construyen su representaci\u00f3n de la realidad a partir de ellos. Por lo tanto, la producci\u00f3n de datos tambi\u00e9n est\u00e1 en el centro de todas las discusiones sobre lo que se llama inteligencia artificial.<\/p>\n\n\n\n<p>Sin las categor\u00edas adecuadas, no se pueden recopilar los datos correctos y, cada vez m\u00e1s, sin los datos correctos, se dificulta la creaci\u00f3n de pol\u00edticas que ofrezcan soluciones a diferentes grupos y personas e incluso de cambios sociales m\u00e1s generales. Esto nos da una idea clara de lo que est\u00e1 pasando cuando no contamos a determinadas personas o grupos y, por tanto, a quienes estamos dejando fuera de nuestra cuenta. Por lo tanto, existe la necesidad de responsabilidad e inclusi\u00f3n cuando se trata de la producci\u00f3n de datos.<\/p>\n\n\n\n<p>Asimismo, al pensar en <a href=\"https:\/\/blogs.lse.ac.uk\/latamcaribbean\/2019\/08\/08\/standardisation-of-femicide-data-requires-a-complex-participatory-process-but-important-lessons-are-already-emerging\/\">datos sobre feminicidios<\/a>, para ofrecer un ejemplo de nuestro trabajo en <a href=\"https:\/\/idatosabiertos.org\/en\/proyectos\/estandardatosfemicidios\/\">ILDA<\/a>, si no existen datos claros sobre una mir\u00edada de aspectos que pueden caracterizar estos hechos, podr\u00edamos estar omitiendo ciertos delitos de los registros y, por tanto, descuidando considerar a esas v\u00edctimas al dise\u00f1ar e implementar pol\u00edticas y otras medidas. Adem\u00e1s, al explorar datos sobre violencia contra la comunidad <a href=\"https:\/\/idatosabiertos.org\/en\/proyectos\/datos-sobre-la-violencia-contra-personas-de-la-comunidad-lgbtiq\/\">LGBTQ + <\/a>en Centroam\u00e9rica, es evidente que, sin datos sobre g\u00e9nero, orientaci\u00f3n sexual y otro tipo de variables, es muy dif\u00edcil entender qu\u00e9 tan grave se est\u00e1 volviendo el problema en esa regi\u00f3n (o en cualquier otro, para el caso).<\/p>\n\n\n\n<p>Sin embargo, hay una advertencia: si bien hacer visibles estas poblaciones y sus problemas a trav\u00e9s de los datos puede ayudar a los gobiernos y a los actores de la sociedad civil a abordar sus necesidades, hacerlo tambi\u00e9n representa un riesgo para las poblaciones vulnerables, ya que podr\u00eda acelerar las tendencias hacia la discriminaci\u00f3n y la exclusi\u00f3n (<a href=\"https:\/\/idatosabiertos.org\/wp-content\/uploads\/2020\/10\/D4D_report-dig-1.pdf\">ILDA, Datos para el desarrollo. Un camino por delante<\/a>, p. 19).<\/p>\n\n\n\n<p><strong>Perspectiva predeterminada<\/strong><\/p>\n\n\n\n<p>En este contexto, debemos prestar mucha atenci\u00f3n, en ambos casos, a cuya perspectiva se supone que es la predeterminada (<a href=\"https:\/\/mitpressonpubpub.mitpress.mit.edu\/pub\/zrlj0jqb\/release\/6\">D\u2019Ignazio y Klein, Data feminism, cap\u00edtulo 1<\/a>). Casi siempre, la perspectiva que se toma es la de quienes ocupan las posiciones m\u00e1s privilegiadas en el campo (personas o empresas que tambi\u00e9n pueden tener incentivos para explotar los datos y desarrollar algoritmos), como lo hacen en nuestra sociedad en general. Este privilegio hace que algunas poblaciones sean invisibles en conjuntos de datos, algoritmos y visualizaciones, por nombrar solo algunos ejemplos.<\/p>\n\n\n\n<p><strong>\u00bfQu\u00e9 entendemos por sesgos?<\/strong><\/p>\n\n\n\n<p>Estas posiciones de poder, en el campo o en la sociedad, se transmiten a los datos por sesgos, una inferencia basada en un prejuicio o una idea preconcebida debido a una cosmovisi\u00f3n espec\u00edfica. Los sesgos tienen m\u00faltiples capas y se manifiestan de diferentes maneras. Llevamos nuestros propios prejuicios y los experimentamos en nuestra vida diaria. Pueden estar relacionados con el g\u00e9nero, la raza, la edad y la clase, entre otros, y pueden resultar en diferentes tipos de discriminaci\u00f3n. (Ver: <a href=\"https:\/\/idatosabiertos.org\/en\/diseno-de-estandares-de-datos-abiertos-a-puertas-cerradas\/\">Brandusescu, Canares, Fumega. \u00bfEst\u00e1ndares de Datos Abiertos a puerta cerrada?<\/a>) Como se mencion\u00f3, estos sesgos est\u00e1n incluidos en los procesos por los cuales se producen los datos y, en muchos casos, en los est\u00e1ndares que gu\u00edan esa producci\u00f3n.<\/p>\n\n\n\n<p>\u00bfQu\u00e9 queremos decir cuando hablamos de prejuicios? Hay diferentes significados, seg\u00fan el contexto. Los ejemplos incluyen sesgos cognitivos (una caracter\u00edstica particular de un sujeto, que afecta la forma en que percibe la realidad) o, cuando se habla de IA, sesgos algor\u00edtmicos, que son errores sistem\u00e1ticos y repetidos que crean resultados injustos, como otorgar privilegios arbitrariamente a un grupo de usuarios. sobre otros. Estos sesgos podr\u00edan identificarse en diferentes etapas de los procesos de producci\u00f3n de datos, desde la definici\u00f3n del problema hasta la recolecci\u00f3n, preparaci\u00f3n de datos y, por \u00faltimo, cuando se utilizan los datos y suenan las alarmas (a veces un poco tarde).<\/p>\n\n\n\n<p><strong>Un largo camino por delante<\/strong><\/p>\n\n\n\n<p>La discusi\u00f3n anterior puede parecer bastante t\u00e9cnica, pero ciertamente tiene un impacto en todas nuestras vidas, especialmente para las partes m\u00e1s desfavorecidas de la poblaci\u00f3n. Esto es particularmente importante cuando los datos y los algoritmos forman parte de los procesos de toma de decisiones que afectan a las personas, ya que, por ejemplo, un patr\u00f3n estad\u00edstico que aplica a la mayor\u00eda puede no ser v\u00e1lido para un grupo minoritario. Esta es una de las principales razones por las que discutimos y analizamos este tipo de datos y procesos.<\/p>\n\n\n\n<p>Al final del d\u00eda, este tipo de preocupaciones son importantes porque estos prejuicios afectan la vida de las personas, al tomar decisiones (nuestras propias elecciones como consumidores) o cuando son el tema del proceso de toma de decisiones de otros. Desde <a href=\"https:\/\/www.theguardian.com\/news\/2018\/mar\/17\/cambridge-analytica-facebook-influence-us-election\">consumir informaci\u00f3n sobre pol\u00edtica<\/a>, hasta <a href=\"https:\/\/www.npr.org\/sections\/alltechconsidered\/2018\/02\/19\/586387119\/automating-inequality-algorithms-in-public-services-often-fail-the-most-vulnerab\">los beneficios a los que tenemos derecho<\/a>, hasta <a href=\"https:\/\/www.reuters.com\/article\/us-amazon-com-jobs-automation-insight\/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G\">no recibir ciertas oportunidades <\/a>solo porque pertenecemos a cierta demograf\u00eda, nosotros, como sociedad, debemos estar conscientes de las implicaciones de los datos que producimos y consumimos. Todav\u00eda estamos aprendiendo a lidiar con los prejuicios y a mitigarlos. Queda un largo camino por delante, pero el primer paso es ser m\u00e1s conscientes de estos peligros e implicaciones.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Silvana Fumega, PhDDirectora de Investigaci\u00f3n y Pol\u00edticas&nbsp;ILDA Con frecuencia hablamos de datos como un insumo para algoritmos, pero tambi\u00e9n son el producto de est\u00e1ndares<\/p>\n","protected":false},"author":4,"featured_media":195,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-191","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sin-categoria"],"acf":[],"_links":{"self":[{"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/posts\/191","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/comments?post=191"}],"version-history":[{"count":2,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/posts\/191\/revisions"}],"predecessor-version":[{"id":196,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/posts\/191\/revisions\/196"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/media\/195"}],"wp:attachment":[{"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/media?parent=191"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/categories?post=191"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ilda.la\/empatia\/wp-json\/wp\/v2\/tags?post=191"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}