InContext 89: Digitalización de la sociedad: democratización de la información; monopolio del conocimiento

 

En la actualidad se mantienen algunos de los viejos problemas sociales (inequidad, descreimiento en las instituciones democráticas, corrupción y parainstitucionalidad, entre otros) que han convertido a Latinoamérica en la región más desigual del mundo, pero que ahora se producen en contextos donde cada vez se hace más difícil la previsibilidad de las acciones. La digitalización de la sociedad -basada en Internet y en las Tecnologías de Información y Comunicación (TIC)- genera nuevos contextos que complejizan las problemáticas pre-existentes. Las personas excluidas suman una nueva marginación con la brecha digital. La habilidad para consumir información (producida por todos) ha hecho que un sector cada vez menor de la población detente un poder cada vez mayor sobre el resto de la sociedad, pues los datos que pertenecen a todos lejos están de beneficiar a todos. En este contexto, resulta crucial desarrollar un concepto de ética digital en la era de la automatización y la inteligencia artificial.

 

El oligopolio de la información en el ciberespacio

En la última década, con el avance de las tecnologías para el análisis y consumo de datos (data mining, big data, visualización de datos) se tenía la esperanza de que el ciberespacio y las redes sociales tuvieran la capacidad para desestabilizar la verticalidad del mundo analógico. Hasta ese entonces, quienes monopolizaban la información tenían la capacidad de incidir sobre la agenda pública a través del ejercicio de su capacidad de regulación de los flujos de información. Así, los medios de comunicación establecían los temas para el debate público, los gobiernos definían estadísticamente las realidades sociales de los países y las organizaciones de la sociedad civil orientaban las causas bajos las cuales los ciudadanos se movilizaban. Acumulación de información era sinónimo de concentración de poder.

Sin embargo, con la llegada de las tecnologías para el macro análisis de datos se produjo una democratización del acceso a la información, que se acompañó de una inocente expectativa respecto a que nuevas dinámicas -surgidas del libre consumo de datos- favorecerían una redistribución del poder del conocimiento con efectos positivos para la ciudadanía en general. Pero la realidad es que las asimetrías no solo se mantienen, sino que se han agudizado. Pasamos de la esperanza ingenuamente crédula de que Internet generaría un proceso benéfico de construcción colectiva de conocimiento, a un sentimiento de temor sobre la facilidad con que algunos actores pueden manipular hechos y situaciones.

Lo que no resuelve la sociedad digital es el monopolio del conocimiento, desde su generación -cómo contextualizamos la información y cómo la usamos como insumo de la generación de conocimiento-, hasta su gestión -miles de datos abiertos no generan saber- y su ponderación -cómo se jerarquiza la información en los buscadores.

Este nuevo marco deja a la vista alguno dilemas que la sociedad actual debe abordar como la producción de datos, diseño de algoritmos, los temas de frontera tecnológica y ética digital.

 

Algoritmos sesgados y des-inteligencia artificial

La gran cantidad de información disponible en la red (una de sus principales ventajas) también necesita nuevas intermediaciones que organicen y hagan más comprensible ese volumen de datos y hechos. Ante la crisis de los modelos tradicionales de intermediación y la desconfianza de distintos sectores sociales en los medios de comunicación, sindicatos, partidos políticos y al propio Estado, estos procesos de intermediación son operados por tecnología. La intermediación tecnológica está basada a su vez en algoritmos (conjunto ordenado de operaciones que permite hallar la solución de un problema) que interpretan la información solicitada por los usuarios y devuelven las respuestas que consideran más adecuadas. Los algoritmos son una de las nuevas piedras angulares de la intermediación tecnológica.

No obstante, los algoritmos de búsqueda y análisis de los datos no son neutrales en su selección ni benéficos en sus resultados. Son diseñados por las empresas e instituciones que los ejecutan bajo sus propios objetivos (generalmente vinculados a su sostenibilidad económica). De esta manera, el resultado obtenido para una consulta hecha a un buscador puede responder no solo al pedido concreto de información del usuario, sino también a los propios intereses de la empresa que provee el servicio de búsquedas. Pero incluso cuando no tiene sesgos comerciales, un algoritmo puede producir resultados incompletos o parciales por el simple hecho de querer responder exactamente a lo que el usuario solicita. Así, si una persona realiza varias búsquedas vinculadas a una postura política sobre un determinado tema, es probable que a la larga el buscador centre los resultados en el tipo de posturas políticas que representan la preferencia de ese usuario, reforzando su propia visión del mundo y alejándolo de un terreno más abierto al diálogo y la co-construcción de opiniones. El algoritmo se tiende entonces una trampa a sí mismo, convirtiendo en real lo que interpreta que es la opinión del usuario.

Los algoritmos se proponen calcular la naturaleza de la sociedad, sus gustos, valoraciones y estimaciones a partir del comportamiento de los internautas. En esta aproximación estaba la expectativa de llegar a un mundo sin prejuicios ideológicos, racional, emancipado de la subjetividad de quienes lo gobiernan. De acuerdo con autores como Innerarity “en su versión economicista, los liberales defienden la capacidad de la sociedad de organizarse confiando al mercado la tarea de reflejar lo que los Estados deforman; en su visión libertaria, estaríamos ante un mundo articulado por la agregación de la multitud sin autoridad central. Lo que parecen ignorar es que de este modo se replican también las jerarquías y desigualdades sociales” . Es así, que en un momento donde los internautas se consideran a sí mismos como sujetos autónomos y libres de las prescripciones tradicionales, los algoritmos -supuestamente neutrales- que se presentan como reflejos de los gustos y elecciones de la gente y que no pretenden sino identificar los comportamientos de los internautas, reproducen sus desigualdades y discriminaciones. Su capacidad de manipulación es tan grande que Cathy O’Neil -profesora del Barnard College de la Universidad Columbia, USA- los ha denominado “armas de destrucción matemática”.

 

Construyendo un mundo más desigual

Los sesgos de análisis no sólo están presentes en los algoritmos sino también en los procesos de generación de datos individuales. Es decir, que los bancos de datos -como el buscador Google- sean públicos no quiere decir que todos tengamos la misma capacidad para gestionarlos.

Hoy se puede hablar de tres clases de personas en relación con los bancos de datos: 1) quienes los producen (el público general); 2) quienes tienen capacidad de almacenarlos (las grandes empresas tecnológicas y los Estados), y 3) quienes saben cómo valorarlos (por lo general, las mismas empresas tecnológicas que los almacenan, así como algunos gobiernos). El primer grupo produce una inmensa cantidad de datos de sus acciones diarias, muchas de ellas sin tener un conocimiento real de alcance o uso real de los mismo. El segundo grupo puede determinar qué datos se guardan, dónde se guardan y por cuánto tiempo se guardan. El tercer grupo es el que -con su capacidad de análisis- puede redefinir el uso de estos datos. Entre todos estos grupos existen relaciones de poder con claras asimetrías.

En este marco puede cumplirse la hipótesis que la transparencia puede acabar depurando lo que es manifiestamente erróneo o falta a la verdad. Pero la tendencia pasa por divulgar y hacer correr la información, lo que resulta mucho más costoso y exige un esfuerzo mucho mayor el comprobar si esa información es realmente correcta y responde a hechos comprobables. Es así que mucho del tráfico que se reporta hoy y que guía la tendencia es falso o -más correctamente- está sesgado.

 

Ética digital

El uso de algoritmos y la propia generación de datos también trae a la mesa una discusión sobre la ética de los datos y la tecnología desarrollada para su generación y uso. En este proceso no hay una aplicación de las reglas tradicionales de la ética como las identificadas por Kant, Mills o Hume, sino una reconfiguración de las reglas. La lógica del uso de Internet lleva a que la decisión ética deje de ser individual y tome una noción colectiva, donde la responsabilidad se diluye entre diversos actores en el universo digital.

Todas estas conversaciones se dan en un contexto difuso que trasciende la capacidad de regulación de los Estados. Dejando los derechos y libertades individuales y colectivos librados casi al azar, sin un actor que vele por su aseguramiento. Estos desafíos no son ajenos a la realidad latinoamericana, donde resulta necesario trabajar desde una mirada amplia para entender estos procesos, generar experimentaciones y proyectos que permitan desarrollar nuevas capacidades en los ciudadanos, para lograr que el ciberespacio no pueda silenciar las voces de las minorías y sectores más vulnerados hasta convertirse en una herramienta para desafiar el statu quo. De lo contrario, la democratización del acceso a la información solo servirá para generar monopolio del conocimiento.

 

Fuentes:
http://www.bbc.com/mundo/noticias-37837377
https://youtu.be/gdCJYsKlX_Y


[1]  Ver InContext 87
[2]  La democracia del conocimiento, Daniel Innenarity, Paidós, 2010
[3]  Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Cathy O’Neil, Crown Publishing, 2016

Compartir en FacebookCompartir en TwitterCompartir en Google+