La nueva división digital está entre los que rechazan los algoritmos y los que no
SCOTT G WINTERTON (AP)
Los algoritmos de inteligencia artificial pueden guiar todos los aspectos de nuestra vida: desde elegir qué ruta tomar por la mañana para llegar al trabajo hasta decidir con quién quedar, o incluso complejas cuestiones legales y judiciales como la vigilancia policial predictiva.
Las grandes tecnológicas como Google y Facebook usan la IA para sacar conclusiones a partir del gigantesco tesoro de datos detallados obtenidos de los clientes. Esto les permite monetizar las preferencias colectivas de los usuarios mediante prácticas como la microfocalización, una estrategia empleada por los anunciantes para centrarse en conjuntos de usuarios sumamente específicos.
Al mismo tiempo, muchas personas confían hoy en día más en las plataformas y en los algoritmos que en sus propios Gobiernos y en la sociedad civil. Un estudio publicado en octubre de 2018 da a entender que las personas demuestran “aprecio por los algoritmos”, hasta el punto de que confiarían más en un consejo si piensan que procede de un algoritmo y no de un humano.
En el pasado, a los expertos en tecnología les preocupaba la “división digital”entre quienes tenían acceso a los ordenadores y a Internet y quienes carecían de dicho acceso. Las familias con menos acceso a las tecnologías digitales están en desventaja al tener menos capacidad de ganar dinero y acumular aptitudes.
Pero a medida que los dispositivos digitales proliferan, la división ya no radica en el acceso. ¿Cómo abordan las personas la sobrecarga de información y la plétora de decisiones algorítmicas que impregnan cada aspecto de su vida? Los usuarios más entendidos se están alejando de los dispositivos y están adquiriendo conciencia de cómo afectan los algoritmos a su vida. Por el contrario, los consumidores con menos información confían aún más en los algoritmos para guiar sus decisiones.
El ingrediente secreto de la inteligencia artificial
La principal razón de la nueva división digital, en opinión de alguien como yo que estudia los sistemas de información, es que son poquísimos los usuarios que entienden cómo funcionan los algoritmos. Para la mayoría, constituyen una especie de caja negra.
Los algoritmos de IA toman datos, los introducen en un modelo matemático y efectúan una predicción, que varía desde qué canciones podrían gustarle a cualquiera hasta cuántos años debería pasar alguien en la cárcel. Estos modelos se desarrollan y afinan basándose en datos pasados y en el éxito de modelos previos. La mayoría –incluso a veces los propios diseñadores de algoritmos– no sabe realmente qué ocurre dentro del modelo.
A los investigadores les preocupa desde hace tiempo la equidad algorítmica. Por ejemplo, la herramienta de contratación basada en la IA de Amazon pasaba por alto a las candidatas. El sistema de Amazon estaba extrayendo de manera selectiva palabras con un implícito sesgo de género, palabras como “ejecutado” y “capturado”, que es más probable que usen los hombres en el discurso cotidiano. Otros estudios han demostrado que los algoritmos judiciales presentan un sesgo racista, condenando a los acusados pobres de raza negra a sentencias más largas.
Los usuarios más entendidos se están alejando de los dispositivos y están adquiriendo conciencia de cómo afectan los algoritmos a su vida. Por el contrario, los consumidores con menos información confían aún más en los algoritmos para guiar sus decisiones
Como parte de la Normativa General de Protección de Datos en la Unión Europea, la población tiene “derecho a la explicación” de los criterios que los algoritmos emplean en sus decisiones. Esta legislación trata el proceso de toma de decisiones algorítmica como un libro de recetas. La idea es que, si entendemos la receta, podremos entender cómo afecta el algoritmo a nuestras vidas.
Por otro lado, algunos investigadores de IA han exigido la creación de algoritmos equitativos, responsables y transparentes, además de interpretables, es decir, que tomen sus decisiones mediante procedimientos que los humanos puedan entender y en los que puedan confiar.
¿Qué efecto tendrá la transparencia? Existe un estudio en el que un algoritmo calificaba a estudiantes y les ofrecía diferentes niveles de explicación acerca de cómo se ajustaban las notas de sus compañeros para obtener una calificación final. Los estudiantes con explicaciones más transparentes se fiaban de hecho menos del algoritmo. Una vez más, esto apunta a una nueva división digital: la conciencia algorítmica no produce una mayor confianza en el sistema.
Pero la transparencia no es la panacea. Aunque se describiese todo el proceso de un algoritmo, los detalles podrían seguir siendo demasiado complejos para los usuarios. La transparencia ayudará solo a aquellos suficientemente entendidos como para captar las complejidades de los algoritmos.
En 2014, por ejemplo, a Ben Bernanke, ex presidente de la Reserva Federal estadounidense, un sistema automatizado le denegó inicialmente la refinanciación de una hipoteca. La mayoría de las personas que solicitan dicha refinanciación hipotecaria no entiende cómo determinan los algoritmos su solvencia.
Salirse del nuevo ecosistema de información
A pesar de que los algoritmos influyen tanto en la vida de las personas, solo una diminuta fracción de los participantes es suficientemente entendida como para comprender plenamente de qué manera afectan los algoritmos a la vida de cada uno.
No hay muchas estadísticas acerca del número de personas conscientes de los algoritmos. Algunos estudios han encontrado pruebas de la ansiedad algorítmica, que conduce a un profundo desequilibrio de poder entre las plataformas que despliegan los algoritmos y los usuarios que confían en ellos.
Un estudio sobre el uso de Facebook concluía que cuando a los participantes se les mostraba el algoritmo de Facebook para escoger las noticias que muestra, aproximadamente el 83% de los participantes modificaba su comportamiento para intentar sacar provecho del algoritmo, mientras que aproximadamente el 10% disminuía su uso de Facebook.
Un informe publicado en noviembre de 2018 por el Pew Research Center concluía que una amplia mayoría de la población estaba significativamente preocupada por la utilización de los algoritmos para usos particulares. Halló que el 66% consideraba injusto que los algoritmos calculen los ingresos personales, mientras que el 57% respondía lo mismo acerca de la revisión automática de currículos.
Una pequeña fracción de individuos ejerce algún control sobre el uso que los algoritmos hacen de sus datos personales. Por ejemplo, la plataforma Hu-Manity ofrece a los usuarios una opción para controlar cuántos datos suyos se recopilan. La enciclopedia digital Everipedia ofrece a los usuarios la capacidad de participar en el proceso de gestión, lo que significa que pueden también controlar cómo se agrega la información y cómo se les presenta.
Sin embargo, la enorme mayoría de las plataformas no proporciona esa flexibilidad a sus usuarios finales ni el derecho a elegir cómo usa el algoritmo sus preferencias para administrar las noticias o para recomendarles contenido. Si hay opciones, es posible que los usuarios las desconozcan. Aproximadamente el 74% de los usuarios de Facebook admitía en una encuesta que desconocían cómo caracteriza la plataforma sus intereses personales.
En mi opinión, la nueva alfabetización digital no consiste en utilizar un ordenador o en usar Internet, sino en entender y evaluar las consecuencias que tiene un estilo de vida siempre conectado.
Este estilo de vida tiene un impacto significativo en la manera en que las personas interactúan; en su capacidad para prestar atención a nueva información; y en la complejidad de sus procesos de toma de decisiones.
Es posible que la creciente ansiedad algorítmica se refleje también en cambios paralelos de la economía. Un pequeño grupo de individuos se está quedando con los beneficios proporcionados por la automatización, mientras que muchos trabajadores están en una posición precaria.
Salirse de la gestión algorítmica es un lujo, y podría algún día convertirse en símbolo de una riqueza al alcance exclusivamente de un grupo selecto. La cuestión es entonces cuáles son los perjuicios medibles para los que están en el lado equivocado de la división digital.
Aprenda a rechazar
¿Quiere controlar los algoritmos que guían su vida? Pruebe los siguientes pasos.
1. Entienda la recomendación de un algoritmo y evítela. La gestión algorítmica se basa por lo general en el atractivo del contenido. Intente aprender más acerca de por qué está usted viendo lo que ve. Por ejemplo, Facebook tiene una prestación denominada ‘¿Por qué estoy viendo esto?’ Una extensión de Chrome, DF Tube,reduce una página de YouTube al mínimo posible, eliminando las recomendaciones de nuevos videos.
2. Adquiera conciencia algorítmica. Aprenda sobre la economía de la información actual. Lea libros como Armas de destrucción matemática de Cathy O’Neil y The Black Box Society: The Secret Algorithms That Control Money and Information de Frank Pasquale.
3 Aprenda a controlar sus datos.Adquiera cierta responsabilidad digital y aprenda qué compartir y qué no compartir en Internet. También podría tomar medidas para descubrir qué saben ya de usted las redes sociales
Anjana Susarla es profesora asociada de Sistemas de Información en la Universidad Estatal de Michigan.
Este artículo fue publicado originalmente en inglés por The Conversation. Traducción de NewsClips.
FUENTE: https://elpais.com/tecnologia/2019/04/23/actualidad/1556031249_171965.html