Explotando la burbuja – La IA no quiere que pienses. El dilema de los sistemas de recomendación.

Actualmente vivimos en una burbuja, las empresas que implementan IA desean maximizar sus ingresos y por esto utilizan sistemas de recomendación que nos ponen en un dilema, por qué la IA no quiere que pienses, más bien es una pregunta retórica, pero primero entendamos un poco de qué estamos hablando.

La IA (Inteligencia Artificial) trata de imitar el comportamiento humano usando algoritmos de Machine Learning que pueden ser supervisados o no supervisados, una subárea es el Deep learning o aprendizaje profundo que utiliza “Redes Neuronales”. En simple, lo que hacen internamente es buscar patrones con cálculos matemáticos complejos entre matrices para encontrar patrones y desde ahí obtener un aprendizaje. Hoy en día estas técnicas están en todos lados, podríamos decir que estamos entrando a la era de la Inteligencia Artificial.

Por qué digo que estamos entrando en la era de la IA, es porque realmente está en todos lados. Empezando por los contenidos que vemos en cada red social, no son al azar están basados en nuestro comportamiento y en la personalización que hacen de nosotros, una hiper personalización. Los sistemas de recomendación como el de Netflix y el resto de los distribuidores de contenido audio visual, el caso de la música con Spotify. Los insistentes avisos de publicidad que pareciera que nos espían cuando entramos en una web y nos siguen mostrando publicidad de esa búsqueda que realizamos, por ejemplo: zapatos.

– Tal vez en este tema falta más desarrollo, para que puedan identificar rápidamente cuando ya no nos interesa seguir viendo ese tipo de publicidad –

La última frontera para que crezca exponencialmente la IA es la conducción autónoma cuya brecha tecnológica la está liderando Tesla con su equipo de científicos de datos que al parecer están peleando la madre de las batallas de lo que será el gran salto.

El problema actual está en el proceso de aprendizaje de las máquinas (entrenamiento) porque necesitan datos, muchísimos, que se encuentren clasificados correctamente. Y adivinen quién todavía está realizando esa clasificación… Sí el Homo Sapiens, tú, yo, todos. Muchas aplicaciones que se ponen de moda están creadas para usar tus datos, los códigos captcha visuales (Selecciona en esta imagen dónde hay semáforos, por ejemplo) Y también empresas que prestan el servicio y pagan a personas para tabular datos como Appen.

Esta batalla termina con el desarrollo de la clasificación automática, una IA de Tesla que entrena a otras máquinas por medio de la auto etiquetación, usando un súper computador “Dojo” que en ciertas palabras sería como abrir el tercer ojo de las máquinas o en el peor de los casos la caja de Pandora.

Sin querer profundizar mucho en el detalle de la IA, me gustaría retomar el tema ético de su uso en los sistemas de recomendación, una discusión que puede ir desde los conspiranoicos a los defensores extremos. Lo que no se puede discutir es que este avance tecnológico supone un potencial inimaginable, así como riesgos. Uno de esos riesgos es que estos algoritmos son muy buenos en clasificar en base a datos, de los cuales hay muchísimos. Y esta personalización está desarrollada para guiarte y recomendar aquello que tiene mayor probabilidad que te guste, en el caso de las redes sociales que pases más tiempo en ellas o en Netflix que pases más tiempo viendo su contenido. Esto sin duda puede generar adicción.

“Dormir es mi gran enemigo”

Pero ¿Qué pasa con el contenido que está fuera de tu burbuja? De la realidad, de la noticia incómoda o de ese producto que puede ser beneficioso para ti, pero no se ajusta a tus preferencias porque las otras personas con las cuales te agruparon tienen otros hábitos o se convierte en una profecía auto cumplida.

El sesgo de no ver más allá de tu propia burbuja nos vuelve menos empáticos y nos enajena de la realidad. Nos convertimos en personas insensibles al dolor ajeno y vemos pasar el contenido que queda fuera de la recomendación de un sistema con inteligencia artificial que está programado para que compres más o como se expone en “El dilema de las redes sociales” (documental de Netflix que habla sobre las técnicas que se utilizan para mantenernos el mayor tiempo posible en las aplicaciones).

Entonces, la hiper personalización a la que se puede llegar y la forma en la cual nos recomiendan contenido nos hace adictos y nos encierra en burbujas casi sin notarlo. Es un tema sensible y moralmente discutible. ¿Los sistemas de recomendación son los “Drug Dealers” de la era del Machine Learning?

No puedo generalizar y decir que se está perdiendo el pensamiento crítico, pero se puede ver que va en descenso a la vez que la insensibilidad y falta de empatía continúa al alza. Tal vez al finalizar esta pandemia se logre remover conciencias.

Los pros y contras de los sistemas de recomendación son claros, maximizar utilidades. Mientras este sea el principal argumento las brechas entre una burbuja y la realidad será cada vez mayor. Cabe preguntar cuál es el rol social de las empresas respecto a las recomendaciones y los límites morales, quizás en el caso de la recomendación de productos y entretención tiene sentido, aunque los sesgos también están ahí ocultos entre los acuerdos no verbales de las acciones sociales, por eso sería interesante incluir recomendaciones educativas y explorar el lado humano más nómada e innovador que está a la espera de nuevos conocimientos y desafíos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *