Confundiendo al Machine Learning | mirincon.co - Por Daniel Afanador

17 de noviembre de 2019

Confundiendo al Machine Learning


Machine Learning e Inteligencia Artificial, dos componentes invisibles de nuestra vida diaria. La forma como Facebook organiza todo su contenido para nosotros, o los resultados de búsqueda en Google, cuentas a las que deberíamos seguir en Twitter o la próxima canción que sonará en el modo aleatorio de Spotify. Lo que todo esto tiene en común, y que está cada vez más presente en nuestras vidas, sin que lo notemos, es que las interfaces con las que interactuamos en el día a día, especialmente teléfonos inteligentes y computadores, dependen cada vez menos de nosotros, y más de una inteligencia artificial que no vemos, algoritmos que toman decisiones por nosotros. 

Si vamos un poco más allá, nos encontraremos con asistentes virtuales como Alexa de Amazon o los carros autónomos de Tesla, que pueden funcionar sin que haga falta tocarlos (como en el vídeo de abajo de Otto). Ya lo mencionábamos en un post en el que hablábamos sobre el algoritmo de Uber, en el que dábamos un ejemplo de cómo funciona la inteligencia por detrás de las aplicaciones de transporte privado.
Un algoritmo que debe calcular, por ejemplo, de 20 conductores a menos de 1 Km a la redonda, cuál es el que debe mandar para que me recoja en un viaje que haré de mi casa a un bar a 4 KM de distancia. De hecho, hay miles de conductores registrados en Uber. ¿Por qué la última vez que viajamos nos llegó uno y no otro?, ¿por qué no llegaron dos conductores en vez de uno?
 El algoritmo de UBER, noviembre de 2016

Otto fue una empresa de camiones autodirigidos adquirida por Uber. Esto se comenzará a volver cada vez más común de ver en nuestro día a día.

Lo mismo sucede con las demás plataformas instaladas en nuestro celular. En un escenario ideal, estas deberían hacernos pensar lo menos posible y tomar decisiones por nosotros. Es eso lo que esperan hacer los anuncios en Internet mientras navegamos: la lógica de esta tecnología es que aparezca "el anuncio preciso en el momento preciso". Por esto es que Facebook y Google tienen camiones de dinero a su disposición, porque saben predecir lo que haremos sin que nosotros lo sepamos. Saben qué producto vamos a comprar antes de que nosotros mismos lo reconozcamos, y nos muestran anuncios apenas para darnos el empujón final previo a la compra.

El Machine Learning (traducido como el aprendizaje de la máquina) es una de las palabras favoritas de Facebook por estos días. Consiste en que la propia plataforma va a utilizar datos, información y comportamientos nuestros de forma permanente para aprender en tiempo real qué es lo que más nos conviene ver para que pasemos más y más tiempo en la plataforma. Esto explica los minutos interminables que dedicamos a desplazarnos para abajo en el Feed de Noticias de Facebook e Instagram. Al final vemos que le dimos 45 minutos de nuestro día a dar Likes, a comentar y a ver vídeos, sin que opusiéramos ninguna resistencia. Y eso sin contar todos los productos que pudimos haber comprado en ese medio tiempo con nuestra tarjeta de crédito. Todo esto se convierte en datos que siguen mejorando nuestra experiencia y más tiempo que pasaremos en el futuro usando la aplicación.

Lo cierto es que la resistencia a este modelo de inteligencia artificial no está al alcance de todo el mundo. ¿Por qué oponerse?, preguntarán algunos. Es como ver televisión, ¿no? La realidad es que la televisión no es adictiva. Solo hace falta que entren los cortes comerciales para que cambiemos de canal y llevemos nuestra atención al celular. Porque el celular está hecho para que pasemos la mayor cantidad de tiempo usándolo. Lo cierto es que pocos entienden cómo estas plataformas funcionan. Pocos entienden la relación entre notificaciones, novedad, dopamina y adicción. Cuando entendemos que nuestro tiempo dentro de cualquier aplicación se traduce en datos que sirven para mejorar nuestra experiencia, que todas las notificaciones que recibimos buscan que abramos nuevamente la aplicación para que pasemos más y más tiempo, que todo lo que sea novedoso allí dentro libera dopamina y nos hace sentir felices por un instante, similar a cualquier droga, es que empezamos a pensar en cómo romper con este ciclo.

Una forma de hacerlo consiste en cortar el puente que lleva nuestros datos de un lado a otro. Algunos verán válida la opción de desactivar sus cuentas. Algunas plataformas como Gmail es más difícil porque somos más dependientes del correo, que de una cuenta de Twitter. Pero sí es cierto que podríamos desactivar todas nuestras notificaciones de correo electrónico y WhatsApp del celular. Entrar solo cuando nosotros mismos optemos por hacerlo. O con que las desinstalemos y las accesemos menos veces al día, desde el navegador o desde un computador de escritorio, ya se la pondremos más difícil porque les estaremos entregando menos datos que los que les entregamos normalmente. Estaremos rompiendo el ciclo de usar sus aplicaciones cuando ellos quieran que lo hagamos.

Y el punto es justamtente ponérselo más difícil a estas plataformas, o como dice el título de este post, confundir al Machine Learning, hacerlas aprender sobre datos que no se correspondan con la realidad. Es como decirle a un Uber que estamos a 45 Kilómetros de nuestra casa, y que cuando llegue un conductor, no haya nadie, el método de pago no sea válido y la carrera sea cancelada a último minuto.

Hay varias formas más de hacer esto, como por ejemplo usando VPNs (yo uso TunnelBear), simulando que estamos conectados desde otro país. Así pues, estas plataformas interpretarán a partir de los datos que reciben de nosotros que no estamos en la ciudad en que normalmente estamos, sino a miles de kilómetros de distancia en otro continente. ¿Por qué diablos si siempre nos hemos conectado desde Colombia ahora están apareciendo datos tan diferentes, cada día en una ciudad diferente? No hay problema, dirá la plataforma de anuncios de Google, aquí tienes anuncios en YouTube de otra región, y un anunciante estará pagando por llegar a un usuario que ni siquiera tiene cómo adquirir su producto. Ese anunciante estará perdiendo su dinero con nosotros.

También existen navegadores que bloquean todo tipo de trackers, códigos de rastreamento e inclusive publicidad. Apple lo viene haciendo hace un tiempo con los Safari en los iPhones. En Android esto lo hacen muy bien Firefox Focus y Brave. A nivel de buscadores tenemos DuckDuckGo. Cada segundo que pasamos usando alguno de estos servicios, estamos confundiendo con falta de datos a las plataformas que normalmente los necesitarían para personalizar el contenido y la publicidad que nos muestran. Es volver a cómo funcionaba Internet hace un par de años, con banners que aparecían de forma genérica porque había pocos datos sobre nosotros. 

El contenido que se consumía en Internet en esa época era escogido por los propios usuarios. En mi caso, yo tenía en mis favoritos varios blogs y foros a los que accedía de forma recurrente para ver si había algo nuevo para ver. Posteriormente Google Reader hizo que este trabajo fuera más fácil, siguiendo las actualizaciones en tiempo real de nuestros blogs favoritos. Twitter también vino detrás con actualizaciones de 140 caracteres organizadas de forma cronológica. Al final, el modelo que predominó fue el de Facebook, que empezó a organizar el contenido publicado por las páginas que seguimos, amigos, grupos, anunciantes. 

Quizás estemos viendo un regreso hacia los tiempos en los que nosotros mismos escogíamos los contenidos que consumíamos, como era mi caso. Hace unos días en un evento de Facebook al que asistí en la ciudad de Sao Paulo, explicaban que ellos ya estaban comenzando a ver cómo se perdían datos por diversos motivos como los bloqueadores de publicidad, el sistema operativo de Apple en celulares, opciones para personalizar qué anuncios no queremos ver, etc., y que esto los estaba llevando a adoptar cambios para que su negocio dirigido a anunciantes siguiera funcionando. Uno de estos cambios tenía que ver con lo que llamaban de server-to-server, en que los datos que normalmente Facebook almacenaba respecto a la interacción de un usuario con una marca ya no estarían almacenados en Facebook, sino en los servidores del anunciante. Así el usuario no tendría el mismo control sobre los datos.

En los últimos años ha empezado a hablarse del "capitalismo de la vigilancia", concepto propuesto por Shoshana Zuboff para describir todos esos servicios que usamos a cambio de "nada", sin que nos paremos a pensar en todos los datos que estamos entregando a cambio. El Capitalismo de la vigilancia es un concepto que ayuda a entender la era moderna y los modelos de negocio que tienen en pie a Google, Facebook y compañía. Es tan importante de entender como lo fue la cadena de montaje de Ford en su momento.

Según esto, es el modelo de negocio de empresas que ganan mucho dinero a partir de observar nuestros comportamientos en Internet y hacer algo con ellos. Estas empresas suelen usar las palabras smart, inteligente o personalizado para referirse a sus productos.

Antiguamente los bancos usaban este tipo de información para conceder préstamos y tarjetas de créditos. Analizaban el comportamiento de compra de sus clientes, así como su capacidad de pago, y les ofrecían productos. Pero para entonces solo una entidad financiera tenía los recursos para poder hacer algo así. Hoy son empresas no solo como Google o Facebook, sino Uber, que usa cualquier contacto nuestro con la aplicación para sugerirnos rutas y conductores, Netflix para recomendarnos una próxima película o Amazon para sugerirnos una nueva compra.

Nuestros datos, que entregamos siempre que aceptamos unos términos y condiciones que ni siquiera leemos, acaban posibilitando que empresas se lucren con nuestros datos. Confundir a las máquinas y algoritmos que recopilan y organizan esos datos es nuestra arma de defensa, lo que en su momento he llamado de resistencia. Ellos se van a seguir seguir ganando mucho dinero, pero habremos encontrado un vacío en su modelo de negocio. Con suerte, habremos logrado que nos traigan contenido más malo, menos adictivo y anuncios de productos que no nos interesan.

Y ya sabemos lo que pasa en el libre mercado: los consumidores se van a gastar su dinero sus datos su tiempo con otros productos mejores que los satisfagan más. Si nadie nos obliga a usar todos estos servicios, tampoco nadie nos obliga a entregar nuestros datos. Esto deja la puerta abierta para que se los entreguemos a un mejor postor. Todo esto mientras espereramos que nuestros gobiernos y la sociedad civil se den cuenta de que estos problemas existen. La Unión Europea lo advirtió y les puso un freno con la GDPR. ¿Y luego qué sigue? Seguir confundiendo al Machine Learning.

Imagen: Ralf Steinberger

No hay comentarios. :