Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

  Interesados comunicarse a correo: erubielcamacho43@yahoo.com.mx  si quieren versión impresa o electrónica donativo voluntario .

martes, 27 de febrero de 2018

Redes sociales: ¿poco inteligentes y muy artificiales?

Logotipo de Facebook en un acto en Maryland. REUTERS
Una de las características de gran parte de los gigantes de internet es la creencia de que el ser humano es imbécil, y que un algoritmo puede hacerlo mejor que un caballero sentado delante de un ordenador. Es un pensamiento curioso, porque a nadie se le ha pasado por la mente despedir a Mark Zuckerberg Sheryl Sandberg y poner al frente de Facebook a un programa informático, o de decirle a Larry Pageque se vaya en su yate 'Senses' a pasear por el mundo mientras un ordenador dirige su empresa, Alphabet (o sea, Google y YouTube).
Esa sacralización de la inteligencia artificial no sólo es absurda sino, también, peligrosa, como volvió a quedar de manifiesto la semana pasada, cuando la red se llenó de teorías injuriosas contra los niños supervivientes de la matanza del Instituto Stoneman Douglas, junto a Miami. Muchos de esos libelos ganaron impulso gracias a Facebook y YouTube.
Pero, ¿un momento? ¿No habían Facebook, YouTube, y Google reforzado los controles de sus contenidos después del escándalo del 'troleo' ruso en las elecciones de 2016, y de que la red se llenara de informaciones falsas de que Stephen Paddock, el asesino de 58 personas en Las Vegas en octubre, "había jurado fidelidad al Estado Islámico" y "odiaba a Trump"?
Pues... parece que no los reforzaron lo suficiente. En buena medida, porque ambas empresas siguen renunciando a emplear a seres humanos para controlar sus contenidos, y prefieren hacerlo por medio de la inteligencia artificial. En ambos casos, cuentan las consideraciones económicas, porque el 'software' no cobra a finales de mes. Pero también hay un factor cultural: el culto a las soluciones técnicas y la desconfianza del ser humano. Es lo que nos pasa cuando nos gobiernan los ingenieros, y los ingenieros deciden que sus algoritmos deben gobernarlos a ellos.
Muchos de esos desastres serían fácilmente evitables si las empresas tuvieran interés. El viernes, el 'Wall Street Journal' explicaba cómo los sistemas automáticos de Facebook para detectar noticias falsas no detectan... las fotos falsas. Increíble, pero cierto. O sea, que se toma una fotografía, y se cambia, por ejemplo, el texto de una pancarta, y la máquina no lo pilla.
Así es como Facebook ha colgado imágenes falsas de webs rusas que se hacían pasar por estadounidenses, entre ellos el falso grupo de activistas radicales (y racistas) negros Blacktivist, que llegó a tener 300.000 seguidores, y BlackLivesUS. Si encima se añade marca de agua a la foto, los sistemas de Facebook le dan aún más credibilidad.
En un mundo en el que todos leemos en pantallas diminutas de teléfonos móviles, es casi imposible que la audiencia se dé cuenta de la manipulación. Sólo lo podría hacer un empleado de Facebook. Pero Facebook no se fía de sus empleados. Es más, Instagram, que es de Facebook, tiene programas distintos -y, aparentemente, menos eficaces- para detectar las imágenes alteradas ¡a pesar de que se trata de una red social de fotos!
En el caso de YouTube, el problema no es tanto contratar a gente, sino cambiar el algoritmo. Esta semana, en respuesta a las críticas que recibió la red de vídeos de Alphabet por colocar como 'número uno' de su sección 'Trending' (que destaca los contenidos que la empresa juzga más importantes y novedosos) el mensaje en el que falsamente se acusaba a un superviviente de la matanza del instituto Stoneman Douglas de ser un actor, YouTube anunció más fichajes para supervisar los vídeos. La presión en ese sentido es enorme, porque hace apenas unas semanas el 'youtuber' Logan Paul (17 millones de seguidores) colgó un vídeo del cadáver de una persona que se había ahorcado y YouTube no hizo nada por evitarlo.
Pero esos nuevos empleados sólo examinarán las filmaciones cuando éstas ya estén en la categoría 'Trending', o sea, cuando estén claramente destacadas en las pantallas de los internautas. YouTube dice que eso es todo lo que puede hacer, porque su algoritmo actualiza automáticamente cada 15 minutos los vídeos que están en 'Trending', y la gente no da para más. Dejando de lado la paradoja de que estamos hablando de una empresa -Alphabet- que gana 19.000 euros por minuto lo que le podría permitir contratar a algún 'machaca' extra sin dañar la cuenta de resultados, no deja de ser llamativo que no se les haya ocurrido hacer que el algoritmo vaya más despacio, y actualice los vídeos 'trending' cada media hora o cada hora, y dé así tiempo a los seres humanos a chequearlos.
Todas estas empresas demuestran que confían más en los códigos informáticos que en los empleados. Les horroriza que pasen cosas como la que sufrió Facebook cuando descubrió que los supervisores de sus noticias estaban dando prioridad a los mensajes de izquierdas sobre los de derechas. Efectivamente, ése es un comportamiento inaceptable. Pero la solución es reforzar los controles internos. No darle las llaves de la casa a un robot que, además, es mucho más tonto que cualquier persona.

No hay comentarios:

Publicar un comentario