Loading...
AIFacebook

Cómo la inteligencia artificial puede, y no, arreglar Facebook

Facebook tiene problemas. Noticias falsas. Terrorismo. La propaganda rusa. Y tal vez pronto la regulación. La solución de la empresa: convertirlos en problemas de inteligencia artificial. La estrategia requerirá que Facebook avance en algunos de los mayores desafíos de la informática.

Durante dos sesiones en el Congreso el mes pasado, el CEO Mark Zuckerberg hizo referencia a AI más de 30 veces para explicar cómo la compañía mejoraría la actividad policial en su plataforma. El hombre encargado de cumplir con esas promesas, el CTO Mike Schroepfer, abordó ese tema en un discurso y entrevista en la conferencia anual de desarrolladores de Facebook el miércoles.

Schroepfer dijo a miles de desarrolladores y periodistas que “AI es la mejor herramienta que tenemos para mantener a nuestra comunidad a salvo”. Después de las audiencias en el Congreso, los críticos acusaron a Zuckerberg de invocar a AI para engañar a las personas y hacerles pensar que los desafíos de la compañía son simplemente tecnológicos. Schroepfer le dijo a WIRED el miércoles que la compañía había cometido errores. Pero dijo que para Facebook, con más de 2 mil millones de personas en su servicio cada mes, AI es la única forma de abordarlos.

Incluso si la compañía pudiera permitirse que los humanos revisaran cada publicación, no querría hacerlo. “Si te dijera que había un humano leyendo cada una de tus publicaciones antes de que subiera, cambiaría lo que publicarías”, dice Schroepfer.

Facebook ya utiliza la automatización para controlar su plataforma, con cierto éxito. Desde 2011, la compañía ha utilizado una herramienta llamada PhotoDNA, desarrollada originalmente por Microsoft, para detectar pornografía infantil, por ejemplo. Schroepfer dice que los algoritmos de la compañía han mejorado lo suficiente como para señalar otras imágenes que desea mantener fuera de su plataforma.

Primero vino la desnudez y la pornografía, que Schroepfer describe como “la parte más fácil del espectro para identificar”. Luego vinieron las fotos y los videos que representan “violencia sangrienta y gráfica” —piensa en los videos de decapitación de Isis— que a nivel de píxel por píxel Son difíciles de distinguir de las imágenes más benignas. “Ahora somos bastante eficaces en eso”, dice Schroepfer.

Pero los problemas difíciles permanecen. Schroepfer dice que Facebook en los últimos meses ha estado invirtiendo “muchísimo más” en los equipos que trabajan en problemas como la integridad de las elecciones, los malos anuncios y las noticias falsas. “Es justo decir que hemos girado una gran parte de la energía de la compañía en los últimos meses hacia todos estos problemas”, dice. Zuckerberg dijo a principios de esta semana que esperaba pasar tres años desarrollando mejores sistemas para capturar contenido no deseado.

El plan de Facebook para una red de seguridad de AI se enfrenta a grandes desafíos en problemas que requieren que las máquinas lean, no vean. Para que el software ayude a combatir las noticias falsas, el acoso en línea y las campañas de propaganda como la que organizó Rusia durante las elecciones de 2016, debe comprender lo que dice la gente.

A pesar del éxito de la búsqueda en la web y la traducción automática, el software aún no es muy bueno para comprender los matices y el contexto del lenguaje. El director de inteligencia artificial y aprendizaje automático de Facebook, Srinivas Narayanan, ilustró el desafío en el discurso de apertura del miércoles con la frase “¡Mira ese cerdo!”. Podría ser bienvenido para alguien que comparta una foto de su mascota porcina, menos como un comentario sobre una foto de boda. .

Facebook muestra algunos avances con algoritmos que leen. El miércoles, la compañía dijo que un sistema que busca signos de que una persona podría dañarse a sí mismo había provocado más de 1,000 llamadas a los primeros respondedores desde que se implementó a fines del año pasado. Los algoritmos de lenguaje ayudaron a Facebook a eliminar casi 2 millones de piezas de contenido relacionado con el terrorismo en el primer trimestre de este año.

Schroepfer dice que Facebook ha mejorado sus sistemas para detectar el acoso escolar entrenándolos en datos falsos de software enseñado para generar insultos. En un proceso llamado entrenamiento adversarial, tanto el atacante como el bloqueador se vuelven más efectivos con el tiempo. Eso coloca a Facebook entre un número creciente de empresas que utilizan datos sintéticos o falsos para entrenar sistemas de aprendizaje automático.

Otro obstáculo: otros idiomas. La tecnología lingüística de Facebook funciona mejor en inglés, no solo porque la empresa es estadounidense, sino porque la tecnología se entrena normalmente utilizando texto tomado de Internet, donde domina el inglés. Las cifras de Facebook indican que más de la mitad de sus usuarios no hablan inglés. “Eso es un gran problema”, dice Schroepfer.

Facebook es tan dominante en algunas partes del mundo que sus habilidades lingüísticas podrían ser incluso una cuestión de vida o muerte. Los investigadores de la ONU que examinaron las denuncias de genocidio en Myanmar después de la muerte de los musulmanes rohingya dijeron que los servicios de la compañía habían desempeñado un papel en la difusión del discurso de odio contra el grupo. Facebook ha admitido que la crisis lo atrapó sin suficientes revisores de contenido en birmano.

Facebook está trabajando en un proyecto llamado MUSE que algún día podría hacer que la tecnología desarrollada para un idioma funcione en un idioma diferente, sin necesidad de pilas de nuevos datos de capacitación. Hasta que sea práctico, el progreso de Facebook en la expansión de sus sistemas de inteligencia artificial a nuevos idiomas depende de la recopilación de nuevos datos para que sus sistemas estén al día.

En algunos casos, y lugares, los datos pueden tardar en llegar. Como mostraron los problemas de Myanmar, Facebook no ha elegido desarrollar los mismos recursos lingüísticos en todas partes. En una sesión de la conferencia del martes sobre los esfuerzos de Facebook para reducir la difusión de noticias falsas, la ejecutiva Tessa Lyons-Laing dijo que el software de aprendizaje automático estaba aprendiendo a detectar información errónea del trabajo de los verificadores de hechos en organizaciones como AP, que marcan manualmente las historias falsas para Facebook. Pero dijo que la tecnología solo funcionaría donde Facebook establezca relaciones con los grupos locales de verificación de datos y ha creado una buena recopilación de sus datos.

Schroepfer dice que encontrar formas de avanzar sin tener que depender de nuevos aportes humanos es una de sus estrategias principales para avanzar en la IA. El miércoles, los investigadores de Facebook mostraron cómo miles de millones de hashtags de Instagram proporcionaban una fuente de datos gratuita para establecer un nuevo récord en reconocimiento de imágenes. En muchos de los problemas más difíciles de Facebook, no hay manera de cortar el juicio humano fuera de lo común. “AI no es un sustituto para las personas cuando se trata de decidir qué está bien y qué no está bien por adelantado”, dice Schroepfer. “AI es una gran herramienta de implementación para implementar las reglas una vez que las personas las deciden”.

Fuente y foto: https://www.wired.com/story/how-artificial-intelligence-canand-cantfix-facebook/