Las noticias falsas no son la única pelea que tienen por delante gigantes como Google o Facebook. Más antiguos aún son los llamados trolls, esas personas que escriben comentarios violentos en cuanto lugar encuentran, sobre todo en los espacios que ofrecen medios de comunicación online.
Los mensajes de ese tipo son tan violentos (incluyendo racismo), que sitios como IMBd debieron cerrar sus notas a comentarios. Google acaba de presentar una iniciativa para dar pelea: Perspective.
Basada en inteligencia artificial, Perspective revisará comentarios y les asignará una nota basados en cuán similares sean a mensajes que la gente dijo eran «tóxicos» o que seguramente los hacían dejar una conversación.
The New York Times fue uno de los primeros en probar el sistema, que se extenderá más adelante a The Guardian y The Economist, así como a sitios de internet.
«Las organizaciones de medios quieren alentar la participación y la discusión sobre su contenido, pero se encuentran con que ver millones de comentarios para hallar los que son abusivos o malintencionados lleva mucho dinero, trabajo y tiempo. Como resultado, muchos sitios han cerrado sus secciones de comentarios«, escribió Jared Cohen, presidente de Jigsaw, asociada al proyecto.
CJ Adams, gerente de producto de Jigsaw, dijo que la compañía estaba abierta a llevar la tecnología a todas las plataformas, sin especificar si eso incluía a redes como Facebook y Twitter, donde los comentarios maliciosos y abusivos pueden ser un gran dolor de cabeza.
Perspective no decidirá qué hacer con los comentarios que sean potencialmente abusivo, en ese caso dependerá del medio enviarlos a sus moderadores o desarrollar herramientas para ayudar a las personas a entender el impacto de lo que están escribiendo.