Facebook moderará las discusiones en grupos a través de Inteligencia Artificial

Es común que las discusiones en Facebook se salgan de control y se vulnere la identidad de los usuarios, es por eso que crearon una tecnología para regularlas.

Por:  Anneth Marín

La nueva Inteligencia Artificial (IA) de Facebook enviará "alertas de conflicto" cuando considere polémica alguna publicación. Esto ayudará a filtrar el contenido que los usuarios podrán ver y a mantener el orden en comunidades muy grandes donde no es posible para el administrador controlar a tantas personas. Más de 1.800 millones participan en algun grupo de las decenas de millones que hay activos cada mes. Pretende ayudar a que los más de 70 millones de personas que dirigen y moderan grupos a mantener el control.

Los usuarios de Facebook se unen a grupos donde pueden interactuar con personas que comparten intereses, pasatiempos y gustos similares a los suyos. Hay grupos sobre jardinería, deportes, cine, música, política... se pueden encontrar sobre numerosos temas donde los usuarios comparten noticias, datos curiosos y donde se crean debates que regularmente se salen de control. Los enfrentamientos entre miembros de grupos son muy comunes, por eso Facebook buscó la manera de regularlos para que los usuarios puedan expresar sus ideas, pero sin afectar a otros.

Cómo funcionará

La Inteligencia Artificial detectará palabras claves que inciten a la violencia, medirá el número de comentarios y calculará los tiempos de respuesta para enviar una alerta al administrador. Cuando la reciba, analizará la situación para determinar si se trata de un conflicto. Así se podrán moderar situaciones en las que los usuarios se encuentren alterados para poder intervenir y calmarlos.

La Inteligencia Artificial solamente puede actuar conforme a lo que ve. Está configurada para detectar el discurso de odio o "hate speech": un argumento donde se expresa una propaganda de ideas basadas en la supuesta superioridad de un grupo de personas por su raza, color u origen étnico, el cual trata de justificar el odio y la discriminación. Sin embargo, la IA aún no es capaz de entender o analizar el contexto en el que se lleva a cabo, por lo que muchos usuarios se han quejado de que son bloqueados por utilizar ese lenguaje cuando en realidad se trataba de un malentendido. Según las bases de la política de Facebook, en la red social no se permite utilizar lenguaje que incite al odio porque "crea un entorno intimidatorio y excluyente que, en algunos casos, puede incitar a la violencia en la vida real".

Facebook hizo un experimento en el grupo "Otros cachorros de la gente" donde se simularon discusiones y se tomaron capturas de pantalla con la conversación donde se muestra cómo aparecerá la alerta. Un usuario respondió a una publicación escribiendo “Cállate, eres tan tonto. Detente hablando de ALIMENTOS ORGÁNICOS idiota !!! ”. “¡IDIOTAS!” respondió alguien en otro comentario. “¡Si estas tonterías siguen sucediendo, me voy del grupo!”, escribieron finalmente. En conversaciones como esas aparecerá una pantalla en la parte superior que diga "Alerta de moderación".

Además, se podrá limitar las acciones de un usuario si violan las políticas del grupo. Facebook regula el contenido que los usuarios comparten desde hace varios años, pero como tiene 2.800 millones de usuarios mensuales, ahora trabaja en implementar esta Inteligencia Artificial que analiza los discursos para eliminar todos aquellos que vulneren a una persona por su condición. 

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS