cómo funciona el novedoso sistema para evitar ‘haters’ y cuidar la salud mental de los jugadores

Las distintas aplicaciones que constituyen las redes sociales pueden ser el método de expresión más amplio del mundo, pero también lo más parecido a las inscripciones en la puerta de un baño público: junto a una letrina se pueden leer sentencias anónimas cargadas de violencia y con la impunidad de quien tira la piedra y corre. Pero el vertedero cloacal de Twitter -X, desde la llegada de Elon Musk-, Facebook o Instagram, entre otras, está disponible para muchas más personas que las que ocasionalmente pueden leer algo ofensivo en el baño de un bar.

Basta leer los comentarios de los lectores al pie de algunos artículos que publica este mismo diario para entender de qué se está hablando. Lo mismo en posteos de redes de este medio u otros usuarios. Detrás de la mayoría de los arrobas, se esconde un usuario que cree poder insultar, discriminar y valorar el desempeño de terceros. Hay varias definiciones posibles para esa conducta, pero no deja de ser acoso, hostigamiento y violencia.

La nadadora argentina Delfina Pignatiello contó los motivos que la llevaron a dar de baja sus perfiles. “Después de 9.000 horas de entrenamiento, más de 3.000 zambullidas, cientos de carreras, varias medallas de oro, toco la pared en Tokio 2020 -mi sueño era un Juego Olímpico- y me doy cuenta de que no hice el tiempo que quería ni terminé en la posición que perseguía y en lo único que pensé en ese momento en qué me iban a decir en las redes sociales ¿Cómo podía ser que lo que más me importara iba a ser la mirada de un montón de personas que no conocía? Terminé inmersa en una guerra en las redes sociales donde me atacaban sin impunidad detrás de un perfil en Internet, donde me llegaron a decir fracasada de mierda. Y lo peor es que me lo creí”, explicó en una charla TEDxRiodelaPlata.

Más contundente aún es el caso de Simone Biles: en los mismos Juegos Olímpicos, la gimnasta estadounidense se retiró de la final por equipos y luego de las de aparatos, salto y barras. «Cuando entro en la pista somos mi cabeza y yo. Trato con los demonios que hay en mi cabeza. Después de la actuación que hice, no quería seguir. Tengo que centrarme en mi salud mental. Creo que la salud mental está más presente en el deporte ahora mismo. Tenemos que proteger nuestra mente y nuestro cuerpo y no limitarnos a hacer lo que el mundo quiere que hagamos», dijo y puso en la mesa una discusión que no estaba presente.

Fotos Emmanuel Fernández/ enviado especial – CLARIN

Por ese mismo motivo, la World Rugby puso en práctica medidas para proteger a todos los jugadores de las diferentes selecciones y a los oficiales de partido de los abusos online mientras dure el Mundial de Francia 2023.

Para ello la organización se asoció con Signify Group, una empresa especializada en Big Data, que utilizará su servicio matriz de amenazas basado en Inteligencia Artificial para crear “un escudo protector en línea”, en torno a palabras clave: los nombres y apellidos de cada jugador, entrenadores y referís que participan de la competencia.

El monitoreo se realiza en tiempo real en todas las aplicaciones de fuentes abiertas, incluyendo Twitter y el paquete de Meta, en más de 30 idiomas, incluyendo imágenes y emojis. El reporte diario con el contenido abusivo y cuentas señalas es reportado y acelera la eliminación de contenido abusivo y la sanción para los titulares de esas cuentas.

Fotos Emmanuel Fernández/ enviado especial - CLARIN Fotos Emmanuel Fernández/ enviado especial – CLARIN

La misma empresa es la que proporciona, con la ayuda de la Inteligencia Artificial, las evidencias que demuestran las violaciones a los términos de uso de las diferentes plataformas. Pero va más allá: ofrece las pruebas a las asociaciones nacionales para que éstas -en caso de querer hacerlo- prohíban la entrada a aquellos usuarios identificados en eventos nacionales o internacionales de rugby.

Los casos más graves –amenazas de muerte o contra la integridad física, por ejemplo– tienen el potencial de que pueden ser reportados a entidades de seguridad de diferentes gobiernos, con la “capacidad de desenmascarar a los peores abusadores que se esconden detrás de cuentas falsas”, según explicó la World Rugby.

“Queremos enviar el fuerte mensaje de que simplemente no se tolerará el odio en línea y que abordaremos con acciones significativas el abuso y el contenido perjudicial”, graficó el director ejecutivo de la entidad Alan Gilpin.

Clarín quiso saber cuales fueron los datos tras cumplirse la primera jornada de partidos, pero aún no están disponibles. “No tenemos los números después del primer fin de semana, pero recopilaremos todos los datos al final del torneo. Es demasiado pronto para sacar conclusiones de una ronda de partidos”, explicó Peter Hannon, uno de los oficiales de Medios que tiene la organización.

Cinco años de exploración

Signify Group es una empresa de ciencia de datos e inteligencia artificial ética que utiliza datos de código abierto para comprender mejor lo que realmente les importa a los fanáticos, consumidores y al público en general que fue fundada en 2017. Tres años después lanzó Threat Matrix, que utiliza Inteligencia Artificial y técnicas de investigación forense de código abierto para proteger a las personas del abuso en línea.

El servicio se diversificado y se volcó al sector deportivo y es utilizado por clubes, ligas, sindicatos de jugadores, federaciones y organizadores de eventos deportivos globales para proteger a los atletas y otros interesados, además de ser utilizado en investigaciones y soporte de inteligencia.