Más de 120.000 reproducciones de un video que muestra la agresión sexual a un niño. Un motor de recomendación que sugiere a un usuario seguir contenidos relacionados con niños explotados. Usuarios que publican material de abusos continuamente, retrasos a la hora de retirarlo cuando se detecta y fricciones con las organizaciones de vigilancia.
Todo ello desde que Elon Musk declaró que “eliminar la explotación infantil es la prioridad número uno” en un tuit a finales de noviembre.
Con Musk como propietario, la jefa de seguridad de Twitter, Ella Irwin, dijo que se actuaba con rapidez para combatir el material de abuso sexual infantil, que era frecuente en el sitio, como sucede en la mayoría de las plataformas tecnológicas, con los anteriores propietarios. “Twitter 2,0″ será diferente, prometió la empresa.
Leé también: Twitter prohibió el uso de aplicaciones externas en su plataforma: solo se podrá acceder con la app oficial
Pero un análisis de The New York Times descubrió que las imágenes, comúnmente conocidas como pornografía infantil, continuaban presentes en la plataforma, incluido material de amplia difusión que las autoridades consideran el más fácil de detectar y eliminar.
El análisis del Times muestra que, después de que Musk tomó las riendas de Twitter a finales de octubre, la empresa perdió a gran parte del personal con experiencia en el problema por despidos o renuncias y no logró evitar la propagación de imágenes de abusos identificadas previamente por las autoridades. Twitter también dejó de pagar un software de detección considerado clave para sus esfuerzos.
Mientras tanto, en los foros de la red oscura se habla de cómo Twitter sigue siendo una plataforma en la que pueden encontrar el material con facilidad mientras evitan ser detectados, según las transcripciones de esos foros de un grupo antiabusos que los vigila.
“Si dejas entrar a las ratas de alcantarilla”, dijo Julie Inman Grant, comisaria de seguridad en línea de Australia, “sabes que la pestilencia va a llegar”.
Según Twitter, avanzaron mucho en la guerra contra el contenido de abuso infantil
En una conversación de audio con Irwin a principios de diciembre, un investigador independiente que trabajaba en Twitter afirmó que los contenidos ilegales llevaban años a disposición del público en la plataforma y acumulaban millones de vistas. Sin embargo, Irwin y otros empleados de Twitter afirmaron que los esfuerzos de Musk estaban rindiendo frutos. Durante su primer mes como propietario, la compañía suspendió casi 300.000 cuentas por violar las políticas de “explotación sexual infantil”, un 57 por ciento más de lo habitual, según informó la empresa.
Leé también: “¿Cuál es mejor?”: Elon Musk dice que Instagram deprime a las personas y Twitter las enoja
El esfuerzo se aceleró en enero, según Twitter, cuando suspendió 404.000 cuentas. “Nuestro enfoque reciente es más agresivo”, declaró la empresa en una serie de tuits el miércoles, diciendo que también había tomado medidas enérgicas contra las personas que buscan el material de explotación y que había reducido las búsquedas exitosas en un 99 por ciento desde diciembre.
En una entrevista, Irwin dijo que la mayoría de las suspensiones afectaban a cuentas que se dedicaban a vender o distribuir el material, más que a las que lo publicaban. No puso en duda que el contenido de abuso sexual infantil siga estando disponible abiertamente en la plataforma y agregó que eran totalmente conscientes de que todavía se les escapaban algunas cosas que tenían que ser capaces de detectar mejor.
Añadió que Twitter estaba contratando empleados y desplegando “nuevos mecanismos” para combatir el problema y aseveró que trabajaban en eso sin descanso.
Cómo investigó el Times el contenido de abuso sexual infantil en Twitter
Wired, NBC y otros medios han detallado los continuos problemas de Twitter con las imágenes de abusos a menores con Musk como dueño. El martes, el senador demócrata de Illinois Richard Durbin pidió al Departamento de Justicia que revisara todo lo que ha hecho Twitter para resolver el problema.
A fin de evaluar los avances de la empresa, el Times creó una cuenta individual de Twitter y escribió un programa informático automatizado que podía buscar el contenido en la plataforma sin mostrar las imágenes reales, cuya visualización es ilegal. No fue difícil encontrar el material. De hecho, Twitter ayudó a promocionarlo a través de su algoritmo de recomendación, una función que sugiere cuentas a seguir en función de la actividad del usuario.
Entre las recomendaciones figuraba una cuenta que presentaba una foto de perfil de un niño con el pecho descubierto. El niño en la fotografía es una conocida víctima de abuso sexual, según el Centro Canadiense para la Protección de Menores, que ayudó a identificar el material de explotación en la plataforma para el Times al compararlo con la base de datos de imágenes previamente identificadas.
El mismo usuario seguía a otras cuentas sospechosas, incluida una que le había dado me gusta a un video de niños que violentaban sexualmente a otro. Para el 19 de enero, el video, que había estado en Twitter durante más de un mes, tenía más de 122.000 vistas, casi 300 retuits y más de 2600 me gusta. Twitter eliminó el video después de que el centro canadiense lo marcó para la empresa.
En las primeras horas de la búsqueda, el programa de cómputo encontró varias imágenes que ya habían sido identificadas como de abuso, así como cuentas que ofrecían más imágenes a la venta. El Times marcó las publicaciones sin ver las imágenes y envió las direcciones de internet a servicios a cargo de Microsoft y del centro canadiense.
A fines de diciembre, una cuenta ofrecía un “paquete navideño” de fotos y videos con descuento. Ese usuario tuiteaba una imagen parcialmente oscurecida de un niño que había sufrido abusos desde los 8 años hasta la adolescencia. Twitter eliminó la publicación cinco días después, pero solo después de que el centro canadiense envío avisos en varias ocasiones.
En total, el programa informático encontró imágenes de diez víctimas que aparecían más de 150 veces en varias cuentas, la última el jueves. Los tuits que las acompañaban a menudo anunciaban videos de violaciones de menores e incluían enlaces a plataformas encriptadas.
Resultados alarmantes
Alex Stamos, director del Observatorio de Internet de la Universidad de Stanford y ex alto ejecutivo de seguridad de Facebook, consideró alarmantes los resultados. “Teniendo en cuenta la atención que Musk ha prestado a la seguridad infantil, es sorprendente que no estén haciendo lo básico”, afirmó.
Por otra parte, para confirmar los hallazgos del Times, el centro canadiense realizó una prueba para determinar la frecuencia con la que aparecía una serie de videos con víctimas conocidas en Twitter. Los analistas encontraron 31 videos distintos compartidos por más de 40 cuentas, algunos de los cuales fueron retuiteados y recibieron miles de me gusta. Los videos mostraban a un joven adolescente que había sido extorsionado en línea para participar en actos sexuales con un niño preadolescente durante varios meses.
El centro también realizó una búsqueda más extensa entre los videos más explícitos de su base de datos. Hubo más de 260 coincidencias, con más de 174.000 me gusta y 63.000 retuits.
“El volumen que podemos encontrar con un esfuerzo mínimo es bastante considerable”, afirmó Lloyd Richardson, director de tecnología del centro canadiense. “No debería ser tarea de personas externas encontrar este tipo de contenidos en su sistema”.
Cómo controla Twitter el material sobre explotación sexual infantil
Para encontrar el material, Twitter utiliza software creado por una organización que combate el tráfico de personas llamada Thorn. Según personas familiarizadas con la relación, Twitter no le ha pagado a la organización desde que Musk asumió el puesto de director ejecutivo, se cree que esto se debe a su esfuerzo generalizado por recortar gastos. Twitter también dejó de trabajar con Thorn para mejorar la tecnología. La colaboración era benéfica para toda la industria porque otras empresas usan el mismo software.
Irwin declinó comentar sobre las relaciones comerciales de Twitter con proveedores específicos.
La relación de Twitter con el Centro Nacional para Niños Desaparecidos y Explotados también se ha visto afectada, según las personas que trabajan ahí.
John Shehan, un ejecutivo del centro, comentó que le preocupaba el “alto nivel de rotación” en Twitter y cuál es la posición de la empresa “en la confianza y la seguridad y su compromiso con la identificación y eliminación de material de abuso sexual infantil de su plataforma”.
Tras la transición a la propiedad de Musk, Twitter reaccionó en un primer momento con mayor lentitud a las notificaciones del centro sobre contenido de abuso sexual, según datos del centro, un retraso de gran importancia para los sobrevivientes de abusos, que son revictimizados con cada nueva publicación. Twitter, como otras plataformas, mantiene una relación bidireccional con el centro. El sitio notifica al centro (que a su vez puede notificar a las autoridades) cuando tiene conocimiento de contenidos ilegales. Y cuando el centro se entera de un contenido ilegal en Twitter, alerta al sitio para que las imágenes y las cuentas puedan ser eliminadas.
A fines del año pasado, el tiempo de respuesta de la empresa fue de más del doble del que había sido durante el mismo periodo un año antes con los propietarios anteriores, aun cuando el centro enviaba menos alertas. En diciembre de 2021, Twitter tardó un promedio de 1,6 días en responder a 98 avisos; el pasado diciembre, después de la llegada de Musk, tardó 3,5 días en responder a 55 avisos. En enero, mejoró bastante: tardó 1,3 días en responder a 82 avisos.
El centro canadiense, que cumple la misma función en ese país, dijo que había visto retrasos de hasta una semana. En un caso, el centro canadiense detectó el 6 de enero un video que mostraba abusos a una niña desnuda, de entre 8 y 10 años. La organización dijo que envió avisos diarios durante casi una semana antes de que Twitter retirara el video.
Inman Grant, la reguladora australiana, dijo que no había podido comunicarse con los representantes locales de la empresa porque los contactos de su agencia en Australia habían dimitido o habían sido despedidos desde que Musk se hizo cargo de la empresa. Teme que la reducción de personal provoque más tráfico de imágenes de explotación.
“Estos contactos locales desempeñan un papel vital a la hora de abordar asuntos urgentes”, dijo Inman Grant, quien anteriormente fue ejecutiva de seguridad tanto en Twitter como en Microsoft.
Irwin dijo que la empresa seguía en contacto con la agencia australiana y, en términos más generales, expresó su confianza en que Twitter estaba “mejorando mucho”, aunque reconoció los retos que tiene por delante.
“En ningún caso nos estamos dando palmaditas en la espalda ni decimos: ‘Caray, tenemos todo bajo control’”, afirmó Irwin.
Los delincuentes siguen intercambiando consejos en foros de la red oscura sobre cómo encontrar el material en Twitter, según los mensajes encontrados por el centro canadiense.
El 12 de enero, un usuario describió cómo seguía cientos de cuentas “legítimas” de Twitter que vendían videos de jóvenes engañados para que enviaran grabaciones explícitas de sí mismos. Otro usuario describió Twitter como un lugar fácil para ver videos de abusos sexuales de todo tipo. “La gente comparte tanto”, escribió el usuario.