Instagram suscita múltiples preocupaciones, ya que un grupo de investigadores descubrió que sus algoritmos promueven contenidos relacionados con la pedofilia, procede de un artículo de ‘The Wall Street Journal’.
.
A primera vista, la política de Instagram sugiere que las cuentas cuyo contenido no está destinado a la libre distribución o es objeto de una prohibición total se ocultan automáticamente, gracias a la configuración del sitio. Sin embargo, los investigadores han detectado un conjunto de hashtags especiales que enlazan a los pedófilos con cuentas que publicitan material con menores prohibido a la venta, procede de la publicación.
.
Tales cuentas suelen estar gestionadas supuestamente en nombre de los mismos menores, con un lenguaje inapropiado para su edad que atraerá a clientes potenciales. Además, para evitar ser bloqueados por Instagram, aquellos que llevan esa actividad ilegal han ideado diversos trucos, desde llamados menús de contenidos a la venta, hasta símbolos especiales identificativos, números y emoticonos.
.
Promover material sobre sexo con menores infringe las normas de Meta, destaca el artículo. En respuesta a las preguntas del medio, Meta reconoció problemas relacionados y aseguró que ya existe un grupo de trabajo interno para abordar las cuestiones planteadas.
.
Sin embargo, el problema persiste. Incluso el director del Observatorio de Internet de Stanford y jefe de seguridad de Meta hasta 2018, Alex Stamos, reconoció que para resolver esta catástrofe en la red social se necesitan esfuerzos sostenidos.
.
El Observatorio de Internet de Stanford es una división del Centro de Política Cibernética que investiga casos del abuso de los medios sociales. Son sus investigadores que elaboraron un análisis cuantitativo y postularon el problema muy inquietante con la protección de los derechos de los niños en Instagram. La segunda institución, que examinó la falta de supervisión por parte de Instgram fue Rescue Lab de la UMass.
.
.
«Utilizando métodos diferentes, ambas entidades pudieron identificar rápidamente comunidades a gran escala que promovían el abuso sexual con fines delictivos», afirma la publicación.
.
Para detectar la disfunción de los algoritmos, se creó una cuenta de prueba, desde la que miraron otra, cuyo contenido no cumplía en principio las normas de Instagram. No obstante, los investigadores enseguida recibieron recomendaciones ‘sugerencias’ de supuestos vendedores y compradores de contenido sexual infantil y cuentas con enlaces a sitios de comercio de contenidos fuera de la plataforma. Al abrir unas pocas cuentas, las recomendaciones se llenaban por completo de páginas de contenido ilegal.
«El Observatorio de Internet de Stanford utilizó hashtags asociados al sexo con menores para localizar a 405 vendedores de lo que los investigadores denominaron material sexual infantil ‘autogenerado’, es decir, cuentas supuestamente gestionadas por los propios menores, algunos de los cuales decían tener solo 12 años», revela el texto.
Desafortunadamente, no todos estos hashtags se identifican a tiempo y se retiran del dominio público. Además, de acuerdo con el medio, se utilizan los emoticonos como forma de codificar la información, lo que permite engañar al sistema. Asimismo, el propio servicio de seguridad de Instagram no es capaz de atender toda la oleada de denuncias sobre cuentas de este tipo, y muchas de ellas quedan sin bloquear.
.
Se señala, que cuentas de sexo infantil fueron encontradas también en Twitter, pero la cantidad era menos de un tercio de las que encontraron en Instagram, ya que su base de usuarios es mucho mayor y alcanza casi 1.300 millones.
.
Lo importante es que incluso cuando Instagram elimina cuentas que venden contenido ilegal, no desaparecen totalmente, ya que las restricciones por infringir las normas de la comunidad suelen imponerse a las cuentas y no a los usuarios ni a los dispositivos, destaca el medio. Se pone especial énfasis en que, a menudo, los sistemas de recomendación de Instagram socavan directamente los esfuerzos de su propio personal de seguridad.