“No tengo duda de que Instagram ayudó a matar a mi hija”. Éstas fueron las palabras con las que Ian Russell, el padre de Molly, una niña de 14 años que se suicidó en el 2017, ha puesto entre las cuerdas a la red social, a la que acusa de exponer “contenido estremecedor” que anima a autolesionarse.
Tras la muerte de Molly, la familia analizó las cuentas de las redes sociales que tenía la pequeña. En sus redes descubrieron contenido sobre la depresión y las maneras de autolesionarse. Russell también declaró que Molly accedió a cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba seriamente la idea de suicidarse.
Cuando la BBC trató de contactar a los responsables, no quisieron hacer comentarios. Tan solo emitieron un comunicado asegurando que Instagram “no permite ese tipo de contenido” y que al detectarlo, lo elimina de la plataforma.
Steve Hatch, director de Facebook para Europa del norte, le contó a la BBC en una entrevista exclusiva, que la muerte de Molly Russell fue un suceso devastador.
Hatch le dijo al editor de la BBC, que se sintió profundamente afligido cuando escuchó las acusaciones del padre de Molly, en las que aseguró que la red social, es en parte, responsable de la muerte de la niña.
Cuando Rajan le mostró imágenes de autolesiones, que supuestamente van en contra de las políticas de Instagram, pero, aún así, disponibles en la red social, el ejecutivo respondió lo siguiente: «Tenemos que asegurarnos de que analizamos estas imágenes y nos aseguramos que son eliminadas».
La BBC buscó en Instagram el contenido que aparecía con el hashtag “Selfharm” (autolesionarse) y encontró imágenes muy explícitas de los usuarios. Además, los algoritmos hacen que los hashtags permitan encontrar más contenido similar.
Ese material sigue estando disponible en la plataforma. Y aunque Instagram cuenta con herramientas que advierten sobre ciertos términos de búsqueda, y ofrece ayuda, los usuarios pueden ignorar la ayuda, seguir navegando y acceder a ese material de cualquier manera.
La red social creó esos nuevos “Filtros de contenido” a partir de otra investigación de la BBC, en la que se resaltó cómo la red social promueve la anorexia y la bulimia.
FUENTE: BBC