Menores en TikTok: hipersexualización, retos de alto riesgo y exposición a pederastas

Anna Gimeno

València —

0

Redes sociales como TikTok exponen a menores a altos riesgos como la accesibilidad de imágenes para depredadores sexuales, la participación en retos virales que ya cuentan con víctimas mortales o la visualización e imitación de contenidos hipersexualizados altamente dañinos en el desarrollo de niñas y niños. Pese a ello y a que la legislación europea vigente limita el acceso de menores de 16 años a estas plataformas, solo Italia se ha atrevido a bloquear temporalmente TikTok y obligar a esta red social a verificar la edad de las personas con cuenta abierta o que soliciten acceso. El resultado en este país es que cerca de medio millón de cuentas de menores de 13 años han sido eliminadas. En cambio en España, donde sobre el papel la Ley de Protección de datos limita el acceso a redes sociales a menores de 14 años, miles de menores usan TikTok y no se ha planteado como obligación a las plataformas digitales la verificación de la edad de acceso ni de autorización parental, ni siquiera en la nueva Ley Orgánica de Protección Integral a la Infancia y la Adolescencia, que realiza una alusión genérica en términos de “fomentar o reforzar”.

En enero de 2021 una niña de 10 años murió en Palermo tras participar en un reto viral difundido en TikTok, el juego de la asfixia, que consiste en provocarse la asfixia sola o con ayuda de alguien, con el supuesto objetivo de lograr una breve euforia por la disminución del flujo de oxígeno en el cerebro.

Más cerca, en Valencia, en febrero de este mismo año, el grupo de Homicidios de la Policía Nacional investigó la muerte de un menor de 12 años y unas horas después un caso muy similar de otro menor, este de 10 años, que terminó herido grave, al sospechar que podría tratarse de retos virales en TikTok, como publicó en exclusiva Teresa Domínguez para Levante-EMV. Y no es la primera investigación en este sentido en Valencia.

Desgraciadamente tampoco son los únicos casos en España. Entre otros, en 2020 la policía pudo evitar en Benidorm (Alicante) el suicidio inminente de una menor, anunciado en TikTok, tras una alerta de la policía griega y, el mismo año, la guardia urbana de Barcelona alertaba sobre la viralización del reto del “Rompebocas” consistente en provocar, sin previo aviso, que la víctima pierda el equilibrio y caiga de bruces o de espaldas golpeándose en la cara o en la cabeza contra el suelo. En 2019 hubo dos casos del reto de la asfixia o de la muerte, uno en Madrid que acabó con una menor de 12 años hospitalizada y otro en Granada. En 2018 una niña guipuzcoana se quitó la vida inducida por el reto de la “Ballena azul”, una serie de desafíos para autolesionarse hasta acabar con la propia vida.

En EEUU se han registrado muertes de menores también por otros retos como el ‘Benadryl Challenge’, que desafía a tomar determinadas cantidades de un antihistamínico que puede producir alucinaciones y potencialmente la muerte. Y en Reino Unido un niño de 11 años estuvo a punto de morir en 2018 por un derrame cerebral al participar en el reto “Rueda de la muerte” que consiste en girar a máxima velocidad en una rueda giratoria de un parque infantil.

El ingeniero informático forense, perito judicial en esta materia, Pablo Duchement, que investiga casos de delitos contra menores en Internet, afirma que si un menor de 13 años usa TikTok no solo incumple las normas de edad mínima de acceso a esta red social sino que quien creó su cuenta tuvo que mentir para registrarlo o registrarse. Esto tiene importantes implicaciones en relación a la asunción de responsabilidades en caso de que aquella o aquel menor sea víctima de un delito en esta red, ya que TikTok podría utilizarlo para eludirlas.

TikTok advierte en sus condiciones de servicio que el acceso a esta plataforma está prohibido para menores de 13 años, incluso con autorización parental. También que de 13 a 18 años se requiere autorización parental de ambos progenitores, según la propia plataforma, aunque no se realiza por su parte ninguna verificación ni respecto a la edad ni a la autorización parental. Hasta los 18 años además de necesitar el consentimiento parental, estos usuarios o usuarias, al menos en teoría, son desviados a una zona restringida para su edad, sin posibilidad de comentar, buscar o publicar contenido propio y solo obtendrían el acceso a mensajería a partir de los 16 años.

La realidad en España es que esta red social -con más de 600 millones de seguidores en el mundo- es muy popular precisamente entre los menores de edad más pequeños, los que tienen su acceso limitado, no solo por las propias condiciones de esta plataforma sino por la legislación española y la europea respecto al acceso de menores a servicios de la sociedad de la información. TikTok publica cada semestre datos acerca de las cuentas que ha eliminado por diferentes razones, entre ellas la edad, pero de facto localizar a menores de 13 años en esta red es tan fácil como navegar por ella durante unos minutos o realizar una simple búsqueda como “11-12 birthday” que permite encontrar numerosos vídeos de menores que celebran su 11 ó 12 cumpleaños con una publicación. Que algo tan sencillo de encontrar no haya sido eliminado demuestra que la diligencia de TikTok para cerrar las cuentas de menores es una falacia que se refuerza aún más tras lo ocurrido este mismo año en Italia.

Las autoridades italianas bloquearon en enero de 2021 la red social, en una decisión sin precedentes en Europa, con el objeto de conseguir que TikTok aplicara la verificación de edad para evitar el acceso de menores. Esta medida, que no se ha adoptado en España, ha obligado a la plataforma a identificar y eliminar las cuentas de cerca de medio millón de menores de 13 años, algo que, si la red social ha hecho en Italia, podría implementar en todos los países si verdaderamente le preocupara la exposición de menores a depredadores sexuales –como han advertido diferentes autoridades policiales- o a desafíos de alto riesgo.

Una “negligencia parental” con consecuencias en la custodia de menores

El hecho de abrir una cuenta a un niño o una niña en TikTok puede traer también consecuencias en la custodia de menores. En un procedimiento judicial por el régimen de visitas o la guarda y custodia podría establecerse modificaciones en atención a una “negligencia parental”, como ya se ha dictado en una muy reciente e inédita sentencia en España que ha hecho pública el périto judicial informático Pablo Duchement, también creador de un servicio sin ánimo de lucro para el apoyo en la certificación de ataques a menores en redes sociales, denominado Ciber Protecter. El experto ha explicado que en virtud de esta sentencia, de marzo de 2021, “la presencia desatendida de un menor en la red ha sido considerada conducta negligente por parte del progenitor que consiente”.

En España, la prohibición del acceso de menores de 14 años a plataformas digitales sin el consentimiento parental está recogido en los artículos 7 y 84 de la Ley de protección de datos personales de 2018. El Parlamento y el Consejo de Europa son aún más garantistas y en su reglamento de 2016 referido al tratamiento de datos personales y a su libre circulación, trazan la línea en los 16 años.

Precisamente en relación a la protección de datos, Duchement explica que esta red social china plantea numerosos riesgos ya que “todo dato a disposición de TikTok es inaccesible a ningún otro gobierno o autoridad, protege la intimidad y el anonimato de cuentas con actividad pedófila incluso identificándolas y conociéndolas, es fuente de contenido pedófilo, un catálogo interactivo de presas para pedófilos –que además pueden comunicarse con sus víctimas si estas no están registradas como menores de 18 años; es una app invasiva que utiliza métodos de espionaje y no se hace cargo del acceso de los menores”, como manifiesta el forense en sus sesiones de formación sobre TikTok para la Fundación “Aprender a mirar”, una entidad que trabaja por la defensa de menores usuarios de contenidos audiovisuales.

Por otra parte, la voluntad de TikTok en la protección de menores queda también en entredicho porque esta plataforma digital “no se adhiere a la COPPA - Children's Online Privacy Protection Act-, la Ley de Protección de la Privacidad en Línea para Niños, que compromete a informar de comportamientos pedófilos en internet y a la que sí se han adherido Facebook, Twitter o Instagram entre otras. De hecho, hemos comprobado como alguna cuenta de TikTok denunciada a la policía en redes sociales por instigadora de la pedofilia sigue activa en esta red social pese a la denuncia.

Precisamente la Fiscalía de la Comunitat Valenciana en su memoria de 2020 señala “la escasa o nula colaboración de las empresas administradoras de las redes sociales” como “uno de los principales problemas en los casos de amenazas o coacciones en la red” donde “por la dificultad de identificar a los autores se suelen llevar a cabo, desde el anonimato, estos comportamientos delictivos”.

La hipersexualización repercute gravemente en el autoconcepto de niñas y niños

El uso de TikTok, entre otras redes sociales, expone a niñas y niños a contenidos ajenos hipersexualizados y estereotipados, especialmente dañinos para el desarrollo de su autoconcepto y su autoestima, como señala la experta Anna Plans, autora de “Respeta mi sexualidad” –NuevaEva Ed.-, presidenta de la Associació de Consumidors de Mitjans Audiovisuals de Catalunya y colaboradora de la Fundación ‘Aprender a Mirar’. También invita a una imitación altamente perjudicial.

La hipersexualización “consiste en resaltar los atributos sexuales de una persona por encima de cualquier otro atributo que la pueda definir y está considerada como una forma de violencia que agrede a la dignidad y daña el desarrollo como personas, con especial gravedad en menores”, explica Plans. Además, implica reducir a una persona a una única dimensión, la sexual, y condiciona la imagen personal, la identidad y la manera de relacionarnos con otras personas. Sus consecuencias, afirma la experta, “están relacionadas con algunas de las fragilidades contemporáneas como anorexia, bulimia, depresión, fobia social, autolesiones, e incluso suicidio”. También, afirma Plans, “al condicionar la autoestima puede propiciar la elección de amistades o parejas tóxicas”. Una de las evidencias son los datos crecientes de violencia machista ejercida por menores y el número de menores que consideran aceptable el control por parte de su pareja, que se ejerce mayormente a través de las redes sociales –vigilancia de relaciones, contactos, Me Gustas- o el control de actividad en los chats –si están o no en línea en whatsapp- así como compartiendo la geolocalización o las contraseñas de acceso a cuentas. También el sexting coercitivo y sus consecuencias, como el grooming (que ha crecido un 36,7% en un año y más del 400% entre 2009 y 2016 según la fundación ANAR), la pornovenganza o la sextorsión, entre otras.

Un contexto hipersexualizado, que se reproduce en redes sociales, en la música, videoclips, realitys y se magnifica con algoritmos que premian estos contenidos, apunta la experta, “favorece el aumento de los abusos sexuales y contribuye a desarrollar comportamientos sexuales agresivos y de violencia en general”. En este sentido, la fiscalía de la Comunitat Valenciana, en su memoria de 2020 señala que “El incremento de la violencia de género y la sexual probablemente obedezca a un modelaje continuo e inadecuado, obtenido por los propios menores y sus iguales a través de Internet y las redes sociales”.

Según los informes Violencia viral y Desinformación sexual de Save the children, el 75,1 % de las personas encuestadas ha sufrido alguna vez algún tipo de violencia online durante su infancia; el 53,8 % ha accedido por primera vez a la pornografía antes de los 13 años y un 8,7 % antes de los 10 años.

Si tenemos en cuenta que según el Instituto Nacional de Estadística, un 66% de menores entre 10 y 15 años en España tiene teléfono móvil, la situación es preocupante. Por ello Anna Plans ha liderado una petición al Parlamento Europeo para que tome medidas que permitan garantizar, al menos, que las personas usuarias de las redes sociales tengan la edad mínima requerida en la legislación, que en España es de 14 años.

Carecemos de medidas contundentes que permitan hacer cumplir la legislación de protección de menores en las redes y exigir responsabilidades a las operadoras de servicios de internet, pero además se hace necesario sumar más recursos en el ámbito educativo y apelar a la formación parental para la gestión del acceso de menores a internet y al compromiso de los medios de comunicación en la tarea de concienciación y pedagógica. La integridad física y también psíquica de niños y niñas así como el modelo de relaciones que queremos, libres de violencias y estereotipos, está seriamente en juego.