Reacciona bien Facebook a los depredadores infantiles en las redes sociales?

Reacciona bien Facebook a los depredadores infantiles en las redes sociales?

En general, no. Facebook tiene, realmente, un problema de depredación infantil.

Mientras intentaba determinar el alcance y el impacto de los grupos de Facebook basados en lugares en los que se propagan QAnon y la desinformación aliada, un periodista buscó grupos de Facebook con nombres que incluyeran 10, 11 o 12. Esto era parte de mi trabajo con el Laboratorio de Desinformación de Pitt, y estaba pensando en los distritos 10, 11 o 12 de la ciudad de Pittsburgh. Lo que apareció en su lugar fue un grupo llamado “Buscando novi@ de 9,10,11,12,13 años”. ¿Buscando novia de 9 años? ¿Qué?

La estética de la página era de dibujos animados: ojos grandes con pestañas largas, corazones y colores pastel. Los posts que hacían referencias explícitas a los genitales fotografiados estaban gamificados y salpicados de emoticonos: “¿Ves tu edad en esta lista? Escríbela en las respuestas y te la enseñaré”.

La mayoría de las veces los posts eran sólo puertas a la conexión, el verdadero peligro fuera del escenario. “Busco una novia pervertida de 11 años”, decía un post, con fondo morado y emojis de corazón. Las respuestas pedían solicitudes de amistad para continuar a través de Messenger, u ofrecían la entrada a grupos privados o chats de WhatsApp, lejos de los ojos de cualquier transeúnte digital.

No se trataba de un tablón de mensajes de 8Chan fuera de la ley. Se podía encontrar alegremente en Facebook. Y, empecé a descubrir alarmado, que no era el único. De hecho, en enero de 2022 -tres meses después de mis esfuerzos por conseguir que se tomaran medidas contra ellos- si buscaba 11, 12, 13 en la plataforma, 23 de los primeros 30 resultados eran grupos dirigidos a niños de esas edades, con nombres de grupos que incluían las palabras novio/a o niños/niñas, a veces junto con ‘pervertidos’, ‘hot’, etc. En total sumaban más de 81.000 miembros.

Es de suponer que en 18 años, Facebook (ahora parte de Meta) tendría controles básicos para que la creación de un grupo cuyo nombre anuncia el objetivo de buscar niños para el contacto íntimo desencadene el escrutinio. Sobre todo porque, según las propias políticas de Facebook, se supone que ningún menor de 13 años está en la plataforma. Todos los que interactúan en un grupo de este tipo son, por definición, niños que violan las políticas de Facebook al estar en la red, adultos que violan las políticas de Facebook al hacerse pasar por niños, o adultos que actúan abiertamente como adultos al violar la política de Facebook (y múltiples leyes estatales e internacionales) al buscar contacto sexual con niños.

Seguramente, la diligencia debida dictaría medidas proactivas para evitar la creación de tales grupos, respaldadas por una acción rápida para eliminar los que se consigan una vez marcados y denunciados. Eso pensaba yo. Hasta que me topé con estos grupos y empecé, con creciente incredulidad, a encontrarme con la imposibilidad de eliminarlos.

Los niños están compartiendo imágenes personales e información de contacto en un espacio digital sexualizado, y se les induce a unirse a grupos o chats privados donde se solicitarán e intercambiarán más imágenes y acciones.

Incluso mientras el debate sobre la “Ley Earn It” del Congreso americano llama la atención sobre el uso de los canales digitales para distribuir material sexualmente explícito, no estamos logrando afrontar un cambio sísmico en las formas de generar material de abuso sexual infantil. El 45% de los niños estadounidenses de entre 9 y 12 años dicen utilizar Facebook todos los días. (Este hecho, por sí solo, ridiculiza la afirmación de Facebook de que trabaja activamente para mantener a los niños menores de 13 años fuera de la plataforma). Según una investigación reciente, más de una cuarta parte de los niños de entre 9 y 12 años afirman haber sido objeto de una oferta sexual en Internet. Uno de cada ocho afirma que le han pedido que envíe una foto o un vídeo desnudo; uno de cada diez afirma que le han pedido que participe en una transmisión en directo de contenido sexual explícito. Los teléfonos inteligentes, el acceso a Internet y Facebook llegan ahora a las manos y los hogares de los niños y crean nuevos espacios para la depredación activa. A escala.

Por supuesto, el periodista denunció el grupo que había descubierto accidentalmente. Utilicé el sistema de la plataforma de Facebook, etiquetándolo como que contenía “desnudos o actividad sexual” que (en el siguiente menú) “implica a un niño”. Días después recibí una respuesta automática. El grupo había sido revisado y no violaba ninguna “norma comunitaria específica”. Si seguía encontrando contenidos “ofensivos o desagradables para usted” -¿era mi gusto el problema? – debía denunciar ese contenido específico, no el grupo en su conjunto.

“Buscando novi@ de 9,10,11,12,13 años” tenía 7.900 miembros cuando lo denuncié. Cuando Facebook respondió que no violaba las normas de la comunidad, tenía 9.000.

Así que tuiteó a Facebook y a la sala de prensa de Facebook. Envió un DM a gente que no conocía pero que pensaba que podía tener acceso a gente dentro de Facebook. Etiquetó a periodistas. Y denunció a través del protocolo de la plataforma una docena más de grupos, algunos con miles de usuarios: grupos que encontró no a través de términos de búsqueda sexualmente explícitos, sino simplemente escribiendo “11 12 13” en la barra de búsqueda de Grupos.

Lo que quedó cada vez más claro mientras luchaba por entrar en acción es que los límites de la tecnología no eran el problema. El poder de los algoritmos impulsados por la inteligencia artificial estaba a la vista, pero estaba trabajando para ampliar, no para reducir, el peligro de los niños. Porque incluso mientras una respuesta tras otra llegaba a su bandeja de entrada negando motivos para actuar, nuevos grupos de sexualización infantil empezaron a recomendarme como “Grupos que pueden gustarte”.

Cada nuevo grupo que le recomendaban tenía la misma mezcla de insinuaciones llenas de dibujos animados, preparación emocional e invitaciones a compartir material sexual que los grupos que había denunciado. Algunos estaban en español, otros en inglés y otros en tagalo. Cuando buscó la traducción de “hanap jowa”, el nombre de una serie de grupos, le llevó a un artículo de Filipinas en el que se informaba de los esfuerzos de los usuarios de Reddit por conseguir que se eliminaran los grupos de Facebook que ponían en peligro a los niños.

Si el centro comercial de tu localidad tuviera una sección entera de escaparates en la que se anunciara “Niños y niñas de 10, 11 y 12 años, vengan a buscar su romance sexy aquí” -con puertas abiertas que conducen a un laberinto de cabinas fotográficas ocultas- y los propietarios del centro comercial establecieran un servicio de transporte gratuito a la carta para recoger a cualquier niño en cualquier momento, ¿nos encogeríamos de hombros y diríamos, oh, bueno, no hay nada que hacer? ¿Culpar a los padres, mirar hacia otro lado?

El problema es que las plataformas de medios sociales que están dando forma a nuestra conectividad ampliada (y a veces, subvencionándola, como ha hecho Facebook al proporcionar un servicio de Internet gratuito limitado en algunos mercados en desarrollo) crean exactamente el tipo de espacios semipúblicos y semiprivados en los que sabemos que se produce el peligro para los niños. Alrededor del 10% de los niños que son víctimas de abuso sexual son abusados por extraños, otro 30% por miembros de la familia. Sin embargo, la mayoría de los abusos son cometidos por conocidos: personas que tienen ocasión de mantener un contacto repetido que genera confianza y una ventaja emocional, y que pueden crear oportunidades para salir de la escena pública y pasar a la clandestinidad. Los grupos de Facebook -y el ecosistema de chats y canales privados que alimentan- permiten que los desconocidos se conviertan en conocidos, a escala, con salas privadas a un solo clic.

Las recomendaciones mostraron que la IA, alimentada por datos internos, reconocía exactamente las características de los grupos que yo había reconocido, capturando patrones de depuración a través del idioma y la región para un impulso sin fricciones. Mientras que los motores de recomendación de Facebook funcionan como un Uber sin fisuras para los abusadores, el lado de la seguridad funciona como el DMV alrededor de 1990: entrada de datos manual, inacción por defecto.

El contacto con una persona con conexiones dentro de Facebook fue el único paso que pareció conseguir que se actuara. Esa persona se tomó en serio mi preocupación. Una semana después, los grupos más grandes empezaron a desaparecer. Pero al cabo de unos meses, los sustituyeron otros igual de grandes. Últimamente, los grupos más grandes de esta última oleada han desaparecido, o bien han sido eliminados o han pasado a tener el estatus de “grupo secreto”; es imposible saber cuál. Volvemos a tener un número menor de grupos, con un contenido idéntico al de los antiguos, y que vuelven a crecer de forma constante a pesar de mis repetidos informes sobre ellos a través de la herramienta de “seguridad” de Facebook.

Puede que los esfuerzos de algunos no hayan tenido nada que ver con los limitados retiros que se han producido. ¿Quién sabe? La transparencia es nula, lo cual es parte del problema. Las capturas de pantalla que realizó el periodista pueden ser la única prueba externa de las docenas de grupos con miles de miembros y cientos de compromisos diarios que florecieron en Facebook durante meses sin ser tratados. (“No toleramos la explotación infantil, incluido el material de abuso sexual infantil o las interacciones inapropiadas entre adultos y menores, en nuestras plataformas”, escribió un portavoz de Meta en un comunicado a la prensa. “Animamos a cualquiera que vea contenido que crea que infringe nuestras normas a que lo denuncie utilizando nuestras herramientas de denuncia dentro de la aplicación”).

Como investigador externo, no sólo no tiene el periodista acceso a los vastos flujos de datos de Facebook ni a sus especificaciones algorítmicas. La empresa ni siquiera comparte la información más básica sobre el ritmo de creación, la escala o la eliminación de grupos públicos, privados o secretos. Además, como académicos nos regimos por la ética y las normas que limitan el material al que pueden estar expuestos nuestros asistentes de investigación: o las imágenes identificables que podemos almacenar, más aún cuando se trata de niños, a los que se considera categóricamente incapaces de dar un consentimiento informado a los investigadores.

Decir que las interacciones de Facebook con los niños no se rigen por esas sutilezas es quedarse corto.

Incluso en este caso, en lo que no debería ser un caso extremo en lo más mínimo -grupos creados en torno a la captación sexual de niños demasiado jóvenes para estar en la plataforma-, Facebook no está preparado de forma proactiva para prevenir el daño ni es coherente a la hora de actuar cuando se le señala. Esto nos dice más que cualquier comunicado de prensa sobre cómo funciona en la práctica el equilibrio entre la ingeniería para la protección y la ingeniería para la expansión, y debería asustarnos mucho.

Facebook está desesperado por atraer a más usuarios jóvenes. No puede permitirse el lujo de perder a la nueva generación en favor de TikTok. La visión de Mark Zuckerberg de Meta como emporio de la realidad virtual se apoya en el atractivo de los juegos multijugador. La facilidad con la que la gamificación atrae a los niños se muestra de forma enfermiza en los grupos que he visto. ¿Cómo van a saber los ojos ajenos lo peligroso que se vuelve el metaverso?

Propuestas recientes como la Ley de Responsabilidad y Transparencia de las Plataformas, basadas en marcos desarrollados por Brookings y otros, obligarían a acceder a cierta información básica que sería el primer paso hacia la responsabilidad. Pero dada la complejidad de los algoritmos mutables y de las decisiones políticas internas que determinan el funcionamiento real de las plataformas, una regulación externa eficaz parece mucho menos alcanzable que una revuelta desde dentro. (Esta parece ser la intuición detrás de nuevas iniciativas como el Instituto de Integridad).

Si la vergüenza pública es la mejor vía disponible, será mejor que averigüemos cómo aumentarla rápidamente. Soy un académico estadounidense con respaldo institucional, tiempo para gastar y alguna plataforma pública, y me resultó imposible conseguir una acción sostenida contra estos grupos. ¿Cómo van a conseguir los padres de Tamaulipas o del sur de Texas que los depredadores se metan en la vida de sus hijos, o contra la empresa sin la cual no existirían estas oportunidades de daño?

El periodista investigador ha descubierto que si hablas de la depredación sexual de niños por parte de extraños en Internet lo suficientemente alto, los amigos preocupados comenzarán a decirte que estás sonando como un creyente de QAnon. Vale la pena detenerse a pensar en ello. El pánico colectivo a los niños en peligro se repite en la historia: He escrito sobre el aumento del miedo a la brujería y al sacrificio de sangre de niños en el Caribe de principios del siglo XX. Los detalles específicos de estos pánicos no son insignificantes. Más bien, reflejan temores genuinos, que a menudo proyectan en un solo grupo de supuestos malhechores lo que en realidad es un patrón de vulnerabilidad mucho más difuso.

Creer en enemigos contra los que se puede actuar puede resultar, al menos, fortalecedor. Sentarse con la certeza de que nadie sabe cómo detener el centro comercial del infierno de al lado es simplemente aterrador.


Posted

in

,

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *