2 de noviembre de 2024

Su hija de 14 años le mostró la otra cara de Instagram

En el otoño de 2021, un consultor llamado Arturo Bejar envió una nota inusual al director ejecutivo de Meta, Mark Zuckerberg.

INstagram

«Quería llamar su atención sobre lo que considero una brecha crítica en la forma en que nuestra empresa aborda el daño y cómo lo experimentan las personas que servimos», comenzó. A pesar de que Meta emitía regularmente informes públicos que sugerían que estaba al tanto de los problemas de seguridad en sus plataformas, escribió que la empresa se engañaba a sí misma.

La experiencia de los jóvenes usuarios en Instagram de Meta, donde Bejar había trabajado como consultor en los dos años anteriores, era especialmente aguda. En un correo electrónico posterior al jefe de Instagram, Adam Mosseri, un dato destacó: uno de cada ocho usuarios menores de 16 años dijo que había experimentado avances sexuales no deseados en la plataforma durante los últimos siete días.

Para Bejar, ese hallazgo no fue una sorpresa. Su hija y sus amigas habían estado recibiendo imágenes no solicitadas de órganos genitales y otros tipos de acoso en la plataforma desde los 14 años, escribió, y los sistemas de Meta generalmente ignoraban sus informes o respondían diciendo que el acoso no violaba las reglas de la plataforma.

«Le pregunté por qué los chicos siguen haciendo eso», escribió Bejar a Zuckerberg y a sus principales lugartenientes. «Ella dijo que si lo único que sucede es que los bloquean, ¿por qué no lo harían?»

Para el bienestar de sus usuarios, Bejar argumentó que Meta necesitaba cambiar de rumbo, centrándose menos en un sistema defectuoso de aplicación de reglas y más en abordar estas malas experiencias.

La empresa tendría que recopilar datos sobre lo que molestaba a los usuarios y luego trabajar para combatir la fuente del problema, instando a quienes hacían sentir incómodos a mejorar su comportamiento y aislando a las comunidades de usuarios que buscaban dañar a otros.

Dos años después, los problemas identificados por Bejar siguen sin resolverse, y han surgido nuevos puntos ciegos.

La compañía lanzó un importante equipo de seguridad infantil en junio, después de revelarse que Instagram estaba fomentando conexiones entre grandes redes de usuarios pedófilos, un problema que la empresa dice estar tratando de abordar.

Esta cuenta se basa en documentos internos de Meta revisados por The Wall Street Journal, así como en entrevistas con Bejar y empleados actuales y anteriores que trabajaron con él durante su segundo período en la empresa como consultor. Meta es propietaria de Facebook e Instagram.

Solicitada para hacer comentarios sobre este artículo, Meta disputó la afirmación de Bejar de que prestaba poca atención a la experiencia del usuario y no actuaba lo suficiente en función de los hallazgos de su Equipo de Bienestar.

Durante y después del tiempo de Bejar como consultor, dijo el portavoz de Meta, Andy Stone, la empresa ha lanzado varias características de producto destinadas a abordar algunos de los hallazgos del Equipo de Bienestar.

Estas características incluyen advertencias a los usuarios antes de que publiquen comentarios que los sistemas automatizados de Meta marcan como potencialmente ofensivos y recordatorios para ser amables al enviar mensajes directos a usuarios como creadores de contenido que reciben un gran volumen de mensajes.

Para un consultor, Bejar tenía raíces inusualmente profundas en la empresa. Fue contratado por primera vez como director de ingeniería de Facebook en 2009.

Responsable de proteger a los usuarios de la plataforma, inicialmente consideró la tarea como un trabajo de seguridad tradicional, construyendo herramientas para detectar intentos de piratería, combatir anillos de fraude y eliminar contenido prohibido.

Monitorear las publicaciones de lo que entonces eran unos 300 millones de usuarios de Facebook no era tan simple como hacer cumplir reglas. Había demasiada interacción en Facebook como para poder supervisarla toda, y lo que molestaba a los usuarios a menudo era subjetivo.

A Bejar le encantaba el trabajo, y solo dejó Facebook en 2015 porque se estaba divorciando y quería pasar más tiempo con sus hijos. Después de unirse a la empresa mucho antes de su oferta pública inicial, tenía los recursos para pasar los próximos años en pasatiempos, incluyendo la restauración de autos antiguos con su hija de 14 años, quien documentaba su nuevo pasatiempo en Instagram.

Fue entonces cuando comenzaron los problemas. Una niña que restauraba autos antiguos llamaba la atención en la plataforma, y también atraía a algunos individuos desagradables, como el que le dijo que la única razón por la que la gente veía sus videos era «porque tienes tetas».

«Por favor, no hables de mis tetas siendo menor de edad», respondió la hija de Bejar antes de denunciar el comentario en Instagram. Unos días después, la plataforma le respondió: el insulto no violaba sus pautas comunitarias.

Bejar se sorprendió, y aún más cuando supo que prácticamente todas las amigas de su hija habían sido objeto de acoso similar. «DTF?», preguntaría un usuario que nunca habían conocido, usando una propuesta vulgar. Instagram actuaba tan raramente ante informes de tal comportamiento que las chicas dejaron de molestarse en denunciarlos.

Bejar comenzó a enviar preguntas a sus antiguos colegas en Facebook sobre lo que estaban haciendo para abordar dicho comportamiento. La empresa respondió ofreciéndole un contrato de consultoría de dos años.

Fue así como Bejar regresó al campus de Meta en el otoño de 2019, trabajando con el Equipo de Bienestar de Instagram. Aunque no ocupaba un alto cargo, tenía acceso inusual a altos ejecutivos, quienes recordaban su trabajo.

Desde el principio, hubo un obstáculo para cualquier esfuerzo por abordar los problemas generalizados experimentados por los usuarios de Instagram: las propias estadísticas de Meta sugerían que los grandes problemas no existían.

Durante los cuatro años que Bejar había estado fuera de la empresa, Meta había llegado a abordar el comportamiento de los usuarios como un proceso abrumadoramente automatizado.


Vía WSJ.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *