Una investigación de los periódicos suecos Svenska Dagbladet y Göteborgs-Posten ha revelado que los trabajadores contratados en Kenia por Sama—una empresa keniana de subcontratación que proporciona servicios de anotación de datos—para ayudar a entrenar los sistemas de IA de Meta Platforms están profundamente expuestos a imágenes y videos personales capturados por usuarios de las gafas inteligentes Ray-Ban de la compañía.
El informe, publicado el 27 de febrero, arroja luz sobre el trabajo humano oculto detrás del impulso de Meta hacia la inteligencia artificial portátil, y plantea nuevas preguntas sobre la protección de datos, las transferencias de datos transfronterizas y el impacto psicológico en los moderadores de contenido que trabajan para Sama en Nairobi.
Las gafas inteligentes Ray-Ban de Meta, desarrolladas en asociación con EssilorLuxottica, se comercializan como un asistente impulsado por IA que puede traducir idiomas, describir entornos, capturar fotos y videos sin usar las manos y responder preguntas sobre lo que un usuario está viendo.
Sin embargo, más allá de la propuesta futurista, las entrevistas con empleados actuales y anteriores de Sama y Meta realizadas por Svenska Dagbladet revelaron que las grabaciones realizadas a través de las gafas terminan a miles de kilómetros de distancia en Kenia, donde los anotadores de datos las revisan y etiquetan para mejorar el rendimiento del sistema.
Varios trabajadores kenianos dijeron al periódico sueco que encuentran regularmente material sensible en el curso de su trabajo, incluyendo escenas domésticas ordinarias hasta momentos íntimos que los usuarios pueden no haber sabido que estaban siendo capturados.
En algunos casos, dijeron los trabajadores, las grabaciones incluyen información financiera como tarjetas bancarias visibles en el encuadre, o grabaciones realizadas en espacios privados como dormitorios y baños.
"En algunos videos, puedes ver a alguien yendo al baño o desvistiéndose," dijo un trabajador de Sama a los reporteros. "No creo que lo sepan, porque si lo supieran, no estarían grabando."
Otro contratista afirmó que revisó una grabación que mostraba al usuario de las gafas dejándolas sobre una mesita de noche, solo para que su esposa entrara a la habitación y se desvistiera, presumiblemente sin saber que estaba siendo observada. Otras grabaciones supuestamente mostraban al usuario viendo pornografía o incluso grabándose a sí mismo teniendo relaciones sexuales
Según la investigación, había poca transparencia para los dispositivos portátiles. Los minoristas en Europa supuestamente dieron información inconsistente sobre si los datos capturados por las gafas permanecen en el dispositivo o se transmiten a los servidores de Meta. Las pruebas independientes citadas en el informe indicaron que muchas de las funciones de IA de las gafas requieren conectividad a la nube, lo que significa que las imágenes y las entradas de voz pueden procesarse remotamente en lugar de localmente en el dispositivo.
Sama, anteriormente Samasource, proporciona servicios de anotación de datos a grandes empresas tecnológicas como Meta y OpenAI. La compañía ha sido acusada en el pasado de violaciones laborales en algunos de sus contratos, particularmente con OpenAI.
Sama requiere estrictos acuerdos de confidencialidad que limitan lo que los empleados pueden divulgar públicamente. Pero los relatos publicados por los periódicos suecos sugieren que la promesa de IA sin fricciones está impulsada por un sistema laboral en el que revisores humanos examinan grandes volúmenes de datos crudos y sin filtrar para que los algoritmos puedan aprender a reconocer objetos, entornos y contexto.
Meta establece en sus políticas de privacidad que el contenido del usuario puede estar sujeto a revisión humana para mejorar productos y garantizar la seguridad. Para los usuarios europeos, la subsidiaria irlandesa de la compañía es responsable del cumplimiento del Reglamento General de Protección de Datos (GDPR) de la UE.
Sin embargo, la investigación plantea preguntas sobre cómo se transfieren y procesan los datos recopilados en Europa o Estados Unidos en países como Kenia, que no tienen una decisión de adecuación de la UE que reconozca sus regímenes de protección de datos como equivalentes al GDPR.
Mientras que la anotación de datos, la moderación de contenido y el entrenamiento de IA se han vuelto críticos para las ambiciones tecnológicas de Nairobi, estos trabajos—principalmente para estudiantes universitarios y jóvenes graduados—vienen con salarios bajos, cargas de trabajo pesadas y exposición a material perturbador.
Meta ha defendido sus prácticas en declaraciones públicas anteriores, diciendo que invierte en salvaguardas de privacidad y minimiza la cantidad de datos utilizados para el entrenamiento. Aun así, los relatos publicados por los periódicos suecos sugieren que la línea entre la inteligencia automatizada y la supervisión humana es más difusa de lo que muchos consumidores asumen.


