Расследование, проведенное шведскими газетами Svenska Dagbladet и Göteborgs-Posten, выявило, что контрактные работники в Кении, нанятые компанией Sama — кенийской аутсорсинговой фирмой, предоставляющей услуги по аннотации данных — для обучения систем ИИ Meta Platforms, получают широкий доступ к личным изображениям и видео, записанным пользователями смарт-часов Ray-Ban компании.
Отчет, опубликованный 27 февраля, проливает свет на скрытый человеческий труд, стоящий за продвижением Meta в области носимого искусственного интеллекта, и поднимает новые вопросы о защите данных, трансграничной передаче данных и психологическом воздействии на модераторов контента, работающих в Sama в Найроби.
Смарт-часы Ray-Ban от Meta, разработанные совместно с EssilorLuxottica, позиционируются как управляемый ИИ помощник, способный переводить языки, описывать окружение, делать фотографии и видео без помощи рук и отвечать на вопросы о том, что видит пользователь.
Однако, помимо футуристической презентации, интервью с нынешними и бывшими сотрудниками Sama и Meta, проведенные Svenska Dagbladet, показали, что видеозаписи, сделанные через очки, попадают за тысячи километров в Кению, где аннотаторы данных проверяют и маркируют их для улучшения производительности системы.
Несколько кенийских работников сообщили шведской газете, что регулярно сталкиваются с конфиденциальными материалами в ходе своей работы, включая обычные домашние сцены и интимные моменты, о записи которых пользователи могли не подозревать.
В некоторых случаях, по словам работников, видео содержит финансовую информацию, такую как банковские карты, видимые в кадре, или записи, сделанные в личных пространствах, таких как спальни и ванные комнаты.
"На некоторых видео вы можете увидеть, как кто-то идет в туалет или раздевается", — рассказал журналистам один из работников Sama. "Я не думаю, что они знают об этом, потому что если бы знали, они бы не записывали".
Другой подрядчик утверждал, что просматривал кадры, показывающие, как владелец очков положил их на прикроватную тумбочку, после чего в комнату вошла его жена и разделась, предположительно не подозревая, что за ней наблюдают. По сообщениям, другие кадры показывали, как владелец смотрит порно или даже записывает себя во время секса.
Согласно расследованию, для носимых устройств была недостаточная прозрачность. Ритейлеры в Европе, как сообщается, предоставляли противоречивую информацию о том, остаются ли данные, записанные очками, на устройстве или передаются на серверы Meta. Независимое тестирование, упомянутое в отчете, показало, что многие функции ИИ очков требуют облачного подключения, что означает, что изображения и голосовой ввод могут обрабатываться удаленно, а не локально на устройстве.
Sama, ранее известная как Samasource, предоставляет услуги по аннотации данных крупным технологическим компаниям, таким как Meta и OpenAI. Компанию ранее обвиняли в нарушении трудовых прав в некоторых ее контрактах, особенно с OpenAI.
Sama требует строгих соглашений о конфиденциальности, которые ограничивают то, что сотрудники могут публично раскрывать. Но материалы, опубликованные шведскими газетами, предполагают, что обещание беспрепятственного ИИ обеспечивается системой труда, в которой человеческие рецензенты просеивают большие объемы необработанных, нефильтрованных данных, чтобы алгоритмы могли научиться распознавать объекты, окружение и контекст.
Meta заявляет в своих политиках конфиденциальности, что пользовательский контент может подвергаться рассмотрению вручную для улучшения продуктов и обеспечения безопасности. Для европейских пользователей ирландская дочерняя компания несет ответственность за соблюдение Общего регламента ЕС по защите данных (GDPR).
Однако расследование поднимает вопросы о том, как данные, собранные в Европе или Соединенных Штатах, передаются и обрабатываются в таких странах, как Кения, которые не имеют решения ЕС о достаточности, признающего их режимы защиты данных эквивалентными GDPR.
Хотя аннотация данных, модерация контента и обучение ИИ стали критически важными для технологических амбиций Найроби, эти рабочие места — в основном для студентов колледжей и молодых выпускников — сопровождаются низкой оплатой, большой рабочей нагрузкой и воздействием тревожного материала.
Meta защищала свои практики в предыдущих публичных заявлениях, заявляя, что инвестирует в меры защиты конфиденциальности и минимизирует количество данных, используемых для обучения. Тем не менее, материалы, опубликованные шведскими газетами, предполагают, что граница между автоматизированным интеллектом и человеческим надзором более размыта, чем предполагают многие потребители.


