Funcionários da Meta acessaram imagens íntimas de usuários dos óculos Ray-Ban AI
Relatos apontam falha crítica de privacidade onde trabalhadores visualizaram conteúdos sensíveis capturados pelos dispositivos inteligentes da empresa.
Enquanto o mundo olhava para as novas funcionalidades de tradução em tempo real, a verdadeira face da IA da Meta estava sendo revelada nos bastidores.
Funcionários terceirizados no Quênia tiveram acesso direto a momentos que deveriam ser estritamente privados.
E o que eles viram é o pesadelo de qualquer defensor da privacidade.
O caso envolve os óculos inteligentes Ray-Ban AI, desenvolvidos pela Meta em parceria com a EssilorLuxottica.
Segundo informações da Fonte original, trabalhadores encarregados de treinar o sistema visualizaram imagens íntimas sem qualquer filtro.
Mas como isso foi parar nas telas de moderadores do outro lado do mundo?
O escândalo nos bastidores do Quênia
> "Você entende que é a vida privada de alguém que está olhando, mas ao mesmo tempo espera-se que você apenas faça o trabalho."
A frase acima, dita por um funcionário aos jornais suecos *Svenska Dagbladet* e *Göteborgs-Posten*, resume o dilema ético enfrentado.
Trabalhadores da empresa Sama, contratada pela Meta, relataram ter revisado filmagens perturbadoras capturadas pelos dispositivos.
O conteúdo incluía desde momentos cotidianos até situações de extrema vulnerabilidade.
Os relatos apontam que a revisão humana é uma peça fundamental — e muitas vezes invisível — do desenvolvimento tecnológico.
Para que a IA entenda o mundo, humanos precisam rotular o que os óculos estão vendo.
O que os moderadores viram na prática
Os detalhes compartilhados pelos moderadores são alarmantes e levantam questões sobre a segurança dos dados domésticos.
Confira os tipos de conteúdo que foram acessados pelos moderadores:
- Nudez: Usuários foram vistos completamente sem roupas em suas casas.
- Uso de sanitários: Imagens de pessoas utilizando o banheiro foram capturadas.
- Cenas de sexo: Relatos mencionam a revisão de cenas íntimas completas.
- Privacidade de terceiros: Uma mulher foi filmada se despindo após o marido deixar os óculos sobre a mesa.
Esses dados mostram que o dispositivo registra muito mais do que apenas o que o usuário deseja compartilhar ativamente.
O sensor dos óculos pode continuar captando informações mesmo quando o usuário não está interagindo com ele.
Isso cria uma janela aberta para a vida privada de milhares de pessoas.
O medo de questionar o sistema
Os funcionários afirmaram que não havia espaço para críticas ou dúvidas sobre a natureza do material.
"Você não deve questionar. Se começar a fazer perguntas, você está fora", disse um dos colaboradores.
Essa cultura de silêncio permite que abusos de privacidade continuem sem supervisão externa adequada.
Os trabalhadores se sentiam pressionados a ignorar a invasão de privacidade para manter seus empregos.
Como funciona o treinamento da IA
Para entender o problema, é preciso olhar para o conceito de Machine Learning.
O processo realizado na Sama é chamado de anotação de dados.
Isso envolve rotular manualmente imagens e vídeos para que o modelo de IA aprenda a identificar objetos e contextos.
No caso dos óculos Ray-Ban, essa rotulagem ajuda a função de IA a operar de forma mais fluida.
A ideia é que os óculos saibam exatamente o que o usuário está olhando em tempo real.
Contudo, para atingir essa precisão, a Meta utiliza milhares de horas de filmagens reais de seus usuários.
O consentimento em xeque
A Meta afirmou que a revisão humana serve para melhorar a performance do produto.
A empresa também alega que obtém "consentimento claro do usuário" para esse tipo de atividade.
No entanto, muitos usuários podem não compreender que "melhorar o produto" envolve estranhos assistindo a vídeos íntimos.
A transparência sobre quem exatamente vê esses dados ainda é um ponto de grande debate.
A polêmica demissão da Sama
Dois meses após as denúncias virem a público, a Meta tomou uma decisão drástica.
A gigante da tecnologia encerrou todo o contrato com a empresa queniana Sama.
Organizações de trabalhadores no Quênia alegam que a medida foi uma retaliação direta aos funcionários que falaram.
A Meta negou a acusação de retaliação em declaração à BBC.
A empresa afirmou que decidiu encerrar a parceria porque a Sama não atendia aos seus padrões de qualidade.
Por outro lado, a Sama defendeu seus colaboradores e a integridade de seu trabalho.
A defesa da prestadora de serviços
Em comunicado, a Sama afirmou que sempre cumpriu os padrões operacionais e de segurança exigidos.
"Em nenhum momento fomos notificados de qualquer falha em cumprir esses padrões", declarou a empresa.
A divergência de narrativas entre as duas companhias aumenta a névoa sobre o caso.
O encerramento do contrato deixou centenas de trabalhadores sem emprego após as revelações.
O problema dos "óculos de pervertido"
As denúncias reforçam a percepção negativa de que wearables com IA podem ser usados de forma abusiva.
Críticos apelidaram o dispositivo de "óculos de pervertido" devido à facilidade de realizar gravações discretas.
Embora os óculos possuam uma luz indicadora de gravação, há relatos de que ela pode ser desativada ou camuflada.
Isso permite que usuários gravem outras pessoas sem qualquer conhecimento ou consentimento.
O uso de tecnologias de Facial recognition em dispositivos desse tipo agrava ainda mais o risco.
A combinação de câmeras discretas e processamento de IA cria um cenário de vigilância constante.
> "A tecnologia de IA está avançando mais rápido do que as leis de proteção à privacidade podem acompanhar."
O custo humano da tecnologia moderna
O caso da Sama revela o lado sombrio da indústria de tecnologia.
Grande parte da IA que usamos hoje é impulsionada por trabalhadores sub-remunerados em países em desenvolvimento.
Essas pessoas são expostas a conteúdos traumáticos e invasivos para treinar algoritmos bilionários.
O Google e outras gigantes também dependem de processos similares de moderação e rotulagem.
A dependência de mão de obra externa permite que as empresas se distanciem de responsabilidades éticas diretas.
Quando um problema surge, é mais fácil encerrar um contrato do que reformular o sistema de coleta de dados.
O veredito
O escândalo dos óculos Ray-Ban AI serve como um alerta para todos os usuários de dispositivos vestíveis.
A conveniência de ter uma IA no rosto tem um preço alto em termos de privacidade pessoal.
Não se trata apenas de uma falha técnica, mas de uma escolha de design no processo de treinamento da IA.
A Meta agora enfrenta o desafio de recuperar a confiança de um público cada vez mais vigilante.
O futuro dos wearables depende de quão transparentes essas empresas serão sobre o que acontece nos bastidores.
Qual o limite entre a inovação tecnológica e a invasão da sua intimidade?
Você estaria disposto a sacrificar sua privacidade doméstica por um assistente digital mais inteligente?
Relacionadas
- Elon Musk prevê que IA superará inteligência humana já em 2025
- Bancos dos EUA reforçam cibersegurança contra ataques de IA, diz Scott Bessent
- Lucro recorde da Amazon é impulsionado por ganho de US$ 16,8 bi com a Anthropic
- IA deve transformar estratégias e desafios das campanhas eleitorais de 2026 no Brasil
