Se você acredita que seus dados na internet estão protegidos, os reguladores canadenses têm um aviso importante para você.
A OpenAI, criadora do ChatGPT, violou leis de privacidade federais e provinciais no Canadá.
A conclusão vem de uma investigação conjunta que durou meses.
O veredito dos guardiões da privacidade
> "Muitos usuários não sabiam que seus dados foram coletados e usados para treinar o ChatGPT."
Essa frase resume a gravidade da situação apontada por Philippe Dufresne, o comissário de privacidade do Canadá.
Ele não estava sozinho nessa declaração impactante.
Representantes da Colúmbia Britânica, Alberta e Québec também assinaram o relatório final da investigação.
O grupo concluiu que a gigante da tecnologia ignorou princípios fundamentais da legislação canadense.
Segundo a reportagem da BetaKit, a empresa falhou em obter consentimento.
Além disso, a falta de transparência sobre como as informações eram processadas foi um ponto crítico.
De onde vêm os dados do ChatGPT?
A investigação focou em como a OpenAI alimentou seus modelos iniciais.
O processo de treinamento envolveu grandes volumes de informações digitais.
De acordo com o relatório divulgado, as fontes incluíam:
- Raspagem pública: Conteúdo coletado diretamente de sites e redes sociais.
- Datasets licenciados: Conjuntos de dados obtidos por meio de acordos comerciais.
- Interações de usuários: Mensagens trocadas entre pessoas e o chatbot.
O problema não é apenas coletar, mas como isso foi feito.
Os reguladores afirmam que a OpenAI violou o princípio da precisão dos dados.
Isso significa que informações pessoais incorretas podem ter sido incorporadas ao sistema.
Falta de consentimento explícito
No Canadá, o uso de dados pessoais exige que o usuário saiba o que está acontecendo.
A investigação mostrou que a empresa não deixou isso claro para os cidadãos canadenses.
O papel das províncias
Québec, Alberta e Colúmbia Britânica possuem leis próprias que reforçam a proteção federal.
Todas as quatro autoridades concordaram que as regras foram quebradas de forma sistemática.
O peso do caso Tumbler Ridge
Embora a investigação tenha começado em 2023, um evento trágico trouxe novos holofotes ao caso.
Em fevereiro, um tiroteio em massa em Tumbler Ridge, na Colúmbia Britânica, gerou revolta.
O atirador teve sua conta banida pela OpenAI por "conteúdo perturbador" antes do crime.
No entanto, a empresa não notificou as autoridades sobre o comportamento suspeito.
Agora, famílias das vítimas estão processando a empresa nos tribunais canadenses.
Este caso paralelo aumentou a pressão sobre como a IA lida com dados sensíveis.
O que muda para a OpenAI agora
O reconhecimento da violação coloca a empresa em uma posição delicada no mercado norte-americano.
O comissário Philippe Dufresne destacou que a inovação não pode atropelar direitos fundamentais.
As autoridades exigem mudanças na forma como a transparência é aplicada.
Para o usuário comum, isso pode significar avisos mais claros sobre o uso de dados.
A OpenAI ainda não detalhou como pretende remediar todas as falhas apontadas.
De acordo com informações da equipe da BetaKit, o caso serve como um aviso para outras empresas de IA.
Se você usa a ferramenta, saiba que seus dados passados já fazem parte do modelo.
O veredito
O cenário para as Big Techs no Canadá está ficando cada vez mais rígido.
A privacidade deixou de ser uma sugestão para se tornar um bloqueio real à expansão desenfreada.
Não é mais apenas sobre o que a IA pode fazer, mas sobre o que ela tem permissão para usar.
Como você se sente sabendo que suas informações ajudaram a treinar o robô sem você permitir?
Para entrar em contato com os responsáveis pela apuração, acesse o suporte da BetaKit.