16 de mai 2025
Empresas enfrentam críticas por uso indevido de dados pessoais em treinamento de IA
Empresas como LinkedIn, Meta e Google enfrentam críticas por usar dados pessoais sem consentimento para treinar suas IAs.
50da4494-fce4-4e7f-87e7-81bb289c16ef
Ouvir a notícia:
Empresas enfrentam críticas por uso indevido de dados pessoais em treinamento de IA
Ouvir a notícia
Empresas enfrentam críticas por uso indevido de dados pessoais em treinamento de IA - Empresas enfrentam críticas por uso indevido de dados pessoais em treinamento de IA
Empresas de tecnologia enfrentam críticas por uso de dados pessoais para treinar IA
Nos últimos anos, empresas como LinkedIn, Meta e Google têm sido alvo de críticas por coletar dados pessoais sem o consentimento explícito dos usuários. Recentemente, o LinkedIn ativou, por padrão, o uso de dados para treinar inteligência artificial (IA) sem aviso prévio, enquanto a Meta utilizou conteúdos de usuários sem notificação. O Google também atualizou seus termos, ampliando o uso de dados públicos para treinar suas IAs.
A falta de transparência nas políticas de privacidade tem gerado desconfiança entre os usuários. Muitas vezes, as pessoas não estão cientes de que suas informações estão sendo utilizadas para alimentar algoritmos de IA. A ativação automática de configurações que permitem o uso de dados, conhecida como “opt-out”, coloca a responsabilidade sobre o usuário para proteger sua privacidade.
Mudanças nas políticas de privacidade
Em 2024, o LinkedIn foi criticado por ativar a opção "Usar meus dados para treinar modelos de IA" sem notificação clara. Após a repercussão negativa, a plataforma atualizou sua política de privacidade, mas a falta de aviso inicial levantou preocupações. A Meta, por sua vez, começou a usar postagens e comentários de usuários do Facebook e Instagram para treinar seus sistemas de IA, alegando “interesse legítimo”. Os usuários só souberam da mudança após a divulgação de e-mails obrigatórios na Europa.
Em 2023, o Google alterou seus termos de uso, permitindo a utilização de dados publicamente disponíveis na internet para treinar suas IAs, incluindo o Bard (atualmente chamado de Gemini) e o Google Tradutor. Essa mudança ampliou a permissão anterior, mas muitos usuários não estavam cientes, pois a alteração não foi devidamente comunicada.
Como se proteger
Para se proteger, é recomendável que os usuários revisem periodicamente as políticas de privacidade das plataformas que utilizam. Ficar atento a mudanças, especialmente aquelas que envolvem o uso de dados para treinamento de IA, é essencial. Ferramentas como o site Have I Been Trained permitem verificar se suas informações foram utilizadas para treinar modelos de IA.
Além disso, pesquisadores desenvolveram métodos como o “Membership Inference Test” (MINT), que avalia se dados específicos foram utilizados no treinamento de modelos de IA, especialmente em imagens faciais. Utilizar essas ferramentas pode ajudar a identificar possíveis usos indevidos de informações pessoais e a tomar medidas para proteger a privacidade.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.