ouça este conteúdo
Publicado despacho da ANPD nesta terça; uso de dados para treinar IA em nova política de privacidade. Multa de R$ 50 mil; G1 busca contato com empresa.
A Autoridade Nacional de Proteção de Dados (ANPD) ordenou que a Meta – inteligência artificial responsável pelo Facebook, pelo Instagram e pelo WhatsApp – interrompa a validade no Brasil da nova política de privacidade da empresa sobre o uso dos dados pessoais dos brasileiros.
Essa decisão da ANPD visa garantir a proteção dos dados dos usuários diante das recentes mudanças promovidas pela IA. É fundamental que as empresas que utilizam a inteligência artificial ajam de acordo com as regulamentações de privacidade para preservar a segurança e a privacidade dos dados dos usuários.
Decisão sobre Uso de Dados para Treinar Inteligência Artificial
A decisão recente impacta diretamente a intenção da Meta em utilizar esses dados para ‘treinar’ sistemas de inteligência artificial generativa – ou seja, para enriquecer o banco de dados usado pelas IAs na geração de respostas automatizadas. O g1 está buscando contato com a Meta, que já defendeu a validade de sua política de dados em ocasiões anteriores (veja abaixo).
Instagram e Facebook estão empregando suas fotos e textos para aprimorar a IA: por que essa prática está gerando questionamentos? Como evitar que Instagram e Facebook usem suas fotos e postagens para treinar inteligência artificial? O despacho foi oficializado no ‘Diário Oficial da União’ desta terça-feira (2) e estipula multa diária de R$ 50 mil em caso de descumprimento, devido ao risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados.
A determinação foi feita pelo Conselho Diretor da ANPD, sendo o documento assinado pelo diretor-presidente da autoridade, Waldemar Gonçalves. Conforme o despacho, a Meta deve cumprir a ordem de forma imediata. No período de cinco dias, a partir da notificação, a Meta deve fornecer ao governo: documentação que comprove a alteração da Política de Privacidade dos serviços da empresa, excluindo a parte referente ao uso dos dados pessoais para treinar IAs generativas; declaração assinada por representante legal confirmando a suspensão do uso dos dados.
Dados pessoais para ‘treinar’ IA têm sido o centro das atenções desde 4 de junho, quando a Meta comunicou na União Europeia e no Reino Unido que sua política de privacidade passaria a permitir o uso de dados de usuários para treinar sua IA. Após a reação negativa, a empresa recuou e adiou a alteração da política na Europa, porém não adotou a mesma postura no Brasil.
Quando o Instituto de Defesa do Consumidor (Idec) acionou o governo contra a nova política de privacidade desses serviços, a Meta afirmou que o uso das informações para treinar uma inteligência artificial está em conformidade com seus interesses legítimos, bem como os de seus usuários e outras partes envolvidas. ‘Estamos comprometidos em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências generativas de inteligência artificial juntamente com os modelos que as alimentam – de maneira segura, responsável e em conformidade com as regulamentações de privacidade no Brasil’, declarou a empresa ao g1 em 23 de junho. Os treinamentos de modelos de inteligência artificial demandam o uso de grandes volumes de dados e são essenciais para que, em fases posteriores, sejam capazes de analisar informações e até mesmo gerar conteúdo de forma autônoma.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo