ouça este conteúdo
Empresa suspende modelo multimodal Llama na UE devido a ambiente regulatório imprevisível. Recursos de IA generativa suspensos no Brasil por Autoridade Nacional de Proteção de Dados.
A Meta, empresa proprietária do Instagram, do Facebook e do WhatsApp, anunciou hoje que decidiu postergar a introdução de seu mais recente modelo de inteligência artificial (IA) na União Europeia devido ao cenário regulatório ‘imprevisível’, conforme reportado pela mídia internacional.
Essa decisão da Meta em adiar o lançamento da nova tecnologia de IA na União Europeia destaca a importância da adaptação das empresas de tecnologia às exigências regulatórias em constante evolução. A empresa está comprometida em garantir que suas inovações em inteligência artificial sejam introduzidas de forma responsável e em conformidade com as leis locais e internacionais.
Desafios Regulatórios para a Inteligência Artificial
A declaração recente da Meta sobre a suspensão de recursos de IA generativa no Brasil trouxe à tona a complexidade do ambiente regulatório imprevisível que envolve a implementação de tecnologias avançadas. A Autoridade Nacional de Proteção de Dados (ANPD) foi a responsável por ordenar a interrupção da coleta de dados de usuários para o treinamento da IA da empresa.
Em contrapartida, a Meta anunciou planos de lançar um novo modelo multimodal chamado Llama em um futuro próximo. No entanto, a empresa revelou que esse lançamento não ocorrerá na União Europeia devido às incertezas relacionadas ao ambiente regulatório europeu. A decisão levanta questões sobre a conformidade do Llama com o GDPR, a legislação de proteção de dados da UE, semelhante à LGPD brasileira.
O Llama é descrito como um modelo de IA versátil, capaz de lidar com diferentes tipos de dados, como textos, imagens e áudios. Além disso, a ferramenta será de código aberto, permitindo que desenvolvedores externos acessem e modifiquem seu funcionamento.
Enquanto a Meta enfrenta desafios regulatórios na Europa, no Brasil a questão está relacionada aos recursos de IA generativa, como o popular criador de figurinhas do WhatsApp. A empresa já havia sido instruída pela Autoridade Irlandesa de Proteção de Dados a interromper a coleta de dados para treinar sua IA, em conformidade com as regulamentações locais.
A pressão regulatória sobre a inteligência artificial não se limita apenas à Meta. Recentemente, o bloco europeu aprovou uma nova legislação que impõe novas obrigações às empresas que utilizam IA, com efeitos a partir de agosto. Essas mudanças refletem a crescente preocupação com a proteção de dados e a ética no desenvolvimento e uso de tecnologias avançadas.
Em um cenário global, a discussão em torno da regulamentação da inteligência artificial continua a evoluir, com diferentes países e regiões adotando abordagens distintas para lidar com os desafios éticos e legais que a IA apresenta. A Meta e outras empresas de tecnologia enfrentam o dilema de equilibrar a inovação com a conformidade regulatória, em um ambiente cada vez mais complexo e dinâmico.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo