Porto Velho, Rondônia - A Autoridade Nacional de Proteção de Dados (ANPD) decidiu suspender o uso de dados pessoais publicados em plataformas da empresa Meta para o treinamento de sistemas de inteligência artificial (IA).
Uma medida cautelar foi aprovada pelo conselho decisório da ANPD. O despacho com a decisão foi publicado no Diário Oficial da União (DOU) desta terça-feira (2). Foi estipulada multa diária de R$ 50 mil em caso de descumprimento.
Na última quarta-feira (26), entrou em vigor uma nova política de privacidade da Meta, abrangendo plataformas de rede social como Instagram, Facebook e Messenger. O documento autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa.
“Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, disse a ANPD em nota. Para justificar a medida, o órgão destacou a utilização de dados pessoas de crianças e adolescentes para treinar sistemas de IA da Meta, informações que estão sujeitas a proteção especial da Lei Geral de Proteção de Dados (LGPD).
A agência informou que decidiu de ofício - ou seja, por inciativa própria - fiscalizar a aplicação da nova política da Meta, e disse ter constatado “riscos de dano grave e de difícil reparação aos usuários”, diante do que considerou ser indício de violação LGPD.
“A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, diz a nota divulgada pelo órgão.
A agência mencionou ainda “obstáculos excessivos e não justificados” para que o usuário possa passar a se opor a esse tipo de tratamento de seus dados pessoais. De acordo com a ANPD, os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem considerar que as informações pudessem ser usadas no treinamento de IA.
A ANPD é um órgão criado em 2020, ligado ao Ministério da Justiça e Segurança Pública, cujo conselho é composto por cinco diretores indicados pelo presidente e aprovados pelo Senado, com mandato de quatro anos. Os critérios são reputação ilibada, nível superior e elevado conceito no campo de especialidade.
Outro lado
Em posicionamento enviado por e-mail, a Meta disse estar “desapontada com a decisão da ANPD”. A empresa acrescentou que não é a única a promover treinamento de IA com informações coletadas pelos serviços prestados. “Somos mais transparentes do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos”, diz o texto enviado.
“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, afirmou a empresa.
Uma medida cautelar foi aprovada pelo conselho decisório da ANPD. O despacho com a decisão foi publicado no Diário Oficial da União (DOU) desta terça-feira (2). Foi estipulada multa diária de R$ 50 mil em caso de descumprimento.
Na última quarta-feira (26), entrou em vigor uma nova política de privacidade da Meta, abrangendo plataformas de rede social como Instagram, Facebook e Messenger. O documento autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa.
“Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, disse a ANPD em nota. Para justificar a medida, o órgão destacou a utilização de dados pessoas de crianças e adolescentes para treinar sistemas de IA da Meta, informações que estão sujeitas a proteção especial da Lei Geral de Proteção de Dados (LGPD).
A agência informou que decidiu de ofício - ou seja, por inciativa própria - fiscalizar a aplicação da nova política da Meta, e disse ter constatado “riscos de dano grave e de difícil reparação aos usuários”, diante do que considerou ser indício de violação LGPD.
“A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, diz a nota divulgada pelo órgão.
A agência mencionou ainda “obstáculos excessivos e não justificados” para que o usuário possa passar a se opor a esse tipo de tratamento de seus dados pessoais. De acordo com a ANPD, os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem considerar que as informações pudessem ser usadas no treinamento de IA.
A ANPD é um órgão criado em 2020, ligado ao Ministério da Justiça e Segurança Pública, cujo conselho é composto por cinco diretores indicados pelo presidente e aprovados pelo Senado, com mandato de quatro anos. Os critérios são reputação ilibada, nível superior e elevado conceito no campo de especialidade.
Outro lado
Em posicionamento enviado por e-mail, a Meta disse estar “desapontada com a decisão da ANPD”. A empresa acrescentou que não é a única a promover treinamento de IA com informações coletadas pelos serviços prestados. “Somos mais transparentes do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos”, diz o texto enviado.
“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, afirmou a empresa.
Fonte: Felipe Pontes - Repórter da Agência Brasil
da redação FM Alô Rondônia