Nos últimos dias, uma nova febre surgiu nas redes sociais: converter fotos pessoais em versões no estilo dos estúdios Ghibli, com aquele visual inspirado nas animações japonesas. A brincadeira caiu nas graças dos usuários, que ficaram encantados com suas versões em desenho animado. Até aí, tudo bem. Mas dúvidas pairam sobre o que há por trás dessa tendência. Afinal, trata-se de uma imagem sua sendo disponibilizada para uma inteligência artificial, e você não sabe exatamente o que será feito dela além da animação.
Abri o artigo com esse exemplo para introduzir a matéria “Do ChatGPT ao Grok, nenhuma IA cumpre exigências mínimas da lei brasileira de proteção de dados”, publicada na edição de sexta-feira (03) do jornal O Globo. O texto traz, com exclusividade, informações sobre a pesquisa do Centro de Tecnologia e Sociedade da FGV Direito Rio (CTS-FGV), que revela o não cumprimento das exigências da Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018) pelas sete plataformas de inteligência artificial mais populares no Brasil: ChatGPT, Copilot, Gemini, Claude, Grok, DeepSeek e Meta AI.
Segundo a matéria, foram analisados quatorze critérios, e o resultado mostra que nenhuma das plataformas atende integralmente às exigências da lei. Até mesmo requisitos básicos, como a disponibilização da política de privacidade em português e a comunicação clara dos direitos dos titulares de dados, são negligenciados por boa parte dessas tecnologias. O cenário varia do “baixo ao assustador”, conforme definiu o coordenador do estudo, professor Luca Belli.
A LGPD foi usada como referência para estabelecer os padrões mínimos que deveriam ser cumpridos. Também foram consultados documentos complementares, como o Guia de Segurança da Informação para Agentes de Tratamento de Pequeno Porte, publicado pela ANPD em 2021, considerado parâmetro básico de boas práticas.
A pesquisa da FGV evidencia uma significativa lacuna entre a operação dessas plataformas de IA e os requisitos legais previstos na LGPD, que, vale destacar, estabelece princípios essenciais para o tratamento de dados pessoais no Brasil. Quando uma plataforma omite informações sobre quem é o controlador dos dados, como eles são tratados e para onde são transferidos, compromete-se não apenas a transparência, mas a própria eficácia da lei. Essa falta de conformidade pode expor tanto as empresas quanto os usuários a riscos legais e de privacidade. Temos aí um problema sério: estamos permitindo que tecnologias avancem sem o devido respeito às garantias fundamentais de privacidade e proteção de dados.
Segundo a matéria, a FGV continuará a pesquisa, agora avaliando obrigações mais complexas da LGPD, relacionadas à transparência em decisões automatizadas. Espera-se, portanto, que os resultados possam fomentar discussões e, potencialmente, levar a uma maior atenção regulatória sobre a conformidade das plataformas de IA com a legislação brasileira.
Mas, além de avanços regulatórios e de medidas que garantam a segurança dos dados pessoais, é essencial insistir em educação digital, conscientizando a população sobre a importância de proteger seus dados, ampliando a compreensão sobre os riscos da coleta massiva de informações e a importância da privacidade como pilar da cidadania.
Fonte: O Globo