Privacidade na era da inteligência artificial

Sistemas de IA nem sempre dependem de dados pessoais, mas vários usam grandes volumes dessas informações
A inteligência artificial está transformando nosso cotidiano e impulsionando a economia global. Sua capacidade de analisar grandes volumes de dados e identificar padrões complexos traz inovações relevantes para os mais diversos setores, como saúde, finanças, marketing, cibersegurança e educação. No entanto, o uso de dados pessoais por sistemas de IA suscita desafios relevantes à privacidade e à proteção de dados.
Sistemas de IA nem sempre dependem de dados pessoais, contudo, é certo que muitos utilizam grandes volumes dessas informações para oferecer soluções mais eficientes e precisas, como autenticação de identidade, detecção de fraude, proteção ao crédito, marketing personalizado, recomendações de conteúdo, segurança cibernética e medicina preditiva, apenas para citar alguns exemplos.
Importante lembrar e ponderar que modelos de IA possuem eficácia limitada a depender da qualidade dos dados utilizados em seu treinamento. Imagine um sistema de IA que decida quem recebe um empréstimo, quem é admitido em uma universidade, quem ocupa uma vaga de emprego, quem deve ser demitido ou até que diagnóstico ou tratamento um paciente receberá.
Se os dados usados forem enviesados ou imprecisos, as decisões podem ser injustas, discriminatórias ou até mesmo perigosas, de acordo com o nível de participação humana e governança para mitigar tais riscos. Além disso, a complexidade de algoritmos pode tornar difícil para as pessoas entenderem como essas escolhas são feitas, motivando maior reflexão e diligência acerca do princípio da transparência e do direito de revisão de decisões que afetam diretamente suas vidas.
Casos recentes demonstram esses riscos. No Brasil, a Autoridade Nacional de Proteção de Dados (ANPD) exigiu que empresas como Meta e X esclarecessem como usam dados pessoais para treinar suas ferramentas de IA.
O Superior Tribunal de Justiça (STJ) também reconheceu os perigos das decisões automatizadas, como discriminação e perda de autonomia, mas que transparência e contraditório em casos de impacto significativo são medidas válidas para combater fraudes. Na Europa, empresa de tecnologia foi multada por usar dados biométricos sem base legal e um banco por gravar e analisar automaticamente chamadas de clientes sem transparência e direito à oposição.
Ainda, de acordo com pesquisa da Cisco de 2023, 62% dos consumidores demonstraram preocupação com o uso de IA e 60% afirmaram já ter perdido a confiança em organizações devido a esse uso. Apesar disso, 48% acreditam que a IA tem o potencial de melhorar suas vidas. No entanto, a maioria (77%) destaca a importância de que as organizações sejam responsáveis na utilização da tecnologia. Para mitigar essas preocupações, 72% afirmaram que se sentiriam mais confortáveis se as aplicações de IA fossem auditadas para evitar vieses, enquanto 75% desejam maior transparência e participação humana.
Esses exemplos mostram que é essencial implementar boas práticas de conformidade para evitar problemas legais e conquistar a confiança do público-alvo, como:
- integrar o programa de governança de IA com a estratégia de negócio;
- mapear as aplicações de IA, visando identificar sua posição na cadeia de valor (desenvolvedor, aplicador ou distribuidor) e determinar o seu grau de risco;
- utilizar apenas dados indispensáveis para o treinamento da IA;
- medidas para permitir a avaliação da acurácia, robustez e para apurar potenciais resultados discriminatórios ilícitos ou abusivos da IA;
- explicabilidade, ajudando os usuários afetados a compreenderem decisões e a exercerem seus direitos;
- avaliar demais riscos, medidas de mitigação e monitoramento contínuo;
- promoção de cultura para o desenvolvimento e aplicação responsável da IA.
Além disso, tecnologias como anonimização de dados e criação de dados sintéticos podem melhorar a segurança e a representatividade nos modelos de IA.
Outro ponto crucial é a flexibilidade no uso de dados ao longo do ciclo de vida dos sistemas de IA, garantindo que eles sejam utilizados para finalidades compatíveis com o objetivo original. Documentos como os model cards, que explicam como os sistemas foram treinados, ajudam a promover a transparência e a confiança.
Já a exigência de consentimento no contexto de IA enfrenta desafios como falta de escalabilidade, sobrecarga aos indivíduos e impacto negativo em terceiros, sendo mais adequado explorar bases legais como o legítimo interesse para atender à complexidade do ambiente digital e proteger direitos dos titulares de dados.
A IA é recurso poderoso para enfrentar grandes desafios da humanidade, mas exige literacia, ética e governança responsável. Usada com equilíbrio e respeito à privacidade, torna-se um catalisador de inovação que promove avanços tecnológicos com benefícios reais e justos para todos. Essa é a mensagem que o Dia Internacional da Proteção de Dados nos inspira a perseguir.
Fonte: Jota