publicações

Imagem - “IA nos Tribunais: Desafios e Tendências nas Decisões Judiciais”
IA nos Tribunais

“IA nos Tribunais: Desafios e Tendências nas Decisões Judiciais”

Desde 2020 está em vigor a Lei Geral de Proteção de Dados, Lei nº 13.709/2018 (“LGPD”), que dispõe sobre o tratamento e a transparência de dados pessoais no Brasil e busca, além de proteger, gerir o consentimento e autorização dos titulares dos dados antes de seu efetivo tratamento, regulamentar as hipóteses restritivas para o uso de dados pessoais sensíveis, tendo em vista que, se utilizados de forma indevida, podem causar vulnerabilidades aos seus titulares.

Vale ressaltar que o tema da transparência perante os usuários de produtos ou serviços não é uma inovação trazida pela LGPD, uma vez que o Código de Defesa do Consumidor (“CDC”)[1], ([1] Código de Defesa do Consumidor (CDC): Art. 6º III – a informação adequada e clara sobre os diferentes produtos e serviços, com especificação correta de quantidade, características, composição, qualidade, tributos incidentes e preço, bem como sobre os riscos que apresentem;). Em vigência desde 1991, apresenta os princípios e as regras que deverão ser obedecidos pelas empresas nas relações consumeristas.

Além disso, o uso da Inteligência Artificial no Brasil está pendente de regulamentação, e vem sendo discutido no Projeto de Lei nº 2338, de 2023. O texto, por sua vez, segue em tramitação no Senado Federal, e há expectativa de ser votado ainda neste ano.

No PL são estabelecidas normas gerais para a concepção, desenvolvimento, implementação e governança de sistemas de IA no Brasil, assim como a proteção de direitos fundamentais, estimulando a inovação responsável e garantia de sistemas seguros e confiáveis.

Diariamente milhões de pessoas acessam suas redes sociais (algumas várias vezes ao dia), consumimos conteúdos por meio dos serviços de streaming, nos locomovemos nas cidades utilizando os aplicativos de navegação e, na grande maioria das vezes com pouco conhecimento de como os serviços e produtos, muitas vezes ofertados de forma “gratuita”, funcionam.

Um jargão conhecido no mundo de tecnologia é que “se algo é gratuito, o produto é você”. Esse é um ponto extremamente significativo, uma vez que as interações dos consumidores com as empresas de tecnologia, por meio da internet, resultam no fornecimento e utilização de enorme quantidade de dados, popularmente conhecida como “pegada digital”.

Esses dados são fornecidos de inúmeras maneiras, das quais algumas destacamos acima, e ocasionam a segmentação de mercado visando a realizar modelos preditivos que, como o próprio nome apresenta, tenta prever o comportamento futuros dos consumidores.

Assim, para otimizar o tratamento desses dados, aumentar a eficiência e reduzir os custos, nos últimos anos assistimos a uma explosão dos sistemas que possuem algum tipo de Inteligência Artificial (“IA”) inserida.

Pretendemos, então, com o presente material, apresentar recentes decisões judiciais e administrativas que abordam os temas e de como o judiciário vem interpretando as questões éticas e jurídicas debatidas, tais como: (i) a responsabilização e os mecanismos de reparação no uso da IA (ainda que não regulada); (ii) a transparência e explicabilidade da tecnologia, e, ainda, (iii) a privacidade e o uso dos dados pessoais.

Com base nesses pilares ilustramos que, em demanda que envolvia responsabilidade civil decorrente da utilização de ferramentas de IA, em 2022, a Telefônica foi condenada[1] ( [1]  Ação indenizatória de nº 1022312-33.2022.8.26.0114) a indenizar um Consumidor que recebia mais de 20 ligações diárias de um robô que se intitulava “Assistente Virtual da Vivo”. Apesar das reclamações ao setor responsável da empresa para que findassem as ligações, as ofertas continuaram. A empresa foi condenada em:

  1. Obrigação de não fazer – para não realizar novas ligações ao Autor, sob pena de multa no valor de R$ 100,00 por ligação, limitada ao patamar de R$ 3.000,00; e
  2. Indenização por danos morais, no valor de R$ 2.000,00.
 

A sentença já transitou em julgado e não comporta mais modificação. Apontamos que, apesar dos valores pouco expressivos da condenação, nota-se o reconhecimento de ilicitude das práticas da empresa. 

Também, em recente ação ingressada pelo Instituto Brasileiro de Defesa das Relações de Consumo contra o TikTok, sob a alegação de falta de transparência quanto ao uso de IA para coletar e armazenar dados sensíveis dos usuários, pudemos observar que na decisão de primeiro grau entendeu-se que as informações tratadas pela empresa não possuíam o correto enquadramento legal e, neste sentido, condenou a plataforma[1] ([1] Ação Civil Coletiva de nº 0816292-73.2020.8.10.0001) ao pagamento da quantia de 23 milhões de reais a título de danos morais, além do cumprimento das seguintes obrigações:

  1. Pagar a quantia individual de R$ 500,00 a cada usuário do TikTok que tenha sido prejudicado;
  2. Abster-se de utilizar dados sensíveis sem a coleta do consentimento;
  • Aumentar a transparência sobre o processo e uso de dados dos usuários na plataforma;
  1. Exclusão dos dados sensíveis coletados sem o consentimento.

Além da proteção da parte hipossuficiente – seja sob a égide do CDC e da LGPD – pudemos observar dos estudos realizados que, perante o judiciário, todo e qualquer usuário que se utilizar de forma indiscriminada de recursos tecnológicos deverá ser responsabilizado. 

Destaca-se que, em fevereiro deste ano, os pedidos indenizatórios de um usuário que foi banido de uma plataforma de jogos foram julgados improcedentes[1], ([1] Ação Indenizatória/Apelação de nº 000327-74.2022.8.26.0286) por restar comprovado que ele, em verdade, ao invés de vítima, teria se utilizado de subterfúgios para aumentar artificialmente sua pontuação no ranking, em detrimento de outros jogadores.

As empresas Requeridas, Google e Bandai Namco Entertainment Brazil Ltda, comprovaram, inclusive por meio de perícia técnica, que o Autor violou previsões contidas nos Termos de Uso do Jogo e que, em razão da conduta imprópria comprovada, é que foi banido da plataforma. 

A sentença, confirmada em 2º grau, já transitou em julgado e não comporta mais modificação.

Assemelhando-se com o que vem sendo adotado no viés judicial, o PL, que ainda será votado, implica e requer avaliação preliminar de risco antes da introdução e circulação de sistemas de IA no mercado e, além disso, classifica os sistemas de IA conforme seu grau de risco, que poderá ser identificado como excessivo ou de alto risco. 

Ainda que pendente de votação, isso não impediu que a Autoridade Nacional de Proteção de Dados (“ANPD”) – órgão da administração pública responsável por zelar, implementar e fiscalizar o cumprimento da LGPD – na esfera administrativa, determinasse a suspensão cautelar do tratamento de dados pessoais para treinamento da IA da Meta[1], ([1] Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/anpd-determina-suspensao-cautelar-do-tratamento-de-dados-pessoais-para-treinamento-da-ia-da-meta) com a imediata suspensão, no Brasil, da vigência de sua nova política de privacidade, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial.

A referida decisão foi embasada nas seguintes constatações preliminares: (i) hipótese legal inadequada para o tratamento; (ii) falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; (iii) limitações excessivas ao exercício dos direitos dos titulares; e, (iv) e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.

Como é possível constatar, tendo em vista que ainda não possuímos uma legislação específica sobre IA, o Judiciário e os demais órgãos administrativos têm se adaptado à celeridade com que as tecnologias emergentes se materializam, mediante a interpretação e a aplicação de legislações esparsas como o Código de Defesa do Consumidor, o Código Civil, o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais, mas sempre respeitando, em absoluto, a transparência e a validação de consentimento dos envolvidos e, especialmente, na qualidade de hipossuficientes.