DESAFIOS JURÍDICOS DA PRIVACIDADE DE DADOS EM UM CONTEXTO DE INTELIGÊNCIA ARTIFICIAL: ADAPTAÇÕES LEGAIS E GARANTIAS NECESSÁRIAS.
Por Jéssica Todescato* – Advogada empresarial, bancário e financeiro.
A ascensão da transformação digital tem impulsionado a adoção generalizada de técnicas de Inteligência Artificial (IA) tanto por empresas quanto por governos. É notável que muitas vezes o cidadão não percebe plenamente sua interação com sistemas inteligentes, seja ao efetuar uma compra com cartão de crédito, seja ao receber recomendações em sua plataforma de streaming favorita (Garcia, 2020). Em meio a esse contexto atual, marcado pela crescente integração da IA em diversas esferas da vida cotidiana e empresarial, surgem desafios significativos para a proteção da privacidade de dados. A rápida evolução tecnológica tem levado a uma complexa interação entre a coleta, processamento e utilização de dados pessoais e a capacidade dos algoritmos de IA de extrair insights e tomar decisões autônomas (Queiroz & Disconzi, 2024).
Nesse cenário, torna-se crucial examinar as adaptações legais necessárias para garantir a conformidade com os princípios de privacidade e os direitos individuais, ao mesmo tempo em que se promove a inovação e o desenvolvimento responsável da IA. Este artigo se propõe a explorar esses desafios jurídicos e a destacar as garantias essenciais que devem ser estabelecidas para proteger a privacidade de dados em um contexto de IA em constante evolução.
O estudo dos desafios jurídicos relacionados à privacidade de dados em meio a um panorama regido pela IA é de extrema relevância diante do cenário atual de rápida evolução tecnológica. Com o avanço da transformação digital e a crescente integração de sistemas de IA em diversos aspectos da vida cotidiana e empresarial, surge a necessidade urgente de compreender e abordar as complexidades legais que acompanham essa revolução tecnológica (Garcia, 2020). A interação entre a coleta, processamento e utilização de dados pessoais e a capacidade dos algoritmos de IA de tomar decisões autônomas levanta questões fundamentais sobre privacidade, transparência, consentimento informado e responsabilidade (Lopes, 2021).
Além disso, a falta de adaptação adequada das leis de proteção de dados pode resultar em violações de direitos individuais e em danos significativos à integridade e segurança dos dados (Sarlet & Caldeira, 2019). Portanto, este estudo acadêmico se justifica pela necessidade de identificar os desafios jurídicos emergentes nesse contexto e propor soluções e adaptações legais que garantam a proteção da privacidade de dados enquanto promovem a inovação e o desenvolvimento responsável da IA.
No que tange às definições de privacidade de dados, na percepção de Correia (2014), a principiar pela própria expressão privacidade em si, refere-se à salvaguarda dos dados, que incluem emoções e convicções pessoais, desde que não representem uma ameaça para a sociedade, e à capacidade de desfrutar de tranquilidade e manter o anonimato, como quando se recebe uma grande quantia em dinheiro de um sorteio ou jogo. Por sua vez, o direito à privacidade abrange uma liberdade legalmente reconhecida para cada indivíduo, não apenas enquanto cidadão detentor de direitos e sujeito às leis, mas também como pessoa com um espaço distinto em relação à sociedade, protegido tanto pelo Estado quanto legalmente, em níveis nacional e internacional (Dos Santos, 2023).
Para Godoy (2021), de maneira ampla, a privacidade pode ser definida como o direito que cada indivíduo possui de manter confidenciais os dados e informações que lhe dizem respeito. Trata-se do controle garantido a ele sobre a divulgação ou exposição de aspectos íntimos e privados de sua vida. Esta questão já suscita debate terminológico, uma vez que a própria Constituição Federal, em seu artigo 5º, inciso X, estabelece como invioláveis, além da honra e da imagem das pessoas, também sua intimidade e vida privada. Essa proteção é, em parte, refletida no artigo 21 do Código Civil, que também remete à inviolabilidade da vida privada da pessoa natural.
Ao se aproximar a conceituação supra exposta do contexto digital, de forma mais precisa, do âmbito dos meios digitais como a internet de uma forma geral, pode-se efetuar essa aproximação de acordo com o que alega Fortes (2017) apresenta-se o conceito de privacidade como um direito fundamental que engloba o direito de navegar na internet com a proteção da identidade e de excluir os dados pessoais online. Isso amplia o escopo da privacidade, tornando-o mais abrangente e, principalmente, atualizado e contextualizado com a sociedade da informação. Essa abordagem possibilita uma melhor adaptação do Direito aos novos padrões de interação social trazidos pela internet de forma frequente, além de viabilizar a abordagem de questões jurídicas decorrentes de uma sociedade conectada ou de um “Estado de Vigilância”.
No que tange ao entendimento acerca dos dados, sob uma perspectiva jurídica, Sarlet e Caldeira (2019) explanam que:
Dados pessoais são todas as informações de caráter personalíssimo caracterizadas pela identificabilidade e pela determinabilidade do seu titular, enquanto os dados sensíveis são aqueles que tratam sobre a origem racial e étnica, as convicções políticas, ideológicas, religiosas, as preferências sexuais, os dados sobre a saúde, os dados genéticos e os biométricos. O conjunto dessas informações compõe os perfis ou as identidades digitais, possuindo valor político e, sobretudo, econômico, vez que podem ser a matéria prima para o uso de softwares diretamente atrelados às novas formas de controle social, especialmente mediante o uso de algoritmos. Daí, a proteção de dados é, em síntese, a proteção da pessoa humana, mormente o resguardo do livre desenvolvimento de sua personalidade e, em particular, por meio da garantia da sua autodeterminação informacional (p. 2).
Sendo assim, diante do exposto até aqui, pode-se elaborar um constructo acerca do que seria a conceituação sobre a da privacidade de dados concebida como um dos fundamentos da segurança da informação, direcionada à preservação da confidencialidade das informações pertencentes a uma empresa e seus clientes. Esse enfoque se baseia em práticas de tratamento adequado, capacitando a empresa a cumprir com as regulamentações em vigor. Na prática, a privacidade de dados visa estabelecer diretrizes para a coleta, armazenamento, gerenciamento e compartilhamento dos dados com terceiros, garantindo, assim, a conformidade com as leis pertinentes (Equipe Totvs, 2021).
No entanto, no que tange ao conceito de IA, refere-se à capacidade de um programa de computador desenvolver funções e raciocínios que são típicos da mente humana. Esse campo de estudo é objeto de intensos debates entre cientistas e filósofos, que não apenas discutem seus aspectos teóricos, mas também as aplicações práticas que o termo abrange. Além da reflexão sobre a mente e sua relação com o cérebro, há considerações sobre outros elementos que impactam diretamente os resultados esperados da IA, como consciência e cognição. A dualidade na relação entre mente e cérebro, e a possibilidade de considerar um como uma manifestação do outro, são pontos de divisão entre os pesquisadores. Essas discussões transcendem o âmbito teórico, influenciando diretamente o desenvolvimento e a aplicação da IA na prática (Bittencourt, 2006).
Nesse sentido, a interseção entre os conceitos de privacidade de dados e IA revela-se fundamental diante da crescente digitalização da sociedade. Enquanto a privacidade de dados diz respeito à salvaguarda das informações pessoais de um indivíduo, incluindo emoções e convicções, a IA surge como uma ferramenta capaz de processar e utilizar esses dados de forma significativa. Ambos os conceitos convergem na necessidade de proteger a confidencialidade das informações pessoais em um ambiente digital cada vez mais interconectado (Dos Santos, 2023). Enquanto a privacidade de dados estabelece diretrizes para o tratamento adequado dessas informações, garantindo conformidade com as leis vigentes, a IA introduz novos desafios e complexidades, exigindo transparência, responsabilidade e conformidade legal em seu uso. Portanto, a interseção desses conceitos destaca a importância de uma abordagem ética e legalmente sólida no desenvolvimento e aplicação da inteligência artificial, garantindo a proteção dos direitos individuais dos usuários em um contexto de rápida evolução tecnológica.
Desafios da Privacidade de Dados na Era da IA
A identificação e a análise dos principais desafios alusivos à privacidade de dados na era da IA representam uma atividade permeada pela complexidade e uma gama considerável de fatores e peculiaridades, sendo assim, procurou-se delimitar esse número de desafios para fins de estudo como se poderá observar a seguir.
Destarte, a importância da privacidade de dados no Brasil é indiscutível, exigindo uma abordagem urgente tanto em sua aplicação quanto em sua conscientização. Em 2020, o país liderou em casos de phishing, uma prática criminosa de roubo de dados pessoais online. Conforme revelado por uma pesquisa publicada pelo jornal O Tempo, quase 20% dos internautas brasileiros foram expostos a links maliciosos, projetados para obter informações pessoais sensíveis. Esse cenário evidencia a necessidade premente de medidas eficazes para proteger a privacidade dos dados dos cidadãos e promover uma cultura de segurança digital no país (Equipe Totvs, 2021).
Existem aspectos que representam verdadeiros desafios no que se refere à transparência da privacidade de dados na era da IA em diversas áreas, como a título de exemplo, no âmbito da gestão desses dados por parte do Estado, como a transparência algorítmica e a accountability. Onde os resultados obtidos por um estudo desenvolvido por Saldanha e Silva (2020), destacam obstáculos técnicos e econômicos, como aumento de custos e complexidade, para promover a conscientização dos usuários sobre os procedimentos de um serviço público digital. Esses resultados são de grande relevância para gestores públicos interessados em avaliar a transparência e prestação de contas dos serviços públicos digitais. As dimensões e critérios de análise utilizados nesta pesquisa permitem uma avaliação abrangente da transparência nos serviços públicos digitais, facilitando sua replicação e comparação com outros serviços no futuro. A contribuição teórica deste estudo reside na combinação inovadora dos critérios analisados para avaliar a transparência dos serviços públicos digitais, visando promover a prestação de contas.
Por um outro viés, em uma esfera pertinente ao princípio da dignidade humana, analisa-se a importância do consentimento informado e da autonomia do titular dos dados Neste contexto, destaca-se a importância fundamental do consentimento, especialmente no ambiente da internet, como resultado de um processo cognitivo, onde é crucial que os indivíduos sejam devidamente informados de maneira clara, precisa e completa sobre a relevância, finalidade, adequação, prazo de coleta, armazenamento, tratamento e transmissão dos dados. Isso possibilita que o indivíduo concedente tenha a capacidade de renunciar, modificar, utilizar, transferir ou recusar o consentimento. Dessa forma, reconhece-se o papel central do indivíduo na condução e construção de sua própria vida, visando garantir proteção contra os riscos de danos tanto materiais quanto imateriais (Sarlet & Caldeira, 2019).
Garantias Necessárias para assegurar a Proteção de Dados em Ambientes de IA
No Brasil, a norma que regulariza o tratamento de dados pessoais, tanto nos meios digitais quanto em outros meios, por pessoas naturais ou jurídicas, sejam elas de direito público ou privado, visa proteger os direitos fundamentais de liberdade, privacidade e o livre desenvolvimento da personalidade das pessoas naturais. é a Lei nº 13.709 ou a Lei Geral de Proteção de Dados Pessoais (LGPD) cuja redação foi alterada pela Lei nº 13.853 de 2019 cuja teor do seu artigo 1º estatui que: “Art. 1º Esta Lei dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural.” (Brasil, 2019).
Quanto às garantias necessárias para assegurar a proteção de dados em ambientes de IA, de acordo com a Câmara dos Deputados (2023), existem propostas por parte do Estado como o Projeto de Lei 759/23 propõe regulamentar o uso da IA no Brasil, estabelecendo princípios e diretrizes para garantir transparência, proteção da privacidade e defesa dos valores democráticos. O objetivo é criar uma Política Nacional de Inteligência Artificial, reconhecendo a importância estratégica da IA em diversas áreas, como saúde, segurança e educação. O texto estabelece parâmetros éticos e legais para o desenvolvimento e uso da IA promovendo segurança jurídica para investimentos em pesquisa e inovação. Os princípios da IA incluem transparência, segurança, proteção da privacidade e respeito aos direitos humanos. As diretrizes abrangem desde o respeito aos limites sociais até o estímulo ao investimento em pesquisa e desenvolvimento da IA. A proposta também impõe restrições, como a proibição do uso da IA para ferir seres humanos ou como arma de guerra, além de exigir o registro e submissão aos órgãos de fiscalização de projetos que utilizem IA. O projeto tramita na Câmara dos Deputados e será analisado pelas comissões competentes antes de sua eventual aprovação.
Considerações Finais
O avanço da transformação digital impulsiona a disseminação da IA trazendo consigo desafios para a proteção da privacidade de dados. Diante dessa realidade, é essencial examinar as adaptações legais necessárias para garantir a conformidade com os princípios de privacidade, ao mesmo tempo em que se promove a inovação responsável da IA. Aspectos como transparência, consentimento informado e responsabilidade são cruciais nesse contexto (Garcia, 2020; Queiroz & Disconzi, 2024).
A interação entre a coleta, processamento e utilização de dados pessoais e a capacidade dos algoritmos de IA de tomar decisões autônomas levanta questões fundamentais sobre privacidade, transparência e responsabilidade (Lopes, 2021). A falta de adaptação das leis de proteção de dados pode resultar em violações de direitos personalíssimos, bem como incorrer em danos à integridade dos dados.
No Brasil, a Lei Geral de Proteção de Dados (LGPD) regula o tratamento de dados pessoais, visando proteger os direitos fundamentais de liberdade e privacidade. Propostas como o Projeto de Lei 759/23 buscam estabelecer princípios e diretrizes para garantir a transparência, proteção da privacidade e defesa dos valores democráticos na utilização da IA (Câmara dos Deputados, 2023).
Em resumo, a interseção entre privacidade de dados e IA destaca a necessidade de uma abordagem ética e legalmente sólida para garantir a proteção dos direitos individuais dos usuários em um ambiente de rápida evolução tecnológica.
Por fim, devido à relevância e à complexidade do presente tema, sugestiona-se que sejam elaboradas futuras pesquisas que possam se aprofundar ainda neste intrincado e admirável mundo da privacidade que sofrem impactos significativos advindos do compartilhamento e tratamento dos dados sob a égide da IA.
Referências
Bittencourt, G. (2006). Inteligência artificial: ferramentas e teorias.
Brasil (2019). Lei nº 13.853, de 14 de agosto de 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_Ato2019-2022/2019/Lei/L13853.htm#art2.
Brasil (2018). Lei nº 13.709, de 14 de agosto de 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm.
Câmara dos Deputados (2023). Proposta regulamenta utilização da inteligência artificial. Disponível em: https://www.camara.leg.br/noticias/968967-PROPOSTA-REGULAMENTA-UTILIZACAO-DA-INTELIGENCIA-ARTIFICIAL.
Dos Santos, J. V. F. (2023). Cibersegurança e a importância do direito digital. Revista Multidisciplinar do Nordeste Mineiro, 12(1).
Equipe Tovs. (2021). Privacidade de dados: como garantir a segurança dos clientes. Disponível em: https://www.totvs.com/blog/adequacao-a-legislacao/privacidade-de-dados/.
Garcia, A. C. (2020). Ética e inteligência artificial. Computação Brasil, (43), 14-22.
Godoy, L.B.de (2021). Privacidade. Enciclopédia Jurídica da PUCSP. Disponível em: https://enciclopediajuridica.pucsp.br/verbete/474/edicao-1/privacidade.
Lopes, G. F. P. (2021). Inteligência Artificial: Considerações sobre personalidade, agência e responsabilidade civil. Editora Dialética.
Pires, C. M. P., Paffarini, J., & Cella, J. R. G. (2017). Direito, Democracia e Sustentabilidade: programa de pós-graduação stricto sensu em Direito da faculdade Meridional. Editora Deviant.
Queiroz, G. N., & Disconzi, V. S. do P. (2024). O impacto da inteligência artificial no direito: questões éticas e legais. Revista Ibero-Americana de Humanidades, Ciências e Educação, 10(4), 1388-1406.
Saldanha, D. M. F., & SILVA, M. B. D. (2020). Transparência e accountability de algoritmos governamentais: o caso do sistema eletrônico de votação brasileiro. Cadernos EBAPE. BR, 18, 697-712.
Sarlet, G. B. S., & Caldeira, C. (2019). O consentimento informado e a proteção de dados pessoais de saúde na internet: uma análise das experiências legislativas de Portugal e do Brasil para a proteção integral da pessoa humana. Civilistica. com, 8(1), 1-27.
* Jéssica Todescato – Advogada com atuação no direito empresarial, bancário e financeiro, advogada executiva no Grupo SHE – SP – juridico@gruposhe.com.br
Escritório profissional – Av. Brigadeiro Faria Lima, nº 2012, 11º andar, sala 114, Jardim Paulistano, São Paulo/SP.