top of page
  • Foto do escritorINPD

A obscuridade dos algoritmos e a LGPD

Atualizado: 25 de nov. de 2020

Cinthia Obladen, Diretora Acadêmica do INPD - Instituto Nacional de Proteção de Dados


Artigo publicado no Estadão.





Recentemente o aplicativo TikTok anunciou que estava abrindo os seus algoritmos de classificação e compartilhamento de vídeos e desafiando os seus concorrentes a fazerem o mesmo. A notícia causou impacto entre os desenvolvedores de software, mas deixou perplexa a comunidade técnica, científica e jurídica frente aos reflexos de tal anúncio.


Vivemos um cenário de sociedade de risco e de controle, frente aos acordos realizados por estados totalitários e empresas de redes sociais, serviços online, entre outros (FREITAS; PAMPLONA, 2017). Os dois lados da balança, risco e controle, estão sobre um ponto central que é a privacidade e a proteção de dados pessoais (BOFF et al., 2018) (BIONI, 2019). Algoritmos são movidos por dados, dados geram informações sobre pessoas, que por sua vez geram mais e mais dados.


Abrir os algoritmos significa explicitar a tão discutida obscuridade dos algoritmos, pela qual não se tem conhecimento de como, por exemplo, decisões automatizadas são estabelecidas. O tema é tão relevante, que a Lei Geral de Proteção de Dados – LGPD (Lei No. 13.709/2018), no artigo 20, aponta que é direito do titular de dados “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade”. Aqui a LGPD aborda aspectos tecnológicos da aplicação de técnicas de profiling (em português, perfilamento, caracterização de perfil ou perfilagem) (FERRARIS et al., 2013).


A caracterização de perfil refere-se aos métodos e técnicas computacionais aplicados aos dados pessoais ou não dos usuários visando o estabelecimento de um perfil. E, em tempos de Big Data (KITCHIN, 2016), dados não faltam para serem processados.


As técnicas de caracterização de perfil têm como objetivo determinar o que é relevante dentro de um determinado contexto, por exemplo, os interessados em um determinado produto. Além disto, estas técnicas auxiliam na representatividade estatística, ou seja, na determinação da qualidade de uma amostra constituída de modo a corresponder à população no seio da qual ela é escolhida.


Ou seja, busca-se generalizar a partir de uma amostra de indivíduos e dos seus respectivos interesses. Por exemplo, se um determinado grupo de pessoas está interessado em um determinado produto, outros grupos de pessoas ligados, conhecidos ou relacionados ao primeiro grupo também podem vir a se interessar por este mesmo produto.


Entender o profiling não é uma tarefa trivial, visto envolver diferentes aspectos tecnológicos e jurídicos, incluindo aspectos legislativos que devem levar em consideração as características intrínsecas dos sistemas computacionais frente a todas as possibilidades de tratamento de dados pessoais ou não, sendo mais preocupante a questão dos dados pessoais e dos dados sensíveis.


Pergunta-se, portanto: como explicitar a obscuridade dos algoritmos? Primeiramente há que se entender o que é um algoritmo para em seguida entender como os algoritmos funcionam.


Na Ciência da Computação, um algoritmo é uma sequência finita de ações executáveis que visam obter uma solução para um determinado tipo de problema. Algoritmos devem ser: precisos, não ambíguos, mecânicos, eficientes e corretos. São formados por uma sequência de instruções, raciocínios e/ou operações (de atribuição, aritméticas, lógicas, relacionais).

Na sociedade contemporânea, tudo se encaixa em algoritmos! Desde relacionamentos (redes sociais), e-commerce, m-s-t-f-commerce (mobile, social, televison, Facebook) (FREITAS; BATISTA, 2015), internet banking, telefonia, TV, rádio, música, arte, negócios e vida em tempos de pandemia (a exemplo do contact tracing). Pode-se mencionar a sociedade de algoritmos. Há que se pensar em ubiquidade, pervasividade, mobilidade, velocidade e, ainda, ter consciência que se vive o paradigma denominado “everyware” (GREENFIELD, 2006).

Imagine um problema simples como: Testar se dois valores A e B são iguais, apresentando, se SIM, “valores iguais” e se NÃO, “valores diferentes”. Este simples problema necessita na verdade de operações de atribuição (A conterá um valor numérico) e relacionais (precisamos comparar A e B pela igualdade “=”). E, além disto, para que o algoritmo possa ser executado em um computador, será necessário codificar o algoritmo em uma linguagem de programação a escolha do desenvolvedor, por exemplo, Java.

Este pensamento, abstração, para solução de um problema simples como o apresentado é, na verdade, aplicado a qualquer desenvolvimento que envolva a solução de problemas por meio computacional. Se você achou complicado, imagine entender os algoritmos de todos os software, aplicativos e redes sociais que você utiliza. Há que se entender: Para qual problema o algoritmo foi desenvolvido?  Quais operações são realizadas? (aritmética, lógica, relacional)? Quais dados são utilizados? Quais as relações entre conjuntos de dados? E, portanto, há que se saber trabalhar com operações de conjuntos (união, interseção, inclusão, diferença, complemento, exclusão, pertencimento, contém/contido).

O desconhecimento sobre como os algoritmos funcionam pode levar a: julgar mal o “poder” do algoritmo, enfatizar demais a sua importância, pensar erroneamente que o algoritmo é um “agente” independente e isolado e, finalmente, não perceber como o “poder” pode ser realmente implementado por tecnologias e algoritmos.

É preciso compreender que os algoritmos operam sobre dados e podem: ordenar, classificar, minerar, descobrir conhecimento, agrupar clientes, estabelecer o perfil (profiling), conhecer gostos e preferências, conhecer qual o comportamento na rede (behavourial tracking), rastrear contatos em tempos de pandemia (contact tracing) (FREITAs et al., 2020), indicar produtos, recomendar, reconhecer faces, reconhecer emoções, recuperar informações, tomar decisões: aritméticas, lógicas, relacionais, estatísticas e probabilísticas. Portanto, é importante que os titulares de dados (artigo 18, LGPD) compreendam que os algoritmos mantém informações longe de nós por meio de bolhas informacionais (PARISER, 2019). Além disto, podem ser aplicados em situações subjetivas, mesmo que o titular de dados desconheça, a exemplo da contratação de pessoas (Qual é o/a melhor candidato/a para a vaga?).

Problemas complexos não tem resposta binária (sim ou não), por isso se entendermos que “Em oposição aos seres humanos, os computadores não têm preferências nem atitudes. Se um modelo preditivo for corretamente projetado, ele será imparcial e não conterá vieses.” (FREITAS; BARDDAL, 2019, p. 111). Mas como os algoritmos podem conter vieses (biases)? Os algoritmos são criados por seres humanos e podem assim ser igualmente tendenciosos a partir das bases de dados utilizadas nas etapas de treinamento e validação de modelos (matemáticos ou probabilísticos). Há que se lembrar que algoritmos andam de mãos dadas com a complexidade.

Neste sentido, o legislador pontuou como importante que os usuários precisam ser informados sobre os algoritmos de tomada de decisão (artigo 20, LGPD). E, ainda, que caberá “ao controlador fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial” (§ 1º, artigo 20, LGPD) e no caso do não oferecimento de tais informações justificado diante de segredo comercial e industrial, “a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais” (§ 2º, artigo 20, LGPD). A LGPD, tal qual outros regramentos sobre proteção de dados pessoais, coloca no epicentro do debate a ética dos algoritmos e a formação de uma cultura de dados centrada na proteção de dados (DONEDA, 2018), na segurança da informação (família de normas ISO/IEC 27000), na privacidade e direitos fundamentais. Sem esquecer que serão as pessoas que irão auditar os algoritmos. Ou não? Teremos algoritmos auditando algoritmos? Mas esta é outra discussão.

*Cinthia Obladen de Almendra Freitas, doutora em Informática pela PUCPR, coordenadora do Programa de Pós-Graduação em Direito Econômico e Socioambiental (Mestrado e Doutorado) da PUCPR e diretora acadêmica do Instituto Nacional de Proteção de Dados – INPD

BIONI, B. R.. Proteção de dados pessoais – a função e os limites do consentimento. Rio de Janeiro: Forense, 2019.

BOFF, S. O.; FORTES, V. B.; FREITAS, C. O. A.. Proteção de Dados e Privacidade: do direito às novas tecnologias na sociedade da informação. 1. ed. Rio de Janeiro: Lumen Juris, 2018.

DONEDA, D.. Proteção de dados pessoais: panorama legislativo atual e prospectivo. CGI.br, 2018.

FERRARIS, V.; BOSCO, F.; CAFIERO, G.; D’ANGELO, E.; SULOYEVA, Y., Working paper: defining profiling. United Nations Interregional Crime and Justice Research Institute (UNICRI), December, 2013.

FREITAS, C.O.A.; CARNEIRO, J. V. V. ; GLASMEYER, R. J. S. . O Tratamento de Dados Pessoais e Sensíveis frente ao Contact Tracing durante o COVID-19. Boletim do Grupo de Estudos de Direito Autoral e Industrial: GEDAI/UFPR, Curitiba, p. 1 – 20, 07 jun. 2020. Disponível em: https://www.gedai.com.br/o-tratamento-de-dados-pessoais-e-sensiveis-frente-ao-contact-tracing-durante-o-covid-19/)

FREITAS, C. O. A.; BARDDAL, J. P.. Análise preditiva e decisões judiciais: controvérsia ou realidade?. Democracia Digital e Governo Eletrônico, v. 1, p. 107-126, 2019.

FREITAS, C. O. A.; PAMPLONA, D.A.. Cooperação entre Estados Totalitários e Corporações: O uso da segmentação de dados e profiling para violação de direitos humanos. In: Regina Linden Ruaro; José Luis Piñar Mañas; Carlos Alberto Molinaro. (Org.). Privacidade e proteção de dados pessoais na sociedade digital. 1ed.Porto Alegre: Editora Fi, 2017, v. 1, p. 119-144.

FREITAS, C.O.A.; BATISTA, O.H.S. Neuromarketing e as Novas Modalidades de Comércio Eletrônico (m-s-t-f-commerce) frente ao Código de Defesa do Consumidor. Derecho y Cambio Social, v. 42, p. 1-22, 2015.

GREENFIELD, A.. Everyware: The dawning age of ubiquitous computing. AIGA: New Riders, 2006.

KITCHIN, R.. The data revolution: big data, open data, data infrastructures & their consequences. Los Angeles: SAGE Publications Ltd., 2016.

PARISER, E.. O Filtro invisível: o que a Internet está escondendo de você. Trad. Diego Alfaro. Rio de Janeiro: Zahar, 2012.



1.645 visualizações0 comentário
bottom of page