top of page
  • Foto do escritorINPD

Inteligência Artificial responsável. O que é isto?




Algoritmos compostos por inteligência artificial (IA) têm ganhado poder de influência crescente na nossa sociedade. Hoje em dia é comum vermos tal tecnologia sendo utilizada por bancos e financiadoras para decidir quem pode receber um empréstimo, por times de recursos humanos para decidir qual é o melhor candidato para determinada vaga, por planos de saúde para determinar o valor de um plano de acordo com cada indivíduo, dentre outros.


Esses usos têm o poder de impulsionar negócios e objetivos corporativos. Porém, para que estejam de acordo com leis e regulações a nível internacional, devem observar princípios e boas práticas éticas e de privacy by design.


Mais do que não ser discriminatório - em posição passiva -, um algoritmo deve ativamente identificar riscos jurídicos e éticos em aplicações e agir como agente mitigador nessas situações, agregando a organizações um agir moral e legal e, consequentemente, maior confiança dos consumidores e credibilidade no mercado.


Nesse sentido, o The Economist Intelligence Unit, divisão especializada em análise e pesquisa do Economist Group, publicou o relatório “Staying ahead of the curve: The business case for responsible AI” (1) reunindo uma série de perspectivas sobre os benefícios da implementação de tecnologias e sistemas de IA responsáveis para os negócios. O documento apresenta uma visão multidimensional desses impactos e ressalta a potencial vantagem comercial daqueles que vierem a adotar uma IA responsável com antecedência.


Apesar do relatório reforçar que não há uma definição universalmente aceita sobre o que seria uma IA responsável ou ética, ele expõe os principais pontos dessa discussão na atualidade. Como conjunto de valores e princípios éticos, ele apresenta um panorama geral que perpassa por: (i) transparência e explicabilidade; (ii) justiça, equidade e não discriminação; (iii) promoção do bem social e de valores humanos; (iv) mitigação de danos; (v) liberdade, autonomia e controle humano da tecnologia; (vi) responsabilidade; (vii) prestação de contas; e (viii) privacidade. (2)


Na mesma linha, a PricewaterhouseCoopers (3) sustenta que a IA será responsável por aumentar o PIB global em 14% até 2030, enquanto que, de acordo com a Workana (4) – plataforma que conecta freelancers a empresas na América Latina -, a busca por cientistas de dados cresceu 7.300% em 2020 – tendência que deve se aprofundar em 2021.


O desenvolvimento de uma IA responsável – que siga os princípios mencionados - agrega benefícios não apenas do ponto de vista ético e moral, mas traz vantagens comerciais de médio e longo prazo a organizações. Do ponto de vista do aprimoramento de serviços e produtos, práticas éticas aproximam profissionais técnicos qualificados e consumidores. Na prática, uma vez que a busca por desenvolvedores qualificados é crescente, importa às organizações se destacar nesse sentido para recrutar e manter bons talentos. Segundo o relatório do The Economist Intelligence, práticas eticamente questionáveis não estão apenas desencorajando funcionários em potencial de candidatar-se a vagas e oportunidades, como também estão os levando a perder a fé no setor, contribuindo com o chamado “techlash” - termo que define a animosidade pública e descrença em relação às grandes empresas de tecnologia. Desta forma os pioneiros na aplicação de IAs responsáveis atrairão e terão mais facilidades em manter os melhores talentos da área.


Já no que tange ao consumidor, é de alta relevância para empresas desenvolver produtos e serviços inclusivos, que tenham desempenho satisfatório em todos os perfis de usuários, garantam segurança e sejam transparentes, uma vez que esses atributos têm o poder de fidelizar clientes e gerar aumento de credibilidade da organização.


Para além do exposto, desenvolver uma IA responsável importa também pela perspectiva regulatória e de compliance. Isto é, cada vez mais regulações trazem essas demandas como pilares éticos e jurídicos, e autoridades fiscalizam e exigem o cumprimento dessas normas. Um exemplo prático disso é o princípio de Privacy by Design, incluso em diversos frameworks de privacidade e proteção de dados em todo o mundo.


Para atingir o objetivo maior de desenvolver uma IA responsável, organizações precisam ter compromisso também com a diversidade no ambiente de trabalho. Isto quer dizer que o desenvolvimento de uma IA responsável perpassa pelo debate e crivo de diversos grupos sociais e profissionais qualificados como engenheiros e cientistas da computação, mas também especialistas em ética, cientistas sociais, gerentes de fluxo de trabalho e operações, consultores e advogados. Uma das estratégias que se mostra mais eficaz na prevenção de riscos potenciais associados à IA é a contratação de funcionários com habilidades e experiências diversas.


Por esse motivo, entendendo necessidades do mercado e tendências de futuro, deve-se reunir um time de profissionais com destaque ímpar no tema de ética e inteligência artificial. As novas práticas de ética algorítmica e privacidade by design se alinham com movimentos inovadores de mercado a nível internacional e buscam agregar a organizações todos os benefícios mencionados, estimulando seus objetivos corporativos.

Eduardo Magrani é sócio do Demarest Advogados, doutor em Direito pela PUC-Rio, com validação pela Universidade Nova de Lisboa, pós-doutor pela Universidade Técnica de Munique (TUM). É presidente do Instituto Nacional de Proteção de Dados (INPD) e professor de Direito e Tecnologia e Propriedade Intelectual na FGV, IBMEC e PUC-Rio.




*Imagem: Comfreak ; CC BY.


313 visualizações0 comentário
bottom of page