Algoritmos compostos por inteligência artificial (IA) têm ganhado poder de influência crescente na nossa sociedade. Hoje em dia é comum vermos tal tecnologia sendo utilizada por bancos e financiadoras para decidir quem pode receber um empréstimo, por times de recursos humanos para decidir qual é o melhor candidato para determinada vaga, por planos de saúde para determinar o valor de um plano de acordo com cada indivíduo, dentre outros.
Esses usos têm o poder de impulsionar negócios e objetivos corporativos. Porém, para que estejam de acordo com leis e regulações a nível internacional, devem observar princípios e boas práticas éticas e de privacy by design.
Mais do que não ser discriminatório - em posição passiva -, um algoritmo deve ativamente identificar riscos jurídicos e éticos em aplicações e agir como agente mitigador nessas situações, agregando a organizações um agir moral e legal e, consequentemente, maior confiança dos consumidores e credibilidade no mercado.
Nesse sentido, o The Economist Intelligence Unit, divisão especializada em análise e pesquisa do Economist Group, publicou o relatório “Staying ahead of the curve: The business case for responsible AI” (1) reunindo uma série de perspectivas sobre os benefícios da implementação de tecnologias e sistemas de IA responsáveis para os negócios. O documento apresenta uma visão multidimensional desses impactos e ressalta a potencial vantagem comercial daqueles que vierem a adotar uma IA responsável com antecedência.
Apesar do relatório reforçar que não há uma definição universalmente aceita sobre o que seria uma IA responsável ou ética, ele expõe os principais pontos dessa discussão na atualidade. Como conjunto de valores e princípios éticos, ele apresenta um panorama geral que perpassa por: (i) transparência e explicabilidade; (ii) justiça, equidade e não discriminação; (iii) promoção do bem social e de valores humanos; (iv) mitigação de danos; (v) liberdade, autonomia e controle humano da tecnologia; (vi) responsabilidade; (vii) prestação de contas; e (viii) privacidade. (2)
Na mesma linha, a PricewaterhouseCoopers (3) sustenta que a IA será responsável por aumentar o PIB global em 14% até 2030, enquanto que, de acordo com a Workana (4) – plataforma que conecta freelancers a empresas na América Latina -, a busca por cientistas de dados cresceu 7.300% em 2020 – tendência que deve se aprofundar em 2021.
O desenvolvimento de uma IA responsável – que siga os princípios mencionados - agrega benefícios não apenas do ponto de vista ético e moral, mas traz vantagens comerciais de médio e longo prazo a organizações. Do ponto de vista do aprimoramento de serviços e produtos, práticas éticas aproximam profissionais técnicos qualificados e consumidores. Na prática, uma vez que a busca por desenvolvedores qualificados é crescente, importa às organizações se destacar nesse sentido para recrutar e manter bons talentos. Segundo o relatório do The Economist Intelligence, práticas eticamente questionáveis não estão apenas desencorajando funcionários em potencial de candidatar-se a vagas e oportunidades, como também estão os levando a perder a fé no setor, contribuindo com o chamado “techlash” - termo que define a animosidade pública e descrença em relação às grandes empresas de tecnologia. Desta forma os pioneiros na aplicação de IAs responsáveis atrairão e terão mais facilidades em manter os melhores talentos da área.
Já no que tange ao consumidor, é de alta relevância para empresas desenvolver produtos e serviços inclusivos, que tenham desempenho satisfatório em todos os perfis de usuários, garantam segurança e sejam transparentes, uma vez que esses atributos têm o poder de fidelizar clientes e gerar aumento de credibilidade da organização.
Para além do exposto, desenvolver uma IA responsável importa também pela perspectiva regulatória e de compliance. Isto é, cada vez mais regulações trazem essas demandas como pilares éticos e jurídicos, e autoridades fiscalizam e exigem o cumprimento dessas normas. Um exemplo prático disso é o princípio de Privacy by Design, incluso em diversos frameworks de privacidade e proteção de dados em todo o mundo.
Para atingir o objetivo maior de desenvolver uma IA responsável, organizações precisam ter compromisso também com a diversidade no ambiente de trabalho. Isto quer dizer que o desenvolvimento de uma IA responsável perpassa pelo debate e crivo de diversos grupos sociais e profissionais qualificados como engenheiros e cientistas da computação, mas também especialistas em ética, cientistas sociais, gerentes de fluxo de trabalho e operações, consultores e advogados. Uma das estratégias que se mostra mais eficaz na prevenção de riscos potenciais associados à IA é a contratação de funcionários com habilidades e experiências diversas.
Por esse motivo, entendendo necessidades do mercado e tendências de futuro, deve-se reunir um time de profissionais com destaque ímpar no tema de ética e inteligência artificial. As novas práticas de ética algorítmica e privacidade by design se alinham com movimentos inovadores de mercado a nível internacional e buscam agregar a organizações todos os benefícios mencionados, estimulando seus objetivos corporativos.
Eduardo Magrani é sócio do Demarest Advogados, doutor em Direito pela PUC-Rio, com validação pela Universidade Nova de Lisboa, pós-doutor pela Universidade Técnica de Munique (TUM). É presidente do Instituto Nacional de Proteção de Dados (INPD) e professor de Direito e Tecnologia e Propriedade Intelectual na FGV, IBMEC e PUC-Rio.
(2) http://ecocritique.free.fr/jobin2019.pdf; https://hdsr.mitpress.mit.edu/pub/l0jsh9d1/release/6; https://dash.harvard.edu/bitstream/handle/1/42160420/HLS%20White%20Paper%20Final_v3.pdf?sequence=1&isAllowed=y
(4) Disponível em: https://tiinside-com-br.cdn.ampproject.org/c/s/tiinside.com.br/13/01/2021/busca-por-cientista-de-dados-cresce-7300-e-dita-tendencia-de-alta-procura-por-profissionais-desta-area-em-2021/?amp. Acesso em: 15.01.2021.
*Imagem: Comfreak ; CC BY.
Comments