Industria Textil e do Vestuário - Textile Industry - Ano XVI

Industria Textil e do Vestuário - Textile Industry - Ano XVI

IA e proteção de dados: ‘Estamos bebendo dessa água sem saber se tem veneno’

Na véspera do Dia Internacional da Proteção de Dados, conversamos com especialistas sobre como a IA pode ser segura e menos discriminatória.

IA, inteligência artificial, Dora Kaufmann, Rafael Cavalcanti, Fabio Mucci e Gisele TruzziDora Kaufmann, Rafael Cavalcanti, Fabio Mucci e Gisele Truzzi. Fotos: Divulgação

Se há poucos anos pensar que uma máquina poderia aprender sozinha parecia roteiro de filme, a Inteligência Artificial se tornou realidade sem que ao menos as pessoas se deem conta. Os bancos, por exemplo, usam a tecnologia para entender se um correntista é elegível a certo crédito e qual o valor desse montante.

E, se por um lado a IA tornou processos mais ágeis e menos burocráticos, há também uma preocupação com a privacidade e transparência – além de uma discussão ainda sem conclusões sobre os vieses discriminatórios da plataforma. Para celebrar o Dia Internacional da Proteção de Dados, comemorado amanhã (28), o IT Forum conversou com especialistas sobre as principais implicações de sistemas de IA e a privacidade dos usuários.

“Nesse sentido, temos um problema pois o artigo 20 da Lei Geral de Proteção de Dados (LGPD) diz que eu posso pedir explicação para o sistema baseado em dados. Por exemplo: eu estou participando de um processo de seleção e não sou escolhido. Eu tenho direito de pedir explicação porque que eu não fui selecionado”, pondera Dora Kaufmann, professora da PUC-SP e pesquisadora dos impactos éticos/sociais da IA.

Segundo ela, a explicação pode passar por vários elementos. “O deep learning tem uma natureza, chamada caixa preta, em que os algoritmos fazem a correlação na base de dados com uma complexidade que a cognição humana não consegue entender. Eu não consigo explicar plenamente como o sistema chegou àquela conclusão. Eu posso falar as variantes iniciais, posso fazer algumas explicações, mas não tenho como ter transparência total”, pondera.

Rafael Cavalcanti, superintendente executivo de inteligência de dados do Bradesco, explica que o objetivo e o dever de quem constrói um modelo é tratar e controlar questões técnicas, passando pelo entendimento de eliminação de vieses. Segundo ele, há dois elementos fundamentais nisso: o técnico (entender o que é possível tecnicamente para prever esses vieses conscientes e inconscientes para ter melhores decisões); e o entendimento do fenômeno que será modelado.

“A consciência do time que faz o modelo de conhecer a técnica e o processo é essencial, visto que existem questões sociais, de gênero e de diversidade que não podem influenciar de maneira equivocada. Você pode não colocar gênero na avaliação, mas existem outras avaliações relacionadas que são perigosas. Por exemplo, se eu tenho um modelo que considera um percentual de gastos em um determinado tipo de loja e essa loja tende a ser consumida por pessoas de certo gênero, ainda que o gênero não esteja enviesado, essa variável está correlacionada”, exemplifica Rafael.

Privacidade e proteção

As questões éticas, além da preocupação com a privacidade e proteção dos dados, podem trazer problemas e riscos para qualquer negócio, principalmente para a reputação da empresa. Ainda assim, Fabio Mucci, líder principal de vendas de dados, automação e sustentabilidade da IBM Brasil, cita exemplos de como a IA pode ser positiva, como no auxílio da pesquisa de vacina nos últimos dois anos e os serviços de digitalização para o cidadão brasileiro e nas consultas de bases do governo para saber quem poderia receber benefícios na pandemia.

O especialista explica que, dentro da IBM, há um projeto de pilares de confiança da IA. São perguntas para qualquer desenvolvimento e direcionamento feitos: É justo ou vai tomar decisões discriminatórias e com viés? É possível entender por que se tomou essa decisão ou é uma caixa preta? É robusto? É transparente? A IA prioriza privacidade e direito de uso dos dados?

“Um dos maiores problemas que eu vejo hoje falando das empresas que usam IA: simetria de conhecimento entre o usuário gestor e o desenvolvedor de tecnologia. Pela minha interação com o mercado, o usuário gestor que toma a decisão (seja financeira, RH, etc), geralmente não tem conhecimento sobre como essa técnica funciona, então fica difícil tomar uma decisão sobre o uso dessa técnica e levar em conta o que é necessário. Essa é a mesma simetria de conhecimento que acontece com os legisladores”, provoca Dora.

Outro ponto de atenção é na contratação de fornecedores da tecnologia. Como a empresa contratante não sabe como o sistema funciona tecnicamente, muitas vezes não é capaz de identificar o risco que existe pois nem sempre há transparência no sistema.

“Um prisma importante é entender que quando falamos de IA open, ela está aberta para o mercado e busca informação com viés ou sem viés. Quando leva para a empresa, você está falando dos seus dados, dos seus clientes, dos seus produtos. Por isso, a preocupação com a ética e com a proteção de dados se torna ainda mais relevante”, adverte Fabio.

Ter um elemento de governança e um processo interno de times que provoquem e revisem o que é feito também é muito importante, diz o superintendente do Bradesco. Quando o modelo sai, ele passa por quem fez, quem revisa e isso dá mais conforto para incorporar o sistema.

“A atividade de dados por sua essência é de diversidade. Porque se você for modelar qualquer fenômeno e todo mundo for igual, você não está modelando nada. É preciso ter diversidade de background técnico – temos economistas, físicos, matemáticos, engenheiros. E um background de diversidade entre as pessoas para criar um olhar crítico como eixo fundamental, porque nos ajuda a entender o processo”, comenta.

Governança da inteligência

Dora concorda ao falar sobre a necessidade de desenvolver uma governança de IA. Para ela, é preciso ter uma comissão de ética ou expandi-la e trazer membros que não entendam apenas sobre a tecnologia, mas sobre os impactos éticos para desenvolver modelos do que seriam as diretrizes e melhores práticas de governança.

Entre as perguntas a serem respondidas na governança, ela cita: Eu vou desenvolver ou usar um sistema? O que eu tenho que verificar? Quem eu preciso envolver? O que tenho que checar? Como eu garanto que vou mitigar os riscos? Quais implicações? Como eu incorporo as questões éticas dentro da ética que já tenho na empresa?

“A responsabilidade de construir sistemas éticos é de toda a sociedade. As pessoas têm que se familiarizar com o funcionamento e a lógica desse tecnologia, principalmente os usuários gestores. Para as empresas é mandatório que criem essa governança de IA e a sua própria reputação. E é obrigação do governo proteger a sociedade e isso tudo funciona se tiver um arcabouço. Qual será, quais são as agências que vão supervisionar é outra discussão. Mas tem que ter um arcabouço regulatório da IA para os desenvolvedores e para os usuários”, finaliza Dora.

Regulações em curso

Para Gisele Truzzi, advogada especialista em Direito Digital e CEO da Truzzi Advogados, ter a Lei Geral de Proteção de Dados (LGPD) consolidada antes de ter uma regulamentação de Inteligência Artificial é essencial, pois ao falar de IA, estamos discutindo o tratamento de dados pessoais e dados pessoais sensíveis.

“A título de informação, os dados pessoais são as informações que possibilitam identificar um indivíduo, como nome completo, RG, CPF, telefone ou e-mail. Os dados sensíveis são aqueles que, além de nos identificar, traz mais informações, a ponto de englobar dados relacionados à orientação sexual; posicionamento político, filosófico e religioso; informações de saúde; dados financeiros; perfil de compra; entre outros”, explica ela.

Esse perfilamento é costumeiramente usado em redes sociais e páginas de e-commerce para que a plataforma construía um perfil de navegação. Os cliques dados, likes, páginas de interesse, com quais pessoas e conteúdos há mais interação, são alguns dos exemplos onde plataformas podem extrair informações sobre cada indivíduo.

“Com essas informações, as empresas começam a ser capazes de criar questões preditivas em que o algoritmo aprende o perfil de compra do indivíduo e faz suposições. Quando misturamos o perfilamento de dados sensíveis, é mais sobre quem é você no seu íntimo e, se a companhia não coletar o consentimento prévio e expresso do indivíduo para essa finalidade, o tratamento de dados pessoais pode ser invasivo”, alerta Gisele.

Ou seja, enquanto a LGPD ajuda na proteção dos dados sensíveis e na privacidade do cidadão, ao falar da regulação de IA, ela colocará diretrizes e limites para que a tecnologia não extrapole a finalidade desse tratamento. Por exemplo, o caso de reconhecimento facial em voos agiliza o embarque, mas o usuário pode pensar: quais são as garantias que eu tenho que isso será usado só para essa finalidade? Os dados serão usados também em outras plataformas? E se um funcionário usar os meus dados?

A regulação da IA, inclusive, não está tão distante quanto parece. Em dezembro do ano passado, o anteprojeto de uma lei chamada Marco Legal da IA foi aprovado no Senado após uma comissão de 18 juristas desde março do mesmo ano. De acordo com Gisele, o Projeto de Lei substituiu outros três projetos sobre o mesmo assunto e é um documento com cerca de 45 artigos, princípios e regras.

“O relatório final tem mais de 900 páginas e essa proposta de lei é importante por esse contexto atual de evolução tecnológica. O objetivo principal é proteger as pessoas físicas que são diariamente impactadas pelos sistemas de IA e regular ferramentas de governança e fiscalização que podem garantir uma segurança jurídica para as pessoas e para a inovação e desenvolvimento econômico e tecnológico”, explica.

Um dos capítulos, diz Gisele, trata sobre os direitos básicos em todo e qualquer contexto em que haja interação entre máquina e ser humano. Além do princípio de informação e transparência, há o direito de contestação e interação humana. Ou seja, se houver uma dificuldade de comunicação, o indivíduo tem o direito de pedir para interagir com outro humano.

“Tem, também, um capítulo que fala de não discriminação. É um assunto muito sério e muito aberto, com muita pesquisa, mas não temos nada muito definido. Nós vemos questões discriminatórias acontecendo em plataformas  de maneira direta e indireta e isso acaba atrapalhando a privacidade e a vida das pessoas”, alerta.

Em uma seleção de RH, por exemplo, se uma pessoa preenche o currículo e coloca sua data de nascimento, dependendo do perfil que a plataforma está configurada para aprovar, pode haver discriminação etária. O mesmo pode acontecer com questões regionais: a plataforma pode ser configurada para excluir pessoas nascidas em certas regiões do Brasil.

“Isso pode acontecer e nós não sabemos como os sistemas são feitos. É como comer um bolo e não ter ideia do que ele é feito e quais as consequências para o organismo. Estamos todos bebendo dessa água, sem saber se tem veneno”, adverte Gisele.

Em outra parte do projeto, é prevista a questão da impossibilidade de desenvolvimento de tecnologia com o uso de IA que induza as pessoas a se comportarem de forma prejudicial ou que explorem a vulnerabilidade algum grupo específico.

Ao ser questionada quando esse projeto poderia estar em vigor, Gisele diz não ter como prever. “Entre o anteprojeto e a sanção da LGPD foram entre oito e dez anos. Eu acredito que essa questão da IA, até por conta desse desenvolvimento tecnológico desenfreado, será mais acelerado. Eu acredito que eles vão correr com isso o quanto antes. Eu acho que a gente não vai precisar esperar tudo isso para ter uma lei de regulação da IA, mas não vai ser em seis meses. Espero que isso saia nos próximos três ou quatro anos.”

Laura Martins

https://itforum.com.br/noticias/ia-e-protecao-de-dados-estamos-todo...

Para participar de nossa Rede Têxtil e do Vestuário - CLIQUE AQUI

Exibições: 28

Comentar

Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!

Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI

© 2024   Criado por Textile Industry.   Ativado por

Badges  |  Relatar um incidente  |  Termos de serviço