Em entrevista ao IT Forum, a executiva fala sobre a importância de times diversos para a construção de uma IA sem vieses de gênero.
Um estudo do Berkeley Haas Center for Equity, Gender and Leadership analisou 133 sistemas de IA em diferentes setores e descobriu que cerca de 44% deles apresentavam viés de gênero, e 25% exibiam viés de gênero e racial. Esses dados evidenciam a urgência de abordar a ética na Inteligência Artificial (IA), uma das pautas principais no ano do Women20 (W20), iniciativa do G20 focada em aconselhamento aos líderes de estado sobre diversidade, inclusão digital, educação e igualdade de gênero.
Para discutir a questão, o IT Forum entrevistou Camila Achutti, delegada do W20. Camila, fundadora da Mastertech e ativista pela inclusão de mulheres na tecnologia, destacou a importância de garantir que os algoritmos não agravem desigualdades já existentes. “A nossa grande luta é por uma inteligência artificial justa, transparente e ética”, afirmou. Ela sublinhou a necessidade de regulamentações que assegurem uma coleta de dados coerente e desagregada por gênero.
A executiva ressaltou que a discussão sobre IA ética, anteriormente marginal, agora é central. “Mais do que garantir acesso, temos que garantir que esses algoritmos não exacerbem ainda mais as desigualdades já existentes”, disse. Para ela, a coleta de dados precisa ser representativa e livre de vieses. “Advogamos muito sobre como garantir que a coleta de dados seja coerente, que esteja desagregada por gênero, que esteja sendo tagueada de forma correta, que temos representatividade nesses times”.
Eliminar o preconceito de gênero na IA começa com a priorização da igualdade de gênero desde a concepção dos sistemas de IA. Isso inclui a avaliação rigorosa dos dados para identificar deturpações, a utilização de dados representativos de diversas experiências de gênero e raça, e a formação de equipes de desenvolvimento mais diversas e inclusivas.
Entretanto, esse não é um trabalho fácil, já que, segundo a executiva, a tecnologia é um espelho da sociedade. “Para evitar o preconceito de gênero na IA, devemos primeiro abordar o preconceito de gênero em nossa sociedade”, afirma.
De acordo com o Global Gender Gap Report de 2023, apenas 30% das pessoas que trabalham atualmente em IA são mulheres. Este número evidencia a necessidade urgente de promover a diversidade e a inclusão no campo da inteligência artificial de modo intencional, forçando as companhias a investir em capacitação das mulheres, além de aumentar a diversidade no time.
Para isso, a representante do W20 aconselha os CIOs e líderes de tecnologia a primeiro reconhecerem e medirem os problemas de desigualdade em suas empresas. “A gente não pode atuar sobre um problema que não sabemos a dimensão”, enfatizou.
Ela sugere que as empresas realizem levantamentos para identificar disparidades, como a diferença salarial entre homens e mulheres em funções semelhantes. Segundo a executiva, é fundamental medir e compreender a composição de suas equipes.
Camila destaca que a primeira estratégia de qualquer CIO deve ser entender os números: quantas mulheres estão em sua equipe técnica? Elas ocupam cargos de liderança ou são apenas executoras? Quem está lidando com os dados e algoritmos? “Se você não for intencional nas suas escolhas, a disparidade continuará”, afirmou. Ela sugere que os CIOs trabalhem com o RH para garantir a contratação e permanência de mulheres em papéis decisores.
Para a executiva, em uma indústria de IA em rápido avanço, a falta de diversidade de gênero na seleção de dados e na tomada de decisões pode perpetuar uma profunda desigualdade na inteligência artificial nos próximos anos.
Bem-vindo a
Industria Textil e do Vestuário - Textile Industry - Ano XVI
© 2024 Criado por Textile Industry. Ativado por
Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!
Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI