Entre dados e decisões: por que os profissionais por trás da IA são tão importantes quanto o código

Entre dados e decisões: por que os profissionais por trás da IA são tão importantes quanto o código

O sucesso da IA depende dos profissionais que a constroem. Este artigo explora como escolhas de dados e governança impactam diretamente os algoritmos, influenciando a ética e a história.

A corrida pela inteligência artificial de ponta é intensa. Empresas investem bilhões para criar modelos cada vez mais sofisticados.

Mas um caso recente, o do Gemini do Google, nos lembrou de algo importante: a IA não é uma tecnologia neutra. Ela é um reflexo das escolhas humanas, dos dados que a alimentam e dos valores de quem a constrói.

A história do Gemini, que acabou gerando imagens historicamente imprecisas e preconceituosas, reacendeu o debate sobre a ética na tecnologia.

Ela nos força a olhar para além do código e focar nos profissionais que moldam os algoritmos. Quem programa também programa valores — e, com eles, impactos significativos na sociedade.

O que aconteceu?

A polêmica começou quando o Gemini (Google) gerou imagens historicamente irreais, como soldados nazistas de diversas etnias, em uma tentativa de promover a diversidade e evitar vieses raciais.

O resultado foi um erro grave de contexto e a suspensão do recurso de geração de imagens.

O dilema é claro: a intenção de ser inclusivo, algo louvável, esbarrou em uma falha de governança e curadoria de dados.

A tecnologia, ao tentar corrigir um problema (o viés racial), criou outro (a distorção histórica). Essa falha não foi apenas técnica; foi uma falha humana na definição de limites e na aplicação de filtros.

Isso nos mostra que o caminho para a mitigação de vieses é complexo e não pode ser resolvido com soluções simplistas.

Não basta apenas "filtrar" o viés; é preciso entender como e por que ele se manifesta.

Quem escolhe os dados, molda a visão de mundo da IA

A IA é tão boa quanto os dados com os quais ela é treinada. Se um conjunto de dados reflete preconceitos sociais, a IA irá absorvê-los e replicá-los. A neutralidade, portanto, é uma ilusão que precisa ser ativamente combatida.

A pesquisadora Joy Buolamwini, no documentário "Coded Bias", demonstrou como sistemas de reconhecimento facial, treinados em conjuntos de dados majoritariamente de pessoas brancas, cometiam mais erros ao identificar mulheres e pessoas de pele mais escura.

Isso mostra que a sub-representação pode levar a algoritmos que simplesmente não "enxergam" certos grupos, criando uma tecnologia que funciona para alguns, mas falha para outros.

O oposto também é um problema: usar dados que são representativos da realidade pode, na verdade, reforçar preconceitos sistêmicos já existentes.

Por isso, a composição dos profissionais por trás da IA e fazendo a curadoria dos conteúdos por ela gerados é bastante importante.

Uma equipe diversa em termos de background, cultura e crítica é fundamental para questionar os dados, os filtros e as métricas. É essa diversidade que ajuda a identificar vieses que uma equipe homogênea poderia ignorar.

A importância do fator humano na IA se reflete na crescente disputa por talentos especializados

A importância do fator humano na IA se reflete na crescente disputa por talentos especializados.

A notícia de que a Meta estaria oferecendo propostas milionárias para atrair profissionais da OpenAI não é apenas sobre contratar engenheiros de software; é sobre adquirir o conhecimento e a experiência para construir a próxima geração de IA de forma responsável.

Empresas como a Scale AI, que se especializou na organização e rotulagem de dados para treinar modelos, demonstram que o poder da IA começa muito antes do código ser escrito.

A forma como os dados são preparados e as regras que definem o que é certo e o que é errado são o verdadeiro poder por trás da construção algorítmica.

Esses profissionais não apenas constroem produtos, mas definem os limites, os padrões e as responsabilidades que a tecnologia terá na sociedade.

Governança e auditoria: como criar algoritmos responsáveis

Para garantir que a IA seja uma força para o bem, é essencial implementar uma governança algorítmica robusta.

Modelos como o NIST AI Risk Management Framework e o AI Act europeu oferecem diretrizes valiosas. As empresas devem adotar práticas como:

  • Auditorias de diversidade histórica: revisar os dados para garantir que não haja apagamentos culturais ou distorções.
  • Testes de coerência temporal e cultural: avaliar se a IA consegue lidar com diferentes contextos sem gerar resultados irrealistas.
  • Revisão ética contínua: um comitê de especialistas deve supervisionar os critérios de filtro e geração, garantindo que as escolhas não criem novos problemas.

A construção de uma IA ética, justa e responsável começa com a consciência de que a tecnologia não é neutra.

Requer o compromisso de ter as pessoas certas, com as intenções certas e as ferramentas de governança certas, em cada etapa do processo.

Sua empresa está investindo em IA. Mas será que ela está investindo nas pessoas que garantirão que essa IA seja responsável?

A tecnologia de amanhã se constrói hoje, com a nossa atenção aos detalhes, aos dados e, acima de tudo, às pessoas.

Victoria Linard
Autor(a)

Victoria Linard

Acompanhe as últimas tendências sobre o mundo tech e dicas de Atendimento Digital com a nossa newsletter.