
Entre dados e decisões: por que os profissionais por trás da IA são tão importantes quanto o código
O sucesso da IA depende dos profissionais que a constroem. Este artigo explora como escolhas de dados e governança impactam diretamente os algoritmos, influenciando a ética e a história.
A corrida pela inteligência artificial de ponta é intensa. Empresas investem bilhões para criar modelos cada vez mais sofisticados.
Mas um caso recente, o do Gemini do Google, nos lembrou de algo importante: a IA não é uma tecnologia neutra. Ela é um reflexo das escolhas humanas, dos dados que a alimentam e dos valores de quem a constrói.
A história do Gemini, que acabou gerando imagens historicamente imprecisas e preconceituosas, reacendeu o debate sobre a ética na tecnologia.
Ela nos força a olhar para além do código e focar nos profissionais que moldam os algoritmos. Quem programa também programa valores — e, com eles, impactos significativos na sociedade.
O que aconteceu?
A polêmica começou quando o Gemini (Google) gerou imagens historicamente irreais, como soldados nazistas de diversas etnias, em uma tentativa de promover a diversidade e evitar vieses raciais.
O resultado foi um erro grave de contexto e a suspensão do recurso de geração de imagens.
O dilema é claro: a intenção de ser inclusivo, algo louvável, esbarrou em uma falha de governança e curadoria de dados.
A tecnologia, ao tentar corrigir um problema (o viés racial), criou outro (a distorção histórica). Essa falha não foi apenas técnica; foi uma falha humana na definição de limites e na aplicação de filtros.
Isso nos mostra que o caminho para a mitigação de vieses é complexo e não pode ser resolvido com soluções simplistas.
Não basta apenas "filtrar" o viés; é preciso entender como e por que ele se manifesta.
Quem escolhe os dados, molda a visão de mundo da IA
A IA é tão boa quanto os dados com os quais ela é treinada. Se um conjunto de dados reflete preconceitos sociais, a IA irá absorvê-los e replicá-los. A neutralidade, portanto, é uma ilusão que precisa ser ativamente combatida.
A pesquisadora Joy Buolamwini, no documentário "Coded Bias", demonstrou como sistemas de reconhecimento facial, treinados em conjuntos de dados majoritariamente de pessoas brancas, cometiam mais erros ao identificar mulheres e pessoas de pele mais escura.
Isso mostra que a sub-representação pode levar a algoritmos que simplesmente não "enxergam" certos grupos, criando uma tecnologia que funciona para alguns, mas falha para outros.
O oposto também é um problema: usar dados que são representativos da realidade pode, na verdade, reforçar preconceitos sistêmicos já existentes.
Por isso, a composição dos profissionais por trás da IA e fazendo a curadoria dos conteúdos por ela gerados é bastante importante.
Uma equipe diversa em termos de background, cultura e crítica é fundamental para questionar os dados, os filtros e as métricas. É essa diversidade que ajuda a identificar vieses que uma equipe homogênea poderia ignorar.

A importância do fator humano na IA se reflete na crescente disputa por talentos especializados
A importância do fator humano na IA se reflete na crescente disputa por talentos especializados.
A notícia de que a Meta estaria oferecendo propostas milionárias para atrair profissionais da OpenAI não é apenas sobre contratar engenheiros de software; é sobre adquirir o conhecimento e a experiência para construir a próxima geração de IA de forma responsável.
Empresas como a Scale AI, que se especializou na organização e rotulagem de dados para treinar modelos, demonstram que o poder da IA começa muito antes do código ser escrito.
A forma como os dados são preparados e as regras que definem o que é certo e o que é errado são o verdadeiro poder por trás da construção algorítmica.
Esses profissionais não apenas constroem produtos, mas definem os limites, os padrões e as responsabilidades que a tecnologia terá na sociedade.
Governança e auditoria: como criar algoritmos responsáveis
Para garantir que a IA seja uma força para o bem, é essencial implementar uma governança algorítmica robusta.
Modelos como o NIST AI Risk Management Framework e o AI Act europeu oferecem diretrizes valiosas. As empresas devem adotar práticas como:
- Auditorias de diversidade histórica: revisar os dados para garantir que não haja apagamentos culturais ou distorções.
- Testes de coerência temporal e cultural: avaliar se a IA consegue lidar com diferentes contextos sem gerar resultados irrealistas.
- Revisão ética contínua: um comitê de especialistas deve supervisionar os critérios de filtro e geração, garantindo que as escolhas não criem novos problemas.
A construção de uma IA ética, justa e responsável começa com a consciência de que a tecnologia não é neutra.
Requer o compromisso de ter as pessoas certas, com as intenções certas e as ferramentas de governança certas, em cada etapa do processo.
Sua empresa está investindo em IA. Mas será que ela está investindo nas pessoas que garantirão que essa IA seja responsável?
A tecnologia de amanhã se constrói hoje, com a nossa atenção aos detalhes, aos dados e, acima de tudo, às pessoas.