Home / Nosso Blog
Leve seu marketing digital para o próximo nível com estratégias baseadas em dados e soluções inovadoras. Vamos criar algo incrível juntos!
Acompanhe semanalmente nosso canal no youtube com vídeos de marketing e performance e se inscreva-se


Raj Bhowmik, engenheiro de aprendizado de máquina da Cognizant, que alcançou 98% de automação do trabalho de mapeamento EDI, compartilha sua abordagem para permitir que os sistemas GenAI funcionem com infraestrutura legada.
Os departamentos de TI empresariais enfrentam um problema: seus dados são armazenados em repositórios incompatíveis. SAP HANA funciona junto com BigQuery e Azure SQL. Os arquivos EDI vêm em dezenas de formatos. Os dados dos clientes estão espalhados por sistemas que não se comunicam entre si. De acordo com um Relatório McKinseyembora 23% das organizações estejam ampliando a IA de agência e 39% estejam experimentando-as, a maioria falha quando confrontada com esta realidade. Raj Bhowmik, engenheiro de aprendizado de máquina da Cognizant com mestrado em aprendizado de máquina e ciência de dados, construiu sistemas GenAI que realmente funcionam nesses ambientes: um analisador EDI inteligente que alcança 98% de automação e reduz semanas de trabalho a minutos, um copiloto de dados de IA empresarial que consulta SAP HANA em linguagem natural e um sistema de análise de sentimento que melhora a eficiência do selecionador em 80%. Com dois artigos aceitos em conferências IEEE (ICNGN 2025 em Cingapura e FMLDS 2025) e experiência em julgar hackathons de IA nos EUA, ele une a pesquisa acadêmica com a implantação de produção. Esta entrevista examina a arquitetura técnica necessária para fazer os sistemas de IA funcionarem com infraestrutura corporativa legada e por que as abordagens híbridas superam as soluções LLM puras.
Raj, seu analisador de intercâmbio eletrônico de dados, alcançou 98% de automação, reduzindo semanas de trabalho para alguns minutos, gerando automaticamente mapeamentos, transformações extensíveis de linguagem de folha de estilo e linguagem de marcação eXtensible para formatos X12, EDIFACT e IDoc. O que o levou a usar uma abordagem híbrida em vez de um modelo puro de linguagem grande (LLM) ou código puro baseado em regras?
Escolhemos uma abordagem híbrida porque o trabalho de EDI situa-se na intersecção entre alta variabilidade e grandes consequências. Os componentes determinísticos fornecem comportamento previsível e testável para conformidade estrutural, enquanto um LLM ajuda na interpretação e em casos extremos onde a lógica rígida não é escalonável. A ideia orientadora é simples: manter tudo o que deve ser correto e auditável numa camada controlada e utilizar IA generativa onde acrescenta flexibilidade – sob validação rigorosa e salvaguardas humanas. Também ajuda na manutenção a longo prazo: em vez de expandir constantemente regras frágeis, podemos adaptar-nos a novos padrões de parceiros sem redesenhar todo o sistema. No geral, é um equilíbrio pragmático entre precisão, escalabilidade e governança para integrações de nível de produção.
Depois de se formar em ciência da computação em uma das principais universidades da Índia, fazer mestrado na IUB e trabalhar por quatro anos como engenheiro de software em uma empresa indiana líder de TI, o que o levou a migrar para o aprendizado de máquina e como sua formação em engenharia influencia a criação de sistemas de produção de inteligência artificial hoje?
A engenharia de software me ensinou que os modelos representam 30% dos sistemas de produção. Os outros 70% são ferramentas, tratamento de erros, lógica de fallback e integração. Quando eu estava construindo um sistema de análise de sentimentos para bate-papos entre vendedores e clientes no varejo, o modelo de aprendizado de máquina era simples. A maior parte do esforço foi para garantir sua confiabilidade na produção: tratamento de falhas na fila de mensagens, carga de banco de dados, monitoramento de desvios e degradação suave do desempenho. Os cientistas de dados costumam criar notebooks que nunca saem de seus laptops porque ignoram esses problemas. Minha formação em ciência da computação significa que penso no desempenho do banco de dados, no design da API, nos pipelines de implantação e nos modos de falha como restrições primárias, e não como considerações secundárias. Os sistemas devem funcionar na manhã de terça-feira, quando a infraestrutura estiver sobrecarregada e a implantação de alguém interromper os serviços upstream.
Você trabalha como proprietário de GenAI de ponta a ponta, desde a definição do problema até a implantação. Como essa ponte entre equipes de negócios, engenheiros de dados e partes interessadas realmente funciona quando a maioria deles não entende os recursos do LLM?
Eu atuo como um tradutor bidirecional. As equipes de negócios descrevem problemas, como tempos de resposta lentos do atendimento ao cliente ou processos demorados de integração de fornecedores. Estudo fluxos de trabalho reais para encontrar gargalos e, em seguida, determino se a IA ajudará e qual abordagem é apropriada. Nem tudo requer GenAI; às vezes soluções mais simples funcionam melhor. Quando a IA faz sentido, eu desenho a arquitetura: consultas ao banco de dados, estruturas de prompt, armazenamentos de vetores e pontos de envolvimento humano. As equipes de dados criam pipelines e os engenheiros cuidam da implantação. Para as partes interessadas, defino expectativas realistas e meço os resultados usando métricas de negócios: economia de tempo, redução de erros e aumento de produtividade. Ao apresentar demonstrações, meu objetivo é mostrar valor concreto em números, e não em terminologia impressionante. Este nível de tradução evita o excesso de promessas e a subutilização dos recursos de IA.
Estamos entrando na era dos agentes de IA. As empresas querem assistentes que possam responder perguntas e concluir tarefas em ferramentas como plataformas de dados, CRMs, sistemas de tickets e wikis internos. Se eu quisesse construir um agente de nível empresarial, que arquitetura alguém usaria para mantê-lo preciso, seguro e confiável?
Eu começaria com uma camada de orquestração de agentes que divide uma solicitação em etapas (planejar → agir → verificar) e roteia cada etapa para o sistema correto. O LLM é melhor usado para intenção entendimento e decisão, mas a execução deve acontecer por meio de aprovação conectores/ferramentas (APIs, executores SQL, serviços de fluxo de trabalho) com esquemas de entrada/saída rígidos. Em seguida, eu adicionaria proteções: verificações de permissão vinculadas à identidade do usuário, regras de política (o que o agente pode/não pode fazer) e validação que bloqueia ações arriscadas antes de serem executadas. Para maior confiabilidade, eu incluiria recuperação de fontes confiáveis, prompts/modelos testáveis e verificações automatizadas (validação de esquema, testes unitários para fluxos de trabalho críticos e alternativas para revisão humana). Por fim, eu acrescentaria observabilidade – registros, auditorias e ciclos de feedback – para que você possa medir a precisão, detectar falhas e reforçar continuamente as políticas à medida que o agente escala.
Dois artigos foram aceitos nas conferências ICNGN 2025 e FMLDS 2025, realizadas pelo IEEE em Cingapura e Los Angeles. Que questões de pesquisa que vinculam o aprendizado de máquina acadêmico e a implementação empresarial eles abordam?
Ambos os artigos exploram aplicações práticas de aprendizado de máquina em um contexto corporativo, documentando modelos que funcionam na produção, mas que não são óbvios na pesquisa teórica. Os locais acadêmicos às vezes subestimam os desafios da implementação industrial. Estas conferências, a Conferência Internacional sobre Computação Inteligente e Redes de Próxima Geração e a Conferência Internacional sobre o Futuro da Aprendizagem Automática e Ciência de Dados, atraem profissionais que enfrentam desafios semelhantes: fiabilidade, qualidade de dados e medição do impacto no mundo real. As apresentações internacionais apresentam diferentes ambientes regulatórios e padrões técnicos, que são importantes para sistemas implantados em todo o mundo.
Julgar hackathons de inteligência artificial nos Estados Unidos e revisar o conteúdo técnico de um livro. Como essas atividades influenciam seu trabalho no sistema de produção?
Julgar hackathons me permite identificar novas tendências vários meses antes de serem implementadas nas empresas – quais ferramentas as equipes escolhem, o que encontram, o que as entusiasma. Esta é uma informação prospectiva que me permite prever as necessidades das empresas. A revisão do conteúdo técnico do livro me permitiu identificar diferentes modelos arquitetônicos e aprimorar minhas habilidades de pensamento crítico no que diz respeito à documentação. Avaliar as abordagens dos outros ajuda a esclarecer as minhas. Ambas as atividades exigem a explicação de conceitos complexos para diferentes públicos: participantes do hackathon, autores e meus colegas. Esta habilidade de tradução é tão importante quanto a profundidade técnica na IA corporativa. As partes interessadas precisam entender o que você está criando e os engenheiros precisam do contexto das restrições. Treinar outras pessoas em casos de uso de IA força a codificação do que realmente funciona em vez de abordagens demonstrativas impressionantes.
O próximo passo será a inteligência artificial no campo da ecologia. Como a experiência de integração de múltiplos bancos de dados em uma empresa pode ser aplicada na solução de problemas relacionados a dados ambientais?
Os problemas ambientais estão associados a dados distribuídos e desordenados: sensores, satélites, bases de dados governamentais e medições locais. Estas são tarefas de integração semelhantes às envolvidas na integração de vários bancos de dados em uma empresa. Otimizar o consumo de energia, prever o impacto ambiental e monitorizar os ecossistemas — tudo isto requer sistemas que combinem fontes díspares em conclusões práticas. Os riscos são maiores e os ciclos de feedback são mais longos do que em aplicativos de negócios – você não pode fazer testes A/B em ecossistemas reais. Mas as competências essenciais são transferíveis: canais de dados fiáveis, confiança das partes interessadas, medição rigorosa. Estou interessado em aplicações que liguem dados ambientais e decisões políticas, de forma semelhante à forma como as capacidades técnicas e as necessidades empresariais estão actualmente ligadas. O objetivo é tornar sistemas complexos compreensíveis e utilizáveis, sejam eles bancos de dados corporativos ou fluxos de dados ambientais.
”Negócio desatualizado ele não está apenas perdendo dinheiro, mas está perdendo a chance de fazer a diferença ao mundo”
Produtor