
Meu papel
Senior Product
Designer
Time
Product Manager
Back End Engineer
2 Front End Engineers
Sobre
Dixa é uma plataforma de atendimento ao cliente (B2B/SaaS) que permite às empresas interagir com seus clientes em diversos canais, como telefone, e-mail, social media e chat.
Visão geral do projeto
O Dixa AI Co-Pilot é uma iniciativa focada em potencializar agentes de atendimento ao cliente com o apoio de IA. Nosso time teve como objetivo principal melhorar a eficiência dos agentes, impactando métricas-chave como Average Handle Time (AHT), First Contact Resolution (FCR), Net Promoter Score (NPS) e aumentando o engajamento nas interações de suporte.
Utilizando uma abordagem de discovery e delivery contínuos, introduzimos funcionalidades como resumos de conversas (summaries), ferramentas de tradução e melhorias de resposta (improve reply). Esse processo iterativo nos permitiu adaptar rapidamente e refinar a experiência com base no uso real.
O projeto resultou em uma redução de 39% no AHT, além de um aumento constante na adoção das funcionalidades e feedbacks positivos ao longo de diversas iterações.
Contexto
Introdução
Diante da crescente competitividade no cenário emergente de IA, a Dixa reconheceu a necessidade de adotar essa tecnologia para manter sua liderança no mercado. Esse projeto foi iniciado com o objetivo de reforçar a competitividade da empresa e aproveitar o potencial da IA para transformar o suporte ao cliente. À medida que nossa equipe foi ganhando familiaridade com o tema, o impacto que a IA pode ter nesse mercado tornou-se cada vez mais evidente.
Essa percepção elevou o projeto a uma prioridade estratégica, com o objetivo de fortalecer a posição competitiva da Dixa. Dada a sua importância, o desenvolvimento e a implementação rápidos das ferramentas baseadas em IA foram essenciais para permitir aprendizado e moldar o futuro da empresa com foco em IA.
Processo de design
Prazo curto, grandes ambições
Como IA era uma área relativamente nova para nós, começamos com uma base sólida de feedbacks e insights dos usuários, os quais já tinhamos de outros projetos. Essas informações guiaram nossos esforços iniciais de desenvolvimento. Dada a urgência em aproveitar o momento da IA, priorizamos funcionalidades “seguras”, mas com alto potencial de impacto, capazes de entregar valor imediato e gerar retorno em forma de feedbacks reais.
Nossa hipótese inicial para orientar o projeto foi:
Se focarmos em apoiar os agentes em seus fluxos de trabalho diários, ajudando-os a executar suas tarefas de forma mais eficaz, eficiente e com o suporte da automação, conseguiremos não apenas estabelecer uma base sólida para a integração de IA na plataforma, como também identificar oportunidades valiosas para evoluções futuras impulsionadas por IA.
Primeiro experimento
Nosso primeiro experimento foi a funcionalidade de resumo de conversas (summaries). Ela foi criada para condensar os tickets, permitindo que os agentes entendessem rapidamente o contexto da conversa. A escolha foi baseada em alguns principais fatores:
Viabilidade técnica
A sumarização foi escolhida como experimento inicial por ser tecnicamente viável, de fácil implementação e rápida validação.
Insights de pesquisas anteriores
Estudos prévios já haviam apontado que agentes enfrentavam dificuldades com o tempo de leitura necessário para entender cada ticket.
Dor do usuário abordada
Um dos obstáculos para alcançar bons resultados em métricas como AHT (Average Handle Time) era justamente a necessidade de ler a conversa inteira para entender o que estava acontecendo.



Implementação da funcionalidade e feedback

Com a boa recepção dessa funcionalidade, aplicamos a mesma abordagem iterativa para expandir a iniciativa, que passou a se chamar “Agent Co-Pilot”, uma suíte de ferramentas com IA projetadas para apoiar agentes no seu trabalho diário.
O processo, baseado nos princípios do Lean Design, seguindo um método de discovery e delivery contínuos. Funcionalidades como tradução, sumarização e correção de texto foram priorizadas por seu impacto direto em métricas como tempo de atendimento, qualidade da escrita e resolução de problemas, todas desenvolvidas com base em ciclos rápidos de feedback com stakeholders internos e externos.
Nosso processo: projetando por meio da iteração

1.
Ideation & prototyping
Com a ajuda do design system da Dixa, trabalhei nas primeiras ideias do projeto. Por meio de design critiques e iterações, refinamos a solução, lidando com limitações da plataforma, como a interface carregada do agente e a otimização para telas pequenas. Meu foco foi garantir que os novos recursos não atrapalhassem a experiência atual do usuário.
As decisões de design foram guiadas por princípios-chave: garantir que a interface funcionasse bem em diferentes tamanhos de tela, evitar adicionar complexidade a uma página já sobrecarregada e tornar os novos recursos fáceis de usar e rápidos de acessar.
2.
Feedback (interno)
Testes com usuários foram realizados com agentes de suporte da Dixa, cujas interações diárias forneceram insights valiosos que ajudaram a moldar as soluções finais. O feedback de designers, PMs e desenvolvedores também teve um papel fundamental no refinamento do produto.
3.
Go live
Um grupo de 4 a 5 clientes teve acesso antecipado à versão Beta para monitorar o desempenho e fornecer feedback direto. Esse número cresceu a cada nova iteração.
4.
Feedback (live)
Diversos canais de feedback foram criados para manter um diálogo contínuo com team leads e agentes. Como entrevistas diretas eram difíceis de organizar, também priorizei a criação de pesquisas rápidas para coletar insights essenciais de forma eficiente, tanto quantitativos quanto qualitativos.

Soluções e experimentos
Design, iterar, melhorar & repetir
Estes são alguns exemplos dos designs criados, todos com o suporte de LLMs. Abaixo, apresento as versões iniciais ao lado das principais melhorias feitas ao longo do processo. Cada iteração, seja grande ou pequena, foi testada e refinada com base nas etapas anteriores, ajudando a moldar a experiência ideal do usuário e servindo de base para backlog futuro.
Summaries
Após o lançamento, alguns agentes relataram que os resumos eram longos demais ou difíceis de escanear, e expressaram preferência por conteúdos mais objetivos e acionáveis. Em resposta, iniciamos um novo ciclo de iteração com base nesse feedback.
Reestruturamos os resumos para destacar apenas os elementos essenciais:
Motivo do contato
Solução fornecida
Resolução final (quando aplicável)
Essa mudança em direção a maior clareza e concisão tornou os resumos mais fáceis de confiar e utilizar , percepção confirmada por feedbacks qualitativos positivos de agentes de diferentes equipes.

Tradutor
Esse recurso se mostrou o mais impactante e valioso para os agentes de atendimento, como demonstrado por métricas qualitativas e quantitativas. Rapidamente se tornou o foco central dos nossos esforços dali em diante.


Feedback de agentes:
A tradução é eficaz, muitas vezes melhor que o Google Tradutor.
Em alguns casos, é difícil saber qual idioma o usuário está usando.
Traduzir uma conversa inteira pode ser frustrante devido à necessidade de abrir o modal repetidamente.
Novos experimentos com base em feedback:
1º experimento: Introduzimos um botão de “Tradução rápida para o idioma da conversa”, que traduz automaticamente a resposta para o idioma da conversa. A adoção foi de 70% em comparação com a versão anterior.
2º experimento: Movemos o botão para fora do menu, facilitando o acesso e diminuindo o número de cliques. Isso resultou em uma adoção ainda maior, um aumento de 62% em relação ao experimento anterior.
3º experimento: Permitimos que os agentes fixassem suas ferramentas favoritas diretamente na área de resposta, aumentando a personalização e eficiência.

Improve Reply
Essa opção foi criada para ajudar os agentes a refinar suas respostas ou ajustar o tom das conversas. A feature foi bem recebida, com bons indicadores de uso, mas alguns feedbacks apontaram duas importantes áreas de melhoria.


Feedback de agentes:
Fácil de usar. Os tons Formal e Amigável foram os mais adotados, somando mais de 60% do uso.
Em alguns casos, o tom era percebido como rígido demais, excessivamente formal ou excessivamente informal, sem liberdade para adaptar.
Mesmo testando diferentes variações, algumas empresas tinham dificuldade em alcançar o tom ideal, por conta de tom de voz/branding muito específicas.
Experimento: Campo aberto para solicitar alterações à IA.
Feedback: Apesar da opção de campo aberto, os resultados foram abaixo do esperado, já que muitos agentes não tinham familiaridade para criar prompts eficazes.
Novo experimento: Writing style guide
Para resolver isso, introduzimos uma funcionalidade de guia de estilo de escrita, que permitia aos líderes de atendimento configurar prompts pré-definidos dentro da ferramenta Improve Reply.
Nossa hipótese: ao permitir que os líderes definissem previamente o tom e o estilo da comunicação, os agentes conseguiriam refinar suas respostas de forma mais rápida, consistente e alinhada à voz da marca.
Essa solução ofereceu às equipes mais controle sobre a qualidade da comunicação e garantiu que as respostas refletissem corretamente o tom desejado da empresa.
Feedback:
Os líderes de CS reagiram de forma positiva e começaram a adotar a funcionalidade. Apesar do bom potencial, ainda havia espaço para melhorar a clareza e a eficácia dos prompts, tornando a evolução dessa funcionalidade um trabalho contínuo.

Continuous discovery
À medida que o projeto amadureceu, seguimos com nossos esforços de discovery e delivery contínuos, aprofundando também a exploração de oportunidades de IA junto aos clientes. Por meio de entrevistas e colaboração próxima com stakeholders, incluindo clientes, líderes de equipe e agentes, identificamos pontos de dor nos fluxos de trabalho diários, levantamos necessidades relacionadas à IA e construímos um backlog focado em valor.
Entre as oportunidades que surgiram, destacaram-se a automação de respostas e uma integração mais robusta com a base de conhecimento. Compartilhamos possíveis soluções e as priorizamos de forma colaborativa, garantindo alinhamento com as necessidades reais dos usuários.
Growth
Espaço para crescer
Apesar de o Co-Pilot ter agregado valor à plataforma, ele enfrentou desafios de adoção e engajamento. Mesmo com acesso amplo, o uso de certas funcionalidades variava entre empresas, o que revelou oportunidades de melhoria.
Principais observações incluíram:
Falta de onboarding estruturado: muitas empresas ativaram o Co-Pilot sem uma introdução clara aos agentes, resultando em uso inconsistente.
Ceticismo em relação à IA: alguns agentes hesitavam em confiar na IA, em parte devido a alucinações ocasionais do modelo.
Baixo conhecimento de funcionalidades: muitos agentes não conheciam toda a gama de recursos disponíveis no Co-Pilot.
Também identificamos uma lacuna na estratégia de divulgação desses recursos, já que o crescimento do Co-Pilot dependia principalmente de apresentações de vendas, e não da adoção orgânica.
Iniciativas
Para aumentar o engajamento com o Co-Pilot, partimos da hipótese de que oferecer mais formas de comunicar os recursos aos clientes seria essencial.
Try Before You Buy: oferecemos um teste de 30 dias, permitindo que os agentes explorassem o Co-Pilot e conhecessem seus benefícios. Isso também ajudou a gerar leads para o time de vendas.
Comunicação direcionada: propus o uso de modais e e-mails para líderes e agentes, destacando as vantagens do Co-Pilot, incentivando o uso e oferecendo dicas.
Onboarding: reconhecendo a necessidade de um onboarding mais eficiente, defendi a adoção de orientações dentro do app. Exploramos ferramentas de terceiros para viabilizar isso sem exigir interação humana ou grandes esforços de desenvolvimento.


Impacto
Feedbacks e resultados
O projeto Co-Pilot se tornou um complemento essencial para a Dixa, contribuindo significativamente para novos contratos e parcerias. Embora alguns recursos sejam mais populares que outros entre os clientes, o valor do Co-Pilot como um conjunto completo de ferramentas é claro. Não existe uma única métrica universal, pois cada cliente tem necessidades e percepções diferentes, mas vários relataram benefícios relevantes por meio de feedbacks.
Suporte multilíngue otimizado
O recurso de tradução aumentou a agilidade dos agentes, reduzindo a necessidade de contratações multilíngues e melhorando o suporte para diferentes idiomas.
Redução de 39% no AHT
Ao aumentar a agilidade dos agentes, o Co-Pilot ajudou a reduzir o Tempo Médio de Atendimento em até 39%, com algumas empresas registrando queda de 5:45 para 3:30 minutos.
Vendas orgânicas e reconhecimento do Co-Pilot
Após o lançamento da página “Try Before You Buy”, as licenças do Co-Pilot passaram a ser vendidas de forma mais orgânica, demonstrando potencial de crescimento futuro.