Meu papel

Senior Product

Designer

Time

Product Manager

Back End Engineer

2 Front End Engineers

Sobre

Dixa é uma plataforma de atendimento ao cliente (B2B/SaaS) que permite às empresas interagir com seus clientes em diversos canais, como telefone, e-mail, social media e chat.

Visão geral do projeto

O Dixa AI Co-Pilot é uma iniciativa focada em potencializar agentes de atendimento ao cliente com o apoio de IA. Nosso time teve como objetivo principal melhorar a eficiência dos agentes, impactando métricas-chave como Average Handle Time (AHT), First Contact Resolution (FCR), Net Promoter Score (NPS) e aumentando o engajamento nas interações de suporte.


Utilizando uma abordagem de discovery e delivery contínuos, introduzimos funcionalidades como resumos de conversas (summaries), ferramentas de tradução e melhorias de resposta (improve reply). Esse processo iterativo nos permitiu adaptar rapidamente e refinar a experiência com base no uso real.


O projeto resultou em uma redução de 39% no AHT, além de um aumento constante na adoção das funcionalidades e feedbacks positivos ao longo de diversas iterações.

Contexto

Introdução

Diante da crescente competitividade no cenário emergente de IA, a Dixa reconheceu a necessidade de adotar essa tecnologia para manter sua liderança no mercado. Esse projeto foi iniciado com o objetivo de reforçar a competitividade da empresa e aproveitar o potencial da IA para transformar o suporte ao cliente. À medida que nossa equipe foi ganhando familiaridade com o tema, o impacto que a IA pode ter nesse mercado tornou-se cada vez mais evidente.


Essa percepção elevou o projeto a uma prioridade estratégica, com o objetivo de fortalecer a posição competitiva da Dixa. Dada a sua importância, o desenvolvimento e a implementação rápidos das ferramentas baseadas em IA foram essenciais para permitir aprendizado e moldar o futuro da empresa com foco em IA.

Processo de design

Prazo curto, grandes ambições

Como IA era uma área relativamente nova para nós, começamos com uma base sólida de feedbacks e insights dos usuários, os quais já tinhamos de outros projetos. Essas informações guiaram nossos esforços iniciais de desenvolvimento. Dada a urgência em aproveitar o momento da IA, priorizamos funcionalidades “seguras”, mas com alto potencial de impacto, capazes de entregar valor imediato e gerar retorno em forma de feedbacks reais.


Nossa hipótese inicial para orientar o projeto foi:

Se focarmos em apoiar os agentes em seus fluxos de trabalho diários, ajudando-os a executar suas tarefas de forma mais eficaz, eficiente e com o suporte da automação, conseguiremos não apenas estabelecer uma base sólida para a integração de IA na plataforma, como também identificar oportunidades valiosas para evoluções futuras impulsionadas por IA.

Primeiro experimento

Nosso primeiro experimento foi a funcionalidade de resumo de conversas (summaries). Ela foi criada para condensar os tickets, permitindo que os agentes entendessem rapidamente o contexto da conversa. A escolha foi baseada em alguns principais fatores:

Viabilidade técnica

A sumarização foi escolhida como experimento inicial por ser tecnicamente viável, de fácil implementação e rápida validação.

Insights de pesquisas anteriores

Estudos prévios já haviam apontado que agentes enfrentavam dificuldades com o tempo de leitura necessário para entender cada ticket.

Dor do usuário abordada

Um dos obstáculos para alcançar bons resultados em métricas como AHT (Average Handle Time) era justamente a necessidade de ler a conversa inteira para entender o que estava acontecendo.

Implementação da funcionalidade e feedback

Com a boa recepção dessa funcionalidade, aplicamos a mesma abordagem iterativa para expandir a iniciativa, que passou a se chamar “Agent Co-Pilot”, uma suíte de ferramentas com IA projetadas para apoiar agentes no seu trabalho diário.


O processo, baseado nos princípios do Lean Design, seguindo um método de discovery e delivery contínuos. Funcionalidades como tradução, sumarização e correção de texto foram priorizadas por seu impacto direto em métricas como tempo de atendimento, qualidade da escrita e resolução de problemas, todas desenvolvidas com base em ciclos rápidos de feedback com stakeholders internos e externos.

Nosso processo: projetando por meio da iteração

1.

Ideation & prototyping

Com a ajuda do design system da Dixa, trabalhei nas primeiras ideias do projeto. Por meio de design critiques e iterações, refinamos a solução, lidando com limitações da plataforma, como a interface carregada do agente e a otimização para telas pequenas. Meu foco foi garantir que os novos recursos não atrapalhassem a experiência atual do usuário.


As decisões de design foram guiadas por princípios-chave: garantir que a interface funcionasse bem em diferentes tamanhos de tela, evitar adicionar complexidade a uma página já sobrecarregada e tornar os novos recursos fáceis de usar e rápidos de acessar.

2.

Feedback (interno)

Testes com usuários foram realizados com agentes de suporte da Dixa, cujas interações diárias forneceram insights valiosos que ajudaram a moldar as soluções finais. O feedback de designers, PMs e desenvolvedores também teve um papel fundamental no refinamento do produto.

3.

Go live

Um grupo de 4 a 5 clientes teve acesso antecipado à versão Beta para monitorar o desempenho e fornecer feedback direto. Esse número cresceu a cada nova iteração.

4.

Feedback (live)

Diversos canais de feedback foram criados para manter um diálogo contínuo com team leads e agentes. Como entrevistas diretas eram difíceis de organizar, também priorizei a criação de pesquisas rápidas para coletar insights essenciais de forma eficiente, tanto quantitativos quanto qualitativos.

Soluções e experimentos

Design, iterar, melhorar & repetir

Estes são alguns exemplos dos designs criados, todos com o suporte de LLMs. Abaixo, apresento as versões iniciais ao lado das principais melhorias feitas ao longo do processo. Cada iteração, seja grande ou pequena, foi testada e refinada com base nas etapas anteriores, ajudando a moldar a experiência ideal do usuário e servindo de base para backlog futuro.

Summaries

Após o lançamento, alguns agentes relataram que os resumos eram longos demais ou difíceis de escanear, e expressaram preferência por conteúdos mais objetivos e acionáveis. Em resposta, iniciamos um novo ciclo de iteração com base nesse feedback.


Reestruturamos os resumos para destacar apenas os elementos essenciais:


  • Motivo do contato

  • Solução fornecida

  • Resolução final (quando aplicável)


Essa mudança em direção a maior clareza e concisão tornou os resumos mais fáceis de confiar e utilizar , percepção confirmada por feedbacks qualitativos positivos de agentes de diferentes equipes.

Tradutor

Esse recurso se mostrou o mais impactante e valioso para os agentes de atendimento, como demonstrado por métricas qualitativas e quantitativas. Rapidamente se tornou o foco central dos nossos esforços dali em diante.

Feedback de agentes:

  • A tradução é eficaz, muitas vezes melhor que o Google Tradutor.

  • Em alguns casos, é difícil saber qual idioma o usuário está usando.

  • Traduzir uma conversa inteira pode ser frustrante devido à necessidade de abrir o modal repetidamente.



Novos experimentos com base em feedback:

1º experimento: Introduzimos um botão de “Tradução rápida para o idioma da conversa”, que traduz automaticamente a resposta para o idioma da conversa. A adoção foi de 70% em comparação com a versão anterior.

2º experimento: Movemos o botão para fora do menu, facilitando o acesso e diminuindo o número de cliques. Isso resultou em uma adoção ainda maior, um aumento de 62% em relação ao experimento anterior.

3º experimento: Permitimos que os agentes fixassem suas ferramentas favoritas diretamente na área de resposta, aumentando a personalização e eficiência.

Improve Reply

Essa opção foi criada para ajudar os agentes a refinar suas respostas ou ajustar o tom das conversas. A feature foi bem recebida, com bons indicadores de uso, mas alguns feedbacks apontaram duas importantes áreas de melhoria.

Feedback de agentes:

  • Fácil de usar. Os tons Formal e Amigável foram os mais adotados, somando mais de 60% do uso.

  • Em alguns casos, o tom era percebido como rígido demais, excessivamente formal ou excessivamente informal, sem liberdade para adaptar.

  • Mesmo testando diferentes variações, algumas empresas tinham dificuldade em alcançar o tom ideal, por conta de tom de voz/branding muito específicas.


Experimento: Campo aberto para solicitar alterações à IA.


Feedback: Apesar da opção de campo aberto, os resultados foram abaixo do esperado, já que muitos agentes não tinham familiaridade para criar prompts eficazes.

Novo experimento: Writing style guide

Para resolver isso, introduzimos uma funcionalidade de guia de estilo de escrita, que permitia aos líderes de atendimento configurar prompts pré-definidos dentro da ferramenta Improve Reply.


Nossa hipótese: ao permitir que os líderes definissem previamente o tom e o estilo da comunicação, os agentes conseguiriam refinar suas respostas de forma mais rápida, consistente e alinhada à voz da marca.


Essa solução ofereceu às equipes mais controle sobre a qualidade da comunicação e garantiu que as respostas refletissem corretamente o tom desejado da empresa.


Feedback:

Os líderes de CS reagiram de forma positiva e começaram a adotar a funcionalidade. Apesar do bom potencial, ainda havia espaço para melhorar a clareza e a eficácia dos prompts, tornando a evolução dessa funcionalidade um trabalho contínuo.

Continuous discovery

À medida que o projeto amadureceu, seguimos com nossos esforços de discovery e delivery contínuos, aprofundando também a exploração de oportunidades de IA junto aos clientes. Por meio de entrevistas e colaboração próxima com stakeholders, incluindo clientes, líderes de equipe e agentes, identificamos pontos de dor nos fluxos de trabalho diários, levantamos necessidades relacionadas à IA e construímos um backlog focado em valor.


Entre as oportunidades que surgiram, destacaram-se a automação de respostas e uma integração mais robusta com a base de conhecimento. Compartilhamos possíveis soluções e as priorizamos de forma colaborativa, garantindo alinhamento com as necessidades reais dos usuários.

Growth

Espaço para crescer

Apesar de o Co-Pilot ter agregado valor à plataforma, ele enfrentou desafios de adoção e engajamento. Mesmo com acesso amplo, o uso de certas funcionalidades variava entre empresas, o que revelou oportunidades de melhoria.


Principais observações incluíram:


  • Falta de onboarding estruturado: muitas empresas ativaram o Co-Pilot sem uma introdução clara aos agentes, resultando em uso inconsistente.

  • Ceticismo em relação à IA: alguns agentes hesitavam em confiar na IA, em parte devido a alucinações ocasionais do modelo.

  • Baixo conhecimento de funcionalidades: muitos agentes não conheciam toda a gama de recursos disponíveis no Co-Pilot.



Também identificamos uma lacuna na estratégia de divulgação desses recursos, já que o crescimento do Co-Pilot dependia principalmente de apresentações de vendas, e não da adoção orgânica.

Iniciativas

Para aumentar o engajamento com o Co-Pilot, partimos da hipótese de que oferecer mais formas de comunicar os recursos aos clientes seria essencial.


  • Try Before You Buy: oferecemos um teste de 30 dias, permitindo que os agentes explorassem o Co-Pilot e conhecessem seus benefícios. Isso também ajudou a gerar leads para o time de vendas.

  • Comunicação direcionada: propus o uso de modais e e-mails para líderes e agentes, destacando as vantagens do Co-Pilot, incentivando o uso e oferecendo dicas.

  • Onboarding: reconhecendo a necessidade de um onboarding mais eficiente, defendi a adoção de orientações dentro do app. Exploramos ferramentas de terceiros para viabilizar isso sem exigir interação humana ou grandes esforços de desenvolvimento.

Impacto

Feedbacks e resultados

O projeto Co-Pilot se tornou um complemento essencial para a Dixa, contribuindo significativamente para novos contratos e parcerias. Embora alguns recursos sejam mais populares que outros entre os clientes, o valor do Co-Pilot como um conjunto completo de ferramentas é claro. Não existe uma única métrica universal, pois cada cliente tem necessidades e percepções diferentes, mas vários relataram benefícios relevantes por meio de feedbacks.

Suporte multilíngue otimizado

O recurso de tradução aumentou a agilidade dos agentes, reduzindo a necessidade de contratações multilíngues e melhorando o suporte para diferentes idiomas.

Redução de 39% no AHT

Ao aumentar a agilidade dos agentes, o Co-Pilot ajudou a reduzir o Tempo Médio de Atendimento em até 39%, com algumas empresas registrando queda de 5:45 para 3:30 minutos.

Vendas orgânicas e reconhecimento do Co-Pilot

Após o lançamento da página “Try Before You Buy”, as licenças do Co-Pilot passaram a ser vendidas de forma mais orgânica, demonstrando potencial de crescimento futuro.

Obrigado pela visita.
Bora conversar? ;)