top of page
macbook-apple-macbook-pro-intel-core-i5-

O respondedor manual que você pediu (e precisa)

Repaginado: agora é mais intuitivo, completo e fácil de usar!

Contexto e Desafio

O módulo de Perguntas Manuais faz parte de uma plataforma de gestão de vendas em Marketplaces e automatiza respostas para anúncios do Mercado Livre. Porém, em muitos casos, era necessário escrever respostas personalizadas manualmente — o que gerava lentidão, retrabalho e risco de sair do tom de voz esperado.

Além disso, a plataforma apresentava problemas sérios de usabilidade: usuários perdiam tempo tentando entender como usar o sistema e, com isso, acabavam desistindo do serviço.

O desafio foi criar um redesign completo do módulo, tornando a interface mais objetiva, funcional e alinhada ao fluxo real de trabalho. O foco era permitir respostas manuais rápidas e eficientes, sem comprometer a lógica da automação.

Minha função: liderei o projeto de UX, conduzi entrevistas com usuários, defini fluxos e interfaces, e validei a solução junto ao time e stakeholders.

Esse é o módulo antes

da nova proposta!

WhatsApp Image 2020-08-13 at 18.44.42.jp

1

Imersão e Descoberta (Empatia)

Foram realizadas entrevistas com operadores e shadowing de suas atividades diárias para entender como o módulo de respostas era utilizado na prática. Também foram considerados insumos anteriores, que já haviam identificado dois perfis principais de usuários: o dono da conta e o operador.

Em contas grandes, é comum que existam operadores dedicados exclusivamente a responder perguntas nos anúncios — uma tarefa crítica, já que o tempo de resposta inferior a 1 hora é um fator que influencia diretamente a Reputação do vendedor no Mercado Livre. Essa reputação funciona como um termômetro de performance, impactando a visibilidade e a confiabilidade da loja.

Entre as principais descobertas, estavam:

  • O processo de resposta manual era feito fora da ferramenta principal, gerando inconsistência e retrabalho.

  • Havia insegurança sobre quem já havia respondido o quê, o que causava duplicidade ou ausência de resposta.

  • Os usuários sentiam falta de histórico, versionamento e confirmação de envio, o que dificultava o controle e a rastreabilidade da operação.

“Às vezes eu começo a responder, mas não sei se outra pessoa já está fazendo isso.” — operador da plataforma

2

Definição do Problema (Definir)

Reenquadramento do desafio: “Como podemos permitir que os sellers escrevam e enviem respostas manuais dentro da plataforma, mantendo rastreabilidade e consistência?”

  • HMW (How Might We...): Como podemos permitir respostas humanas sob demanda, sem quebrar o fluxo automatizado?

  • Critérios de sucesso:

    • Redução de tempo médio por resposta.

    • Aumento na confiança da equipe em relação ao sistema.

    • Rastreabilidade de todas as mensagens manuais.

3

Ideação

Durante essa etapa, usamos um Task Flow para mapear o caminho que o operador percorre ao responder uma pergunta, detalhando cada etapa da jornada e o inventário de ações envolvidas. Esse exercício ajudou a visualizar os pontos de atrito com mais clareza e levantar melhorias viáveis.

Com esse material em mãos, realizamos sessões de brainstorming com o time de produto e engenharia para explorar soluções que equilibrassem agilidade, controle e clareza de uso.

Exploração de soluções:

  • Criação de um botão “Responder manualmente” direto na interface do evento.

  • Campo de resposta com validação, contador de caracteres e histórico de edições.

  • Notificação visual para evitar duplicidade de respostas.

  • Construção de wireframes low-fi no Figma para simular o novo fluxo e validar a proposta com rapidez.

4

Prototipação

Nível de fidelidade: Alta — o protótipo já simulava resposta manual, histórico e edição.

  • Ferramentas utilizadas: Figma.

  • Testamos:

    • Fluidez do fluxo de escrita.

    • Clareza sobre quem escreveu o quê.

    • Confirmação de envio e arquivamento.

5

Testes com Usuários (Validação)

Roteiro e metodologia: Teste moderado com 5 operadores que usariam a funcionalidade.

 

O que aprendi:

  • A visualização do histórico era essencial.

  • Precisávamos mostrar um alerta claro se uma resposta já tivesse sido enviada.

Solução Final

Interfaces e fluxos entregues:

  • Tela de evento com botão “Responder manualmente”.

  • Campo de texto com contador de caracteres e histórico de respostas.

  • Registro de autor, data e versão.

  • Racional de design:

  • Simples, sem atrito, mas com rastreabilidade clara.

  • Reforça o controle humano dentro de um sistema automatizado.

Protótipo em alta fidelidade feito no Figma

Tela anterior

WhatsApp Image 2020-08-13 at 18.44.42.jp

Só é possível ver as perguntas da conta selecionada. A grande maioria das pessoas que utilizam a plataforma possui mais de uma conta no Mercado Livre, por isso, contratam, para fazer a gestão em um único lugar.

Aparece uma pergunta de cada vez mas o usuário não tem noção de quantas ele ainda precisa responder e nem pode filtrar. 

Falta de hierarquia nas cores do botão gera confusão ao completar a ação.

Usuários gostam da estrutura da mensagem carregada de forma automática. Ele só precisa digitar o corpo da mensagem.

Tela Nova

respondedor site.jpg

2

3

1

5

4

6

7

7

7

10

1

Comecei pelo visual da tela, trazendo uma interface mais limpa e familiar, inspirada no estilo do WhatsApp Web — um aplicativo amplamente conhecido pelos usuários. Para tornar a experiência mais personalizada, incluí um avatar randômico para cada pessoa que envia uma pergunta, ajudando a humanizar a interação.

Pensei especialmente no operador que passa o dia inteiro realizando a mesma tarefa. Uma interface mais leve, com menos aparência de “sistema tradicional”, pode tornar a rotina mais agradável e reduzir a sensação de repetição.

2

A possibilidade de selecionar mais de uma conta foi um dos pedidos mais recorrentes durante a pesquisa, já que isso não era possível na versão anterior da tela. Agora, o usuário pode escolher responder por todas as contas ou apenas por contas específicas, o que facilita a organização e dá uma visão mais clara da carga de trabalho do dia.

6

O horário e a data da pergunta, assim como a identificação de quem respondeu, ficam registrados diretamente na interface. Um ponto interessante é que essa área também passou a funcionar como tela de histórico — diferentemente da versão anterior, em que era necessário acessar outra página para visualizar conversas com mais de uma pergunta e facilitar a resposta.

7

A plataforma oferece duas formas de responder às perguntas: manualmente ou de forma automática. A maioria dos usuários ainda prefere a resposta manual, por não se sentirem seguros em deixar o sistema responder sozinho com mensagens previamente cadastradas.

Para reduzir essa resistência, foi criado um botão que traz a resposta cadastrada automaticamente, mas exige que o usuário revise e confirme o envio. Essa abordagem ajuda a familiarizar o usuário com o modelo automatizado, transmitindo mais segurança e confiança no uso futuro da funcionalidade de resposta automática.

3

A pesquisa revelou que os usuários sentem falta de ter uma noção clara do volume de trabalho a ser feito — como quantas perguntas ainda precisam ser respondidas, quantas já foram resolvidas, além de poder aplicar filtros. A proposta é que essa lista tenha uma animação: à medida que o usuário responde, a pergunta é arquivada, gerando uma sensação visual de progresso, semelhante a uma To-do List.

8

A estrutura da resposta foi mantida conforme a preferência dos usuários — com saudação, despedida e assinatura já preenchidas, restando apenas inserir o corpo da mensagem. Para representar isso visualmente, utilizei um texto cinza dentro da caixa indicando essa estrutura e deixei o campo de resposta com o cursor piscando, sinalizando onde escrever.

Caso o usuário queira ajustar esse modelo fixo, é possível selecionar variações pelos botões posicionados acima da caixa de mensagem.

4

A pergunta em resposta permanece selecionada para garantir clareza no processo. Como identificado durante a pesquisa, algumas equipes são dedicadas exclusivamente a responder perguntas, por isso é fundamental que todos saibam quem está respondendo o quê em tempo real.

Na versão anterior da tela, isso não era possível — se dois operadores abrissem a mesma pergunta simultaneamente, o sistema apresentava falhas. Esse comportamento provavelmente estava relacionado a limitações tecnológicas da estrutura atual da plataforma.

9

Hierarquia dos botões: Posicionei o botão “Pular” antes do “Excluir”, já que é uma ação recorrente e frequentemente utilizada via teclado pelos operadores. Já o botão “Excluir” possui uma confirmação antes da ação, garantindo segurança contra exclusões acidentais. Além disso, essa função pode ser restrita conforme o nível de permissão que o dono da conta define para cada operador.

5

Este menu aciona a lateral direita da tela (já visível na imagem). A partir do mapeamento das perguntas mais frequentes recebidas pelos usuários e das informações que poderiam agilizar as respostas, foi desenvolvida essa barra lateral — uma ferramenta mais completa e acessível para apoiar o operador durante a tarefa.

10

Calcular frete, atalhos de teclado e respostas rápidas foram algumas das sugestões levantadas durante a pesquisa. Entre elas, o uso de atalhos merece destaque, especialmente pela redução de cliques — algo essencial considerando o grande volume de mensagens que os operadores precisam lidar. Como essa é uma tarefa que exige agilidade, qualquer ganho de tempo faz diferença no dia a dia.

Impacto e Resultados

Métricas:

  • Expectativa: redução de 60% no tempo de resposta manual.

  • 100% das respostas manuais rastreáveis pela plataforma.

Próximos passos:

  • Expandir para múltiplas respostas por evento.

  • Incorporar sugestões da IA dentro da resposta manual.

Reflexão Final

Aprendizado como designer:

Aprendi que dar controle ao usuário, mesmo em sistemas automatizados, aumenta a confiança e reduz atrito.

© 2025 por Aretha Souza. Feito com carinho <3

bottom of page