Nos tempos atuais, a eficiência e a precisão na busca por informações são cruciais, especialmente em ambientes corporativos. A Dropbox, que sempre foi um player importante no campo de armazenamento e compartilhamento de arquivos, decidiu elevar a barra. Recentemente, eles começaram a utilizar Modelos de Linguagem de Grande Escala (LLMs) para aprimorar o prosseso de rotulagem em seus sistemas de Geração Aumentada por Recuperação (RAG). E o que isso significa para nós, profissionais de tecnologia? Vamos explorar.

O Desafio da Recuperação de Documentos

Como bem ressaltou o engenheiro principal da Dropbox, Dmitriy Meyerzon, a qualidade na recuperação de documentos é um verdadeiro gargalo em sistemas RAG. Imagine ter milhões, ou até bilhões, de documentos disponíveis, mas só conseguir passar uma fração deles para um LLM. Isso torna a qualidade do modelo de ranqueamento de busca essencial. Se a base de dados de relevância usada para treinar o modelo não for boa, as respostas também não serão.

A Limitação da Rotulagem Humana

A rotulagem feita por humanos, apesar de valiosa, tem suas limitações: é cara, lenta e inconsistente. Para contornar isso, a equipe da Dropbox introduziu um método onde um LLM gera julgamentos de relevância em larga escala. Isso pode parecer revolucionário, mas não é perfeito. É fundamental que esses julgamentos sejam avaliados antes de serem utilizados para o treinamento.

O prosseso de Rotulagem Calibrada por Humanos

A ideia por trás da rotulagem calibrada por humanos é simples: primeiro, rotulamos um pequeno conjunto de dados de alta qualidade. Esse conjunto serve para calibrar o avaliador LLM. Depois, o LLM pode gerar centenas de milhares, ou até milhões, de rótulos, amplificando o esforço humano em até 100 vezes. No entanto, é importante entender que isso não substitui o sistema de ranqueamento; LLMs não são rápidos o suficiente para fazer isso em tempo real.

A Importância do Contexto

Um ponto crucial é que o contexto muitas vezes é vital na avaliação de relevância. Por exemplo, se alguém pesquisar "diet sprite" na Dropbox, está se referindo a uma ferramenta interna e não a uma bebida. Para resolver isso, os LLMs podem realizar buscas adicionais e compreender a terminologia interna, o que melhora a precisão da rotulagem. Essa estratégia não só melhora a qualidade das respostas, mas também torna o processo mais eficiente.

Dicas Avançadas para Implementação

Considerações Finais

A experiência da Dropbox com o Dash mostra que é possível amplificar o julgamento humano através de LLMs, criando um processo mais eficiente e escalável. Essa abordagem. não só melhora os sistemas RAG, mas também pode ser aplicada em diversas áreas em tecnologia. Para nós, arquitetos de software, isso representa uma oportunidade de criar soluções mais inteligentes e adaptáveis. Portanto, vale a pena considerar como podemos implementar essas práticas em nossos próprios projetos.

Refletindo sobre tudo isso, fica a pergunta: como podemos, no nosso dia a dia, tirar proveito dessas tecnologias que estão em constante evolução? A resposta pode estar nas pequenas inovações que fazemos em nossos sistemas.