Contents

Além dos chatbots: o vasto mundo dos embeddings

/pt/images/beyond-chatbots-the-wide-world-of-embeddings.jpg

A crescente prevalência de grandes modelos de linguagem (LLMs) também gerou curiosidade em torno dos modelos de incorporação, que são estruturas de aprendizagem profunda que encapsulam características de diversos tipos de dados em representações numéricas.

A incorporação de modelos desempenha um papel fundamental como um componente da Retrieval Augmented Generation (RAG), que é uma aplicação crucial de Large Language Models (LLMs) no âmbito das empresas. No entanto, as capacidades destes modelos vão muito além da sua utilização atual em RAG. Nos últimos tempos, tem havido desenvolvimentos notáveis ​​no campo das incorporações, com inovações ainda maiores previstas para o próximo ano de 2024.

Como funcionam as incorporações

Em essência, o conceito de embeddings envolve a conversão de uma determinada instância de informação, como uma imagem ou texto escrito, em uma representação numérica composta por uma série de figuras que capturam suas características salientes. Para alcançar essa transformação, os algoritmos de incorporação são sistematicamente educados usando extensas coleções de dados, a fim de discernir e extrair as características críticas que distinguem entre as várias formas de dados.

Os embeddings desempenham um papel crucial em vários campos, codificando informações essenciais para diferentes domínios. Eles são utilizados para capturar elementos significativos que pertencem ao domínio específico. Por exemplo, no domínio da visão computacional, eles encapsulam aspectos-chave como presença de objetos, forma, cor e outros padrões visuais pertinentes. Da mesma forma, em aplicações baseadas em texto, os embeddings incorporam detalhes semânticos que vão desde conceitos abstratos até entidades concretas como regiões geográficas, indivíduos, organizações e objetos físicos.

Os modelos de incorporação são utilizados em aplicativos Representational Annotation Graph (RAG) para codificar as características dos documentos de uma empresa. Esses embeddings são posteriormente salvos em um repositório vetorial, que é projetado especificamente para preservar e contrastar tais representações. Durante o processo de recuperação, o sistema determina a incorporação das consultas recebidas e as envia ao banco de dados vetorial para recuperar registros com valores de incorporação estreitamente alinhados. A substância desses documentos pertinentes é então incorporada à consulta, após a qual o Large Language Model (LLM) gera suas respostas com base nessas informações aumentadas.

A utilização deste processo simples personaliza significativamente os Grandes Modelos de Linguagem (LLMs), permitindo-lhes reagir de acordo com documentos ou conhecimentos únicos excluídos do seu conjunto de dados de formação. Além disso, mitiga problemas como a fabricação errônea, que pode surgir quando informações insuficientes levam à geração de detalhes espúrios.

Além do RAG básico

A incorporação do algoritmo Recursive Annealed Greedy (RAG) nas arquiteturas do Modelo de Linguagem contribuiu significativamente para sua funcionalidade; no entanto, suas vantagens vão muito além do simples alinhamento de prompts com conteúdo textual relevante.

Jerry Liu, CEO da LlamaIndex, afirmou que os embeddings servem predominantemente ao propósito de facilitar a recuperação, bem como fornecer representações de ideias visualmente atraentes. No entanto, é importante observar que o escopo da recuperação abrange muito mais do que apenas a funcionalidade básica do chatbot para responder perguntas.

A utilização de Large Language Models (LLM) pode abranger diversas aplicações, onde o processo de recuperação constitui um componente essencial, na perspectiva de Liu. Para facilitar a interoperabilidade entre LLMs e diversas funcionalidades, a LlamaIndex desenvolveu instrumentos e arquiteturas inovadoras que permitem aos usuários alinhar consultas LLM com uma infinidade de tarefas e conjuntos de dados, incluindo interação com bancos de dados SQL, obtenção de insights de informações estruturadas, geração de conteúdo estendido ou emprego de automação agentes para agilizar os fluxos de trabalho.

O processo de recuperação de informações pertinentes serve como um componente essencial para aprimorar as capacidades de grandes modelos de linguagem, fornecendo-lhes um contexto relevante. Essa noção foi articulada pelo Dr. Liu, que opinou que tais mecanismos de recuperação provavelmente seriam necessários para muitas aplicações no domínio dos modelos de linguagem de nível empresarial.

As técnicas de incorporação ampliaram seu alcance muito além da recuperação básica de dados textuais. Na verdade, eles foram empregados por acadêmicos da Universidade de Illinois em Urbana-Champaign e da Universidade Tsinghua com um propósito inovador – reduzindo as despesas associadas à preparação de grandes modelos de linguagem (LLMs) para tarefas de codificação. Esses investigadores desenvolveram uma metodologia que emprega incorporações para identificar a subamostra mais compacta, porém divergente, dentro de um conjunto de dados, garantindo que ela abranja a ampla gama de responsabilidades exigidas do LLM. Ao fazer isso, esses especialistas foram capazes de produzir resultados de treinamento LLM de alto nível usando amostras mínimas.

Embeddings para aplicativos corporativos

O CEO da Qdrant, Andre Zayarni, enfatizou que a incorporação de vetores permitiu o processamento de várias formas de dados não estruturados e semiestruturados, incluindo conteúdo de imagem, áudio e vídeo, além de dados textuais. Ele acredita que os avanços nos transformadores multimodais aumentarão ainda mais as capacidades dos aplicativos de busca semântica como o RAG, que é um tipo de ferramenta de busca semântica.

Qdrant oferece uma gama de serviços que utilizam incorporações para aprimorar vários aplicativos, como detecção de anomalias, sistemas de recomendação e processamento de séries temporais.

É evidente que existem inúmeras aplicações latentes e espera-se que o seu âmbito se expanda à medida que os avanços nas tecnologias de incorporação continuam a surgir.

Cada vez mais empresas estão a aprofundar a utilização de modelos incorporados como forma de analisar os vastos volumes de informação não estruturada que geram cada vez mais regularmente. Na verdade, esses modelos permitem que as organizações classifiquem inúmeros comentários de clientes ou atualizações nas redes sociais, identificando padrões, motivos recorrentes e flutuações de sentimento.

Nils Reimers, líder de embeddings da Cohere, expressou em nossa publicação que os embeddings são altamente vantajosos para organizações que desejam analisar volumes substanciais de informações a fim de reconhecer padrões e obter insights valiosos.

Incorporações ajustadas

Em 2023, foram feitos avanços notáveis ​​no domínio do ajuste fino de grandes modelos de linguagem (LLMs), utilizando conjuntos de dados personalizados. No entanto, o processo de ajustamento continua a apresentar dificuldades, tendo apenas um número limitado de empresas possuindo dados robustos e proficiência levado a cabo este esforço com sucesso até agora.

Liu opina que um fluxo contínuo de usuários fará a transição da utilização do RAG para o refinamento de seus modelos de linguagem por meio do ajuste fino, começando com o ponto de partida amigável do RAG. À medida que os modelos de código aberto melhoram progressivamente o seu desempenho, espera-se que um número maior de indivíduos empregue técnicas de ajuste fino para modelos de linguagem e incorporações este ano. No entanto, a taxa a que o ajustamento fino se torna amplamente adoptado permanece limitada devido à complexidade envolvida na sua implementação.

O ajuste fino das representações de palavras apresenta certas dificuldades. Especificamente, essas representações apresentam sensibilidade a variações nos dados sobre os quais são treinadas. Consequentemente, se treinarmos incorporações usando consultas de pesquisa breves, seu desempenho poderá ser abaixo do ideal quando aplicado a consultas mais extensas. Além disso, o treinamento com perguntas “o quê” pode resultar em diminuição do desempenho quando confrontado com perguntas “por quê”.

Para que as empresas implementem com sucesso o ajuste fino com seus próprios modelos de aprendizado de máquina, elas normalmente exigem uma equipe interna altamente qualificada e com experiência significativa nesta área. Como tal, muitas organizações optam por utilizar soluções pré-existentes em vez de tentar desenvolver e treinar os seus próprios modelos a partir do zero. Essa abordagem costuma ser mais prática e eficiente em comparação com outros aspectos do uso de grandes modelos de linguagem, como LLMs.

Apesar desta limitação, tem havido desenvolvimentos na simplificação do procedimento de treino para estes tipos de modelos para torná-lo mais eficiente. Um exemplo notável é uma investigação conduzida pela Microsoft que demonstra que modelos de linguagem pré-existentes como o Mistral-7B podem ser ajustados para tarefas de incorporação usando um conjunto de dados menor produzido por outro modelo robusto. Esta abordagem elimina a necessidade da metodologia demorada e dispendiosa de múltiplas etapas anteriormente exigida, onde era necessária uma extensa intervenção humana e era necessário adquirir quantidades significativas de dados.

O progresso contínuo de grandes modelos de linguagem (LLMs) e técnicas de incorporação é um bom presságio para a antecipação de inovações notáveis ​​que surgirão no futuro próximo.

*️⃣ Link da fonte: