Contents

Databricks investe na Mistral e traz seus modelos de IA para plataforma de inteligência de dados

/pt/images/databricks-invests-in-mistral-and-brings-its-ai-models-to-data-intelligence-platform.jpg

Hoje, a Databricks, a empresa de infraestrutura de dados de rápido crescimento liderada por Ali Ghodsi, anunciou uma parceria com a Mistral, sediada em Paris, a startup bem financiada que fez sucesso na comunidade global de IA com sua crescente família de modelos de linguagem grande e de alto desempenho (LLMs). ) — muitos deles, de código aberto.

A Databricks assumiu um compromisso financeiro não divulgado com a Mistral como parte de sua rodada de financiamento da Série A, ao mesmo tempo que integrou uma seleção de modelos de linguagem (LLMs) da Mistral em sua plataforma de inteligência de dados.

O próximo ajuste facilitará a incorporação perfeita desses modelos, permitindo que os usuários corporativos os utilizem sem esforço em conjunto com suas informações para fins de geração de inteligência artificial-mantendo inalteradas as medidas de segurança, os padrões de confidencialidade e a supervisão regulatória existentes fornecidos pela plataforma Databricks.

O desenvolvimento marca a adição de outro parceiro de distribuição notável para a Mistral, que tem avançado agressivamente através de parcerias industriais. Recentemente, anunciou uma parceria semelhante com a Snowflake, que compete diretamente com a Databricks através das suas ofertas de nuvem de dados, bem como com a Microsoft, esta última que suscitou críticas à captura corporativa e ao interesse dos reguladores.

Selecione modelos a serem integrados nativamente

Em postagem no blog publicada hoje, a Databricks confirmou que a parceria com a Mistral resultará na integração nativa de dois modelos de geração de texto da empresa – Mistral 7B e Mixtral 8x7B, ambos de código aberto.

O primeiro modelo em consideração é uma arquitetura Transformer relativamente compacta de 7 bilhões de parâmetros, que foi extensivamente treinada usando um comprimento de contexto de 8k. Esta designação específica apresenta-se como altamente eficiente em termos de veiculação de conteúdo. Por outro lado, a segunda alternativa constitui uma Mistura Esparsa de Modelos Especialistas (SMoE), acomodando proficientemente idiomas como inglês, francês, italiano, alemão e espanhol. Com um suporte substancial de comprimento de contexto de 32k, esta variante supera seus concorrentes em diversas avaliações de desempenho, abrangendo benchmarks GSM-8K e MMLU. Além disso, exibe tempos de inferência notavelmente acelerados quando comparado a outros modelos proeminentes, como o Llama 2 70B da Meta e o GPT-3 da OpenAI.

Indivíduos que utilizam a plataforma Databricks Data Intelligence podem agora localizar esses dois modelos em seu mercado, acompanhados de detalhes sobre suas funcionalidades e vários métodos de implantação.

Databricks fornece um ambiente interativo chamado Mosaic AI Playground que pode ser acessado no console de sua plataforma. Os usuários têm a opção de utilizar esses modelos pré-construídos como soluções de endpoint otimizadas fornecidas pelo Mosaic AI Model Serving ou podem optar por personalizá-los e adaptá-los usando seus próprios conjuntos de dados exclusivos armazenados na plataforma (Mosaic AI Foundation Adaptation). Isso permite a implementação personalizada desses modelos para atender a casos de uso específicos.

Databricks fornece uma ampla gama de ferramentas projetadas para facilitar o desenvolvimento, avaliação e implantação de soluções de inteligência artificial generativa de ponta a ponta. Os usuários podem optar por iniciar sua jornada comparando vários modelos Mistral AI pré-treinados lado a lado ou optar por adquirir esses modelos por token. Ambas as abordagens permitem o início rápido do processo.

O anúncio da Databricks sobre sua colaboração com Snowflake destaca desenvolvimentos interessantes para aqueles que buscam criar aplicativos de Inteligência Artificial de próxima geração usando seus recursos de dados existentes na plataforma. No entanto, deve-se notar que o acordo não abrange o Mistral Large, um modelo de linguagem excepcional desenvolvido pela Mistral que está imediatamente após o GPT-4 em termos de desempenho. Esta nova oferta supera outros modelos líderes, como Claude 2 da Anthropic, Gemini Pro do Google e GPT-3.5, com notáveis ​​habilidades linguísticas em vários idiomas, ao mesmo tempo que mantém uma vasta compreensão contextual de até 32 mil tokens. O inovador serviço Cortex na nuvem de dados da Snowflake agora incorpora Mixtral

As perguntas enviadas por este site em relação à inclusão do Mistral Large permaneciam sem resposta no momento da redação deste artigo. Outros modelos de código aberto comercialmente utilizáveis ​​oferecidos pela Databricks são Meta’s Llama-2, CodeLlama, Stable Diffusion XL e a família MPT da Mosaic.

Mistral continua sua onda de parceria

A Mistral também colabora com uma variedade de outras entidades além da Databricks e da Snowflake em seus empreendimentos.

A organização, que garantiu o financiamento inicial europeu mais significativo da história durante o verão de 2023, conseguiu posteriormente uma impressionante ronda de financiamento da série A. A fim de ampliar a sua influência e estabelecer-se como um participante respeitado no setor de inteligência artificial, caracterizado por concorrentes notáveis ​​como OpenAI, Anthropic e Google, a empresa priorizou colaborações e parcerias substanciais na indústria.

Recentemente, a Mistral obteve um investimento de US$ 16 milhões da Microsoft para incorporar seus modelos na plataforma de nuvem Azure. Este acordo posiciona a Mistral como uma das duas empresas, ao lado da OpenAI, a fornecer seus modelos através da plataforma da Microsoft.

Em seguida, também assinou parcerias separadas com a IBM, disponibilizando o Mistral 8x7B no WatsonX, e com a Perplexity e a Amazon. Será interessante ver que outras parcerias a startup pode assegurar para aumentar a sua proeminência e impulsionar casos de utilização de IA em todos os setores.

*️⃣ Link da fonte:

Databricks , Mistral , o interesse dos reguladores, publicado, modelos de código aberto comercialmente utilizáveis, parcerias separadas com a IBM, Perplexidade ,