Google para IBM: como os grandes gigantes da tecnologia estão adotando os novos serviços de hardware e software da Nvidia
A Nvidia fez tudo para ultrapassar os limites da computação na conferência GTC em andamento em San Jose.
Em um discurso enérgico diante de um vasto público vestido em trajes casuais, o CEO Jensen Huang revelou o tão aguardado GB200 Grace Blackwell Superchip, que ele afirmou que proporcionaria um aumento notável de até trinta vezes na eficiência de processamento para grandes modelos de linguagem durante tarefas de inferência. Além disso, Huang destacou vários avanços notáveis nos domínios da inovação automotiva, robótica, aplicações omniverse e progresso médico, resultando em uma onda de notícias em torno da Nvidia no cenário digital.
Na verdade, nenhuma conferência como a GTC pode ser considerada abrangente sem incluir colaborações com indústrias relevantes. Nesse sentido, a NVIDIA forneceu informações sobre seus esforços contínuos para forjar alianças com empresas de tecnologia proeminentes por meio da integração de sua estrutura de computação de inteligência artificial recentemente revelada, conjunto de software e serviços de suporte dentro de seu ecossistema técnico existente. A seguir apresenta-se um panorama de algumas parcerias notáveis que foram estabelecidas neste contexto:
AWS
A Amazon Web Services (AWS) declarou recentemente que oferecerá a mais recente plataforma inovadora da NVIDIA chamada “Blackwell” por meio de suas instâncias Elastic Compute Cloud (EC2). Esta notável tecnologia está equipada com um número impressionante de unidades de processamento-incluindo 72 GPUs NVL72 e 36 CPUs Grace, que juntas somam mais de um bilhão de parâmetros. Com este sistema de última geração, os clientes agora podem desenvolver e executar inferências em tempo real com eficiência para Large Language Models (LLMs) de vários trilhões de parâmetros, de uma maneira que supera as capacidades de qualquer geração anterior de processadores gráficos NVIDIA. Além disso, ambas as organizações revelaram em conjunto os seus planos para incorporar 20.736
Google Nuvem
Assim como a Amazon, o Google também anunciou que está trazendo a plataforma Grace Blackwell da Nvidia e microsserviços NIM para sua infraestrutura em nuvem. A empresa disse ainda que está adicionando suporte para JAX, uma estrutura nativa de Python para treinamento LLM de alto desempenho, em GPUs Nvidia H100 e facilitando a implantação da estrutura Nvidia NeMo em sua plataforma por meio do Google Kubernetes Engine (GKE) e Google Cloud Kit de ferramentas de HPC.
A Vertex AI também fornecerá suporte para dois tipos adicionais de máquinas virtuais na plataforma Google Cloud: VMs Google Cloud A3 equipadas com GPUs NVIDIA H100 e VMs G2 utilizando GPUs NVIDIA L4 Tensor Core. Esta melhoria visa expandir ainda mais a flexibilidade e versatilidade das nossas ofertas no fornecimento de soluções de IA de ponta.
##Microsoft
A Microsoft também confirmou o plano de adicionar microsserviços NIM e Grace Blackwell ao Azure. No entanto, a parceria para o superchip também inclui a nova plataforma de rede Quantum-X800 InfiniBand da Nvidia. A empresa liderada por Satya Nadella também anunciou a integração nativa do DGX Cloud com o Microsoft Fabric para agilizar o desenvolvimento de modelos de IA personalizados e a disponibilidade das recém-lançadas APIs Omniverse Cloud na plataforma Azure Power.
A Microsoft anunciou que sua plataforma em nuvem, Azure, aproveitará o conjunto de microsserviços Clara da Nvidia e DGX Cloud para facilitar a rápida inovação em pesquisa clínica e prestação de cuidados para prestadores de cuidados de saúde, empresas farmacêuticas e de biotecnologia, bem como desenvolvedores de dispositivos médicos.
Oráculo
A Oracle disse que planeja aproveitar a plataforma de computação Grace Blackwell nas instâncias OCI Supercluster e OCI Compute, com esta última adotando o superchip Nvidia GB200 e a GPU B200 Tensor Core. Ele também virá na Nvidia DGX Cloud na OCI.
Além disso, a Oracle disse que os microsserviços Nvidia NIM e CUDA-X, incluindo o NeMo Retriever para implantações de inferência RAG, também ajudarão os clientes da OCI a trazer mais insights e precisão para seus aplicativos generativos de IA.
##SAP
A SAP está trabalhando com a Nvidia para integrar IA generativa em suas soluções em nuvem, incluindo a versão mais recente do SAP Datasphere, SAP Business Technology Platform e RISE with SAP. A empresa também disse que planeja construir recursos adicionais de IA generativa dentro do SAP BTP usando o serviço de fundição de IA generativa da Nvidia, apresentando supercomputação DGX Cloud AI, software Nvidia AI Enterprise e modelos NVIDIA AI Foundation.
##IBM
Para ajudar os clientes a resolver desafios de negócios complexos, a IBM Consulting planeja combinar sua tecnologia e experiência no setor com a pilha de software AI Enterprise da Nvidia, incluindo os novos microsserviços NIM e tecnologias Omniverse. A IBM afirma que isso irá acelerar os fluxos de trabalho de IA dos clientes, aprimorar a otimização de caso de uso para modelo e desenvolver casos de uso de IA específicos de negócios e do setor. A empresa já está construindo e entregando aplicativos gêmeos digitais para cadeia de suprimentos e manufatura usando Isaac Sim e Omniverse.
##Floco de neve
A empresa de nuvem de dados Snowflake expandiu sua parceria anunciada anteriormente com a Nvidia para integração com o NeMo Retriever. O microsserviço generativo de IA conecta LLMs personalizados a dados corporativos e permitirá que os clientes da empresa melhorem o desempenho e a escalabilidade dos aplicativos de chatbot desenvolvidos com Snowflake Cortex. A colaboração também inclui o software Nvidia TensorRT que oferece baixa latência e alto rendimento para aplicações de inferência de aprendizagem profunda.
Além da Snowflake, outros fornecedores proeminentes de plataformas de dados, como Box, Dataloop, Cloudera, Cohesity, Datastax e NetApp, declararam sua intenção de utilizar os microsserviços de ponta da Nvidia, que incluem a recém-revelada tecnologia NIM, para capacitar seus clientes. para melhorar o desempenho de seus pipelines RAG e incorporar perfeitamente seus conjuntos de dados exclusivos em aplicativos avançados de inteligência artificial.
A edição 2024 da NVIDIA GPU Technology Conference será realizada de 18 a 21 de março, tanto presencialmente em San Jose quanto por meio de uma plataforma online.
*️⃣ Link da fonte:
Nvidia , Google , Microsoft , Oracle , NeMo Retriever , SAP , IBM , Snowflake ,