Valor total de mercado:$3,437.66B-3.25%
Vol 24H:$86.04B
BTC:
2
sat/vB
API
PT
Claro
Instalar app

PesquisarSSI/Mag7/Meme/ETF/Moeda/Índice/Gráficos/Pesquisa
Updated 4 horas
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
SoSo Diário 8 Jul. | SoSoValue Agora Disponível em Francês
00:00 / 00:00
Visualizar
    Mercados
    Índexes
    Feed de notícias
    TokenBar®
    Análise
    Macro
    Favoritos
Revolução da pesquisa de investimento em criptomoedas impulsionada por IA
FedML
plataforma de aprendizado de máquina descentralizada e colaborativa
fedml
Twitter
Medium
Tags:
ai
infra
Fundado:
2022
fedml é uma plataforma descentralizada e colaborativa de aprendizado de máquina para IA em qualquer lugar, na borda ou na nuvem, em qualquer escala. Especificamente, fornece um ecossistema MLOps que permite o treinamento, implantação, monitoramento e melhoria contínua de modelos de aprendizado de máquina, ao mesmo tempo em que capacita a colaboração em dados, modelos e recursos computacionais combinados de forma a preservar a privacidade.
FedML arrec. de fundos
semente
Quant.
$6M
Avaliação
--
Data
mar 28, 2023
Investidores
Acequia Capital
Aimtop Ventures
Plug and Play
Investidor
Plug and Play
Aimtop Ventures
Estados Unidos
Acequia Capital
Estados Unidos
Equipe FedML
Salman Avestimehr
cofundador e CEO
Chaoyang He
cofundador e CTO
Notícias
O Amanhecer da Verdadeira “OpenAI Descentralizada”: ChainOpera AI Lança a Primeira Economia de IA de Super Agente Full-stack Descentralizada do Mundo
#Layer1
The Block
8 days ago
🚀 Apresentando o Fox-1: O Inovador SLM de Código Aberto da TensorOpera!Estamos empolgados em apresentar o TensorOpera Fox-1, nosso modelo de linguagem pequeno (SLM) de 1,6 bilhões de parâmetros de ponta, projetado para avançar a escalabilidade e a propriedade no cenário de IA generativa. O Fox-1 se destaca ao oferecer desempenho de alto nível, superando SLMs comparáveis desenvolvidos por gigantes da indústria como Apple, Google e Alibaba.O que há de único no Fox-1?🌟 Desempenho Excepcional (Pequeno, mas Inteligente): O Fox-1 foi treinado do zero com um currículo de dados em 3 estágios em 3 trilhões de tokens de dados de texto e código com comprimento de sequência de 8K. Em vários benchmarks, o Fox-1 está à altura ou supera outros SLMs em sua classe, incluindo o Gemma-2B do Google, o Qwen1.5-1.8B da Alibaba e o OpenELM1.1B da Apple.🌟 Design Arquitetônico Avançado: Com uma estrutura de transformer apenas para decodificação, 16 cabeças de atenção e atenção de consulta agrupada, o Fox-1 é notavelmente mais profundo e mais capaz do que seus pares (78% mais profundo que o Gemma 2B, 33% mais profundo que o Qwen1.5 - 1.8B, e 15% mais profundo que o OpenELM 1.1B).🌟 Eficiência de Inferência (Rápido): Na plataforma de serviços TensorOpera com implantação de precisão BF16, o Fox-1 processa mais de 200 tokens por segundo, superando o Gemma-2B e igualando a velocidade do Qwen1.5-1.8B.🌟 Versatilidade em Múltiplas Plataformas: A integração do Fox-1 nas plataformas da TensorOpera permite que desenvolvedores de IA construam seus modelos e aplicações na nuvem através da TensorOpera AI Platform, e depois implantem, monitorem e ajustem eles em smartphones e PCs com IA através da plataforma TensorOpera FedML. Isso oferece eficiência de custos, privacidade e experiências personalizadas dentro de uma plataforma unificada.Por que SLMs?1⃣ SLMs oferecem capacidades poderosas com necessidades computacionais e de dados mínimas. Essa “frugalidade” é particularmente vantajosa para empresas e desenvolvedores que buscam construir e implantar seus próprios modelos em diversas infraestruturas sem a necessidade de extensos recursos.2⃣ SLMs também são projetados para operar com latência significativamente reduzida e requerem muito menos poder computacional em comparação com LLMs. Isso permite que processem e analisem dados mais rapidamente, melhorando dramaticamente tanto a velocidade quanto a eficiência de custos da inferência, além de aumentar a responsividade em aplicações de IA generativa.3⃣ SLMs são particularmente adequados para integração em arquiteturas de IA compostas, como Mixture of Experts (MoE) e sistemas de federação de modelos. Essas configurações utilizam múltiplos SLMs em conjunto para construir um modelo mais poderoso que pode lidar com tarefas mais complexas, como processamento multilíngue e análises preditivas a partir de várias fontes de dados.Como começar?Estamos lançando o Fox-1 sob a licença Apache 2.0. Você pode acessar o modelo a partir da TensorOpera AI Platform e do Hugging Face.Mais detalhes em nosso post de blog: https://t.co/nRemISpsXp…https://t.co/j1EsBS4edl
TensorOpera
jun 13, 2024
🎉 Apresentando a TensorOpera AI, Inc: Uma Nova Era em Nossa Jornada! Estamos empolgados em anunciar um marco significativo em nossa jornada. Há dois anos, embarcamos em um caminho ambicioso com a FedML, focando principalmente em aprendizado federado. Hoje, ao olharmos para o tremendo crescimento e expansão de nossas ofertas de produtos, fica claro que evoluímos para algo muito maior. Para melhor representar a amplitude e profundidade de nossas soluções inovadoras, estamos animados em revelar nossa nova identidade: TensorOpera AI, Inc. 🤔 Por que TensorOpera AI? Nosso novo nome, TensorOpera AI, é um testemunho do nosso compromisso em unir tecnologia de ponta com criatividade. O termo "Tensor" representa os blocos fundamentais da inteligência artificial—enfatizando o papel crítico de dados, poder computacional e modelos nas operações de IA. "Opera", por outro lado, traz à mente o rico e diversificado mundo das artes—abrangendo poesia, música, dança, orquestração e colaboração. Este nome reflete nossa visão para um futuro de IA generativa, caracterizado por multimodalidade e sistemas de IA complexos e multimodais que são tão harmoniosos e coordenados quanto uma grande ópera. 📈 Nossa Linha de Produtos em Expansão Como TensorOpera AI, temos orgulho de oferecer duas linhas principais de produtos que atendem a uma ampla gama de necessidades dentro da comunidade de IA: TensorOpera AI Platform - Acessível em https://t.co/mKbyzriZyQ, esta plataforma é uma potência para desenvolvedores e empresas que desejam construir e escalar suas aplicações de IA generativa. Nossa plataforma se destaca em fornecer recursos de nível empresarial que incluem implantação de modelos, APIs de agentes de IA, operações em nuvem GPU sem servidor e descentralizadas para treinamento e inferência, além de ferramentas abrangentes para segurança e privacidade. Foi projetada para capacitar os usuários a criar, escalar e prosperar no ecossistema de IA de forma econômica e eficiente. TensorOpera FedML - Disponível em https://t.co/HWftJA1QPO, esta plataforma continua sendo uma líder em tecnologia de aprendizado federado. Ela oferece uma solução sem código, segura e multiplataforma que é perfeita para computação em borda. O Edge AI SDK, parte da TensorOpera FedML, garante fácil implantação em GPUs de borda, smartphones e dispositivos IoT. Além disso, as capacidades de MLOps da plataforma simplificam a descentralização e a aplicação no mundo real de aprendizado de máquina, apoiadas por anos de pesquisa pioneira de nossos cofundadores. 🚀 Olhando para o Futuro Como TensorOpera AI, continuamos dedicados a empurrar os limites do que é possível em IA generativa. Nossa mudança de marca não é apenas uma troca de nome, mas uma renovação de nossa promessa a você—nossa comunidade de desenvolvedores, pesquisadores e inovadores—de fornecer as ferramentas e a tecnologia que você precisa para ter sucesso nesta emocionante era da IA. Convidamos você a se juntar a nós na TensorOpera AI enquanto continuamos a orquestrar um futuro mais inteligente e criativo juntos.
TensorOpera
mai 13, 2024
Estamos entusiasmados em anunciar nossa parceria com a DENSO para capacitar o treinamento, desenvolvimento e implementação totalmente on-premise de modelos de IA por meio da plataforma Nexus AI da @FEDML_AI (https://t.co/7cKYybixvQ).\n\nÀ medida que as empresas e organizações avançam rapidamente para integrar a IA em seus produtos e serviços, a necessidade de privacidade, segurança, controle total e propriedade de toda a pilha de software de IA se torna um requisito crítico. Isso é especialmente verdadeiro com o surgimento de modelos e aplicações de IA Generativa, já que dados e modelos de IA se tornaram ativos essenciais para qualquer organização obter sua vantagem competitiva.\n\nA FEDML está comprometida em ajudar as empresas a navegar na revolução da IA com total propriedade e controle. Ao implantar a plataforma Nexus AI da FEDML em sua própria infraestrutura (seja em nuvem privada, servidores on-premise ou híbridos), as empresas podem oferecer a seus funcionários e clientes capacidades escaláveis e de ponta de GenAI, enquanto lhes proporcionam controle total sobre seus dados, modelos e recursos computacionais.\n\nNossa parceria com a DENSO incorpora perfeitamente nossa visão de fornecer a Plataforma de IA Generativa "Sua" em Escala.\n\nLeia mais aqui: https://t.co/CMBgqOFrE1 via @VentureBeat
TensorOpera
abr 30, 2024
🔥 Comece a construir seu próprio Llama3 ajustado no FEDML Nexus AI! O Llama3 70B de código aberto é extremamente bom: está à altura do desempenho do GPT-4 de código fechado na Classificação do Chatbot Arena (até 20 de abril de 2024). Isso oferece uma excelente oportunidade para empresas e desenvolvedores possuírem um LLM de alto desempenho hospedado de forma própria, personalizado com seus dados privados. No FEDML, estamos muito empolgados em compartilhar nossa plataforma sem código e sem servidor para ajuste fino do Llama3-8B/70B, que não requer forte especialização e conhecimento em Infraestrutura de IA e ML. Também temos disponibilidade sob demanda de GPUs H100 80GB a um preço muito baixo na nuvem do FEDML, que podem ser utilizadas diretamente ao iniciar seus trabalhos de ajuste fino. Você só precisa: (1) Preparar seus próprios dados de treinamento (veja as instruções aqui: https://t.co/Kqme8Bln9P); (2) Configurar hiperparâmetros (ou, usar os padrões fornecidos pela plataforma) (3) Clique em Lançar! Leia mais detalhes e comece aqui: https://t.co/FTAp1DikHS#Llama3 #ajustefinosemservidor #fedml
TensorOpera
abr 22, 2024
Digitalize o QR Code p/ explorar mais info chave
FedML
plataforma de aprendizado de máquina descentralizada e colaborativa
fedml
Twitter
Medium
Tags:
ai
infra
Fundado:
2022
fedml é uma plataforma descentralizada e colaborativa de aprendizado de máquina para IA em qualquer lugar, na borda ou na nuvem, em qualquer escala. Especificamente, fornece um ecossistema MLOps que permite o treinamento, implantação, monitoramento e melhoria contínua de modelos de aprendizado de máquina, ao mesmo tempo em que capacita a colaboração em dados, modelos e recursos computacionais combinados de forma a preservar a privacidade.
FedML arrec. de fundos
Evento de arrecadação
RedondoQuant.AvaliaçãoDataInvestidores
semente$6M--mar 28, 2023
Acequia Capital
Aimtop Ventures
Plug and Play
Investidor
Plug and Play
Aimtop Ventures
Estados Unidos
Acequia Capital
Estados Unidos
Equipe FedML
Salman Avestimehr
cofundador e CEO
Chaoyang He
cofundador e CTO
Distribuído por
Notícias
O Amanhecer da Verdadeira “OpenAI Descentralizada”: ChainOpera AI Lança a Primeira Economia de IA de Super Agente Full-stack Descentralizada do Mundo
#Layer1
The Block
8 days ago
🚀 Apresentando o Fox-1: O Inovador SLM de Código Aberto da TensorOpera!Estamos empolgados em apresentar o TensorOpera Fox-1, nosso modelo de linguagem pequeno (SLM) de 1,6 bilhões de parâmetros de ponta, projetado para avançar a escalabilidade e a propriedade no cenário de IA generativa. O Fox-1 se destaca ao oferecer desempenho de alto nível, superando SLMs comparáveis desenvolvidos por gigantes da indústria como Apple, Google e Alibaba.O que há de único no Fox-1?🌟 Desempenho Excepcional (Pequeno, mas Inteligente): O Fox-1 foi treinado do zero com um currículo de dados em 3 estágios em 3 trilhões de tokens de dados de texto e código com comprimento de sequência de 8K. Em vários benchmarks, o Fox-1 está à altura ou supera outros SLMs em sua classe, incluindo o Gemma-2B do Google, o Qwen1.5-1.8B da Alibaba e o OpenELM1.1B da Apple.🌟 Design Arquitetônico Avançado: Com uma estrutura de transformer apenas para decodificação, 16 cabeças de atenção e atenção de consulta agrupada, o Fox-1 é notavelmente mais profundo e mais capaz do que seus pares (78% mais profundo que o Gemma 2B, 33% mais profundo que o Qwen1.5 - 1.8B, e 15% mais profundo que o OpenELM 1.1B).🌟 Eficiência de Inferência (Rápido): Na plataforma de serviços TensorOpera com implantação de precisão BF16, o Fox-1 processa mais de 200 tokens por segundo, superando o Gemma-2B e igualando a velocidade do Qwen1.5-1.8B.🌟 Versatilidade em Múltiplas Plataformas: A integração do Fox-1 nas plataformas da TensorOpera permite que desenvolvedores de IA construam seus modelos e aplicações na nuvem através da TensorOpera AI Platform, e depois implantem, monitorem e ajustem eles em smartphones e PCs com IA através da plataforma TensorOpera FedML. Isso oferece eficiência de custos, privacidade e experiências personalizadas dentro de uma plataforma unificada.Por que SLMs?1⃣ SLMs oferecem capacidades poderosas com necessidades computacionais e de dados mínimas. Essa “frugalidade” é particularmente vantajosa para empresas e desenvolvedores que buscam construir e implantar seus próprios modelos em diversas infraestruturas sem a necessidade de extensos recursos.2⃣ SLMs também são projetados para operar com latência significativamente reduzida e requerem muito menos poder computacional em comparação com LLMs. Isso permite que processem e analisem dados mais rapidamente, melhorando dramaticamente tanto a velocidade quanto a eficiência de custos da inferência, além de aumentar a responsividade em aplicações de IA generativa.3⃣ SLMs são particularmente adequados para integração em arquiteturas de IA compostas, como Mixture of Experts (MoE) e sistemas de federação de modelos. Essas configurações utilizam múltiplos SLMs em conjunto para construir um modelo mais poderoso que pode lidar com tarefas mais complexas, como processamento multilíngue e análises preditivas a partir de várias fontes de dados.Como começar?Estamos lançando o Fox-1 sob a licença Apache 2.0. Você pode acessar o modelo a partir da TensorOpera AI Platform e do Hugging Face.Mais detalhes em nosso post de blog: https://t.co/nRemISpsXp…https://t.co/j1EsBS4edl
TensorOpera
jun 13, 2024
🎉 Apresentando a TensorOpera AI, Inc: Uma Nova Era em Nossa Jornada! Estamos empolgados em anunciar um marco significativo em nossa jornada. Há dois anos, embarcamos em um caminho ambicioso com a FedML, focando principalmente em aprendizado federado. Hoje, ao olharmos para o tremendo crescimento e expansão de nossas ofertas de produtos, fica claro que evoluímos para algo muito maior. Para melhor representar a amplitude e profundidade de nossas soluções inovadoras, estamos animados em revelar nossa nova identidade: TensorOpera AI, Inc. 🤔 Por que TensorOpera AI? Nosso novo nome, TensorOpera AI, é um testemunho do nosso compromisso em unir tecnologia de ponta com criatividade. O termo "Tensor" representa os blocos fundamentais da inteligência artificial—enfatizando o papel crítico de dados, poder computacional e modelos nas operações de IA. "Opera", por outro lado, traz à mente o rico e diversificado mundo das artes—abrangendo poesia, música, dança, orquestração e colaboração. Este nome reflete nossa visão para um futuro de IA generativa, caracterizado por multimodalidade e sistemas de IA complexos e multimodais que são tão harmoniosos e coordenados quanto uma grande ópera. 📈 Nossa Linha de Produtos em Expansão Como TensorOpera AI, temos orgulho de oferecer duas linhas principais de produtos que atendem a uma ampla gama de necessidades dentro da comunidade de IA: TensorOpera AI Platform - Acessível em https://t.co/mKbyzriZyQ, esta plataforma é uma potência para desenvolvedores e empresas que desejam construir e escalar suas aplicações de IA generativa. Nossa plataforma se destaca em fornecer recursos de nível empresarial que incluem implantação de modelos, APIs de agentes de IA, operações em nuvem GPU sem servidor e descentralizadas para treinamento e inferência, além de ferramentas abrangentes para segurança e privacidade. Foi projetada para capacitar os usuários a criar, escalar e prosperar no ecossistema de IA de forma econômica e eficiente. TensorOpera FedML - Disponível em https://t.co/HWftJA1QPO, esta plataforma continua sendo uma líder em tecnologia de aprendizado federado. Ela oferece uma solução sem código, segura e multiplataforma que é perfeita para computação em borda. O Edge AI SDK, parte da TensorOpera FedML, garante fácil implantação em GPUs de borda, smartphones e dispositivos IoT. Além disso, as capacidades de MLOps da plataforma simplificam a descentralização e a aplicação no mundo real de aprendizado de máquina, apoiadas por anos de pesquisa pioneira de nossos cofundadores. 🚀 Olhando para o Futuro Como TensorOpera AI, continuamos dedicados a empurrar os limites do que é possível em IA generativa. Nossa mudança de marca não é apenas uma troca de nome, mas uma renovação de nossa promessa a você—nossa comunidade de desenvolvedores, pesquisadores e inovadores—de fornecer as ferramentas e a tecnologia que você precisa para ter sucesso nesta emocionante era da IA. Convidamos você a se juntar a nós na TensorOpera AI enquanto continuamos a orquestrar um futuro mais inteligente e criativo juntos.
TensorOpera
mai 13, 2024
Estamos entusiasmados em anunciar nossa parceria com a DENSO para capacitar o treinamento, desenvolvimento e implementação totalmente on-premise de modelos de IA por meio da plataforma Nexus AI da @FEDML_AI (https://t.co/7cKYybixvQ).\n\nÀ medida que as empresas e organizações avançam rapidamente para integrar a IA em seus produtos e serviços, a necessidade de privacidade, segurança, controle total e propriedade de toda a pilha de software de IA se torna um requisito crítico. Isso é especialmente verdadeiro com o surgimento de modelos e aplicações de IA Generativa, já que dados e modelos de IA se tornaram ativos essenciais para qualquer organização obter sua vantagem competitiva.\n\nA FEDML está comprometida em ajudar as empresas a navegar na revolução da IA com total propriedade e controle. Ao implantar a plataforma Nexus AI da FEDML em sua própria infraestrutura (seja em nuvem privada, servidores on-premise ou híbridos), as empresas podem oferecer a seus funcionários e clientes capacidades escaláveis e de ponta de GenAI, enquanto lhes proporcionam controle total sobre seus dados, modelos e recursos computacionais.\n\nNossa parceria com a DENSO incorpora perfeitamente nossa visão de fornecer a Plataforma de IA Generativa "Sua" em Escala.\n\nLeia mais aqui: https://t.co/CMBgqOFrE1 via @VentureBeat
TensorOpera
abr 30, 2024
🔥 Comece a construir seu próprio Llama3 ajustado no FEDML Nexus AI! O Llama3 70B de código aberto é extremamente bom: está à altura do desempenho do GPT-4 de código fechado na Classificação do Chatbot Arena (até 20 de abril de 2024). Isso oferece uma excelente oportunidade para empresas e desenvolvedores possuírem um LLM de alto desempenho hospedado de forma própria, personalizado com seus dados privados. No FEDML, estamos muito empolgados em compartilhar nossa plataforma sem código e sem servidor para ajuste fino do Llama3-8B/70B, que não requer forte especialização e conhecimento em Infraestrutura de IA e ML. Também temos disponibilidade sob demanda de GPUs H100 80GB a um preço muito baixo na nuvem do FEDML, que podem ser utilizadas diretamente ao iniciar seus trabalhos de ajuste fino. Você só precisa: (1) Preparar seus próprios dados de treinamento (veja as instruções aqui: https://t.co/Kqme8Bln9P); (2) Configurar hiperparâmetros (ou, usar os padrões fornecidos pela plataforma) (3) Clique em Lançar! Leia mais detalhes e comece aqui: https://t.co/FTAp1DikHS#Llama3 #ajustefinosemservidor #fedml
TensorOpera
abr 22, 2024
🚀🚀Llama-3 + FEDML!Llama 3 agora está disponível no FEDML Nexus AI para➤ Acessar e usar APIs com crédito gratuito de R$ 20 e depois emLlama3-8B - R$ 0,10 / 1M TokenLlama3-70B - R$ 0,90 / 1M Token➤ Implantar e servir em seus servidores dedicados com escalonamento automático e monitoramento avançado➤ Criar poderosos Agentes de IA com ele usando um pipeline RAG totalmente integrado➤ Ajustá-lo com um clique no FEDML Nexus AI StudioComece aqui: https://t.co/cnEfbIfnpk
TensorOpera
abr 18, 2024
🚀🚀 @FEDML_AI x @ToyotaMotorCorp Estamos animados em anunciar nossa colaboração com a Toyota Motor Corporation para trazer Aprendizado Federado para a indústria de veículos elétricos (EV).O aprendizado federado tem o potencial de revolucionar a indústria de EV ao facilitar o desenvolvimento e aprimoramento de modelos de IA personalizados e privados. Esses modelos aprendem a partir de uma rica variedade de dados coletados nos veículos, como os hábitos do motorista—incluindo velocidade e distâncias de frenagem—e padrões de condução, tudo isso garantindo a privacidade desses dados. Essa abordagem não apenas melhora a experiência do usuário ao adaptar o desempenho do veículo às preferências individuais, mas também aumenta a segurança e a eficiência geral do veículo.Através de nossa recente colaboração com a Toyota, demonstramos o treinamento federado de modelos de IA para estimativa precisa da autonomia da bateria em EVs. Este é um problema crucial na indústria de EV, pois aumenta a confiança do motorista, ajuda no planejamento eficiente de rotas e é essencial para superar a ansiedade de autonomia. Surpreendentemente, 58% dos motoristas afirmam que a ansiedade de autonomia os impede de comprar um carro elétrico!Nesta colaboração, a plataforma FEDML Nexus AI (https://t.co/5AHWXcd9TG) foi utilizada para implantar e testar cenários de aprendizado federado centralizado, federado e personalizado em veículos em um ambiente de laboratório. Os resultados demonstram que, em comparação com o treinamento centralizado, o uso de aprendizado federado personalizado:🎯 a necessidade de largura de banda é reduzida em 35x!🎯 o tempo de computação em nuvem é reduzido em 9x!🎯 a precisão do modelo personalizado é melhorada em 20%!🎯 o treinamento geral é reduzido em 2x!Esses resultados são convincentes, demonstrando o impacto significativo do aprendizado federado na melhoria do desempenho, custo e privacidade na indústria de EV.🔥 Estamos a caminho de aumentar o número de veículos e configurar um ambiente maior e mais desafiador para ver como os veículos lidam com terrenos mais intensos.Leia mais aqui: https://t.co/0QpB30zj1p#fedml #toyota #federatedlearning #invehicleAI
TensorOpera
abr 18, 2024
🚨Atenção, construtores de modelos GenAI! A FEDML possui H100 dedicado disponível na FEDML Nexus AI a um preço muito competitivo em uma base mensal. 🔥 Entre em contato conosco se estiver interessado!
TensorOpera
abr 11, 2024
🚨 @FEDML_AI é um Recipiente de Inovador de Destaque que se apresentará no Venture Summit West na próxima quarta-feira!Estaremos apresentando na trilha de IA no Venture Summit West no Silicon Valley no dia 10 de abril às 11h40. Estamos animados para nos conectar com líderes da indústria e investidores para mostrar o potencial do FEDML Nexus AI.Encontre mais informações aqui: https://t.co/wCxeaolB3a#FEDML #inovadores #VentureSummitWest #SiliconValley
TensorOpera
abr 4, 2024
🔥 DBRX da @databricks e Grok1 da @xai agora estão disponíveis GRATUITAMENTE no FEDML Nexus AI!Agora oferecemos o Playground, acesso à API e Implantação Privada para os dois modelos fundacionais de código aberto mais recentes da Databricks e xAI no @FEDML_AI Model Hub (https://t.co/XFNqcrdGJR).Você pode usar esses modelos gratuitamente em nosso playground, usar as APIs gratuitamente e ainda criar endpoints dedicados para produção. 🤖Databricks Instruct (DBRX): Este grande modelo de linguagem desenvolvido pela Databricks supera muitos LLMs de código aberto e até mesmo modelos proprietários como o GPT-3.5, graças à sua eficiente arquitetura Mixture-of-Experts. A Databricks tornou o DBRX de código aberto, permitindo que as empresas personalizem e melhorem o modelo para seus casos de uso específicos. 🤖Grok1: Este é um notável grande modelo de linguagem desenvolvido pela xAI de Elon Musk, notável por sua escala massiva, arquitetura inovadora Mixture-of-Experts, disponibilidade de código aberto e personalidade única.Comece a usar esses modelos no FEDML Nexus AI, sua Plataforma de IA Generativa em Escala (https://t.co/7cKYybj5lo).
TensorOpera
mar 29, 2024
#genai #modelserving Plataforma de Servição de Modelos em Cinco Camadas da FEDML! A plataforma FEDML Nexus AI (https://t.co/HWftJA1QPO) fornece um dos serviços de inferência de modelos mais avançados, composto por uma arquitetura de 5 camadas: Camada 0: Ponto de Entrega e Inferência. Esta camada possibilita API HTTPs, personalização de modelos (treinamento/ajuste fino), escalabilidade, agendamento, gerenciamento de operações, registro, monitoramento, segurança (por exemplo, camada de confiança para LLM), conformidade (SOC2) e implantação local. Camada 1: Agendador de Lançamento da FEDML. Ele colabora com a plataforma MLOps L0 para gerenciar o fluxo de trabalho de implantação em dispositivos GPU para executar código de servição e configuração. Camada 2: Framework de Servição da FEDML. É um framework gerenciado para escalabilidade e observabilidade da servição. Ele carregará o motor de servição e o código de servição em nível de usuário. Camada 3: APIs de Definição e Inferência de Modelos. Os desenvolvedores podem definir a arquitetura do modelo, o motor de inferência para executar o modelo e o esquema relacionado das APIs de inferência do modelo. Camada 4: Motor de Inferência e Hardware. Esta é a camada em que muitos pesquisadores de sistemas de aprendizado de máquina e empresas de aceleradores de hardware trabalham para otimizar a latência e a capacidade de processamento da inferência. Em nosso mais recente post no blog técnico, mergulhamos nos detalhes da implantação de modelos da FEDML e do framework de servição e como os desenvolvedores podem começar a utilizá-lo: https://t.co/lA6VA01q7E
TensorOpera
mar 27, 2024
🚀🚀 O aplicativo FEDML GenAI agora foi lançado no Discord! Os membros da comunidade @FEDML_AI agora podem criar imagens impressionantes diretamente no nosso canal do Discord (https://t.co/PkHMWL04qJ) usando modelos GenAI no hub de modelos FEDML Nexus AI e servidos na nuvem FEDML. Este aplicativo mostra um vislumbre dos recursos da plataforma FEDML Nexus AI (https://t.co/7cKYybj5lo) para servir modelos/aplicativos GenAI escaláveis. Junte-se à nossa próspera comunidade Discord aqui (https://t.co/PkHMWL04qJ) para brincar com este aplicativo incrível. Além disso, prepare-se para modalidades ainda mais emocionantes (vídeo, 3D, etc.) que serão adicionadas em breve! 🔥🔥
TensorOpera
mar 26, 2024
🚀Notícias da Sexta-feira Divertida da FEDML! Estamos empolgados em anunciar o lançamento do nosso novo aplicativo FEDML GenAI no Slack! ✨ A partir de agora, os membros da comunidade FEDML podem criar imagens impressionantes diretamente em nosso canal do Slack usando modelos GenAI no hub de modelos de IA da FEDML Nexus, e servidos na nuvem da FEDML. Junte-se à nossa comunidade de mais de 2000 pessoas no Slack (https://t.co/UaY2SV6QAB) para explorar este aplicativo divertido! Além disso, fique atento, pois em breve adicionaremos mais modalidades empolgantes ao aplicativo FEDML GenAI... Nosso objetivo ao lançar este aplicativo é demonstrar as capacidades da plataforma FEDML Nexus AI para o serviço escalável de modelos/aplicativos GenAI. Entre em contato conosco se você também gostaria de lançar aplicativos semelhantes em sua comunidade. #FEDML #GenAI #CreativeAI #SlackApp #SextaFeliz
TensorOpera
mar 22, 2024
🚀 Novidades Empolgantes! 🚀#pretreinamento #ajuste_fino #llm #GaLore #FEDML🌟 A plataforma FEDML Nexus AI agora desbloqueia o pré-treinamento e o ajuste fino do LLaMA-7B em RTX4090s geo-distribuídos!📈 Ao apoiar o recém-desenvolvido GaLore como um trabalho pronto para lançamento no FEDML Nexus AI, habilitamos o pré-treinamento e o ajuste fino de modelos como LLaMA 7B com um tamanho de lote de tokens de 256 em uma única RTX 4090, sem necessidade de otimização adicional de memória.🔗 Significado? Estamos ampliando o treinamento de LLMs pesados em GPUs mais acessíveis ao redor do mundo.💡 A mágica por trás disso? Apresentando o FedLLM e o UnitedLLM: nossos titãs gêmeos para aprendizado colaborativo. O FedLLM aproveita dados geo-distribuídos enquanto mantém a privacidade, e o UnitedLLM utiliza a força coletiva de GPUs comunitárias para treinamento de modelos descentralizados. Juntos, eles estão transformando o cenário de treinamento de IA!Para mais detalhes, por favor, leia nosso blog em https://t.co/dXMiEI5Be1
TensorOpera
mar 21, 2024
🚀Junte-se a nós para nosso evento pós-GTC na quinta-feira às 17h em nosso escritório "The Lucky Building"🤞Nas salas sagradas que anteriormente abrigaram empresas como @Google, @PayPal e recentemente @FEDML_AI, "The Lucky Building" (165 University Avenue, Palo Alto) está na localização privilegiada no coração do Vale do Silício. Estamos ansiosos para receber fundadores, parceiros e investidores de IA generativa em nosso espaço, tendo discussões empolgantes e algumas bebidas juntos.Confirme sua presença aqui: https://t.co/orSjCdxMq7#GTC24 #GDC24 #GenerativeAI #SiliconValley
TensorOpera
mar 21, 2024
#llm #treinamento #ajuste_fino #genai #ml #ai #aprendizado_de_máquina Estamos empolgados em apresentar nosso Serviço de Nuvem de Treinamento Sem Servidor no FEDML Nexus AI com Rastreamento Experimental Sem Costura. Ele oferece uma variedade de tipos de GPU (A100, H100, A6000, RTX4090, etc.) para desenvolvedores treinarem seu modelo a qualquer momento de forma sem servidor. Os desenvolvedores pagam apenas pelo uso. Inclui os seguintes recursos: 1. Treinamento econômico: Os desenvolvedores não precisam alugar ou comprar GPUs, podem iniciar tarefas de treinamento sem servidor a qualquer momento e só precisam pagar de acordo com o tempo de uso; 2. Gestão de Recursos Flexível: Os desenvolvedores também podem criar um cluster para usar máquinas fixas e suportar a função de autostop do cluster (como desligamento automático após 30 minutos) para ajudar a economizar os custos perdidos causados por esquecer de desligar os recursos ociosos; 3. Configuração de Código Simplificada: Você não precisa modificar seu código-fonte de treinamento em python, apenas precisa especificar o caminho do código, o script de instalação do ambiente e a entrada principal através do arquivo YAML 4. Rastreamento Experimental: O processo de treinamento inclui ricas funções de rastreamento experimental, incluindo Visão Geral da Execução, Métricas, Registros, Monitoramento de Hardware, Modelo, Artefatos e outras capacidades de rastreamento. Você pode usar a API fornecida pela Biblioteca Python do FEDML para rastreamento experimental, como fedml.log(); 5. Disponibilidade de GPU: Existem muitos tipos de GPU para escolher. Você pode ir para a Nuvem Segura ou Nuvem Comunitária para visualizar o tipo e configurá-lo no arquivo YAML para utilizá-lo. Vamos mostrar como é simples a seguir: - Treinamento de LLM Sem Código no FEDML Nexus AI- Treinamento de Mais Modelos GenAI com o FEDML Launch e Armazenamento de Jobs Pré-construídos- Rastreamento de Experimentos para Treinamento Distribuído em Grande Escala- Treine em Seu Próprio cluster de GPU https://t.co/GfkcLi4LB8
TensorOpera
mar 19, 2024
Aprendizado federado na AWS usando FedML, Amazon EKS e Amazon SageMaker
TensorOpera
mar 16, 2024
Avanços Recentes da FEDML em Aprendizado Federado (2023-2024)Como pioneira no campo do aprendizado federado, a FEDML inicialmente se concentrou em uma plataforma de IA dedicada ao aprendizado federado. Com o tempo, evoluiu para uma "Sua Plataforma de IA Generativa em Grande Escala". Durante essa transformação, continuamos a fazer progressos significativos e a alcançar marcos importantes no domínio do aprendizado federado. Neste post, refletiremos sobre nossas perspectivas em relação ao aprendizado federado dentro do cenário de IA Generativa (GenAI) e recapitularemos os avanços que fizemos ao longo do ano anterior.https://t.co/WeCTIkXWcO
TensorOpera
mar 14, 2024
🎇 🎉 🚀 FEDML Nexus AI é a plataforma escalável de GenAI para desenvolvedores, startups e empresas executarem aplicações de forma fácil e econômica. Para trazer inovações da pesquisa para a produção rapidamente, hoje estamos muito empolgados em anunciar o lançamento de três modelos inovadores de GenAI de código aberto em produção como APIs HTTP fáceis de usar: LLaVa-13B, SQLCoder-70B e InstantID. https://t.co/HWftJA1QPO 💽 1. SQLCoder-70B: escreva SQL como um especialista em banco de dados Pare de lutar com consultas SQL complexas! SQLCoder transforma suas perguntas em linguagem natural e gera instantaneamente o código SQL perfeito para respondê-las. Não é mais necessário escrever código você mesmo - basta perguntar ao SQLCoder, e ele cuidará do trabalho pesado.  🖼 2. LLaVa-13B: modelo de linguagem e visão grande LLaVA representa um novo modelo multimodal de grande escala treinado de ponta a ponta que combina um codificador de visão e Vicuna para compreensão visual e linguística de propósito geral, alcançando capacidades de chat impressionantes que imitam o espírito do multimodal GPT-4 e estabelecendo um novo padrão de precisão no Science QA. 📸 3. InstantID: gere instantaneamente sua imagem pessoal de alta fidelidade com uma única imagem de referência Quer criar imagens personalizadas em segundos? InstantID é uma ferramenta revolucionária de IA que permite transformar uma única foto em uma variedade de poses e estilos, tudo enquanto preserva sua identidade.  Não é mais necessário ter um enorme conjunto de dados de imagens - InstantID faz sua mágica com apenas uma! #InstantID #SQLCoder #llava #EstilizaçãoDeImagens #GeraçãoDeCódigo #CompreensãoVisual
TensorOpera
mar 13, 2024
🚀🚀🚀 Apresentando o FEDML Launch - Execute Qualquer Trabalho de GenAI em uma Nuvem GPU Globalmente Distribuída: Pré-treinamento, Ajuste Fino, Aprendizado Federado e Muito Mais. É alimentado pelo FEDML Nexus AI, sua plataforma de IA generativa em escala Plataforma: https://t.co/HWftJA1QPOGitHub: https://t.co/RPdIvl2tGdDocumentação: https://t.co/Ff9rxdUZxcA Inteligência Artificial Geral (AGI) promete um salto transformador na tecnologia, exigindo fundamentalmente a escalabilidade de modelos e dados para liberar todo o seu potencial. Organizações como OpenAI e Meta têm estado na vanguarda, avançando no campo ao aderir às "leis de escalabilidade" da IA. Essas leis postulam que modelos de aprendizado de máquina maiores, equipados com mais parâmetros e treinados com mais dados, produzem desempenho superior. No entanto, a abordagem atual, centrada em enormes clusters de GPU dentro de um único centro de dados, representa um desafio significativo para muitos profissionais de IA.Nossa visão é fornecer uma plataforma de IA escalável para democratizar o acesso a sistemas de IA distribuídos, promovendo a próxima onda de avanços em modelos fundamentais. Ao aproveitar um maior número de GPUs e acessar dados geo-distribuídos, buscamos amplificar a inteligência coletiva desses modelos. Para tornar isso uma realidade, a capacidade de executar trabalhos de IA de forma contínua, desde um laptop local até uma nuvem GPU distribuída ou clusters locais, é essencial—particularmente ao utilizar GPUs espalhadas por várias regiões, nuvens ou provedores. É um passo crucial para que os profissionais de IA tenham um produto como esse ao seu alcance, em direção a um futuro mais inclusivo e expansivo para o desenvolvimento da AGI.Na FEDML, desenvolvemos o FEDML Launch, um super lançador que pode executar qualquer trabalho de IA generativa (pré-treinamento, ajuste fino, aprendizado federado, etc.) em uma nuvem GPU globalmente distribuída. Ele rapidamente emparelha trabalhos de IA com os recursos de GPU mais econômicos, provisiona automaticamente e executa o trabalho sem esforço, eliminando a configuração e gerenciamento complexos do ambiente. Ele suporta uma variedade de trabalhos intensivos em computação para IA generativa e LLMs, como treinamento em larga escala, ajuste fino, implantações sem servidor e buscas em banco de dados vetoriais. O FEDML Launch também facilita o gerenciamento e a implantação de clusters locais em nuvens privadas ou híbridas.Saiba mais em https://t.co/BoAoOrGBUV e confira nosso post no blog para mais detalhes: https://t.co/ena26jHdr6#scalableAI #machinelearning #generatieveai #FEDML #distributedcomputing
TensorOpera
mar 12, 2024
🔥🔥 @GroqInc LPU x @FEDML_AI Nexus AI: Agentes de IA Rápidos e Escaláveis!Estamos animados em compartilhar nossa colaboração com @GroqInc, o inovador por trás do LPU™ (Unidade de Processamento de Linguagem) Inference Engine, para trazer sua tecnologia de ponta para inferência em alta velocidade de LLMs para nossa plataforma escalável de IA generativa. Isso estende a versatilidade do Groq LPU e estabelece um novo padrão para a criação de poderosos agentes de IA que exigem desempenho rápido em tempo real.Os desenvolvedores agora podem aproveitar a API FEDML-Groq para integrar perfeitamente o Groq LPU em seus agentes de IA. Essa integração, suportada pelo framework de banco de dados vetorial distribuído da FEDML e pelas capacidades de chamada de função remota, capacita os desenvolvedores a construir soluções de IA rápidas e escaláveis.Além dessa integração sem costura, o FEDML Nexus AI oferece um conjunto de recursos avançados para capacitar ainda mais os desenvolvedores:☁️☁️☁️ Plataforma de serviço de modelo cross-cloud/descentralizada: Garante flexibilidade e escalabilidade para suas implantações de IA.👀📊🔍 Ferramentas detalhadas de observabilidade de endpoint: Obtenha insights valiosos sobre o desempenho de seus agentes de IA, permitindo otimização contínua.🔧🚀📈 Personalize, Implemente e Escale qualquer modelo: Ajuste seus modelos, crie endpoints dedicados e sirva seu endpoint de maneira escalável.Através dessa integração, esperamos fechar a lacuna entre o hardware LPU e os desenvolvedores de aplicações de IA — capacitando os desenvolvedores a aproveitar facilmente o serviço de inferência mais rápido do mundo para impulsionar a inovação em aplicações.Leia nosso último post no blog (https://t.co/y7qJfL4wxw) para obter muito mais insights sobre:💡 Por que integrar as APIs de alta velocidade da Groq ao FEDML Nexus AI?💡 Como usar a API FEDML-Groq?💡 Como monitorar o desempenho da API da Groq?💡 Como funciona a integração FEDML-Groq?💡 Avanços adicionais: Personalize, Implemente e EscaleComece a construir aqui: https://t.co/5AHWXcd9TG#FEDML #Groq #LLM #FastInference #AIAgents
TensorOpera
mar 6, 2024
A FEDML está na Cúpula de AGI Descentralizada (https://t.co/wA7QXUlLRF) em ETH Denver, onde Salman Avestimehr @avestime está falando sobre nossos esforços recentes em trazer modelos populares de GenAI para a plataforma FEDML Nexus AI, a fim de capacitar desenvolvedores a construir e monetizar Agentes e aplicações de IA de forma colaborativa. Comece a construir seus próprios Agentes de IA hoje (https://t.co/7cKYybj5lo)!
TensorOpera
fev 27, 2024
O FEDML Nexus AI (https://t.co/HWftJA1QPO) agora suporta o serviço de nuvem baseado em Agente LLM. Nós o chamamos de FEDML AI Agent. O FEDML AI Agent faz parte de nossa visão de construir uma IA de código aberto. O Agente LLM pode utilizar LLMs, ferramentas e conhecimento para responder a consultas dos usuários. O Agente LLM usa LLM como seu cérebro, aprende a chamar APIs externas (ferramentas) para obter informações adicionais que estão ausentes nos pesos do modelo e também aproveita a base de dados vetorial apoiada por RAG (geração aumentada por recuperação) como sua "memória". Nesta versão, oferecemos uma experiência semelhante à API de Assistentes e GPTs da OpenAI. Aqui estão os destaques: 1. Nossa API de Assistente é compatível com a API de Assistente da OpenAI. 2. Você pode conectar seu modelo LLM ajustado ou qualquer outro LLM de código aberto com nosso estúdio sem código. 3. Nós habilitamos RAG descentralizado para acelerar a consulta e reduzir o custo em nuvem da base de dados vetorial. 4. Implantação local em minutos se você quiser ter seu agente; você pode até usar seu crédito gratuito da AWS/GCP/Azure em nossa plataforma. 5. O aprimoramento contínuo de LLM é suportado com nosso FEDML®Launch, um super agendador para executar qualquer trabalho de IA em nuvens GPU descentralizadas.
TensorOpera
dez 16, 2023
#mixtral #mistral #LLM360 Servindo Mixtral e LLM360 no FEDML Nexus AI (https://t.co/HWftJA1j0g). Oferecemos endpoints do modelo Mixtral os mais baratos do mercado: apenas R$ 0,0005 / 1K tokens! FEDML adota código aberto e pesos de modelo abertos. Acreditamos que o futuro da IA pertence à colaboração aberta em larga escala. Hoje estamos empolgados em apoiar novos avanços em modelos de fundação de código aberto: Mixtral, o mais recente LLM de código aberto superando o Llama2-70B com arquitetura Mixture-of-Experts (MoE), e Amber e CrystalCoder apoiados pelo LLM360, a estrutura para LLMs de código aberto que promove transparência, confiança e pesquisa colaborativa. Comparado aos produtos de ML fragmentados existentes no mercado, o FEDML Nexus AI é o serviço de nuvem de próxima geração para LLM e IA Generativa. Ele fornece uma plataforma de ponta a ponta apoiada por infraestrutura de IA sem servidor/descentralizada. Especificamente: 1. O Motor de Servir Econômico, ScaleLLM, é onde você executa seu modelo a um preço mais barato otimizando a memória da GPU e com throughput totalmente otimizado para suportar mais solicitações simultâneas. 2. O FEDML® Deploy simplifica o fluxo de trabalho de CLI e MLOps para implantação de modelos em nuvem GPU sem servidor ou em cluster local. 3. O Endpoint Sem Servidor opera em nuvens GPU sem servidor. Com nossa política de pagamento por uso, abstraímos a responsabilidade de adquirir ou alugar um extenso inventário de GPUs quando você não tem certeza sobre o tráfego futuro de serviços de IA. O recurso de escalonamento automático ajusta perfeitamente os recursos de GPU do backend em resposta ao tráfego do seu serviço. 4. A Implantação Local ajuda você a possuir seu modelo LLM em seu ambiente local com suporte à segurança de IA. 5. O FEDML® Launch para nuvens GPU sem servidor. Com uma linha de CLI, ele rapidamente pareia trabalhos de IA com os recursos de GPU mais econômicos, provisiona automaticamente e executa o trabalho sem esforço, abstraindo a configuração e gerenciamento de ambiente complexos. 6. O Ajuste Fino Sem Código suportado pelo FEDML® Studio otimiza seu modelo em seus dados específicos de domínio sem escrever uma linha de código-fonte. 7. O Pré-treinamento de LLM suporta gerenciamento de cluster e rastreamento experimental. Você mantém seus clusters de treinamento para suas necessidades urgentes em seu domínio vertical. Como nota final, o FEDML está se preparando para revelar um serviço de ponta para agentes baseados em LLM e nosso próprio LLM econômico. Fique atento e fique de olho nos próximos anúncios!
TensorOpera
dez 12, 2023
🚀 Apresentando ScaleLLM: Desbloqueando a Inferência do Llama2-13B LLM no RTX-4090Enquanto as GPUs de alto desempenho como a H100 e A100 estão em falta, GPUs de menor desempenho como a RTX 4090, L4, T4 e outras GPUs para jogos estão abundantes.Estamos empolgados em apresentar o ScaleLLM, um mecanismo de serviço de modelos sem servidor e eficiente em termos de memória para grandes modelos de linguagem (LLMs) que alcança os seguintes marcos principais:1️⃣ Hospedar LLaMA-2-13B-chat em um único RTX 4090 com 1,88x menos latência em comparação ao vLLM no A100.2️⃣ Triplicar a eficiência hospedando três serviços LLaMA-2-13B-chat em uma única A100, com 1,21x menos latência do que um único serviço vLLM.3️⃣ Tempos de resposta ultra-rápidos para LLaMA-2-13B-chat em GPUs L4/T4, atendendo à demanda por geração do primeiro token abaixo de 1 segundo.Quer:🧐 Saber mais: post do blog https://t.co/0KLPKW8KXn🚀 Usar em produção: FEDML Nexus AI (https://t.co/OXAyxBPdsX)
TensorOpera
nov 13, 2023
FEDML Nexus AI integra novos modelos (Zephyr-7B e Mitral-7B) e frameworks de serviço (LangChain, vLLM, HuggingFace)! Nos últimos dias, testemunhamos Zephyr-7B (https://t.co/hnq1mWeh1a) se tornar o estado da arte em vários benchmarks de LLM entre os LLMs de 7B. Para habilitar esses modelos em produção, a plataforma de implantação de modelo FEDML Nexus AI oferece um pipeline de implantação de modelo fácil de usar e possibilita um endpoint eficiente com as bibliotecas de serviço LangChain, vLLM e HuggingFace. Principais vantagens de usar o FEDML Nexus AI para implantação de modelo: 1. Um fluxo de trabalho muito simples para concluir a implantação em nuvem de ponta a ponta. 'fedml model deploy' é tudo que você precisa! 2. Nosso mecanismo FEDML®Deploy fornece a capacidade de executar LLMs maiores em GPUs de baixo custo ou operar vários LLMs simultaneamente em GPUs de alto desempenho. 3. Modo local: O endpoint de inferência escalável pode conectar um cluster de servidores locais geodistribuídos. Os desenvolvedores podem integrar suas GPUs dispersas na Plataforma FEDML Nexus AI e depois implantar o modelo rapidamente. Sem bloqueio e sem necessidade de encontrar todos os recursos em um único data center ou provedor de GPU! 4. Modo de nuvem: Encontrar GPUs é um problema? Não se preocupe, automatizamos todo o pipeline na busca de recursos, fornecendo ambiente de serviço através do FEDML®Launch, um iniciador simples para executar qualquer trabalho de IA em qualquer nuvem de GPU de IA. 5. Você não precisa se tornar um especialista em computação em nuvem. Adaptado para LLM, nosso FEDML®Deploy suporta monitoramento do sistema, serviço de registro e escalonamento automático de recursos. Para mais detalhes, consulte nossa documentação (https://t.co/rKKTL9p60j), e introdução em vídeo (https://t.co/YVrjy50m8j), e experimente em https://t.co/Qby8wnFAeK
TensorOpera
nov 3, 2023
📢 Novidades Empolgantes da FEDML! Curioso para saber mais sobre o nosso recém-lançado FEDML Nexus AI?Estamos empolgados em anunciar nosso próximo webinar sobre o FEDML Nexus AI - o futuro dos serviços em nuvem de próxima geração, adaptados para LLMs e IA generativa.Registre-se via https://t.co/9BIOdJdoNi https://t.co/SNzvvSbMHx
TensorOpera
nov 1, 2023
BTC:$108,825.2+0.12%ETH:$2,565.97+0.15%ssiMAG7:$20.3-0.02%ssiMeme:$16.14-0.39%
BTC:$108,825.2+0.12%ETH:$2,565.97+0.15%XRP:$2.293+0.20%BNB:$660.09-0.28%
SOL:$151.15-0.72%TRX:$0.2866-0.31%DOGE:$0.1696-0.96%ADA:$0.5848-0.41%
10:57Sócio da DWF Labs: cerca de 89% dos ativos de reserva do USDf são stablecoins e BTC, e cerca de 11% são altcoins
10:43O endereço 0xVladilena depositou 2.000.000 USDC em HyperLiquid e alavancou 10x para comprar SOL
TermosPolítica de PrivacidadePapel BrancoVerificação oficialCookieBlogue
Olá, sou seu assistente de IA de criptomoedas Socatis. Pergunte-me qualquer coisa sobre criptomoedas.
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==