Novidades foram mostradas durante o Red Hat Summit e incluem o AI Inference Server, modelos validados e a integração com Llama Stack e MCP.
Imagem: Shutterstock
ARed Hatanunciou na quarta-feira (21) o que ela chama de “grandes transformações” em seu próprioportfólio de IA empresarial, além de um reposicionamento de mercado para “diversas modalidades de inteligência artificial”. O objetivo da empresa é ampliar o uso da tecnologia a partir de modelos, aceleradores e nuvem, de modo a dar aos clientes “as capacidades necessárias para acelerar a adoção da tecnologia”.
As novidades foram mostradas durante oRed Hat Summit 2025, realizado entre 19 e 22 de maio em Boston, nos EUA. Na prática, a empresa lançou oAI Inference Server,modelos validadospor terceiros no Red Hat AI, e a integração com as APIsLlama StackeModel Context Protocol(MCP).
O AI Inference Server promete inferência mais rápida e econômica em escala para ambientes denuvem híbrida. A adição está integrada às versões mais recentes doOpenShift AIe doEnterprise Linux AI, e ainda como solução independente. Já os modelos de terceiros estão disponíveis noHugging Face, e prometem facilitar a escolha das empresas por modelos adequados para cada necessidade.
A promessa é de uma coleção de modelos validados, além de orientações de implantação. Os modelos são otimizados pela Red Hat, com técnicas de compressão que prometem reduzir tamanho e aumentar velocidade de inferência, diminuindo assm o consumo de recursos e os custos operacionais.
Com as integração das APIs Llama Stack, inicialmente desenvolvido pelaMeta, e MCP daAnthropic, a ideia é oferecer APIs padronizadas para construção e implantação de aplicações e agentes de IA.
A Red Hat diz defender um futuro em que organizações possam implantar “qualquer modelo, em qualquer acelerador, em qualquer nuvem”. E que para isso as companhias precisam de “uma plataforma universal de inferência”.
Red Hat anuncia mais ofertas de IA em código aberto
por Romildo de Paula Leite
segunda-feira
Novidades foram mostradas durante o Red Hat Summit e incluem o AI Inference Server, modelos validados e a integração com Llama Stack e MCP.
A Red Hat anunciou na quarta-feira (21) o que ela chama de “grandes transformações” em seu próprio portfólio de IA empresarial, além de um reposicionamento de mercado para “diversas modalidades de inteligência artificial”. O objetivo da empresa é ampliar o uso da tecnologia a partir de modelos, aceleradores e nuvem, de modo a dar aos clientes “as capacidades necessárias para acelerar a adoção da tecnologia”.
As novidades foram mostradas durante o Red Hat Summit 2025, realizado entre 19 e 22 de maio em Boston, nos EUA. Na prática, a empresa lançou o AI Inference Server, modelos validados por terceiros no Red Hat AI, e a integração com as APIs Llama Stack e Model Context Protocol (MCP).
O AI Inference Server promete inferência mais rápida e econômica em escala para ambientes de nuvem híbrida. A adição está integrada às versões mais recentes do OpenShift AI e do Enterprise Linux AI, e ainda como solução independente. Já os modelos de terceiros estão disponíveis no Hugging Face, e prometem facilitar a escolha das empresas por modelos adequados para cada necessidade.
A promessa é de uma coleção de modelos validados, além de orientações de implantação. Os modelos são otimizados pela Red Hat, com técnicas de compressão que prometem reduzir tamanho e aumentar velocidade de inferência, diminuindo assm o consumo de recursos e os custos operacionais.
Com as integração das APIs Llama Stack, inicialmente desenvolvido pela Meta, e MCP da Anthropic, a ideia é oferecer APIs padronizadas para construção e implantação de aplicações e agentes de IA.
A Red Hat diz defender um futuro em que organizações possam implantar “qualquer modelo, em qualquer acelerador, em qualquer nuvem”. E que para isso as companhias precisam de “uma plataforma universal de inferência”.
https://itforum.com.br/noticias/red-hat-ofertas-ia-codigo-aberto/
Para participar de nossa Rede Têxtil e do Vestuário - CLIQUE AQUI