Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
A Red Hat e a AWS estão se unindo para executar o servidor de inferência de IA da Red Hat nos chips Trainium e Inferentia da AWS, prometendo 40% a melhor desempenho de preço do que as GPUs, com uma prévia do desenvolvedor definida para janeiro de 2026.
A Red Hat e a AWS expandiram sua parceria para executar o servidor de inferência de IA da Red Hat nos chips Trainium e Inferentia da AWS, oferecendo até 40% de melhor desempenho de preço do que as instâncias tradicionais baseadas em GPU.
A integração suporta o OpenShift e inclui um novo operador de neurônios da AWS, uma coleção Ansible e um plugin vLLM para implantação de IA simplificada.
A solução, definida para a pré-visualização do desenvolvedor em janeiro de 2026, visa aumentar a eficiência e a escalabilidade da IA corporativa.
4 Artigos
Red Hat and AWS are teaming up to run Red Hat’s AI Inference Server on AWS’s Trainium and Inferentia chips, promising 40% better price-performance than GPUs, with a developer preview set for January 2026.