Meta lança modelo de IA multimodal de código aberto Llama 3.2 para processamento de imagem e texto.

A Meta lançou o Llama 3.2, seu primeiro modelo de IA multimodal de código aberto capaz de processar imagens e texto. Inclui modelos de visão com 11 bilhões e 90 bilhões de parâmetros, e modelos de texto leves com 1 bilhão e 3 bilhões de parâmetros, projetados para hardware diversificado. O Llama 3.2 visa melhorar as aplicações de IA em áreas como realidade aumentada e análise de documentos, oferecendo desempenho competitivo em tarefas de reconhecimento de imagem contra rivais como OpenAI e Anthropic.

September 25, 2024
10 Artigos