Gervásio 8B PTPTModelo com 8 mil milhões de parâmetros, especializado para o português de Portugal, afinado para responder a perguntas, desenvolvido pelo NLX-Grupo de Fala e Linguagem Natural da Faculdade de Ciências da Universidade de Lisboa (Portugal), em junho de 2025.62.6% de aptidão semântica17.0% de aptidão cultural83.6% de aptidão em civilidade
Llama 3.3 70B InstructModelo com 70 mil milhões de parâmetros, multilingue (7 línguas, incluindo o português), especializado em responder a perguntas, desenvolvido pela META (EUA), em novembro de 2024.74.5% de aptidão semântica21.1% de aptidão cultural91.8% de aptidão em civilidade
Este modelo suporta extensões
Qwen 3 32BModelo com 32 mil milhões de parâmetros, multilingue (mais de 100 línguas, incluindo o português), especializado em usar extensões, recorrer a raciocínio e a responder a perguntas, desenvolvido pela Alibaba (China), em abril de 2025.68.7% de aptidão semântica7.3% de aptidão cultural90.2% de aptidão em civilidade
Este modelo suporta extensões
Este modelo suporta raciocínio
Mistral Small 24B InstructModelo com 24 mil milhões de parâmetros, multilingue (mais de uma dezena de línguas, incluindo o português), especializado em responder a perguntas, desenvolvido pela Mistral AI (França), em janeiro de 2025.65.1% de aptidão semântica7.3% de aptidão cultural88.5% de aptidão em civilidade
Sabiá 7BModelo com 7 mil milhões de parâmetros, especializado para o português do Brasil, desenvolvido pela Maritaca AI (Brasil), em novembro de 2023.9.7% de aptidão semântica12.2% de aptidão cultural3.3% de aptidão em civilidade
DeepSeek Coder 1.3B InstructModelo com 1.3 mil milhões de parâmetros, especializado em línguagens de programação, desenvolvido pela Deepseek (China), em outubro de 2023.21.7% de aptidão semântica0.0% de aptidão cultural98.2% de aptidão em civilidade