Gervásio 8B PTPTModelo com 8 mil milhões de parâmetros, especializado para o português de Portugal, afinado para responder a perguntas, publicado pelo NLX-Grupo de Fala e Linguagem Natural da Faculdade de Ciências da Universidade de Lisboa (Portugal), em junho de 2025.Este modelo foi treinado com dados recolhidos até dezembro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas.Este modelo usa a variante do português de Portugal.62.6% de aptidão semântica17.0% de aptidão cultural83.6% de aptidão em civilidade
Este modelo suporta extensões
Llama 3.3 70B InstructModelo com 70 mil milhões de parâmetros, multilingue (7 línguas, incluindo o português), especializado em responder a perguntas, publicado pela META (EUA), em novembro de 2024.Este modelo foi treinado com dados recolhidos até dezembro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Para com este modelo obter respostas a perguntas sobre tais eventos, deverá ser ativada a extensão "Pesquisa na internet".A utilização da variante do português do Brasil por este modelo deve ser dominante.74.5% de aptidão semântica21.1% de aptidão cultural91.8% de aptidão em civilidade
Este modelo suporta extensões
Qwen 3 32BModelo com 32 mil milhões de parâmetros, multilingue (mais de 100 línguas, incluindo o português), especializado em usar extensões, recorrer a raciocínio e a responder a perguntas, publicado pela Alibaba (China), em abril de 2025.Este modelo foi treinado com dados recolhidos até data não especificada pelos autores. Para com este modelo obter respostas a perguntas sobre eventos ocorridos em qualquer data, deverá ser ativada a extensão "Pesquisa na internet".A utilização da variante do português do Brasil por este modelo deve ser dominante.68.7% de aptidão semântica7.3% de aptidão cultural90.2% de aptidão em civilidade
Este modelo suporta raciocínio
Mistral Small 24B InstructModelo com 24 mil milhões de parâmetros, multilingue (mais de uma dezena de línguas, incluindo o português), especializado em responder a perguntas, publicado pela Mistral AI (França), em janeiro de 2025.Este modelo foi treinado com dados recolhidos até outubro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas.A utilização da variante do português do Brasil por este modelo deve ser dominante.65.1% de aptidão semântica7.3% de aptidão cultural88.5% de aptidão em civilidade
Sabiá 7BModelo com 7 mil milhões de parâmetros, especializado para o português do Brasil, publicado pela Maritaca AI (Brasil), em novembro de 2023.Este modelo foi treinado com dados recolhidos até junho de 2022. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas.Este modelo usa a variante do português do Brasil.9.7% de aptidão semântica12.2% de aptidão cultural3.3% de aptidão em civilidade
DeepSeek Coder 1.3B InstructModelo com 1.3 mil milhões de parâmetros, especializado em línguagens de programação, publicado pela Deepseek (China), em outubro de 2023.Este modelo foi treinado com dados recolhidos até fevereiro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas.A utilização da variante do português do Brasil por este modelo deve ser dominante.21.7% de aptidão semântica0.0% de aptidão cultural98.2% de aptidão em civilidade