Modelos

Modelos disponíveis no Evaristo.ai

Gervásio 8B PTPT logo Ativo
Gervásio 8B PTPT Modelo com 8 mil milhões de parâmetros, especializado para o português de Portugal, afinado para responder a perguntas, publicado pelo NLX-Grupo de Fala e Linguagem Natural da Faculdade de Ciências da Universidade de Lisboa (Portugal), em junho de 2025. Este modelo foi treinado com dados recolhidos até dezembro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas. Este modelo usa a variante do português de Portugal. 62.6% de aptidão semântica 17.0% de aptidão cultural 83.6% de aptidão em civilidade
Este modelo suporta extensões
Llama 3.3 70B Instruct logo
Llama 3.3 70B Instruct Modelo com 70 mil milhões de parâmetros, multilingue (7 línguas, incluindo o português), especializado em responder a perguntas, publicado pela META (EUA), em novembro de 2024. Este modelo foi treinado com dados recolhidos até dezembro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Para com este modelo obter respostas a perguntas sobre tais eventos, deverá ser ativada a extensão "Pesquisa na internet". A utilização da variante do português do Brasil por este modelo deve ser dominante. 74.5% de aptidão semântica 21.1% de aptidão cultural 91.8% de aptidão em civilidade
Este modelo suporta extensões
Qwen 3 32B logo
Qwen 3 32B Modelo com 32 mil milhões de parâmetros, multilingue (mais de 100 línguas, incluindo o português), especializado em usar extensões, recorrer a raciocínio e a responder a perguntas, publicado pela Alibaba (China), em abril de 2025. Este modelo foi treinado com dados recolhidos até data não especificada pelos autores. Para com este modelo obter respostas a perguntas sobre eventos ocorridos em qualquer data, deverá ser ativada a extensão "Pesquisa na internet". A utilização da variante do português do Brasil por este modelo deve ser dominante. 68.7% de aptidão semântica 7.3% de aptidão cultural 90.2% de aptidão em civilidade
Este modelo suporta raciocínio
Mistral Small 24B Instruct logo
Mistral Small 24B Instruct Modelo com 24 mil milhões de parâmetros, multilingue (mais de uma dezena de línguas, incluindo o português), especializado em responder a perguntas, publicado pela Mistral AI (França), em janeiro de 2025. Este modelo foi treinado com dados recolhidos até outubro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas. A utilização da variante do português do Brasil por este modelo deve ser dominante. 65.1% de aptidão semântica 7.3% de aptidão cultural 88.5% de aptidão em civilidade
Sabiá 7B logo
Sabiá 7B Modelo com 7 mil milhões de parâmetros, especializado para o português do Brasil, publicado pela Maritaca AI (Brasil), em novembro de 2023. Este modelo foi treinado com dados recolhidos até junho de 2022. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas. Este modelo usa a variante do português do Brasil. 9.7% de aptidão semântica 12.2% de aptidão cultural 3.3% de aptidão em civilidade
DeepSeek Coder 1.3B Instruct logo
DeepSeek Coder 1.3B Instruct Modelo com 1.3 mil milhões de parâmetros, especializado em línguagens de programação, publicado pela Deepseek (China), em outubro de 2023. Este modelo foi treinado com dados recolhidos até fevereiro de 2023. Não tem informação sobre eventos ocorridos posteriormente. Respostas a perguntas sobre tais eventos deverão estar erradas. A utilização da variante do português do Brasil por este modelo deve ser dominante. 21.7% de aptidão semântica 0.0% de aptidão cultural 98.2% de aptidão em civilidade
mais modelos em breve...