Use este identificador para citar ou linkar para este item:
https://repositorio.ifgoiano.edu.br/handle/prefix/6143Registro completo de metadados
| Campo DC | Valor | Idioma |
|---|---|---|
| dc.contributor.advisor1 | Pereira Junior, Cleon Xavier | - |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/2106704642081867 | pt_BR |
| dc.contributor.advisor-co1 | Rodrigues, Luiz Antonio Lima | - |
| dc.contributor.advisor-co1Lattes | http://lattes.cnpq.br/8662825325120611 | pt_BR |
| dc.contributor.referee1 | Vieira, Marcos Alves | - |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/8386511137551387 | pt_BR |
| dc.contributor.referee2 | Lopes, Lais Candido Rodrigues da Silva | - |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/4136531156902075 | pt_BR |
| dc.creator | Santos, Heder Filho Silva | - |
| dc.creator.Lattes | http://lattes.cnpq.br/0311442205991517 | pt_BR |
| dc.date.accessioned | 2026-02-03T12:11:25Z | - |
| dc.date.available | 2026-01-29 | - |
| dc.date.available | 2026-02-03T12:11:25Z | - |
| dc.date.issued | 2025-12-03 | - |
| dc.identifier.uri | https://repositorio.ifgoiano.edu.br/handle/prefix/6143 | - |
| dc.description.abstract | Automatic Short Answer Grading (ASAG) has emerged as a promising approach to reducing human effort in large-scale educational assessments, but studies focused on Brazilian Portuguese remain limited. This work evaluates the performance of three Large Language Models (GPT-4o-mini, Sabiazinho-3, and Gemini 2.0-Flash) in ASAG, testing all 128 possible combinations of seven prompt engineering components and examining how textual characteristics—such as word count and lexical richness—affect model accuracy. Results show that combining few-shot examples with explicit rubrics was the most effective strategy, while step-by-step reasoning particularly benefited GPT-4o-mini. Sabiazinho-3 achieved the highest agreement with human evaluators, Gemini 2.0-Flash obtained the lowest mean absolute error but exhibited a high hallucination rate, and GPT-4o-mini produced the cleanest and most consistent numeric outputs. Furthermore, the lexical profile of student responses significantly influenced model performance, with medium levels of lexical richness posing the greatest challenge across all models. | pt_BR |
| dc.description.resumo | A Correção Automática de Respostas Curtas (em inglês, Automatic Short Answer Grading - ASAG) tem se destacado como alternativa promissora para reduzir o esforço humano em avaliações educacionais, embora ainda existam poucas investigações voltadas ao português brasileiro. Este estudo analisa o desempenho de três Modelos de Linguagem de Grande Escala (GPT-4o-mini, Sabiazinho-3 e Gemini 2.0-Flash) na tarefa de ASAG, avaliando todas as 128 combinações possíveis de sete componentes de engenharia de prompt e examinando como características textuais das respostas como número de palavras e riqueza lexical, influenciam o desempenho dos modelos. Os resultados indicam que a combinação de exemplos few-shot com rubrica explícita foi a mais eficaz, enquanto o raciocínio passo a passo beneficiou especialmente o GPT-4o-mini. O Sabiazinho-3 apresentou a maior concordância com avaliadores humanos, o Gemini 2.0-Flash obteve o menor erro médio absoluto, embora com alta taxa de alucinações, e o GPT-4o-mini produziu as saídas numéricas mais estáveis. Por fim, verificou-se que o perfil lexical das respostas impacta significativamente a qualidade da avaliação automática, sendo a faixa de riqueza lexical média a mais desafiadora para todos os modelos. | pt_BR |
| dc.description.provenance | Submitted by Heder Filho Silva Santos (heder.filho@estudante.ifgoiano.edu.br) on 2026-02-02T20:55:45Z No. of bitstreams: 1 TCC_final_heder.pdf: 1019183 bytes, checksum: df29a1793b4c93551f2ae5a3279c03e7 (MD5) | en |
| dc.description.provenance | Approved for entry into archive by Hevellin Estrela (hevellin.estrela@ifgoiano.edu.br) on 2026-02-03T12:11:19Z (GMT) No. of bitstreams: 1 TCC_final_heder.pdf: 1019183 bytes, checksum: df29a1793b4c93551f2ae5a3279c03e7 (MD5) | en |
| dc.description.provenance | Approved for entry into archive by Hevellin Estrela (hevellin.estrela@ifgoiano.edu.br) on 2026-02-03T12:11:25Z (GMT) No. of bitstreams: 1 TCC_final_heder.pdf: 1019183 bytes, checksum: df29a1793b4c93551f2ae5a3279c03e7 (MD5) | en |
| dc.description.provenance | Made available in DSpace on 2026-02-03T12:11:25Z (GMT). No. of bitstreams: 1 TCC_final_heder.pdf: 1019183 bytes, checksum: df29a1793b4c93551f2ae5a3279c03e7 (MD5) Previous issue date: 2025-12-03 | en |
| dc.language | por | pt_BR |
| dc.publisher | Instituto Federal Goiano | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.publisher.department | Campus Iporá | pt_BR |
| dc.publisher.initials | IF Goiano | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.subject | Correção Automática de Respostas Curtas | pt_BR |
| dc.subject | Modelos de Linguagem de Grande Escala | pt_BR |
| dc.subject | Engenharia de Prompt | pt_BR |
| dc.subject | Português Brasileiro | pt_BR |
| dc.subject | Automatic Short Answer Grading | pt_BR |
| dc.subject | Large Language Models | pt_BR |
| dc.subject | Prompt Engineering | pt_BR |
| dc.subject | Brazilian Portuguese | pt_BR |
| dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO | pt_BR |
| dc.title | AVALIAÇÃO AUTOMÁTICA DE RESPOSTAS CURTAS EM PORTUGUÊS BRASILEIRO: UM ESTUDO SOBRE MODELOS DE LINGUAGEM, ENGENHARIA DE PROMPT E CARACTERÍSTICAS TEXTUAIS | pt_BR |
| dc.title.alternative | Automatic Short Answer Grading in Brazilian Portuguese: A Study on Language Models, Prompt Engineering, and Textual Characteristics | pt_BR |
| dc.type | Trabalho de Conclusão de Curso | pt_BR |
| Aparece nas coleções: | Bacharelado em Ciência da Computação | |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| TCC_final_heder.pdf | 995,3 kB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.