Soluções para o Desafio
Primeira abordagem
A primeira abordagem escolhida foi a de traduzir os esquemas com ambiguidade em português brasileiro para o inglês e utilizar um modelo pré-treinado em inglês. Para esta abordagem, BERT-Large sem ajuste fino é um desses modelos pré-treinados em inglês sem ajuste fino e BERT-Large WSCR é a sua versão com ajuste fino no dataset WSCR.
Segunda abordagem
A segunda abordagem escolhida foi a de utilizar os esquemas com ambiguidade em português brasileiro em um modelo pré-treinado em português ou multi-idiomas. Para esta abordagem, BERT-Base Multilingual é um modelo pré-treinado em múltiplas línguas incluindo o português brasileiro, BERT-Large Português é um modelo pré-treinado em português e o BERT-Base Multilingual Winogrande Traduzido é um modelo também pré-treinado em português mas com ajuste fino no dataset Winogrande traduzido para português.
-
BERT-Base Multilingual
58,6%
-
BERT-Large
Português
55,3%
-
BERT-Base Multilingual Winogrande
65,9%