Soluções para o Desafio

Primeira abordagem


A primeira abordagem escolhida foi a de traduzir os esquemas com ambiguidade em português brasileiro para o inglês e utilizar um modelo pré-treinado em inglês. Para esta abordagem, BERT-Large sem ajuste fino é um desses modelos pré-treinados em inglês sem ajuste fino e BERT-Large WSCR é a sua versão com ajuste fino no dataset WSCR.

Segunda abordagem


A segunda abordagem escolhida foi a de utilizar os esquemas com ambiguidade em português brasileiro em um modelo pré-treinado em português ou multi-idiomas. Para esta abordagem, BERT-Base Multilingual é um modelo pré-treinado em múltiplas línguas incluindo o português brasileiro, BERT-Large Português é um modelo pré-treinado em português e o BERT-Base Multilingual Winogrande Traduzido é um modelo também pré-treinado em português mas com ajuste fino no dataset Winogrande traduzido para português.