Skip to content

Este repositório oferece recursos e código para entender e implementar o fine-tuning usando o modelo BERT (Bidirectional Encoder Representations from Transformers) para tarefas de processamento de linguagem natural (PLN).

Notifications You must be signed in to change notification settings

ahirtonlopes/Transformers

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

7 Commits
 
 
 
 

Repository files navigation

Transformers

Este repositório oferece recursos e código para entender e implementar o fine-tuning usando o modelo BERT (Bidirectional Encoder Representations from Transformers) para tarefas de processamento de linguagem natural (PLN).


Fine-Tuning do Google BERT para Tarefas de Processamento de Linguagem Natural (PLN) com o Dataset de Avaliações de Filmes do IMDB

Este repositório, intitulado "Transformers", oferece recursos e código para entender e implementar o fine-tuning usando o modelo BERT (Bidirectional Encoder Representations from Transformers) para tarefas de processamento de linguagem natural (PLN). A implementação utiliza o dataset de avaliações de filmes do IMDB.

Recursos:

  • Notebook Educacional: Notebook passo a passo cobrindo a preparação de dados, o processo de fine-tuning e a avaliação do modelo.
  • Script Reutilizável: Script utilitário para pré-processamento de dados, avaliação de modelos e processo de fine-tuning.
  • Modelos Pré-Treinados: Armazenamento para modelos BERT pré-treinados e modelos relacionados.

O Que Você Encontrará:

  • Materiais para guiá-lo através do processo de fine-tuning do BERT para tarefas específicas de PLN usando o dataset de avaliações de filmes do IMDB.
  • Exemplos de código e demonstrações para implementação prática.
  • Conjuntos de dados para treinamento, validação e teste.

Slides Educacionais:

  • Materiais educacionais em slides estão disponíveis neste drive aberto.

Por Que Usar Este Repositório?

  • Aprenda os fundamentos do fine-tuning do BERT para tarefas de PLN com um exemplo prático usando o dataset IMDB.
  • Experimente modelos BERT pré-treinados para análise de sentimentos em avaliações de filmes.
  • Contribua e colabore com a comunidade de PLN.

Como Começar:

  1. Clone este repositório para sua máquina local.
  2. Instale as dependências necessárias ou utilize o Google Colab.
  3. Explore os notebooks e scripts fornecidos.
  4. Adapte o código para suas próprias tarefas de PLN ou conjuntos de dados.

Contribuições:

Contribuições são bem-vindas! Sinta-se à vontade para abrir um issue ou pull request para correções de bugs, recursos adicionais ou melhorias.

Agradecimentos:

  • Inspirado por trabalhos anteriores e tutoriais na comunidade de PLN.
  • Agradecimentos especiais aos criadores do BERT e modelos relacionados.

Referências:


Sinta-se à vontade para personalizar esta descrição de acordo com os detalhes específicos e objetivos do seu repositório!

About

Este repositório oferece recursos e código para entender e implementar o fine-tuning usando o modelo BERT (Bidirectional Encoder Representations from Transformers) para tarefas de processamento de linguagem natural (PLN).

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published