Este repositório contém exemplos que exercitam o modelo MBART-50 (Multilingual BART) desenvolvido pela Facebook AI Research, que realiza tradução automática e outras tarefas de NLP multilinguística. Todos os exemplos foram implementados utilizando a biblioteca Hugging Face Transformers.
Os modelos aplicados nos exemplos incluem diferentes variantes para atender tarefas específicas:
- m2m (many-to-many): Permite tradução direta entre vários pares de idiomas, oferecendo flexibilidade para tradução multilateral.
- m2o (many-to-one): Direciona diversas entradas em diferentes idiomas para um único idioma de destino, útil para tarefas de resumo ou centralização de informações.
- o2m (one-to-many): Facilita a tradução de um idioma para vários idiomas de saída, ideal para disseminação de informações em múltiplos idiomas.
- Python 3.8+
- Transformers da Hugging Face
- PyTorch ou TensorFlow (dependendo do backend preferido)
Para utilizar a biblioteca Hugging Face, instale o transformers:
pip install transformers