* Fix BART test

* Fix MBART tests

* Remove erroneous line from yaml

* Update tests/test_modeling_bart.py

* Quality
This commit is contained in:
Lysandre Debut 2020-11-24 09:35:12 -05:00 коммит произвёл GitHub
Родитель 2c83b3c38d
Коммит 6fdd0bb231
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: 4AEE18F83AFDEB23
3 изменённых файлов: 4 добавлений и 3 удалений

1
.github/workflows/self-scheduled.yml поставляемый
Просмотреть файл

@ -9,7 +9,6 @@ on:
push:
branches:
- ci_*
- framework-agnostic-tokenizers
repository_dispatch:
schedule:
- cron: "0 0 * * *"

Просмотреть файл

@ -492,7 +492,9 @@ class BartModelIntegrationTests(unittest.TestCase):
inputs_dict = prepare_bart_inputs_dict(model.config, input_ids)
# Test that model hasn't changed
with torch.no_grad():
batched_logits, features = model(**inputs_dict)
outputs = model(**inputs_dict)
batched_logits = outputs[0]
expected_shape = torch.Size((2, 3))
self.assertEqual(batched_logits.shape, expected_shape)
expected_slice = torch.Tensor([[0.1907, 1.4342, -1.0289]]).to(torch_device)

Просмотреть файл

@ -62,7 +62,7 @@ class AbstractSeq2SeqIntegrationTest(unittest.TestCase):
@classmethod
def setUpClass(cls):
cls.tokenizer = AutoTokenizer.from_pretrained(cls.checkpoint_name)
cls.tokenizer = AutoTokenizer.from_pretrained(cls.checkpoint_name, use_fast=False)
return cls
@cached_property