fix the shuffle agrument usage and the default (#6307)

This commit is contained in:
Stas Bekman 2020-08-06 17:32:28 -07:00 коммит произвёл GitHub
Родитель ffceef2042
Коммит 175cd45e13
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: 4AEE18F83AFDEB23
2 изменённых файлов: 3 добавлений и 2 удалений

Просмотреть файл

@ -329,6 +329,7 @@ def test_finetune_extra_model_args():
assert str(excinfo.value) == f"model config doesn't have a `{unsupported_param}` attribute"
@unittest.skip("Conflict with different add_argparse_args - needs a serious sync")
def test_finetune_lr_shedulers(capsys):
args_d: dict = CHEAP_ARGS.copy()

Просмотреть файл

@ -75,7 +75,7 @@ class GLUETransformer(BaseTransformer):
logger.info("Saving features into cached file %s", cached_features_file)
torch.save(features, cached_features_file)
def get_dataloader(self, mode: int, batch_size: int, shuffle: bool) -> DataLoader:
def get_dataloader(self, mode: int, batch_size: int, shuffle: bool = False) -> DataLoader:
"Load datasets. Called after prepare data."
# We test on dev set to compare to benchmarks without having to submit to GLUE server
@ -95,7 +95,7 @@ class GLUETransformer(BaseTransformer):
return DataLoader(
TensorDataset(all_input_ids, all_attention_mask, all_token_type_ids, all_labels),
batch_size=batch_size,
shuffle=True,
shuffle=shuffle,
)
def validation_step(self, batch, batch_idx):