restore weight by default for qat quantizer (#3992)

This commit is contained in:
chenbohua3 2021-08-22 10:48:07 +08:00 коммит произвёл GitHub
Родитель 5c9797a29b
Коммит 52b70bc1e4
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: 4AEE18F83AFDEB23
1 изменённых файлов: 6 добавлений и 7 удалений

Просмотреть файл

@ -563,14 +563,13 @@ class QAT_Quantizer(Quantizer):
calibration_config[name]['tracked_max_input'] = float(module.tracked_max_input)
# Recover weight/bias for batch normalization folding
actual_weight = getattr(module, 'old_weight', None)
if actual_weight is None:
logger.warning("Can not recover weight for layer %s. "
"This may lead to a wrong accuracy performance on the backend.", name)
delattr(module, 'weight')
module.register_parameter('weight', actual_weight)
if hasattr(module, BN_FOLD_TAG):
actual_weight = getattr(module, 'old_weight', None)
if actual_weight is None:
logger.warning("Can not recover weight for layer %s. "
"This may lead to a wrong accuracy performance on the backend.", name)
delattr(module, 'weight')
module.register_parameter('weight', actual_weight)
actual_bias = getattr(module, 'old_bias', None)
delattr(module, 'bias')
if actual_bias is not None: