crypto: drivers - remove cra_list initialization
Initialization of cra_list is currently mixed, most ciphers initialize this field and most shashes do not. Initialization however is not needed at all since cra_list is initialized/overwritten in __crypto_register_alg() with list_add(). Therefore perform cleanup to remove all unneeded initializations of this field in 'crypto/drivers/'. Cc: Benjamin Herrenschmidt <benh@kernel.crashing.org> Cc: linux-geode@lists.infradead.org Cc: Michal Ludvig <michal@logix.cz> Cc: Dmitry Kasatkin <dmitry.kasatkin@nokia.com> Cc: Varun Wadekar <vwadekar@nvidia.com> Cc: Eric Bénard <eric@eukrea.com> Signed-off-by: Jussi Kivilinna <jussi.kivilinna@mbnet.fi> Acked-by: Kent Yoder <key@linux.vnet.ibm.com> Acked-by: Vladimir Zapolskiy <vladimir_zapolskiy@mentor.com> Signed-off-by: Herbert Xu <herbert@gondor.apana.org.au>
This commit is contained in:
Родитель
7af6c24568
Коммит
e15aa3692d
|
@ -1017,7 +1017,6 @@ static int atmel_aes_register_algs(struct atmel_aes_dev *dd)
|
|||
int err, i, j;
|
||||
|
||||
for (i = 0; i < ARRAY_SIZE(aes_algs); i++) {
|
||||
INIT_LIST_HEAD(&aes_algs[i].cra_list);
|
||||
err = crypto_register_alg(&aes_algs[i]);
|
||||
if (err)
|
||||
goto err_aes_algs;
|
||||
|
@ -1026,7 +1025,6 @@ static int atmel_aes_register_algs(struct atmel_aes_dev *dd)
|
|||
atmel_aes_hw_version_init(dd);
|
||||
|
||||
if (dd->hw_version >= 0x130) {
|
||||
INIT_LIST_HEAD(&aes_cfb64_alg[0].cra_list);
|
||||
err = crypto_register_alg(&aes_cfb64_alg[0]);
|
||||
if (err)
|
||||
goto err_aes_cfb64_alg;
|
||||
|
|
|
@ -1044,7 +1044,6 @@ static int atmel_tdes_register_algs(struct atmel_tdes_dev *dd)
|
|||
int err, i, j;
|
||||
|
||||
for (i = 0; i < ARRAY_SIZE(tdes_algs); i++) {
|
||||
INIT_LIST_HEAD(&tdes_algs[i].cra_list);
|
||||
err = crypto_register_alg(&tdes_algs[i]);
|
||||
if (err)
|
||||
goto err_tdes_algs;
|
||||
|
|
|
@ -289,7 +289,6 @@ static struct crypto_alg geode_alg = {
|
|||
.cra_blocksize = AES_MIN_BLOCK_SIZE,
|
||||
.cra_ctxsize = sizeof(struct geode_aes_op),
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(geode_alg.cra_list),
|
||||
.cra_u = {
|
||||
.cipher = {
|
||||
.cia_min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
@ -402,7 +401,6 @@ static struct crypto_alg geode_cbc_alg = {
|
|||
.cra_alignmask = 15,
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(geode_cbc_alg.cra_list),
|
||||
.cra_u = {
|
||||
.blkcipher = {
|
||||
.min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
@ -489,7 +487,6 @@ static struct crypto_alg geode_ecb_alg = {
|
|||
.cra_alignmask = 15,
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(geode_ecb_alg.cra_list),
|
||||
.cra_u = {
|
||||
.blkcipher = {
|
||||
.min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
|
|
@ -127,7 +127,6 @@ struct crypto_alg nx_cbc_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_cbc_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_cbc_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_blkcipher = {
|
||||
|
|
|
@ -430,7 +430,6 @@ struct crypto_alg nx_ccm_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_aead_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_ccm_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_ccm_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_aead = {
|
||||
|
@ -453,7 +452,6 @@ struct crypto_alg nx_ccm4309_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_nivaead_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_ccm4309_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_ccm_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_aead = {
|
||||
|
|
|
@ -141,7 +141,6 @@ struct crypto_alg nx_ctr_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_ctr_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_ctr_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_blkcipher = {
|
||||
|
@ -163,7 +162,6 @@ struct crypto_alg nx_ctr3686_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_ctr3686_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_ctr_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_blkcipher = {
|
||||
|
|
|
@ -126,7 +126,6 @@ struct crypto_alg nx_ecb_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_ecb_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_ecb_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_blkcipher = {
|
||||
|
|
|
@ -316,7 +316,6 @@ struct crypto_alg nx_gcm_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_aead_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_gcm_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_gcm_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_aead = {
|
||||
|
@ -338,7 +337,6 @@ struct crypto_alg nx_gcm4106_aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct nx_crypto_ctx),
|
||||
.cra_type = &crypto_nivaead_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(nx_gcm4106_aes_alg.cra_list),
|
||||
.cra_init = nx_crypto_ctx_aes_gcm_init,
|
||||
.cra_exit = nx_crypto_ctx_exit,
|
||||
.cra_aead = {
|
||||
|
|
|
@ -876,7 +876,6 @@ static int omap_aes_probe(struct platform_device *pdev)
|
|||
|
||||
for (i = 0; i < ARRAY_SIZE(algs); i++) {
|
||||
pr_debug("i: %d\n", i);
|
||||
INIT_LIST_HEAD(&algs[i].cra_list);
|
||||
err = crypto_register_alg(&algs[i]);
|
||||
if (err)
|
||||
goto err_algs;
|
||||
|
|
|
@ -328,7 +328,6 @@ static struct crypto_alg aes_alg = {
|
|||
.cra_ctxsize = sizeof(struct aes_ctx),
|
||||
.cra_alignmask = PADLOCK_ALIGNMENT - 1,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(aes_alg.cra_list),
|
||||
.cra_u = {
|
||||
.cipher = {
|
||||
.cia_min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
@ -408,7 +407,6 @@ static struct crypto_alg ecb_aes_alg = {
|
|||
.cra_alignmask = PADLOCK_ALIGNMENT - 1,
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(ecb_aes_alg.cra_list),
|
||||
.cra_u = {
|
||||
.blkcipher = {
|
||||
.min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
@ -491,7 +489,6 @@ static struct crypto_alg cbc_aes_alg = {
|
|||
.cra_alignmask = PADLOCK_ALIGNMENT - 1,
|
||||
.cra_type = &crypto_blkcipher_type,
|
||||
.cra_module = THIS_MODULE,
|
||||
.cra_list = LIST_HEAD_INIT(cbc_aes_alg.cra_list),
|
||||
.cra_u = {
|
||||
.blkcipher = {
|
||||
.min_keysize = AES_MIN_KEY_SIZE,
|
||||
|
|
|
@ -626,7 +626,6 @@ static int s5p_aes_probe(struct platform_device *pdev)
|
|||
crypto_init_queue(&pdata->queue, CRYPTO_QUEUE_LEN);
|
||||
|
||||
for (i = 0; i < ARRAY_SIZE(algs); i++) {
|
||||
INIT_LIST_HEAD(&algs[i].cra_list);
|
||||
err = crypto_register_alg(&algs[i]);
|
||||
if (err)
|
||||
goto err_algs;
|
||||
|
|
|
@ -1004,8 +1004,6 @@ static int tegra_aes_probe(struct platform_device *pdev)
|
|||
|
||||
aes_dev = dd;
|
||||
for (i = 0; i < ARRAY_SIZE(algs); i++) {
|
||||
INIT_LIST_HEAD(&algs[i].cra_list);
|
||||
|
||||
algs[i].cra_priority = 300;
|
||||
algs[i].cra_ctxsize = sizeof(struct tegra_aes_ctx);
|
||||
algs[i].cra_module = THIS_MODULE;
|
||||
|
|
Загрузка…
Ссылка в новой задаче