Pin transformers version to work around latest torch requirements (#6759)

Latest transformers seems to break our tests that aren't on torch latest
(>= 2.5). Issue opened here:
https://github.com/huggingface/transformers/issues/34795. This pins our
version so these tests can pass in the meantime.
This commit is contained in:
Logan Adams 2024-11-18 17:36:51 -08:00 коммит произвёл GitHub
Родитель dd40269426
Коммит 8488beea29
Не найден ключ, соответствующий данной подписи
Идентификатор ключа GPG: B5690EEEBB952194
2 изменённых файлов: 3 добавлений и 1 удалений

1
.github/workflows/hpu-gaudi2.yml поставляемый
Просмотреть файл

@ -111,6 +111,7 @@ jobs:
run: |
git clone https://github.com/huggingface/transformers
cd transformers
git checkout 7df93d6ffb48946e532c7d766fe10372e98d78b6
git rev-parse --short HEAD
pip install .

3
.github/workflows/nv-a6000.yml поставляемый
Просмотреть файл

@ -40,8 +40,9 @@ jobs:
python -c "import torch; print('CUDA available:', torch.cuda.is_available())"
- name: Install transformers
run: |
git clone --depth=1 https://github.com/huggingface/transformers
git clone https://github.com/huggingface/transformers
cd transformers
git checkout 7df93d6ffb48946e532c7d766fe10372e98d78b6
git rev-parse --short HEAD
python -m pip install .
- name: Install deepspeed