diff --git a/transfer/README.md b/transfer/README.md
index ad82ce1..1b2e10a 100644
--- a/transfer/README.md
+++ b/transfer/README.md
@@ -91,7 +91,7 @@ CIFAR-10/CIFAR-100 datasets will be downloaded automatically.
 #### CIFAR-10
 ```
 python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
-    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 --eval-freq 10 \
+    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 \
     --no-pin-mem  --warmup-epochs 3 --data-set cifar10 --data-path [cifar-10 data path]  --no-repeated-aug \
     --resume [your pretrain checkpoint file] \
     --reprob 0.0 --drop-path 0.1 --mixup 0.8 --cutmix 1
@@ -100,7 +100,7 @@ python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
 #### CIFAR-100
 ```
 python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
-    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 --eval-freq 10 \
+    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 \
     --no-pin-mem  --warmup-epochs 3 --data-set cifar100 --data-path [cifar-100 data path]  --no-repeated-aug \
     --resume [your pretrain checkpoint file] \
     --reprob 0.0 --drop-path 0.1 --mixup 0.5 --cutmix 1
@@ -109,7 +109,7 @@ python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
 #### Flowers
 ```
 python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
-    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.3 --eval-freq 10 \
+    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.3 \
     --no-pin-mem  --warmup-epochs 3 --data-set flowers --data-path [oxford-flowers data path]  --no-repeated-aug \
     --resume [your pretrain checkpoint file] \
     --reprob 0.25 --drop-path 0.1 --mixup 0 --cutmix 0
@@ -118,7 +118,7 @@ python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
 #### Pets
 ```
 python -u -m torch.distributed.launch --nproc_per_node=8 --use_env main.py \
-    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 --eval-freq 10 \
+    --batch-size 128 --output_dir [your output dir path] --epochs 100 --lr 3e-4 --weight-decay 0.1 \
     --no-pin-mem  --warmup-epochs 3 --data-set pets --data-path [oxford-pets data path]  --no-repeated-aug \
     --resume [your pretrain checkpoint file] \
     --reprob 0 --drop-path 0 --mixup 0.8 --cutmix 0