Pytorch如何合并多个dataloader

目前我了解到的有2种方法:

1、利用iter(dataloader)

将iter(dataloader)都放到一个list,遍历list

iter_list = [iter(loader_train_landmark), iter(loader_train_imagenet), iter(loader_train_product10k)]

for i in range(len(iter_list)):
    iter_dataloader = iter_list[i]
    for images, target in iter_dataloader:

2、可以使用zip+cycle来合并两个dataloader