Pytorch如何合并多个dataloader
目前我了解到的有2种方法:
1、利用iter(dataloader)
将iter(dataloader)都放到一个list,遍历list
iter_list = [iter(loader_train_landmark), iter(loader_train_imagenet), iter(loader_train_product10k)]
for i in range(len(iter_list)):
iter_dataloader = iter_list[i]
for images, target in iter_dataloader:
2、可以使用zip+cycle来合并两个dataloader