官网ImageNet训练log中单个epoch的batch数如何计算出600?

以MobileNetV3-Small为例,此为相应的log
见下图,batch_size为256,使用8块gpu,最后为何单个epoch只进行了600epoch呢?训练集大小不是1281167?

发现mxnet里似乎每个gpu都拿了256,和pytorch不一样