由于在不同尺度上联合建模时空依赖性的复杂性,交通预测是一个具有挑战性的问题。最近,已经开发了几种混合深度学习模型来捕捉这种依赖性。这些方法通常利用卷积神经网络或图神经网络(GNNs)来模拟空间依赖性,并利用循环神经网络(RNNs)来学习时间依赖性。然而,RNNs只能捕捉时间序列中的顺序信息,而无法对其周期性进行建模(如周模式)。此外,RNNs难以并行化,使得训练和预测的效率较低。在这项工作中,我们提出了一种名为Traffic Transformer的新型深度学习架构,以捕捉时间序列的连续性和周期性,并对空间依赖性进行建模。我们的工作从谷歌的机器翻译Transformer框架中获得灵感。我们在两个真实世界的交通数据集上进行了广泛的实验,结果表明我们的模型以相当大的优势优于基线模型。