近年来,随着云计算、大数据、人工智能等新兴技术的蓬勃发展,分布式优化在大规模计算、机器学习等领域得到了广泛应用。针对算法中关于步长的严格约束和理论收敛速度局限性导致算法收敛速度慢的科学问题。本专著主要研究内容包括:分布式优化与常微分方程之间的关系、加速分布式优化算法设计与分析。基于梯度的加速分布式优化算法存在收敛速度慢的现象。一方面,当目标函数为光滑强凸函数时,现有加速算法的步长严格依赖于目标函数条件数,使得步长充分小时才能保证算法收敛,而算法收敛速度与步长正相关,从而导致了算法收敛速度较慢。另一方面,当目标函数为光滑凸函数时,现有加速算法优收敛速度为(k是迭代次数)。本文针对上述小步长、理论收敛速度局限性导致算法收敛速度慢的问题展开深入研究。