Metadata
Author: ParaCrawl Corpus
Data
English[en]
In the second variant, proximal incremental aggregated gradient, we show that when the objective function is strongly convex, the algorithm with a constant step size that depends on the maximum delay bound and the problem parameters converges globally linearly to the true optimum.
Swedish[sv]
För den andra varianten, proximal inkrementell aggregerad gradientnedstigning, visar vi att när målfunktionen är starkt konvex, så konvergerar algoritmen linjärt till den korrekta lösningen ifall man använder en konstant stegstorlek som beror på den maximala tidsfördröjningen.