Besonderhede van voorbeeld: -6309989348694120206

Metadata

Data

English[en]
In the second variant, proximal incremental aggregated gradient, we show that when the objective function is strongly convex, the algorithm with a constant step size that depends on the maximum delay bound and the problem parameters converges globally linearly to the true optimum.
Swedish[sv]
För den andra varianten, proximal inkrementell aggregerad gradientnedstigning, visar vi att när målfunktionen är starkt konvex, så konvergerar algoritmen linjärt till den korrekta lösningen ifall man använder en konstant stegstorlek som beror på den maximala tidsfördröjningen.

History

Your action: