TopMath Alumni Speakers Series
Andre Milzarek: Convergence properties of stochastic optimization methods

Prof. Andre Milzarek (6. TopMath-Jahrgang) von der School of Data Science (SDS),
The Chinese University of Hong Kong, Shenzhen, spricht im Rahmen der Alumni Speakers Series am Mittwoch, 21.06.2023, 16 Uhr in Raum MI 00.10.011 über "Convergence properties of stochastic optimization methods under the Kurdyka-Lojasiewicz inequality". Wenn Sie teilnehmen möchten, senden Sie aus organisatorischen Gründen bitte bis Montag, 19.06.2023, eine Mail an topmath@ma.tum.de.
Im Rahmen der TopMath Alumni Speakers Series lädt TopMath regelmäßig Absolvent*innen ein, die ihre Erfahrungen mit den Studierenden und Promovierenden des Programms teilen. Sie stellen ihre aktuellen Projekte in Forschung oder Wirtschaft vor, sprechen über ihren Karriereweg und stehen anschließend zum informellen Austausch zur Verfügung.
Für den dritten Vortrag der Reihe TopMath Alumni Speakers Series im Jahr 2023 konnte Prof. Andre Milzarek gewonnen werden. Andre Milzarek, TopMath-Jahrgang 2009/10, war nach seiner Promotion zunächst PostDoc am Beijing International Center for Mathematical Research der Peking University. Seit 2019 ist er Assistant Professor an der School of Data Science der Chinese University of Hong Kong, Shenzhen.
Andre Milzarek: Convergence properties of stochastic optimization methods under the Kurdyka-Lojasiewicz inequality
We present recent applications and extensions of the Kurdyka-Lojasiewicz (KL)-based analysis framework to stochastic optimization methodologies. The KL property has been utilized extensively in the past decades to study the limiting behavior of optimization algorithms and of (sub)gradient flows in dynamical systems. Despite its popularity and overall success in the deterministic setting, applicability of KL-based analysis techniques to stochastic algorithms is significantly hindered by the generally missing descent and by the more intricate dynamics of stochastic errors and step sizes. In this talk, we discuss the standard KL inequality-based convergence framework as well as novel applications to random reshuffling (RR) and other SGD-type algorithms.
I will also share some of my experiences as an (tenure-track) assistant professor in China at the Chinese University of Hong Kong, Shenzhen.