W zależności od ilości danych do przetworzenia generowanie pliku może się wydłużyć.

Jeśli generowanie trwa zbyt długo można ograniczyć dane np. zmniejszając zakres lat.

Rozdział

Pobierz BibTeX

Tytuł

Online PCA with Optimal Regrets

Autorzy

[ 1 ] Instytut Informatyki, Wydział Informatyki, Politechnika Poznańska | [ P ] pracownik

Rok publikacji

2013

Typ rozdziału

referat

Język publikacji

angielski

Słowa kluczowe
EN
  • online learning
  • regret bounds
  • expert setting
  • k-sets
  • pca
  • gradient descent and matrix exponentiated gradient algorithms
Streszczenie

EN We carefully investigate the online version of PCA, where in each trial a learning algorithm plays a k-dimensional subspace, and suffers the compression loss on the next instance when projected into the chosen subspace. In this setting, we give regret bounds for two popular online algorithms, Gradient Descent (GD) and Matrix Exponentiated Gradient (MEG). We show that both algorithms are essentially optimal in the worst-case when the regret is expressed as a function of the number of trials. This comes as a surprise, since MEG is commonly believed to perform sub-optimally when the instances are sparse. This different behavior of MEG for PCA is mainly related to the non-negativity of the loss in this case, which makes the PCA setting qualitatively different from other settings studied in the literature. Furthermore, we show that when considering regret bounds as a function of a loss budget, MEG remains optimal and strictly outperforms GD. Next, we study a generalization of the online PCA problem, in which the Nature is allowed to play with dense instances, which are positive matrices with bounded largest eigenvalue. Again we can show that MEG is optimal and strictly better than GD in this setting.

Strony (od-do)

98 - 112

DOI

10.1007/978-3-642-40935-6_8

URL

https://link.springer.com/chapter/10.1007/978-3-642-40935-6_8

Książka

Algorithmic Learning Theory : 24th International Conference, ALT 2013, Singapore, October 6-9, 2013 : Proceedings

Zaprezentowany na

24th International Conference on Algorithmic Learning Theory, ALT 2013, 6-9.10.2013, Singapore, Singapore

Publikacja indeksowana w

WoS (15)

Ta strona używa plików Cookies, w celu zapamiętania uwierzytelnionej sesji użytkownika. Aby dowiedzieć się więcej przeczytaj o plikach Cookies i Polityce Prywatności.