Jednym z ważniejszych problemów jest to, że trenowanie modeli zabiera dużo czasu. Używam na razie Octave i nie czuję bym w ciągu następnych 2-3 tygodni miał wiele czasu i możliwości by przepisać samo liczenie modeli na coś lepszego, a Octave złośliwie wszystko liczy na jednym CPU, przynajmniej tak to wygląda.
Stąd zrobiłem eksperyment i podzieliłem mój plik w którym wołałem naukę każdego z modeli z osobna na 8 mniejszych ;-) uruchomiłem wszystkie jednocześnie... i wydaje się, że to działa :-) nawet mój Macbook Air wydaje się wszystko liczyć na swoich 4 rdzeniach (a 8 z HT) szybciej niż by to robił na jednym.
Nadal nie jest to rozwiązanie idealne, ale nie powinno mnie tak hamować przy eksperymentach ;-)
Podobne postybeta
Tagowanie postów MLem - trzeba to przepisać ;p
Automagiczne tagowanie postów jest jednak większe niż myślałem...
Pomysł na projekt MLowy ;-)
Dalsze testowanie tagowania MLem ;-)
Logistic Regression wykrywa clickbaity lepiej od Bayesa ;-)
Brak komentarzy:
Prześlij komentarz