Dotarło do mnie też, że mój odkurzacz używa więcej AI niż chyba wszystkie firmy w których pracowałem (OK, może z jednym wyjątkiem) kiedykolwiek zrobiły.
Mam kilka certyfikatów z AI, zrobiłem "specjalizację z DeepLearning" ;-), to Stanford'owe Machine Learning (żeby nie było, to jest tylko Stanford Online) czy to How Google Does Machine Learning.
Więc mogę chyba już twierdzić, że jestem "oczytanym" laikiem i to oczytanie sprawiło, że się sceptyczny zrobiłem do AI, jest nieziemsko dobre w pewnej wybranej sferze, ale poza tym daje ciała.
Ale może czas się z tym sceptycyzmem przeprosić i jednak popróbować?
Próbowałem zrobić kiedyś clickbait detector, użyłem Bayesa i regresji liniowej, skuteczność na szkoleniowych danych była 100%, ale w real world tak sobie to działało.
Nie użyłem sieci neuronowych bo nie miałem pomysłu jak to zakodować, przecież nie zrobię każdego słowa jako wejścia do sieci bo przy 10 tysiącach słów to jest gigantyczna sieć, a i tak gubi kontekst. Niby modele sekwencyjne by mi tu pomogły i robiłem je w ramach DeepLearning.ai, ale zrobić kilka przykładów, a rozumieć jak kodować ficzery to dwie różne rzeczy ;-)
Może więc poza algo i system designem trzeba by było wrócić do nauki o AI? :-)
Podobne postybeta
Chyba zacznę notować po angielskiemu... coby pomóc AI ;-)
Clickbait detector ;-) - czyli próbujemy użyć naiwnego klasyfikatora Bayesowskiego do rozpoznawania clickbaitów ;-)
Regresja liniowa w Google Docs
Zasada numer 1: sprawdzaj oczywiste
Po Google I/O - TensorFlow, App Maker, Kotlin i Firebase ;-)
Brak komentarzy:
Prześlij komentarz