Ale OpenAI jednak umiało jakieś sensowniejsze rzeczy odpowiadać ;-)
Czekając na nową książkę z Bobiverse miałem skrypt, który raz na dzień wchodził na stronę autora, pobierał treść i jeśli się zmieniła to przesyłał ją z promptem do LLMa z prośbą by ten odpowiedział w formie JSONa czy książka jest już dostępna i jaki będzie miała tytuł.
Gdy to wysyłałem do OpenAI to dostałem sensowne odpowiedzi, lokalne LLMy takie jak Mistral czy nawet Wizard z 30 miliardami parametrów nie były tak pewne...
Mam w głowie cosia, który będzie przeglądał moje Todo z reminders (i może Todoist) i jeśli oceni, że nie do końca wiadomo o co chodzi to podmieni je na dookreślenie o co chodzi.... i znów te lokalne LLMy tak sobie tu działają...
Stąd mam kryzys lokalnych LLMów ;-)
Chociaż jest nadzieja, gemma3, chociaż gemma3 z 27b parametrów możniej dociska mojego Maca Mini z M4 Pro i 64 GB RAM niż taka LLama3 z 70b ;-)
Podobne postybeta
Chyba zacznę notować po angielskiemu... coby pomóc AI ;-)
GPT + Python = sprawdzanie czy 5 książka z Bobiverse już jest dostępna ;-)
Journaling z LLM - lokalnie to też działa ;-)
Czy LLMy umieją wnioskować? Test :-)
0.15 USD w miesiąc ;-)
Brak komentarzy:
Prześlij komentarz