Tak do mnie wczoraj to dotarło gdy oglądałem keynote z Google I/O.
Spytałem też Barda i potwierdził ;-)
Nie wiem czemu, ale wydawało mi się, że szkolenie modelu to jedno, ale później on to jakoś syntetyzuje. A okazuje się, że nie, że jak jest szkolony na korpusie w różnych językach to później lepiej będzie odpowiadał w języku w którym miał więcej materiałów...
Chociaż nie wiem.
Ale próbowałem od wczoraj uzyskać od ChatGPT z GPT-4 informację jak zmusić Sparka do logowania w JSONie i coś mówił o moście (bo Spark używa Log4J, a nie Log4J2 więc nie umie natywnie w JSONie, ale można użyć bibliotek, które zastąpią Log4J takim "mostem" do Log4J2) ale to nie działało, dopiero jak zadałem pytanie po angielsku to doszliśmy do tego, że jeszcze trzeba zrobić exclude bibliotek Log4J ze Sparka.
Wychodzi na to, że trzeba jednak gadać z ChatGPT po angielsku, z Bardem trzeba (ale żeby Barda używać w Polsce czy chyba też wszystkich krajach UE to trzeba udawać VPNem, że się jest w USA ;-))
Podobne postybeta
Log4J2 i zasada ograniczonego zaufania ;-)
Szybszy = lepszy?
Bard vs ChatGPT ;-)
Promptem w ToDo ;-)
Nexus 10... Chodzi drań za mną..
Brak komentarzy:
Prześlij komentarz