Miałem sobie pomarudzić z głównym motywem, że chodzi za mna idea kupienia sobie Macbooka Air z M2, albo Macbooka Pro z M3 ;-)
Ale o czymś innym. O AI i zabieraniu pracy.
Przyznam, że gdy poprosiłem ChatGPT w pewnym momencie by rozwiązał zadanie jakie dawałem w poprzedniej firmie kandydatom do rozwiązania i zrobił to w ułamku sekundy dostarczając rozwiązanie idealne i bijąc wszystkich kandydatów których pamiętam to byłem przygnębiony...
Do tego udało mi się np. wyprodukować mock serwisu instruując ChatGPT wymaganiami i prosząc o ewentualne przepisanie kodu.
Ale ChatGPT i LLMy są już z nami od blisko 1.5 roku i nic. Najbardziej widoczne jest ich użycie w IT do robienia prototypów, łatwiejszego szukania odpowiedzi (np. gdy robiłem ostatnio dokument rozważający pewien ficzer to dostawałem od ChatGPT dużo detali w stylu tego czy w Sparku lepiej samemu zrobić X czy może Spark to już ma wbudowane) i jak ktoś ma licencję na Copilota to pomaganie w razie czegoś nie wiemy.
Powiedziałbym, że w IT ChatGPT i Bard (teraz już Gemini ;-)) to narzędzia, które jakby trochę wypłaszczają krzywą nauki i troszkę zdejmują ciężar wejścia.
Chcę kawałek kodu w Java'ie który używając Swinga robi prosty edytorek? To piszę copilotowi to w komentarzu czy w czacie i mam wynik.
Wydaje się, że LLMy dają możliwość szybszego rozwiązania prostych, ale nowych dla nas problemów. Nie trzeba inwestować paru godzin w przejście przez przykłady, można dostać takie przykłady jakich szukany.
Stąd nie jestem przekonany by LLMy nam miały zabrać pracę, przynajmniej nie teraz. Chociaż ogólnie wydaje się, że LLMy są gdzieś w tym miejscu gdzie były głębokie sieci te ~10 lat temu, chyba powoli dochodzą do granic swoich możliwości. Bo nawet lokalnie dzaiłająca na moim laptopie Ollama z Mistralem czy Wizardem dają podobne odpowiedzi na krótkie pytania jak ChatGPT czy Bard. Ale mogę się mylić, może tam jest jeszcze gigantyczna przestrzeń do zbudowania czegoś.
No i AI na razie nie rozwiązuje problemu tego, że w IT potrafimy każdą przewagę zjeść ;-). Dziś każdy język programowania dostarcza wyśmienicie działające biblioteki ze strukturami danych i algorytmami do działania na nich, przez to nie mamy problemów które programiści mieli te 40 lat temu.
Chcesz posortować? To po prostu wołasz sort ;-), chcesz wyszukać w posortowanym? To binarySearch i tyle (to jeden z tych "algorytmów" które sam wymyśliłem ;-) w sensie, bez dowiadywania się o nich wcześniej z książek czy czegoś podobnego ;-)).
Pamięci i CPU mamy tyle, że w większości przypadków użycie większej ilości pamięci czy algo O(n^2) nie robi problemów.
Stąd zakładam, że zjemy też przewagę z LLMów. Szybciej będziemy umieli stworzyć kadłubek kodu, ale więcej czasu spędzimy na niezrozumieniu wymagań ;-)
Albo co jest chyba bardziej prawdopodobne bo i tak wykorzystaliśmy te poprzednie bonusy, po prostu zaczniemy rozwiązywać większe problemy.
Dlatego nie wydaje mi się by AI na razie miała zabrać pracę w IT.
Podobne postybeta
ChatGPT i Gemini (ogólnie LLMy) to są jednak nowe wyszukiwarki
LLMowa ściana ;-)
ChatGPT jest potężne...
Czy LLMy umieją wnioskować? Test :-)
Nie inicjalizuj rozmiaru kolekcji...
Brak komentarzy:
Prześlij komentarz