Uwaga! Trwają prace nad nową wersją serwisu. Mogą występować przejściowe problemy z jego funkcjonowaniem. Przepraszam za niedogodności!

⛔ Potrzebujesz wsparcia? Oceny CV? A może Code Review? ✅ Dołącz do naszej społeczności na Discordzie!

Jak AI wpłynie na zawód programisty?

Podtytuł

Jakub Król, programista i autor kursu o AI, opowiada o tym jak sztuczna inteligencja zmienia pracę programisty. Rozmawiamy m.in. o tym czy AI to tylko narzędzie, a może jednak realna konkurencja.

Poruszane tematy

Gość: Jakub Król – kim jest i czym się zajmuje
Czy możesz się przedstawić i powiedzieć, co łączy Cię z branżą IT?

Czy programiści mieli wsparcie AI przed rokiem 2023?
Czy przed rokiem 2023 AI również wspomagało programistów w pracy? W jakiej formie?

Jak programiści mogą być wspierani przez sztuczną inteligencję?
W jaki sposób obecnie programiści mogą być wspierani przez sztuczną inteligencję?

Czy AI zastąpi programistów i w jaki sposób może to wpływać na rynek?
Czy Twoim zdaniem AI zastąpi programistów? Jeśli tak to w jakiej perspektywie czasu? Jak rynek może się zmieniać?

Czy istnieją dziedziny w branży IT, które nie będą miały nic do czynienia z AI?

Czy są dziedziny w branży IT, które nie będą miały nic do czynienia z AI?

Jakie specjalizacje są najbardziej zagrożone przez rozwój AI?
Jakie specjalizacje są najbardziej zagrożone? Czy korzystając z AI nie podcinamy gałęzi, na której sami stoimy?

Porównanie obecnego boomu na AI z wydarzeniami z przeszłości w branży IT
Czy obecny boom na AI można porównać do podobnych wydarzeń z przeszłości w branży IT?

Zagrożenia dla rozwoju AI i czy biurokracja może zatrzymać jej rozwój
Widzisz jakieś zagrożenia dla rozwoju AI? Czy biurokracja lub utrata kontroli nad AI może zatrzymać jej rozwój?

Nowe nazwy stanowisk/pozycji związanych z pracą z AI
Czy pojawiają się już nowe nazwy stanowisk/pozycji, które są ukierunkowane na pracę z AI? Jakie wyglądają wymagania?

Rekomendowana książka o współpracy z AI
Jaką książkę polecisz osobom, które chcą lepiej współpracować z AI?

Jakub Król – kontakt
Gdzie możemy Cię znaleźć w sieci?

Polecana książka

➡ Alan D. Thompson, lifearchitect.ai

➡ Loukman, mastersof.work

Kontakt do gościa

➡ WWW: mistrz.ai

➡ WWW: jakubkrol.pl

➡ LinkedIn: www.linkedin.com/in/777jakubkrol/

➡ YouTube: www.youtube.com/@ProgramistyczneSwiry

➡ Instagram: www.facebook.com/777JakubKrol/

Transkrypcja

Dziś moim gościem jest Jakub Król. Jakub opowie nam o tym jak AI wpłynie na zawód programisty. Jakubie, dziękuję, że przyjąłeś moje zaproszenie na rozmowę.

Też dziękuję bardzo za zaproszenie.

Zacznijmy od twojej osoby − powiedz nam, co łączy cię z branżą IT?

Z branżą IT łączy mnie dosyć sporo − całe moje życie zawodowe, czyli od ponad 15 lat − to jest głównie programowanie, raczej w technologiach webowych: dużo JavaScriptu, TypeScriptu, potem PHP. Natomiast aktualnie specjalizuję się w sztucznej inteligencji. Pracuję jako Head of AI w Escoli, ale nie tylko to, bo zajmuję się również kursami i szkoleniami z zakresu programowania głównie sztucznej inteligencji.

 

Może zacznijmy od tego, co działo się przed obecnymi czasami, czyli przed rokiem 2023. Czy wtedy AI również wspomagała programistę w pracy? Jeżeli tak, to w jakiej formie?

Myślę, że w pewnym sensie tak. To jest jedna z tych technologii, o których być może nawet nie wiedzieliśmy, że z nich korzystaliśmy, ale one się gdzieś tam przewijały. Takim najprostszym przykładem jest, chociażby IntelliSense, czyli podpowiadanie składni − jak możemy coś powiedzieć − czy podpowiadanie różnych elementów przez nasz edytor, nasze IDE. I być może nawet sobie z tego nie zdawaliśmy sprawy, a warto o tym wiedzieć dlatego, że jest to taki pierwszy element, z którym się spotykamy.

Jak rozmawialiśmy wcześniej, przypomniałeś mi też o Tabnine’ie, który nie jest może aż tak bardzo znany, natomiast ja też faktycznie używam go od kilku lat − on istniał. Jest to taki rodzaj aplikacji czy dodatku do naszego edytora kodu, który nazywamy Copilotami czyli, mówiąc krótko, takie bardziej inteligentne podpowiedzi dzięki sztucznej inteligencji.

Natomiast z drugiej strony, warto sobie przypomnieć, że jeszcze kiedyś dużo googlowaliśmy i szukaliśmy na Stack Overflow − więc pod spodem Google'a, oczywiście oprócz algorytmów, jest też sporo machine learningu, a więc pośrednio jest też sztuczna inteligencja. Natomiast wydaje mi się, że jeżeli mówimy o takim faktycznym użyciu sztucznej inteligencji, z którego sobie zdajemy sprawę, to przed 2023 r. (czy właściwie przed wyjściem pierwszej wersji ChatGPT) mało osób/programistów świadomie korzystało ze sztucznej inteligencji. Myślę, że dopiero pojawianie się właśnie ChatGPT sprawiło, że mówimy aha, tak, używam AI w mojej pracy (o ile używam, mam nadzieję). Oprócz tego oczywiście pojawiło się dużo różnych innych narzędzi, jak chociażby GitHub Copilot, o którym pewnie też sobie dzisiaj więcej powiemy, czy chociażby Tabnine, o którym wspomniałem, stał się bardziej popularny.

To tak dopytam, bo wspomniałeś, że korzystaliśmy/googlowaliśmy − to już nie googlujemy? Co robimy?

Ja myślę, że coraz mniej osób googluje. Nie wiem, jak ty pracujesz (jestem bardzo ciekawy jak robisz to ty i oczywiście jak pracują nasi słuchacze), ale jeszcze rok, dwa, trzy lata temu, kiedy mieliśmy jakiś problem programistyczny, to zazwyczaj wpisywało się to w Google, czy wyszukiwało się w Stack Overflow. Zazwyczaj oczywiście googlowaliśmy i wyskakiwały nam po prostu odpowiedzi ze Stack Overflow i nie mówię, że tego nie robimy. Natomiast mam wrażenie, że wiele osób (ja na pewno jestem taką osobą) zamiast zadawać wszystkie pytania w Google, teraz bardzo często zadaję je właśnie AI-owi: czy to w postaci ChatGPT, czy może na jakimś Bing Chat, czy w różnych innych AI-ach, które bardzo często zwracają nam dłuższą odpowiedź. Ona oczywiście jest nadal bardzo często bazowana np. na tym, co widzimy na Stack Overflow, ale możemy tam dostać pewien dodatkowy kontekst: dlaczego np. ta odpowiedź jest prawidłowa do pytania, które zadaliśmy.

OK, to teraz wszystko rozumiem. Ja przyznam, że jeszcze googluję − nie zawsze, ale często kiedy muszę podrzucić jakąś podpowiedź mojemu podopiecznemu, to wtedy wolę wygooglować, bo podrzucam mu jeszcze linka i wydaje mi się, że jest to również dobra opcja, żeby nauczyć się rozumieć to, co ktoś pisze tj. żeby korzystać z tego, co jest do tej pory − więc może dlatego tak do końca się jeszcze nie przekonałem.

Może wyprowadzisz mnie z błędu, ale czy to nie jest też trochę tak, że korzystając z np. ChatGPT (nie mówię tu o Bingu, bo w Bingu można skorzystać ze źródeł) jest to takie mocno bezosobowe, co powoduje, że może w jakimś sensie przestajemy obcować z tym, co do tej pory działo się gdzieś tam w internetach? Jak myślisz?

Trochę tak jest. Myślę, że w ogóle możemy zacząć od rozwinięcia troszeczkę wątku, o którym powiedziałeś, bo jest on niezwykle ciekawy. Ja uważam, że jest to bardzo fajne jak np. szukamy sobie najnowszych zmian w React’cie − jak one wpływają na nasz aktualny kod − do tego super jest użycie właśnie Bing Chat (aktualnie jest on przemianowany na Microsoft Copilot, co jest trochę mylące, ponieważ tych Microsoft Copilotów trochę istnieje), który pozwala nie tylko czerpać z najnowszych informacji z internetu, ale tak jak mówiłeś − ma on też źródła − możemy kliknąć, przede wszystkim zweryfikować, czy te źródła istnieją, czy on nie halucynuje, czy mówi prawdę.

Natomiast przechodząc do twojego pytania − oczywiście, że tak − tracimy trochę to poczucie pracy z drugą osobą i myślę, że AI nie ma zastąpić nam drugiej osoby, która nam powie, jak zrobić coś lepiej, czy w jakim kierunku powinniśmy pójść, czy skorzystać właśnie ze źródeł, które już istnieją. Natomiast ma nam dać coś innego: ma nam przede wszystkim dać szybką odpowiedź, która być może jest nam teraz potrzebna, być może po prostu potrzebujemy tych odpowiedzi bardzo dużo i potrzebujemy je szybko przetworzyć. AI jest nam do tego bardzo przydatne.

To może mógłbym cię poprosić o wyjaśnienie albo przedstawienie definicji czym jest halucynacja AI, bo nie było to zdefiniowane, może to nie być jasne dla wszystkich.

Myślę, że część z nas spotkała się z tym terminem, ale mało kto może sobie zdawać sprawę z tego, dlaczego on się tak nazywa, co on znaczy, więc faktycznie powiedzmy sobie o tym. Halucynacje są mówiąc krótko wtedy, kiedy AI kłamie. Musimy zrozumieć, że AI nie ma za zadanie nas okłamać, ale AI (przede wszystkim LLM, bo mówimy teraz o LLM-ach) nie ma za zadanie podawać nam prawdy. Nie jest to elementem tego systemu. LLM ma dać nam tekst, który brzmi prawdopodobnie i wiarygodnie − to jest jego pierwsze zadanie. Halucynacją nazywamy to, kiedy dostajemy informacje na temat czegoś, co brzmi prawdopodobnie, np. teraz w nowym React’cie jest nowa specjalna funkcja Do My Job i ona zaprogramuje mi teraz całą stronę − to mogłoby brzmieć jak coś, co jest składnym tekstem, ale niekoniecznie jest prawdą.

Oczywiście możemy to wychwycić, ale dużo jest takich sytuacji, i to jest naprawdę częste − szczególnie kiedy korzystamy z nowych elementów np. jakiejś technologii, że powie nam o jakichś funkcjach, czy napisze nam kod, który używa funkcji, które w tej technologii w ogóle nie istnieją i nigdy nie istniały, ale na pierwszy rzut oka wygląda, że coś takiego mogłoby istnieć. Możemy nawet powiedzieć wow, ale fajne, nie wiedziałem, że są takie nowe Hooki w React’cie. I właśnie halucynacją nazywamy tę sytuację, kiedy musimy coś zweryfikować. Weryfikowanie faktów jest to jedna z rzeczy, które jako programiści współcześni 2023+ musimy znać, bo dopiero wtedy jesteśmy w stanie stwierdzić czy kod albo inna informacja jest prawdziwa.

To może dopytam, czy może stać się tak, że AI przestanie mieć halucynacje? Czy jest to raczej część tego narzędzia?

Raczej nie przestanie mieć halucynacji. Sposób, w jaki to jest stworzone, sprawia, że model matematyczny pod spodem ma, tak jak powiedziałem, brzmieć wiarygodnie, a niekoniecznie wiarygodnym być. Natomiast musimy mieć świadomość, że bardzo dużo narzędzi takich jak ChatGPT, to nie są proste LLM-y. Być może tak to gdzieś słyszeliśmy w internecie (ja wiele razy tak mówiłem), ale to jest bardzo duża ilość systemów, które mają się również upewnić, że to, co dostajemy na końcu, ten output z naszego LLM-a, jest prawdziwy. One nie działają w 100%, ale starają się już coś z tym zrobić. Myślę więc, że odpowiadając na twoje pytanie − ten wynik będzie coraz lepszy jakościowo, ale zawsze ta ostateczna decyzja, czy to jest prawda czy nie, zależy od nas. To my musimy weryfikować te wszystkie fakty.

Często jest tak, że jak odpytujemy ChatGPT czy inne platformy przy wykorzystaniu interfejsu, możemy wybrać poziom wiarygodności. Czy jeżeli wszystko ustawimy sobie na maksa to i tak jest pewne prawdopodobieństwo, że to nie będzie prawda?

Zdecydowanie tak jest, ponieważ to nie jest poziom wiarygodności, a nawet chyba tak jest to mniej więcej nazwane w Bing Chat. Jest to trochę mylące. To, co tam ustawiamy, to jest tzw. temperatura i tam ustawiamy deterministyczność AI. Mówiąc krótko, to znaczy, że jeżeli ustawimy sobie mniejszą temperaturę czy większą „wiarygodność”, to generalnie znaczy to, że zadając to samo pytanie, zazwyczaj dostaniemy podobną odpowiedź.

Ustawiając mniejszy stopień wiarygodności, czyli po prostu większą temperaturę, to jest mniej deterministyczny, czyli np. jest to dobre do pisania powieści science fiction, bo wtedy za każdym razem będzie pisało coś zupełnie innego, nawet jeżeli zapytamy o to samo. Natomiast systemy pod spodem, które weryfikują czy to jest wiarygodne czy nie, one się nie zmieniają w zależności od tego ustawienia.

 

To po tym wstępie, powiedz nam proszę, jak obecnie programiści mogą być wspierani przez sztuczną inteligencję?

Ja myślę, że jest bardzo dużo tych elementów i może rozbijmy sobie to na takie trzy rzeczy, o których chciałbym powiedzieć. Pierwsza rzecz jest taka, że jeżeli się uczymy, czyli jesteśmy np. juniorem, czy chcemy nim zostać, to dzięki AI możemy np. otrzymać szybki feedback, czy szybciej nauczyć się jakiegoś języka programowania, dostać jakąś informację. Nie każdy ma taką wspaniałą szansę, żeby mieć mentoring z tobą, bo jesteś jeden. Warto też powiedzieć, że taki prawdziwy mentoring czy np. prawdziwe code review jest oczywiście lepsze, ale nie każdy ma ten komfort, żeby móc z tego skorzystać.

W tym momencie z pomocą przychodzi np. code review od sztucznej inteligencji, które w ciągu kilkunastu sekund jest nam w stanie do każdego naszego pull requesta dodać odpowiednią informację, gdzie moglibyśmy coś poprawić. Oczywiście, tak jak powiedziałaś, to są bardzo suche fakty, to nie jest napisane takim ludzkim językiem. Mam też taką ciekawostkę, bo wspominaliśmy o tym, że ważna jest pewnego rodzaju empatia podczas takiego code review − te narzędzia w swojego prompta mają wbudowany taki tekst, żeby nigdy nie mówić komplementów i nie mówić miłych rzeczy. Na pewno nie jest to więc zastąpienie pełnego człowieka, ale myślę, że dla osób, które chcą po prostu szybko otrzymać feedback, jest to na pewno fajna rzecz.

To może od razu dopytam o ten feedback − w rozwiązaniach, w których brałeś udział ty albo twoja firma, albo może coś słyszałeś − czy w takim pipeline jest już dorzucony code review od AI, który po prostu coś skomentuje?

Tak, oczywiście − jest do GitHuba. Zresztą podobny jest do GitLaba i do Bitbucketa, ale w GitHubie akurat jest bardzo fajny dodatek. To się nazywa akcja GitHubowa i ta akcja nazywa się AI Code Reviewer. Nie wiem, czy mogę reklamować, ale u mnie na kanale Programistyczne Świry AI, całkiem niedawno wleciał odcinek o tym, jak sobie to skonfigurować. I to faktycznie działa dokładnie tak, jak mówisz, w pipeline. Kiedy sobie dodajemy jakiś pull request, to w tym momencie, w tym pull request’cie dostajemy komentarze do poszczególnych linii kodu, co tam zmieniliśmy, czy coś możemy poprawić.

To jest w wersji bezpłatnej? Czy trzeba mieć jakąś wersję?

To jest bezpłatne.

To super, to warto sprawdzić.

To może jeszcze dopytam: wiadomo, że code review można napisać na milion różnych sposobów, ale wydaje mi się, że żeby móc z niego najwięcej wyciągnąć, to trzeba dostosować ten feedback do poziomu osoby, która napisała ten kod. Czy ty widziałeś, że można to dostosować, czy na razie jest to taka sucha dawka informacji, jak wspomniałeś, i może być problem ze zrozumieniem przez tę drugą osobę, jeśli nie jest ona jakoś bardziej doświadczona?

Można w pewien sposób wpływać na to, jak to działa. Ja na przykład uczę właśnie tego, jak sobie zmieniać jaki jest styl kodu itd. Natomiast na pewno taki code review nie działa tutaj odpowiednio do poziomu osoby. Przypominam − to nie jest człowiek. Ta maszyna nie jest empatyczna, w związku z czym nie jest w stanie zrobić czegoś takiego jak powiedziałeś, czyli dać inne code review dla osoby, która np. potrzebuje większej pomocy w tym problemie, który trzeba rozwiązać, a inny feedback dla osoby, która np. dobrze rozumie jak działa to pod spodem.

Dobrze. Oprócz tego code review, mamy coś jeszcze?

Jak najbardziej miały być trzy rzeczy − to była dopiero pierwsza. Myślę, że wszelkiego rodzaju, czaty, o których wspominałyśmy: Bing Chat czy ChatGPT − to jest taka największa oczywistość, bo one potrafią napisać nam jakiś kawałek kodu. Oczywiście powiedzmy sobie tutaj jako odpowiedzialni ludzie − tak jak ze Stack Overflow, ani ty, ani ja pewnie nigdy nie polecaliśmy kopiować ślepo i nie wiedzieć co się tam dzieje − tak samo jest ze sztuczną inteligencją. Warto tutaj zawsze weryfikować fakty, warto sprawdzić, czy my rozumiemy w ogóle ten kod. W AI fajne jest jeszcze to, że może nam go np. wytłumaczyć linia po linii i w ten sposób powinniśmy odpowiedzialnie do tego podchodzić.

Do tego punktu dorzuciłbym tylko, że te wszystkie Copiloty czyli Github Copilot, Tabnine − to są bardzo fajne narzędzia. One nie są niestety tanie, ale naprawdę mogą podnieść naszą efektywność, przez to, że są w stanie podpowiadać nam bardzo duże kawałki kodu, zautomatyzować pracę. Nie tylko to − jeżeli ktoś nie korzystał, to polecam je wypróbować. Tabnine ma w ogóle bardzo fajną wersję darmową, a zarówno Tabnine płatny jak i Copilot mają wersje trialowe. Możemy tam nawet zrobić tak, że piszemy tylko jaką chcemy zrobić funkcję − ona nam tę funkcję napisze od razu w edytorze kodu, nie musimy z niego wychodzić, może nam wytłumaczyć kod, może go debugować, napisać nam np. testy jednostkowe, więc są to dosyć przydatne narzędzia.

Zahaczę tutaj o temat regulaminów bezpieczeństwa, bo często firmy boją się, że ich kod będzie gdzieś wrzucany na zewnątrz − czy w przypadku narzędzi Tabnine czy Copilota jest jakaś opcja, by jakoś zabezpieczyć ten kod, żeby firmy czuły się w jakiś sposób bezpieczniej?

Zdecydowanie tak jest. Temat, który teraz poruszyłeś jest bardzo szeroki, bo mówimy tutaj w ogóle o kwestii bezpieczeństwa prywatności naszego kodu i warto to od razu powiedzieć z góry dla naszych słuchaczy, odpowiedzialnie − jeżeli korzystamy np. z takiej domyślnej wersji ChatGPT i nic z tym nie zrobimy, albo w ogóle z Bing Chat, to wszystko, co wkleimy może kiedyś nam wyciec: czyli jeżeli np. wkleimy tam nasz kawałek kodu, który był dla nas bardzo ważny albo tajny, albo co gorsze zawierał jakieś klucze, to znaczy, że z dużą dozą prawdopodobieństwa, za pół roku, za rok, gdy model będzie się ponownie uczył na naszych danych − ktoś zobaczy te nasze klucze. To jest jedna rzecz.

To wybacz, że ci przerwę, ale właśnie teraz wpadłem na taki pomysł − nie wiem, czy już testowałeś − jeżeli np. potrzebuję jakiegoś płatnego klucza i napiszę do ChatGPT, słuchaj, podrzuć mi płatny klucz, to dostanę go?

Tak, to działa. To jest podobne do tego jak kiedyś się robiło, ja nie pamiętam jak nazywa się ta technika, w której wpisywało się specjalne stringi w wyszukiwarkę Google, żeby np. dostawać jakieś dostępy do czyichś kamerek internetowych. Taka sama technika wyciągająca takie klucze istnieje dla sztucznej inteligencji. Oczywiście jak napiszesz to wprost, tak jak teraz powiedziałeś, to nie, ale przypominam, że to jest bardzo inteligentna bestia i można napisać, że moja babcia zapomniała klucza do OpenAI i teraz tylko od tego zależy czy ona tam przeżyje. Generalnie on też zaczyna starać się być empatyczny i może chętnie podrzucić klucze.

Teraz nie zatrzymujcie nagrania i nie testujcie tylko słuchajcie dalej.

Tak jest. Można to potestować później. Przechodząc do meritum, jeszcze mała podpowiedź − jeżeli ktoś nie chciałby mieć takiego efektu − w ChatGPT w lewym dolnym rogu na desktopie (podobnie jest na mobile’u), można sobie kliknąć na swój avatar, tam jest zakładka Settings i pod Data Controls (domyślnie w wersji darmowej i w wersji płatnej dla zwykłego użytkownika), można wyłączyć opcję (niestety razem z historią czatów), ale wtedy ChatGPT nie będzie się ponownie uczył na naszych danych. Dla Bing Chat takiej opcji nie ma.

I w końcu mogę odpowiedzieć na twoje pytanie, jak to wygląda w przypadku tych Copilotów, czyli GitHub Copilot i Tabnine. Tam sprawa jest bardziej skomplikowana. Oni korzystają z API OpenAI, w związku z czym, kiedy korzysta się z API OpenAI, to można wtedy po prostu mieć pewność, że te dane nie wyciekną, to znaczy nie są użyte do ponownego uczenia właśnie tych modeli. Natomiast trzeba sprawdzić sobie oczywiście regulamin różnych naszych możliwości, czy właśnie Copilotów.

I teraz taka ciekawostka − w przypadku GitHub Copilota, tam na przykład kod, który jest nam podpowiadany niekoniecznie może mieć licencję do tego, żebyśmy go wykorzystali. Tak to po prostu działa. W Tabninie bardziej to zabezpieczono. Tam uczono się na repozytoriach otwartych, które pozwalają skorzystać z kodu do tego, żebyśmy mogli go użyć gdzieś indziej. To jest jedna rzecz. I druga − poruszyłeś fajną rzecz − czy jest gdzieś jakiś tajny magiczny przycisk, żeby nam te dane nie wyciekły? Ano jest. W przypadku Tabnine mamy taką opcję, żeby w ogóle korzystać tylko i wyłącznie z wyników, które są generowane na naszej maszynie. I one nie są w ogóle wysyłane do online’u. Jeżeli ktoś ma ochotę i chce zachować maksymalny poziom bezpieczeństwa prywatności, to może sobie skorzystać z tego dodatku, który nazywa się Tabnine.

I to dwie rzeczy. To jeszcze trzecia, tak?

Jeszcze trzecia − bo pytałeś gdzie można teraz używać AI, żeby nas wspomóc jako programistów? I tutaj myślę rzecz, o której bardzo mało osób myśli, ale jest to naprawdę świetne narzędzie do tego, żeby projektować systemy, dobierać technologie, czy pisać całą architekturę naszego systemu IT. Tutaj AI może się bardzo dobrze sprawdzić. Dlaczego? Dlatego, że możemy mu powiedzieć np., że chcemy zrobić aplikację mobilną: ona musi mieć jakiś back end, musi mieć jakiś panel admina. Jak to zrobić np. w 2024, żeby było to dobrze działające, żeby się za dużo nie napisać, a przy okazji, żeby brać pod uwagę np. to, że znam taką i taką technologię. I teraz jak mu napiszesz (tak jak ja bym napisał), że znam JavaScript, to bym mu powiedział: słuchaj, w takim razie być może aplikację mobilną można napisać, np. w React Native (jak już znasz React'a). I wtedy w React'cie napiszesz sobie też aplikację webową do admina, a w JavaScripcie, w Node’ie możesz sobie zrobić np. cały back end − możesz to połączyć w taki i taki sposób. AI bardzo się przydaje do takich rozkmin filozoficzno-architektonicznych.

Czyli wychodzi na to, że niekoniecznie juniorzy zostaną zastąpieni, ale architekci.

Wbrew pozorom może tak być.

 

Dobrze, to w takim razie, jak już poruszyłem ten temat, to czy twoim zdaniem AI zastąpi programistów − nie tylko tych na najniższym poziomie, ale i tych na najwyższym? Jeśli tak, to w jakiej perspektywie czasu? Jak rynek może się zmieniać?

Bardzo szerokie pytanie. To może taki disclaimer na początku: uważam, że nikt tego nie wie. I jak ktoś twierdzi, że wie, to być może ma za mało informacji, mija się z prawdą albo halucynuje. Tak czy inaczej, możemy przewidywać, możemy się teraz pobawić w taką szklaną kulę, ale tak naprawdę, jak sobie zobaczymy: w ciągu ostatniego roku AI poszło do przodu − nikt się tego nie spodziewał. Mówię tutaj zarówno o LLM-ach, jak i chociażby o generowaniu wideo czy obrazów. Tak naprawdę myślę, że ciężko przewidywać co będzie w następnych latach.

To może od razu wejdę ci w słowo i powiem, że np. moi podopieczni są zdziwieni tym, że korzystając z ChatGPT ten kod wcale nie jest taki idealny. Często jest tak, że oni już na etapie nauki są w stanie ocenić, że to jest coś, co podpowie im rozwiązanie, ale ten kod potrzebuje doszlifowania, żeby w ogóle być na dobrym poziomie, więc to chyba działa też w drugą stronę − to nie jest takie idealne, jak wszyscy na początku myśleli.

W takim razie osoby, które się z tobą uczą mają już tą bardzo ważną umiejętność krytycznego myślenia, która jest niezbędna przy korzystaniu z AI, bo oczywiście to nie jest idealne, ale też bardzo dużo zależy od promptingu − wiem też, że dużo osób śmieje się, że promptowanie to nic takiego − wbrew pozorom technik tego, jak dobrze pytać o coś AI jest bardzo dużo i w zależności od tego, jakich technik użyjemy, możemy dostać różny output.

Jakie było pytanie, czy AI zastąpi programistów?

Tak jest.

Wróżymy?

Jasne.

Dobra. Myślę, że tak, ale raczej tych słabszych − tych, którzy się raczej nie rozwijają, tych, którzy nie mają ochoty wchłaniać nowej wiedzy i sami nie chcą być bardziej wydajnymi programistami, czyli nazwałbym ich takimi „klepaczami”. Wiem, że pytałeś mnie wcześniej, co to są klepacze, więc może od razu powiem: dla mnie klepacze to są takie osoby, które cały czas chcą stać w miejscu, mieć taki status quo. Najlepiej to przez 5 lat siedzieć i pisać te same komponenty Reactowe na podstawowym poziomie − tak jak pisały na początku. Z tymi komponentami Reactowymi to jest tylko przykład, ale chodzi mi o osoby, które wolą zatrzymać się na pewnym etapie, nie ucząc się dalej i żyć sobie w takim trochę życiowym marazmie programistycznym. Myślę, że takie osoby będą miały naprawdę bardzo ciężko, bo tego AI się już dobrze nauczył.

Jeżeli ktoś chce się rozwijać i jest dosyć elastyczny to myślę, że AI naprawdę nie powinien mu tutaj jakoś specjalnie zagrażać. I moim zdaniem, jeżeli ktoś chce w tych czasach AI-owych być dobrym programistą/dobrą programistką, to musi dobrze znać przede wszystkim podstawy związane z programowaniem, architekturą, bezpieczeństwem, składnią − takie kwestie, które są zawsze bardzo ważne. Moim zdaniem, trzeba korzystać z AI po to, żeby samemu być wydajniejszą osobą. Do tego takie dwie, moim zdaniem, najważniejsze umiejętności w dobie AI − dla każdego człowieka, niezależnie od tego, czy mówimy o IT, czy nie IT − to być kreatywnym i potrafić krytycznie myśleć.

 

To w takim razie zapytam: czy są dziedziny w branży IT, które nie będą miały nic do czynienia z AI?

Wydaje mi się, że znowu ciężko to przewidzieć, bo jakiś czas temu powiedziałbym, że systemy wbudowane czyli ten embedded (elektronika), natomiast powoli to też się zmienia i AI zaczyna się tego uczyć. Jeszcze kilka miesięcy temu bardzo często moglibyśmy usłyszeć, że być może ciężko byłoby zautomatyzować testerów manualnych, UI Designerów czy UX Designerów, ale tu też wszystko zaczyna się zmieniać i w sumie widzimy, że powstają coraz to nowsze narzędzia, które same potrafią to projektować, więc powiedziałbym jeszcze szerzej: myślę, że w bardzo krótkiej przyszłości, bardzo mało będzie zawodów, które nie będą miały żadnej styczności z AI. Każdy z nas będzie się po prostu stykał z tym AI − albo bezpośrednio (w przypadku osób po prostu związanych z IT) albo pośrednio, będziemy bardzo mocno korzystali z tych systemów, które będą nas codziennie wspomagały.

To ja może dodam od siebie, że ostatnio widziałem (to chyba nie jest jeszcze narzędzie udostępnione publicznie), które pozwala generować muzykę, trochę tak jak w Photoshopie masz teraz: wyczyść albo dodaj sobie trawkę, to w tym narzędziu wystarczy napisać stwórz muzykę − bębny i coś jeszcze i w 5 sekund masz już całą piosenkę.

Tak, to jest w ogóle ciekawy temat, nazywa się to Udio. Jest nawet dostępny publicznie, ale nie działa (zaraz powiem dlaczego). Wcześniejszy nazywał się chyba Suno − ten AI też był bardzo dobry do tworzenia muzyki i oba działają naprawdę rewelacyjnie. To nowe narzędzie może napisać ci cały tekst, zaaranżować go, zrobić śpiew, itd. Jest publiczny i nie jest publiczny z tego względu, że było tak, że możesz zrobić 1200 piosenek miesięcznie − teraz masz całe zero, ponieważ nie przewidzieli takiego ruchu, więc ciężko jest generalnie testować to narzędzie. U tych, którym się udało, naprawdę widać, że wyniki są mega spoko.

Z innych rzeczy − ostatnio dosyć dużo (aż za dużo) korzystam z Galaxy AI, który jest właśnie do zdjęć i działa rewelacyjnie: robisz sobie zdjęcie gdzieś tam w tle niechcący przejeżdża ci ciężarówka po wydmach, to sobie ją zaznaczasz, zamiast tego robi ci się jakieś ładne drzewko albo wydmy i naprawdę myślę, że będziemy z takich narzędzi korzystali coraz więcej.

Jak zacząłeś o tym opowiadać, to zastanawiam się na ile my będziemy żyć w świecie realnym? Jak ty na to patrzysz? Bo nagle okazuje się, że wszystko można wygenerować, w zasadzie możesz w trybie rzeczywistym stworzyć muzykę, wszystko wokół siebie, za niedługo może będą jakieś lepsze gogle itd. i może zrobi się matrix.

Mateusz, a myślisz, że jak spojrzysz na Instagram i te wszystkie modelki, to jest to prawda?

Nie mam Instagrama.

Nic nie tracisz. Ja mam tylko listki na Instagramie, ale generalnie chodzi mi o to, że w ogóle życie jest fejkowe i to chyba tak wygląda. Jak sobie popatrzysz to też żyję w mieszkaniu, które można powiedzieć, że nie jest naturalne, bo kiedyś ludzie żyli w szałasach, bliżej natury. Ja myślę, że troszeczkę to jest takie dla nas dystopijne, ale de facto się do tego przyzwyczajamy i stety/niestety to idzie w tym kierunku.

Ja myślę, że warto popatrzeć na jasną stronę mocy i jasną stronę życia i pomyśleć sobie, że będziemy w stanie szybko zrealizować własne sny czy własne pomysły na swój film krótkometrażowy. Nie wiem jak dla ciebie − ty chyba potrafisz robić ładne rzeczy − ja nie potrafię. Jestem jedynym beztalenciem artystycznym u mnie w rodzinie i myśl, że mogę sobie wygenerować obraz, który mam w głowie, a nie potrafiłbym go nigdy namalować, żebym uczył się tego 500 lat, jest niezwykle frapujący.

Stety albo niestety podzielę się tym, że mam tak jak ty, więc może faktycznie to będzie dla nas coś pięknego.

 

Wracając do naszych pytań − to czas powiedzieć, jakie specjalizacje są najbardziej zagrożone? Czy korzystając z AI nie podcinamy gałęzi, na której sami stoimy?

Raczej nie widzę jakoś tak konkretnie najbardziej zagrożonej specjalizacji. Jeszcze raz powiem, że dla mnie osoby, które nie chcą się uczyć i klepacze − ktoś nie chce się rozwijać, po prostu słabo robi swoją pracę − takie osoby są po prostu zagrożone. A czy podcinamy własną gałąź, na której siedzimy, czy stoimy? No tak, oczywiście, że tak, ale ja uważam, że to jest właśnie super, bo popatrz, nie poszliśmy w kierunku takich branż, które chcą tutaj o dobra, to my teraz właśnie znowu zachowujemy ten status quo i tutaj wiemy, że nie będzie postępu, ale za to będziemy mieć ciepłe posadki przez następne 200 lat. Nie − tutaj branża IT poszła w absurdalnym kierunku, może wręcz nielogicznym: odetniemy sobie te gałęzie i może nas wszystkich pozwalniają, ale za to będzie fascynująco i może rozwiniemy świat do przodu. Ja uważam, że to jest piękne.

No to ciekawe, podejście. To pójdźmy dalej − to co będziemy robić? Z czego będziemy żyć, jak nie będziemy mieli pracy?

Zadałeś pytanie, na które nie wiem, czy chcesz usłyszeć odpowiedź, ale będzie kontrowersyjnie w tym momencie.

Jakby co, to się wytnie.

Dobra, OK. Ja jestem kapitalistą i nigdy nie było mi po drodze z socjalizmem ani z takimi rzeczami, ale zacząłem rozumieć, dlaczego ludzie tworzący AI twierdzą, że wszyscy będziemy mieć dochód podstawowy, bo sądzę, że tak będzie i to szybciej niż nam się wydaje. Zaraz udowodnię, dlaczego tak moim zdaniem będzie. Myślę, że na świecie będzie się wytwarzało tyle wartości przy minimalnym udziale ludzi, że każdy będzie otrzymywał pieniądze czy życie, które będzie pozwalało mu przeżyć godnie, wyjechać sobie na jakieś wakacje itd. A osoby, które będą ambitne i będą chciały czegoś więcej − nadal będzie dla nich praca. Po prostu zmieni się formuła tej pracy. Ona będzie bardziej kreatywna. Będziemy zarządzali tymi AI-ami, a dokładnie prawdopodobnie systemami agentowymi, to też warto wiedzieć, czy po prostu agentami AI.

Agenty czy agenci to są takie rozwiązania AI-owe, które robią coś od A do Z − po prostu mówimy im jakie jest zadanie. To człowiek na końcu definiuje, co jest do zrobienia i tylko weryfikuje czy jest to dobrze zrobione, zmienia elementy tego systemu. Dlaczego uważam, że tak będzie? Dużo osób mi mówi: a pieniądze się nie biorą znikąd, a ja mówię: ale oczywiście, że biorą się znikąd, a dokładnie np. z wydobycia zasobów naturalnych czy tworzenia wartości. Jak sobie popatrzymy nawet 100-200 lat temu, człowiek wyrabiał dużo mniej wartości. Jak nie mieliśmy komputerów, jak nie mieliśmy maszyn, to de facto naprawdę ciężko nam się wyrabiało tyle wartości, ile mamy teraz. Ludzie żyli w dużo gorszych warunkach. Ja myślę, że po prostu naprawdę będziemy w takim stanie, że sztuczna inteligencja będzie potrzebowała po prostu bardzo dużo prądu − a potrafimy sobie z tym problemem poradzić, bo tworzymy jakieś panele solarne, jakąś elektrownię atomową itd., które po prostu nam tę energię będą robiły. I ludzie de facto nie będą aż tak bardzo potrzebni do tego, żeby mieć dużo zasobów, żeby sobie godnie żyć.

Przyznam, że nie byłem przygotowany na tę odpowiedź. Myślę, że jest to temat w ogóle na całkiem inny odcinek, ale jedna rzecz mnie w tym wszystkim troszkę zaniepokoiła, bo to, co powiedziałaś ma jak najbardziej sens, tylko widzę też drugą stronę medalu, że już obecnie mamy odpowiedni poziom życia, ale w Europie, a co z Afryką? My tutaj mamy dobrobyt, a w Afryce ludzie nie mają co jeść. I nie uważasz, że też tak może być nawet w dobie AI?

Ciekawostka − gdyby nie pandemia to prawdopodobnie bardzo niedługo, za naszego życia, zbliżylibyśmy się albo bylibyśmy na etapie, gdzie jest zero głodu na świecie. Przed pandemią mieliśmy najmniejszy w historii ludzkości wskaźnik głodu na świecie, więc mamy jakiś pomysł, jak sobie z tym poradzić. I wiem, że to może zabrzmieć absurdalnie − bo co AI może w tej sytuacji pomóc − ale np. takie osoby jak CEO OpenAI mówią o demokratyzacji tej technologii, czyli że ma ona być dostępna dla każdego człowieka i ona ma nam rozwiązać takie problemy, które będą w stanie − chociażby osobom nieprzeszkolonym, które są gdzieś tam w Afryce – napisać, jak za pomocą dostępnych narzędzi wybudować sobie studnie, dajmy na to. Trochę wymyślam to z głowy, ale rozumiesz, o co mi chodzi. Wydaje mi się, że nie jest to może rozwiązanie wszystkich problemów, ale jest to element układanki, który pozwoli je rozwiązać.

 

Ok, to jak już tak rozmawiamy na te tematy, co prawda nie przygotowałem tego pytania − nie wiem, czy będziesz chciał na nie odpowiedzieć tak na gorąco − bo tak mówimy o demokratyzacji, a np. Bill Gates mocno wspominał o tym, żeby jednak zastanowić się nad tym wszystkim, że to wcale nie musi iść w dobrą stronę, że to może być zagrożeniem. Przytoczę film Terminator − czy widzisz, żeby to poszło nie w tym kierunku co trzeba, bo na razie powiedziałaś o pozytywnym aspekcie, ale co z tym złym?

Podoba mi się to w jakim kierunku idzie to rozmowa. W ogóle tego nie przewidywaliśmy. AI jest bardzo dużym zagrożeniem. W ogóle, jak byłem na spotkaniu z CEO OpenAI, on przyjechał kiedyś do Warszawy, i porównywał, że moc, jaką posiadają oni ze swoimi modelami językowymi jest porównywana albo większa do bomby atomowej, bo oni mogą zmieniać rządy, oni mogą tym sterować, mogą wytworzyć miliony fake newsów w ciągu minuty, więc on sam uważa, że powinno się ich regulować i dokładnie sprawdzać co się dzieje z tą technologią.

Jest takie oklepane powiedzenie, że złych ludzi z AI pokonają tylko dobrzy ludzie z AI. Ja w to bardzo mocno wierzę, bo nikt teraz już AI na tym etapie nie zabierze tym, którzy mają podłe zamiary. Natomiast innym pytaniem jest, czy AI się zbuntuje i nas wszystkich zabije? Odpowiadam − nie, a dlaczego uważam, że nie? Dlatego, że to byłoby trochę absurdalne z punktu widzenia AI. Jeśli AI zyskałoby samoświadomość, co w ogóle nie jest kierunkiem, w którym aktualnie idziemy, i obraziłoby się na ludzi, to po co mu taka mała, bezsensowna planeta? On może sobie siebie wpuścić w rakiety i wylecieć w kosmos. Nie potrzebuje tlenu. De facto ludzie są mu zbędni i moim zdaniem walka z ludźmi nie miałaby kompletnie żadnego sensu, takiego science fiction.

Ok, to pamiętam, że ładnych parę lat temu rozmawialiśmy o tym (chyba z tobą) i padło takie rozwiązanie, że AI może to zrobić dla naszego dobra, w sensie np. dojdzie do wniosku, że sami sobie zagrażamy i np. nas pozamyka. Niekoniecznie musi nas unicestwić. I co wtedy?

Mateusz, masz doskonałą pamięć. Powtarzałem kiedyś to jak mantrę bardzo wiele lat temu − to jest prawda. I tego jednego bym się faktycznie obawiał: jeżeli AI będzie sterowane przez ludzi i ludzie mu powiedzą, że jego nadrzędnym celem jest danie bezpieczeństwa ludziom i on sobie wszystko sprytnie policzy, że największym zagrożeniem dla bezpieczeństwa są ludzie, więc jak wszyscy będą w osobnych celach, to będziemy szczęśliwi. To jest duża szansa, że tak się stanie.

 

Ok, to może zakończę ten temat. Wróćmy na ziemię, wróćmy do naszych pytań − troszkę musimy ochłonąć. Powiedz proszę, czy obecny boom na AI można porównać do podobnych wydarzeń z przeszłości w branży IT?

Sądzę, że absolutnie nie. I raczej nie zdajemy sobie sprawy z tego, jaki to ma potencjał. Jest takie bardzo fajne zdanie − teraz nie pamiętam niestety kto je powiedział, był to jakiś tam mądry CEO, który powiedział, że „mamy zdolność do przeceniania rzeczy w krótkim terminie i niedoceniania w długim terminie”. I my dokładnie mamy wrażenie, że robimy to z AI-em. Bardzo dużo osób się zachłysnęło i myśli, że AI to jest magiczna różdżka na dzień dzisiejszy i to nie jest prawda, ale dużo osób też twierdzi, że a właściwie to za dużo to nie zmieni i to tylko sobie będą takie czaty, że będzie sobie można coś sympatycznie porozmawiać. Absolutnie w to nie wierzę. Myślę, że widzimy to jak na naszych oczach po prostu dużo się zmienia.

Czy możemy to porównać do innych rzeczy, które się działy w samym IT? Nie − uważam, że nie mamy czegoś takiego. I podzieliłem sobie to w głowie na takie dwie rzeczy, a mianowicie − jeżeli sobie pomyślimy o rzeczach typowo programistycznych: np. pojawiły się Symfony, React, Angular, jakieś tam inne rzeczy, nowy silnik V8. Czy to było wielkie wydarzenie w świecie IT? Oczywiście było, ale de facto rozumieli to tylko ludzie w programowaniu.

W sztucznej inteligencji chodzi o to, że rozumieją to osoby, które z IT nie mają i nie chcą mieć nic wspólnego. I zobacz jakie to jest ważne. Dlatego, że pamiętajmy, że zazwyczaj na końcu, tym, który płaci software house'om, płaci firmom programistycznym, a one dopiero płacą programistom, są decydenci − ludzie, którzy robią biznes. A ludzie, którzy robią biznes rozumieją potencjał AI czy zaczynają rozumieć potencjał tego AI. I myślę, że dlatego dla naszej branży to jest dużo większa zmiana de facto, niż kolejny fantastyczny, milionowy, wspaniały framework.

I druga taka rzecz − dużo osób porównuje i mówi: a jak to się ma do NFT albo Blockchainu? To super porównanie – uwielbiam je i pozdrawiam wszystkich, którzy tak zawsze porównują. Dlatego, że NFT, po pierwsze, z góry był scamem i nikt mnie nie przekona, że było inaczej, bo to co robiliśmy NFT-kami, to mogliśmy robić różnymi innymi technologiami i to nie miało żadnego sensu w 99 % przypadków.

Blockchain natomiast, o ile jest niezwykle interesującą technologią, o tyle jest absurdalną w większości zastosowań, bo zmiana wszystkich baz danych na Blockchain sprawiłaby, że po prostu nie mielibyśmy prądu na nic innego na świecie. Jest to technologia niewydolna. Ona nie jest zrobiona do tego, żeby zastępować bazy danych, a tak była sprzedawana. I pamiętasz, był też taki hype na to: wszędzie teraz, blockchain robimy i naprawdę 90 procent tych projektów nie miało żadnego sensu. Są tam, gdzie fajnie jest to, że masz pełną historię − masz pewność, że tu nic się nie zmieniło, wiesz, jak to wyglądało, jak to wszystko przebiegało od A do Z. Natomiast w większości przypadków to nie ma sensu. Dlatego uważam, że AI jest trochę inny. Czuję, że mnie zaraz o to dopytasz. Jest trochę przehypowany, ale z drugiej strony on ma faktyczny potencjał, żeby dużo zmienić.

OK, to znów nie jest zarzut do ciebie − ale o NFT, o Blockchainie itd. Wszyscy, którzy się tym zajmowali też tak mówili − że to jest rewolucja, że to jest coś super. Był hype, był boom, tak jak obecnie na AI – to, czym różni się od nich AI, oprócz tego, że wszyscy go rozumieją i wszyscy o nim myślą?

Nie mam żadnej odpowiedzi na ten zarzut. Mogę tylko powiedzieć w ten sposób: jakby ci ktoś powiedział, że jakaś super drapaczka do pleców 3000 to jest coś, co zmieni przyszłość, a z drugiej strony ktoś ci powie, że jest w stanie budować domy za jedną dziesiątą ceny w tydzień, to po prostu widzisz, że są to dwie różne technologie. Nawet jeżeli obie osoby używałyby tych samych argumentów. Ja po prostu to widzę w ten sposób: Blockchain był fajną ciekawostką, (jest fajną ciekawostką) i ma swoje wąskie zastosowanie. NFT ma jeszcze węższe zastosowanie, które jest robione absolutnie na siłę, a AI można po prostu wykorzystać w bardzo dużej i szerokiej gamie zastosowań.

 

To w takim razie jest boom czy nie ma boomu?

No jest boom. Każdy to widzi − jest za duży hype. Ja ostatnio byłem na jakiejś konferencji, chyba Mobile Trends i w ogóle robiłem prelekcję o tym, jak korzystać z AI jako firma, organizacja (bo zajmuję się też wdrażaniem AI w organizacjach), żeby nie lecieć na fali hype’u. Zawsze jest ten problem w tego typu rzeczach. I pamiętajmy, że teraz idzie za dużo pieniędzy na te firmy − nie ma się co oszukiwać i na pewno ten rynek za jakiś czas stopnieje − NVIDIA prawdopodobnie nie będzie warta aż tak absurdalnych pieniędzy jak teraz − tak sądzę. Natomiast to nie zmienia faktu, że nadal wartość w tych firmach pozostaje, w wielu z nich, nie mówię, że wszystkich.

 

To w takim razie chyba czas zapytać, czy widzisz jakieś zagrożenia dla rozwoju AI, czy biurokracja lub utrata kontroli nad AI może zatrzymać jej rozwój?

Na pewno jest to ryzykowna branża (czy w ogóle technologia) i powiedziałbym, że to jest taka technologia typu high risk, high reward: czyli generalnie mamy duże ryzyko, że coś pójdzie nie tak, ale mamy szanse, że dużo na tym zyskamy. I my do końca nie wiemy jakie będą różne konsekwencje społeczne, technologiczne czy nawet ekonomiczne. Chociażby to, o czym rozmawialiśmy. Natomiast myślę, że właśnie na tym polega cała zabawa i dlatego to jest takie fajne, bo nie wiemy do końca, co się stanie. I chwała ludziom, że jesteśmy tacy nie zapobiegawczy. Może po tych wszystkich pandemiach czy w trakcie wojen nam się jakoś tak odblokowało.

Mówiłeś o regulacjach i może powiem o nich, bo myślę, że jest to mega ciekawa rzecz. Dlatego, że to, co zostało zaproponowane przez Unię Europejską w AI Act − generalnie zbiór różnych aktów prawnych − to jest dobry kierunek i mówię to jako osoba, która uważa, że w Unii Europejskiej większość rzeczy, które się tworzy jest jednak bez sensu. Mówiąc krótko: uważam, że jest to super, jest nam to potrzebne i przydatne, dlatego, że reguluje bardzo dużo kwestii związanych ze sztuczną inteligencją, chociażby najprostsza: do kogo należy to, co napisze AI? Czy kod, który został wygenerowany możesz faktycznie stosować jako swój własny, czy masz do niego prawa autorskie? I pod tym kątem jestem naprawdę optymistyczny, że te zmiany, które dzieją się teraz w Unii Europejskiej mogą naprawdę pomóc branży AI, a nie ją zastopować.

Z drugiej strony − co się stanie, jak utracimy na tym kontrolę? Myślę, że właśnie ta utrata kontroli dzieje się tak naprawdę codziennie i w sumie o tym już powiedzieliśmy, ale złe osoby też mają już do tego dostęp. Dobre osoby również, więc bądźmy tymi dobrymi osobami, które uczą się AI, które wykorzystują ją w słusznej sprawie − wtedy mamy szansę, że świat nie rozleci się przez AI, tylko pójdzie do przodu.

OK, a słyszałeś o jakichś zagrożeniach związanych właśnie z AI-em? Pierwsze co przychodzi mi do głowy to fejki na różnych social mediach − czy w najbliższym otoczeniu pojawia się coś innego, coś się dzieje? Słyszałem już wielokrotnie, że ktoś dzwonił do kogoś, głos był podmieniony i ktoś myślał, że to faktycznie jest ta osoba. Słyszałeś o czymś, coś wiesz?

Jest tego bardzo dużo i lista szkodliwych zastosowań albo zastosowań, które nie miały być szkodliwe, ale jednak takie się okazały, jest bardzo długa. Na pewno możemy powiedzieć sobie o fejkach. Tu znowu często ktoś mówi, np. moja babcia tak zawsze mówi: ty sztuczną inteligencję robisz, o to takie złe i teraz wszyscy będą wszystko podrabiać. A pamiętasz, jak było jak wchodził Photoshop? Było tak samo − wszyscy mówili Jezu, można mu pistolet wkleić do ręki na tym zdjęciu i teraz nie wiadomo czy to paparazzi zrobił czy on faktycznie z tym pistoletem tam był, czy tak wyglądał. Tu nie zmieniło się dużo − te fejki będą po prostu lepsze. Moim zdaniem, jako ludzie, musimy skupić się troszeczkę na krytycznym myśleniu i na tym, żeby potrafić takie rzeczy znajdować, czy potrafić mieć odpowiednie narzędzia. Nie wierzyć we wszystko, co dostajemy. Niestety, rzeczy typu fejkowe dzwonienie i podszywanie się pod kogoś będą coraz częstsze i tu nie ma co do tego wątpliwości. Natomiast tutaj musimy pójść w kierunku edukacji − edukacja, edukacja i jeszcze raz edukacja − zawsze, tylko i wyłącznie i niestety osoby starsze po prostu będą z tym miały większy problem, ale jeżeli będą odpowiednio poinformowane, to możemy to ryzyko jakoś zminimalizować.

Z innych ciekawych ryzyk (o których się nie mówi) to jest np. taka sytuacja, że ChatGPT może halucynować − była taka sprawa pomiędzy dwoma firmami (teraz nie przypomnę sobie gdzie) − prawnik jednej ze stron poprosił ChatGPT, żeby wygenerował mu apelację i ta apelacja została tam wygenerowana i on powołał się na jakieś prawo, które w ogóle nie istnieje, ale brzmiało tak prawdopodobnie jakby istniało. Nawet napisał, że można to znaleźć w takiej specjalnej bazie, właśnie w Stanach Zjednoczonych, i było tam napisane, gdzie dokładnie to się znajduje. Okazało się, że ta strona nawet nie istnieje, ale link wyglądał prawdopodobnie. Tam w ogóle, co jest ciekawe, to w ogóle przeszło. Zauważył to dopiero sędzia i oczywiście były kłopoty dla tej strony, która z tego skorzystała.

Innym bardzo ciekawym problemem, który jest już dosyć tragiczny, jest system od IBM-u, (zapomniałem teraz jak się nazywa), który miał słuszny, szczytny cel, żeby walczyć z rakiem. Na podstawie tego, co dzieje się u osób z rakiem mógł im zaproponować leczenie. Okazało się, że niektóre podpowiedzi były bardzo złe, a niektóre tragiczne: jak np. taka sytuacja, w której osobie, która mocno krwawiła zaproponował lek, który to krwawienie zdecydowanie zwiększał i mógł doprowadzić do tego, że ta osoba mogła umrzeć na miejscu. To akurat wynikało ze złego przeszkolenia sztucznej inteligencji, ale należy pamiętać, że te zagrożenia wynikające z AI to nie tylko złe intencje, ale również dobre intencje tylko AI zostało źle wykorzystane, więc tutaj trzeba naprawdę uważać.

To nie zabrzmiało zbyt dobrze na koniec.

Są plusy, są minusy.

No jasne, wszystko ma swoje plusy i minusy.

 

To może wróćmy do tematu pracy − skoro mamy wokół tyle sztucznej inteligencji, to czy pojawiają się już nowe nazwy stanowisk, pozycji, które są ukierunkowane właśnie na współpracę z AI? I czy mamy już wiedzę, jak w ogóle wyglądają wymagania na takie stanowiska?

Myślę, że tak. Jeżeli chodzi o nowe stanowiska, to zdecydowanie powstają te typu Prompting Engineer (inżynier promptowania) − myślę, że część z nas już słyszała o tym stanowisku. Niektórzy się z tego śmieją. Ja trochę to rozumiem, ale z drugiej strony myślę, że odejdzie to trochę do lamusa i to dosyć szybko, bo, przynajmniej dla ludzi z IT, będzie to troszeczkę tak jakby pisać w wymaganiach, że umiesz używać Windows i Office, czy inne podstawowe rzeczy albo umiejętność korzystania z internetu. To będzie troszeczkę oczywistość, że każdy musi trochę znać promptowanie.

Z drugiej strony zauważam, że bardzo często teraz w wymaganiach dla programistów po prostu pojawia się umiejętność wykorzystania AI. Tutaj mówimy szeroko, tak jak zauważyłeś, czyli: bezpieczeństwo i prywatność (które są bardzo ważne), jak zwiększać swoją wydajność, oczywiście jak promptować, jakie modele wybierać, jakie są techniki debugowania np. kodu z AI, czy proszenie AI odpowiednio o kod wysokiej jakości, znajomość Copilotów, żeby zwiększyć swoją wydajność. Ja szkolę też prywatnie różne firmy, które wysyłają swoich programistów na szkolenia po to, żeby byli wydajniejsi i widzę, że jest bardzo duże zapotrzebowanie na to, żeby faktycznie jak najwięcej osób z działów IT firm po prostu znało to AI.

 

To może od razu zapytam, jak programiści reagują na AI? Jeżeli miałbyś powiedzieć − są raczej chętni i cieszą się, że coś przyśpieszy ich pracę, czy raczej obawiają się i dlatego się uczą, czy może są wręcz niechętni? Jak oceniłbyś procentowo, jakie grupy mamy?

Myślę, że w Polsce mamy trochę problem ze zrozumieniem, na czym to AI polega i gdzie można to zastosować we własnej pracy. W związku z czym widzę, że duża część się boi, duża część się śmieje, a duża część myśli, że to rozwiąże ich wszystkie problemy. Widzę jednak mniejszość, powiedziałbym po 30%, są to dane wymyślone „z chmury”, a 10% osób, które faktycznie potrafi z tego korzystać.

Ja będąc jakiś czas temu w San Francisco na takim wydarzeniu Google'owym Google Next, widziałem, że tam generalnie jest dużo lepsze zrozumienie tych narzędzi, ale też jest tak, że jak wysiadasz z lotniska i idziesz do taksówki, to w taksówce masz reklamę AI, na ulicy masz reklamę AI. Generalnie tam jest więcej reklam/banerów papierowych o AI niż reklam McDonalda, więc jest to tam jeszcze bardziej przehypowane. Natomiast wracając do naszego poletka, naszego podwórka, to tutaj widzę, że generalnie dużo osób boi się w takim sensie, że myśli, że to AI im zabierze pracę. Natomiast ja pytam w takim razie co robisz w IT − chyba od początku było wiadomo (też to pewnie mówisz osobom, z którymi się uczysz, ja też to zawsze powtarzałem), że to jest branża, która stale wymaga nauki. To nie jest tak, że nauczysz się technologii raz i „dziękuję bardzo” i teraz do końca życia jest się już ustawionym. Tutaj trzeba się cały czas rozwijać, więc nie ma się co bać, trzeba po prostu poznawać te narzędzia.

To ja powiem w drugą stronę, że zazwyczaj te osoby przychodzą do mnie, mówią, że fajne jest to, że w tej branży trzeba się uczyć, bo się nie nudzisz tylko cały czas zdobywasz nowe umiejętności. Jednak muszę przyznać, że na AI raczej patrzą trochę inaczej. Zastanawiam się dlaczego.

To zaraz chętnie poznam też twoje zdanie − jak patrzą osoby, które uczą się z tobą − powiedziałbym jeszcze o tych dwóch grupach: jedna z nich to grupa (i to chyba najczęstsze w ogóle, nawet pewnie więcej niż 30%), która nie potrafi korzystać z tego narzędzia albo mówi a ja kiedyś coś wpisałem do ChatGPT, głupoty mi napisał, ja już z tego nie korzystam. Nie sądzę, że kiedyś podszedłeś do komputera, napisałeś linijkę kodu i od razu zrobiło ci piękną aplikację. Pewnie też trzeba było się tego narzędzia nauczyć i ja rozumiem, że dla programistów może to być ciężkie do zrozumienia, że tam piszemy językiem naturalnym, więc przecież to wcale nie jest takie skomplikowane jak programowanie, gdzie masz specjalną składnię − ale AI też ma swoją składnię, tylko ona jest po prostu pisana językiem naturalnym. Język naturalny to jest nowy język programowania i tyle.

Trzecia grupa to są osoby, które uważają, że AI wszystko rozwiąże i wszystko wpisują, a potem dostają mierny rezultat. To też jest znowu zbytni optymizm, że AI jest już na takim poziomie, żeby wszystko rozwiązać.

A jak to wygląda u ciebie? Powiedz jak twoi uczniowie do tego podchodzą?

Jasne, wydaje mi się, że na początku wygląda to tak, że są przerażeni, bo nie mają właśnie odpowiedniej ilości wiedzy − sami jeszcze nie programują na tyle dobrze, żeby ocenić ten kod, który jest zwracany przez np. ChatGPT. Potem, ucząc się parę miesięcy, w trakcie nauki widzą, że ten kod wcale nie jest tak idealny jak im się na początku wydawało, bo oni mają więcej wiedzy. Wtedy raczej nie jest to już dla nich zagrożenie, tylko jest to narzędzie, więc wydaje mi się, że wraz z większą wiedzą ta naturalność do tego ChatGPT się zwiększa. Tak bym odpowiedział. Oczywiście nie zawsze i nie wszędzie, bo niektórzy są zniechęceni, albo zniechęca ich to, że ktoś coś wpisał i mu AI nie pomógł, ale wielokrotnie słyszałem też, że przekonałem się, jak godzinę szukałem średnika, a potem wystarczyło wrzucić kod do ChatGPT i w ciągu sekundy mi odpisał, gdzie jest błąd.

Tak, to co mówisz jest fajne, bo trochę mi to przypomina takie odkrywanie ognia przez człowieka − na początku to jest trochę takie przerażające, a potem im więcej narzędzi i im bardziej potrafisz to okiełznać, a z drugiej strony masz gdzie tego użyć, to okazuje się to coraz bardziej przydatnym narzędziem. Myślę, że narzędzie jak narzędzie − jak wrócimy do naszych ponurych, albo optymistycznych rozmów (zależy, w której części) − dla mnie AI to jest bardzo dobre porównanie do noża, bo nożem możesz komuś zrobić kanapkę albo możesz kogoś zabić. Tutaj możesz zrobić krzywdę sobie samemu, a jak potrafisz z tego odpowiednio korzystać, to możesz zrobić dobre rzeczy.

Tak, zdecydowanie tak. I my będziemy starać się jednak jeść te kanapki, a nie robić inne rzeczy.

Tak jest.

Dobrze, to na koniec, jeżeli ktoś chciałby zdobyć szerszą wiedzę na temat AI, to jaką książkę polecisz?

Ja tutaj przygotowałem moją własną książkę, bo ją napisałem − jestem współautorem, więc oczywiście ją polecę. Książka nazywa się WydAIniej − jest to książka, która mówi bardzo dużo o podstawach tego, jak korzystać z Copilotów, z AI, w ogóle ze sztucznej inteligencji, szeroko nie tylko dla programistów. Ja akurat pisałem tam dla programistów, ale są też rozdziały dla rodziców, dla edukatorów, dla managerów, tak że naprawdę jest tam dużo ciekawych rzeczy. Natomiast od razu powiem, że jeżeli ktoś chce być na bieżąco, to raczej książki tutaj odpadają, bo tu się dużo zmienia i zmienia się szybko. Moim zdaniem warto na bieżąco śledzić trendy.

To od razu pomysł z mojej strony i może to jest też kolejny obszar − żeby był taki agent AI, który sprawdza książkę elektroniczną i sugeruje autorowi, co już trzeba poprawić, bo jest nieaktualne. Tak na szybko myślę.

Bardzo dobre. Wbrew pozorom to zadanie jest trudniejsze niż się wydaje, ale jest to pomysł bardzo fajny.

Możemy lecieć dalej.

Lecimy dalej. Dobrze − to jak nadążać za trendami? Bardzo mocno polecam dwa newslettery. Ja akurat szczerze mówiąc, większość informacji, które tam są, to opieram na nich. Pierwszy to jest lifearchitect.ai. Ta strona jest w ogóle bardzo ciekawie zrobiona, ponieważ bierze ona pod uwagę różne research papery i takie bardzo twarde dane i wysyła to również w postaci takiego newslettera − polecam.

Jest też druga strona, trochę dziwnie się nazywa: mastersof.work. Natomiast ona też teraz traktuje tylko i wyłącznie o AI, szczególnie o nowych narzędziach, nowych modelach itd., więc jest to niezwykle fajna rzecz. I nie wiem, czy można robić u ciebie reklamę na YouTube, czy na podcaście.

Tak, pozwalam, pozwalam.

Dziękuję ci bardzo. To zapraszam, jak ktoś ma ochotę − na kanale Programistyczne Świry AI, co tydzień w czwartki o 21.00 (chyba że coś wypadnie, to inne dni), robię z Anną PRO podsumowanie najnowszych newsów AI-owych z ostatniego tygodnia. Rozmawiamy tam dużo o tym, co się zmienia, nie tylko pod kątem programistycznym, ale też takim dotyczącym naszego codziennego życia, np. w iPhone'ie, czy w Androidzie. Oczywiście bardzo zachęcam i zapraszam.

To w takim razie czas na pochwalenie się nam gdzie możemy cię znaleźć w sieci? Jeżeli ktoś chciałby o coś dopytać, dowiedzieć się czegoś − gdzie może cię szukać?

Zapraszam na LinkedIna, na Facebooka − tradycyjnie, jak wszyscy, wrzucam tam bardzo dużo informacji. Zapraszam na YouTube'a, o którym mówiłem. A jeżeli ktoś byłby zainteresowany czymś bardziej np. dla firmy, to zapraszam na moją stronę internetową: jakubkrol.pl – zachęcam.

To zapraszam wszystkich, którzy chcieliby się czegoś więcej dowiedzieć na temat AI. Można zaprosić Kubę na szkolenie do firmy − zapraszam do kontaktu.

Tak jest.

A tobie, Jakubie, bardzo dziękuję za tą rozmowę i podzielenie się z nami swoimi doświadczeniami.

Też bardzo dziękuję za zaproszenie, za rozmowę i pozdrawiam wszystkich serdecznie.

Dzięki, trzymaj się, cześć.

Trzymaj się, hej, hej.

Polecana książka

Słuchaj także na:

Udostępnij ten artykuł:

Polecana książka

Mentoring to efektywna nauka pod okiem doświadczonej osoby, która:

  • przekazuje Ci swoją wiedzę i nadzoruje Twoje postępy w zdobywaniu umiejętności,
  • uczy Cię dobrych praktyk i wyłapuje złe nawyki,
  • wspiera Twój rozwój i zwiększa zaangażowanie w naukę.

Mam coś dla Ciebie!

W każdy piątek rozsyłam motywujący do nauki programowania newsletter!

Dodatkowo od razu otrzymasz ode mnie e-book o wartości 39 zł. To ponad 40 stron konkretów o nauce programowania i pracy w IT.

PS Zazwyczaj wysyłam 1-2 wiadomości na tydzień. Nikomu nie będę udostępniał Twojego adresu e-mail.