Uwaga! Trwają prace nad nową wersją serwisu. Mogą występować przejściowe problemy z jego funkcjonowaniem. Przepraszam za niedogodności!
⛔ Potrzebujesz wsparcia? Oceny CV? A może Code Review? ✅ Dołącz do Discorda!
Gość: Paula Skrzypecka – kim jest i czym się zajmuje
Czy możesz się przedstawić i powiedzieć, co łączy Cię z branżą IT?
Czy istnieją ramy prawne regulujące wykorzystanie sztucznej inteligencji
Czy istnieją ramy prawne regulujące wykorzystanie sztucznej inteligencji? Czy cele prywatne mają inne obwarowania niż tej komercyjne np. w pracy na etacie czy to w roli freelancera?
Czy trwają prace nad regulacjami szczegółowymi
Czy trwają prace nad regulacjami szczegółowymi? Czego możemy się spodziewać? Czy mogą one zahamować rozwój AI?
Gdzie głównie leży problem dotyczący AI w kontekście prawnym
Gdzie głównie leży problem dotyczący AI w kontekście prawnym? Czy możesz nam przybliżyć temat praw autorskich?
Czy problemem są jedynie prawa autorskie czy może również dane, które są przekazywane do AI np. RODO
Czy problemem są jedynie prawa autorskie czy może również dane, które są przekazywane do AI np. RODO?
Co możemy wyczytać w regulaminach usług, które oferują nam popularne platformy tj. ChatGPT, Midjourney, Compilot itp. Na co powinniśmy uważać
Co możemy wyczytać w regulaminach usług, które oferują nam popularne platformy tj. ChatGPT, Midjourney, Compilot itp. Na co powinniśmy uważać?
Kto odpowiada za szkody wyrządzone przez wykorzystywanie sztucznej inteligencji
Kto odpowiada za szkody wyrządzone przez wykorzystywanie sztucznej inteligencji? Pracownik czy pracodawca? O jakich szkodach tu może być mowa?
Czy możemy zabezpieczyć się przed pozwami w podobny sposób jak właściciele wspomnianych platform? tj. przerzucić odpowiedzialność na klienta (lub pracodawcę)
Czy możemy zabezpieczyć się przed pozwami w podobny sposób jak właściciele wspomnianych platform? tj. przerzucić odpowiedzialność na klienta (lub pracodawcę).
W jaki sposób korzystać z AI, aby nie narażać się na konsekwencje prawne
W jaki sposóļ korzystać z AI, aby nie narażać się na konsekwencje prawne? Czy na tym etapie jest to możliwe?
Czy polecasz jakieś źródło, z którego moglibyśmy zgłębić wiedzę na temat aspektów prawnych związanych z korzystaniem z AI
Czy polecasz jakieś źródło, z którego moglibyśmy zgłębić wiedzę na temat aspektów prawnych związanych z korzystaniem z AI?
Paula Skrzypecka – kontakt
Gdzie możemy Cię znaleźć w sieci?
➡ Parlament Europejski, AI Act
➡ WWW: creativa.legal/paula-skrzypecka/
➡ LinkedIn: pl.linkedin.com/in/paula-skrzypecka
➡ Instagram: www.instagram.com/paula_skrzypecka/
Dziś moim gościem jest Paula Skrzypecka. Paula opowie nam o tym, jak korzystać z AI w taki sposób, aby nie narazić się na konsekwencje prawne. Paulo, dziękuję, że przyjęłaś moje zaproszenie na rozmowę.
Cześć, bardzo dziękuję za zaproszenie. To wielka przyjemność i chętnie podzielę się prawnymi i praktycznymi wskazówkami.
Super, to w takim razie zacznijmy od Twojej osoby. Powiedz nam coś więcej o sobie, czym się obecnie zajmujesz i co łączy Cię z branżą IT.
Jestem prawniczką i doktorem nauk prawnych. Napisałam doktorat o kryptowalutach, więc bliskie mi są nowe technologie oraz to, co jest jeszcze nie do końca odkryte i trochę kontrowersyjne w prawie, stąd też zajmuję się sztuczną inteligencją.
Pracuję w obszarze prawa nowych technologii w branży IT, co oznacza, że analizuję różne projekty pod kątem prawnym, pod kątem ochrony danych osobowych, prawnych podstawowych aspektów cyberbezpieczeństwa czy wdrażania norm IS-owskich dotyczących ochrony informacji. Tworzę regulaminy, polityki dla SAS-ów i dla innych aplikacji. Współpracuję też bardzo często z programistami, którzy zaczynają swoją drogę, czyli na przykład tworzę i sprawdzam dla nich umowy, pomagam w tworzeniu spółki i uruchomieniu start-upu na wszystkich polach, gdzie pomoc prawnika może się przydać.
Jak do tego doszło? Gdzieś ta technologia czy obecność w internetach, nawet w ich początkowym stadium rozwoju, była dla mnie całkiem naturalna. W moim domu komputery były już od kiedy miałam 5 lat, a mam 31, więc już trochę czasu minęło. Internet również pojawił się bardzo szybko i byłam zdecydowanie dzieckiem tychże internetów. Jako klasyczny, pryszczaty nastolatek, który nie miał przyjaciół, włamywałam się swoim znajomym na konta Gadu-Gadu albo na Tlenie i robiłam im jakieś śmieszne (bądź nieśmieszne) żarty. A później, rozszerzając swoją no life'ową działalność, poznałam innych no life'ów, z którymi tworzyliśmy na przykład grę dla dzieci. Finalnie udało się nawet ją sformalizować i sprzedać cały projekt, więc gdzieś ta obecność w świecie szeroko rozumianej technologii i tworzenia jakichś rozwiązań była dla mnie bliska i naturalna od samego początku.
Nawet miałam jakiś epizod z tym, żeby trochę poprogramować, ale doszłam do wniosku, że pisanie rzeczy w HTML-u i zaprogramowanie węża w Pythonie mi wystarczy i mnie satysfakcjonuje i nigdy na poważnie programistką nie chciałam zostać. Doszłam do wniosku, że jednak prawne rzeczy robię lepiej, więc postaram się właśnie tymi rzeczami podzielić.
Dziękujemy za ten wstęp. Od razu mnie zaciekawiło to włamywanie się, ale rozumiem, że pewnie już się temat przedawnił i mogłaś nam o tym opowiedzieć.
Tak, ponadto nie doszło do wyrządzenia szkody nikomu. To było albo podglądanie dla samej satysfakcji, że się udało. Były one fatalnie zabezpieczone, skoro nawet ja sobie z tym poradziłam, a miałam jakieś 12 lat. A po drugie, najbardziej zaawansowanym żartem było umawianie ze sobą ludzi, którzy później przychodzili w jedno miejsce i teoretycznie byli umówieni, ale o tym nie do końca wiedzieli.
To może jeszcze zanim przejdziemy dalej, czy powinniśmy coś powiedzieć na początku, żeby się ochronić przed potencjalnymi pozwami. Jeżeli powiemy coś, co nie będzie prawdziwe za 2 czy 5 lat, to żeby ktoś nas nie posądził o wyrządzenie szkody. Czy powinniśmy przed naszym nagraniem powiedzieć jakąś regułkę?
Możemy, generalnie jest tak, że jesteśmy na etapie szybkiego rozwoju, intensywnej komercjalizacji sztucznej inteligencji i jej różnych wariantów wykorzystania biznesowego. Przepisy prawne jakoś też się rozwijają swoim własnym rytmem, więc oczywiście to, o czym dzisiaj będę opowiadać, to jest stan prawny, czy też praktyka rynkowa i prawna aktualna na dzisiaj. Ona się z czasem może zmienić, może się zmienić całkowicie podejście naszych regulatorów. Wątpię, żeby zadziało się to w krótkim odstępie czasu, ale oczywiście istnieje takie ryzyko. Także to, o czym mówimy dzisiaj, jest aktualne dzisiaj, jest prawdziwe dzisiaj. Jeżeli sięgniecie do tego podcastu za rok, dwa, trzy, pięć, to zróbcie jeszcze check w Google'u albo w ChacieGPT, czy to na pewno tak dalej jest.
No właśnie, ciekawe czy ChatGPT jeszcze będzie dalej istniał za te 5 lat, ale o tym jeszcze sobie porozmawiamy.
Zacznijmy od tego, czy istnieją ramy prawne regulujące wykorzystanie sztucznej inteligencji? Czy cele prywatne mają inne obwarowania niż te komercyjne, na przykład w pracy na etacie czy to w roli freelancera?
Chociaż nie mamy jeszcze dzisiaj w prawie obowiązującym w Polsce przepisów, które by wprost odnosiły się do terminu sztuczna inteligencja, to tych przepisów, które dotyczą jej wykorzystania, już mamy całkiem sporo. Jest hype na hasło sztuczna inteligencja, jest na nie szeroko rozumiany popyt. Z prawnego punktu widzenia to jest taka szara strefa, to znaczy ono samo z siebie nic nie znaczy, natomiast znaczą cały czas te przepisy, które już mamy, czyli na przykład RODO.
Jeżeli przetwarzamy dane osobowe przy wykorzystaniu sztucznej inteligencji, no to mamy obowiązek robić to zgodnie z przepisami RODO. Gdy wykorzystujemy sztuczną inteligencję do tworzenia jakichś kampanii reklamowych, do działań skierowanych, wymierzonych w naszych konkurentów na rynku, to musimy się liczyć z regulacjami dotyczącymi zwalczania nieuczciwej konkurencji. Jak tworzymy chatboty, voiceboty i one będą wystawiane do konsumentów i mają ich do czegoś namawiać albo mają im w czymś doradzać, to mamy regulacje dotyczące praw konsumenta. Jeżeli to są asystenci w przypadku usług finansowych czy inwestycji to regulacje dotyczące rynku finansowego. Tych przepisów jest dużo i są one rozsiane po różnych regulacjach.
Takim zwrotnym elementem będzie a przynajmniej ma być: AI Act, czyli Unijne Rozporządzenie Dotyczące Sztucznej Inteligencji. Jego treść została zatwierdzona przez Parlament Europejski 14 marca, czyli ten tekst, który został przyjęty, już się nie będzie zmieniał. On jeszcze musi przejść ostateczny proces wdrożenia do unijnego prawa, natomiast znamy już jego treść. AI Act jest taką regulacją z założenia kompleksową, która ma zabezpieczać prawnie cały cykl tworzenia i wprowadzania na rynek sztucznej inteligencji od tworzenia modelu, po jego udostępnianie i korzystanie z niego przez odbiorców tego modelu.
Dwie istotne kwestie tutaj. AI Act nie dotyczy sztucznej inteligencji i badań nad sztuczną inteligencją prowadzonych w celach naukowych, rozwojowych wyłącznie. Czyli tam, gdzie mamy wykorzystanie tylko badawcze, ten AI Act nas nie dotyczy. Zwracam Wam od razu uwagę na to, że fajnie, że nie dotyczy nas AI Act na tym etapie badawczym, ale w momencie, gdy będziemy chcieli skomercjalizować ten efekt tych naszych badań, to już dotyczy. Więc jeżeli teraz podchodzicie do jakiejś takiej działalności bardziej naukowej w tym zakresie, to warto już popatrzeć naprzód pod kątem tego, co ja później chcę zrobić z tym? Co w ramach tego projektu czy badania, w którym biorę udział, co chcę mieć z tego dalej?
Druga istotna rzecz to to, że AI Act nie dotyczy korzystania ze sztucznej inteligencji w celach czysto prywatnych. Natomiast opisuje szereg różnych obowiązków adresowanych do podmiotów, które wytwarzają oprogramowanie AI’owe, wprowadzają je na rynek unijny, dostarczają je i są importerami. Czyli nie są wytwórcami, a jedynie zapewniają dostęp do tych narzędzi sztucznej inteligencji. W związku z tym, cele prywatne praktycznie nam wypadają z tej układanki. Nawet jeżeli dostarczacie coś nieodpłatnie, na przykład ChatGPT w podstawowej wersji też jest póki co nieodpłatny, to już jest wprowadzenie na rynek, i to już jest cel komercyjny. Także warto na to zwrócić uwagę.
Jeżeli chodzi o korzystanie ze sztucznej inteligencji w swojej własnej działalności, freelancingu, no to sam sobie jestem sterem, żeglarzem i okrętem. Wiem już, że są jakieś przepisy, które dotyczą tego, co mi wolno, czego mi nie wolno. Są też przepisy karne, dotyczące na przykład deepfake'ów i kradzieży czyjegoś wizerunku czy tożsamości. Są przepisy dotyczące informacji poufnych i wiążące umowy NDA z klientami, które zabraniają wsadzania informacji poufnych gdzieś w zewnętrzne narzędzia, czyli na przykład tworzenie ofert dla klientów przez ChataGPT ze wskazaniem wszystkich tajemnic tego klienta.
W przypadku pracy na etacie kluczowe znaczenie ma to, co się dzieje w firmie, czyli jakieś wewnętrzne regulacje w tym zakresie. Ja też często tworzę polityki dotyczące korzystania ze sztucznej inteligencji, czy to w software house'ach, czy w agencjach marketingowych, czy jeszcze w innych podmiotach, tak żeby dać te ramy prawne i dobre praktyki. Dodatkowo szkole z tego jak to z prawnego punktu widzenia wygląda. W związku z czym pracując na etacie przede wszystkim sprawdzamy, czy jest jakaś polityka w naszej firmie w tym zakresie. Czasami zdarza się tak, że te polityki wprost wskazują z jakich narzędzi korzystamy, na przykład: korzystamy z Copilota, a nie korzystamy z czegoś innego.
A jeżeli nie ma takiej polityki, to oznacza, że nie możemy korzystać ze sztucznej inteligencji?
Najlepiej ustalić to w swoim zespole, bo takiego zakazu nie ma. Tak długo jak pracodawca Ci go nie da, to go nie ma. Natomiast może się okazać, że poza Tobą została zawarta umowa przez twojego pracodawcę z klientem, gdzie klientowi napisane jest wprost, że oprogramowanie nie będzie tworzone z wykorzystaniem narzędzi sztucznej inteligencji. Jeżeli jednak tak będziemy je tworzyć to ryzyko, że samoistnie gdzieś to wypłynie nie jest duże, ale jak na spotkaniu z klientem programiści powiedzą: to sobie wpuściliśmy tu i tu i to sobie wygenerowaliśmy i sprawdziliśmy, że to działa, to już jest trochę głupio.
Często w IT mamy umowy B2B, a nie etat. Kiedy powiemy klientowi, że korzystamy z Copilota, a on miał zawarte w umowie, że takie narzędzia nie będą wykorzystywane, to czy w takiej sytuacji my w 100% odpowiadamy za karę, która zostanie nałożona naszego pracodawcę?
W przypadku B2B to zależy też od tego, jaką mamy umowę z tym, z kim współpracujemy. Może być umowa tak skonstruowana pod kątem odpowiedzialności, że rzeczywiście musimy w całości tę karę ponieść, ale najczęściej tak nie będzie. Dlatego, że nasz zleceniodawca powinien nas o tym zakazie poinformować. Nie ma tu żadnego przepisu, który by sam z siebie powodował, że od razu my jako zleceniobiorca tę odpowiedzialność ponosimy i musimy zwolnić naszego naszego zleceniodawcę z tej odpowiedzialności.
Często jest tak, że jak pracujemy dla firm zagranicznych, to one każą nam się ubezpieczyć. Jeżeli jesteśmy ubezpieczeni, to czy to nas chroni? Czy raczej to wygląda w ten sposób, że ubezpieczyciel może się dogadać z naszym pracodawcą, potem ten ubezpieczyciel ciągnie od nas pieniądze, bo na przykład nie doczytaliśmy regulaminu, który mówi, że jeżeli sprawa dotyczy AI, to niestety ubezpieczenie nie ma miejsca.
Dogadanie się z pracodawcą z góry bym odrzuciła, bo ubezpieczyciele mają taką cechę charakterystyczną, że z nikim się nie dogadują. Natomiast rzeczywiście, jeżeli klient wymaga ubezpieczenia, co jest standardem, coraz więcej firm oferuje też ubezpieczenia właśnie z tytułu korzystania z AI, czy też naruszenia praw własności intelektualnej ze względu na korzystanie ze sztucznej inteligencji. Jeżeli chcemy się zabezpieczyć konkretnie od tego rodzaju ryzyka, to trzeba sprawdzać ogólne warunki naszego ubezpieczenia, czy to tam jest? Czy jeżeli coś pójdzie nie tak, to to ubezpieczenie nam pokryje te ewentualne zobowiązania?
Rozumiem, że na etacie jesteśmy troszkę bezpieczniejsi, bo tutaj maksymalna kara to jest trzy razy nasze wynagrodzenie. Zgadza się?
Tak, zgadza się. Musielibyśmy wyrządzić komuś już jakąś szkodę. Nawet programista jakiegoś robota chirurgicznego nie ponosiłby prawdopodobnie bezpośredniej odpowiedzialności, gdyby ten robot kogoś skrzywdził. Zawsze jest jakiś operator, osoba odpowiedzialna za przebieg zabiegu czy operacji. Tak na szybko trudno mi wymyślić jakiś sensowny przykład, gdzie można by było w pełnej wysokości tego pracownika do odpowiedzialności pociągnąć w tym naszym programistycznym świadku.
Czy uważasz, że jednak praca na etacie, mimo tego, że jest ona bardzo obciążona podatkami, to z perspektywy prawnej jest dużo bezpieczniejsza? Może warto mniej zarobić, ale być dobrze zabezpieczonym? Czy umowa B2B też może być tak dobrze obwarowana, że nie będzie tych ryzyk tak dużo?
Umowa B2B też może być dobra i bezpieczna. Nie skłaniałabym się ku jednemu bądź drugiemu rozwiązaniu. Oba są OK i oba są bardziej wartościowe na różnych etapach życia i różnych etapach kariery. Jako prawniczka mogę powiedzieć, że także na umowie B2B czy zleceniu można sobie wywalczyć na przykład jakieś dni wolne. One oczywiście nie będą się nazywały urlopem, ale po prostu dniami, w których na przykład usługi nie są świadczone. Da się to wynegocjować i warto to robić.
Warto wiedzieć, że to nie jest tak, że absolutnie żadna instytucja podobna do instytucji z umowy o pracę nie może się tam znaleźć. Chodzi o to, żeby zasady były odmienne, co do tego wykonywania zleceń pod kierownictwem w wyznaczonym miejscu itd. Natomiast nie faworyzowałabym żadnej, bo wydaje mi się, że to jest szalenie indywidualna kwestia dla każdej osoby w danym momencie jej życia. Czy ważniejsze jest dla niej ta stabilność i na przykład urlop macierzyński, czy jednak niekoniecznie?
OK, wróćmy w takim razie do tematów AI’owych. Wspomniałaś troszkę o tych ogólnych zasadach, to teraz pytanie czy trwają prace nad regulacjami szczegółowymi? Czego możemy się spodziewać? Czy mogą one zahamować rozwój AI? Wiemy, że AI opiera się o materiały zdobyte od innych osób, czyli tutaj temat też praw autorskich, o których pewnie będziemy sobie jeszcze dzisiaj mówić.
Trwają prace nad różnymi regulacjami. One już nie są tak spektakularne jak chociażby temat AI Actu. One trwają i w niektórych miejscach na świecie już się pojawiają. Na przykład te dotyczące wykorzystania sztucznej inteligencji przez agencje rządowe w Stanach Zjednoczonych. W Polsce będziemy zaraz implementować dyrektywę NIS2 i tutaj w grę będą wchodzić kwestie związane z cyberbezpieczeństwem. Być może software house działający na rzecz klientów objętych bezpośrednio krajowym systemem cyberbezpieczeństwa bądź innymi regulacjami, będzie zobowiązany do tego, żeby te regulacje wdrożyć. Więc te prace trwają i one najczęściej dotyczą jakichś wycinków rzeczywistości w konkretnych państwach. Na dzisiaj w Polsce na przykład nie mamy projektu regulacji, która byłaby adresowana konkretnie do jakiegoś jednego rynku. Bardziej jesteśmy na etapie, kiedy one się konceptualizują albo dopiero się tworzą.
W pierwszej kolejności możemy się spodziewać regulacji korzystania przez organy publiczne ze sztucznej inteligencji pod kątem cyberbezpieczeństwa, a w dalszej kolejności tych bardziej rynkowych zastosowań. Mamy też na stole w Unii Europejskiej projekt dyrektywy o odpowiedzialności za sztuczną inteligencję, o odpowiedzialności poza kontraktowej. Jeżeli korzystamy z ChataGPT albo z czegoś innego, to robimy to na podstawie umowy. Warunki, które akceptujemy, to jest ta umowa z prawnego punktu widzenia. Tutaj zastosowanie mają właśnie regulaminy.
Natomiast był taki projekt dyrektywy, on wstępnie został odrzucony na tym etapie, był dosyć długo rozpatrywany i powróci prawdopodobnie w takiej bądź nieco innej formie. Projekt odpowiedzialności za sztuczną inteligencję w tych relacjach poza umownych, czyli na przykład wtedy, kiedy chcemy się ubiegać o kredyt albo idziemy po nowe OC dla naszego samochodu i dochodzi do profilowania naszych danych i zastosowania sztucznej inteligencji, żeby obliczyć nasz scoring. Żeby nas profilować pod kątem tego ryzyka kredytowego czy ubezpieczeniowego, to jest relacja pozaumowna. My się nigdzie na to nie umawiamy i jeżeli zostanie nam wyrządzona jakaś szkoda, to zgodnie z tymi projektowanymi przepisami ta osoba, która posługiwała się tą sztuczną inteligencją w relacji do nas, domniemywa się, że ona jest winna. To znaczy, że posługiwała się nią niezgodnie z prawem i teraz możemy ją pociągnąć do sądu, do odpowiedzialności. Musi nam się wyspowiadać, że zastosowała sztuczną inteligencję tak jak mogła i na takich zasadach, które są prawnie dopuszczalne.
Dodatkowo przepisy te dawały możliwość zażądania przedstawienia określonych informacji o zasadach funkcjonowania sztucznej inteligencji tego modelu wykorzystywanego w danej sytuacji. Osobiście traktowałam to uprawnienie jako trochę iluzoryczne, bo powiedzmy sobie szczerze z perspektywy zwykłego Kowalskiego. On nawet nie wie jakie pytania mógłby zadać, bo to jest szalenie trudne, żeby te pytania wymyślić.
W związku z czym dużo słów, dużo pomysłów, ale niekoniecznie one coś jeszcze znaczą. Ten wątek, czy te regulacje mogą zahamować rozwój sztucznej inteligencji, to jest mój ulubiony temat. Jakoś tak się przyjęło, że prawnicy jak mówią o prawie, to są z automatu uznawani za entuzjastów tych przepisów. Często jestem stawiana przez klientów jako potencjalna obrończyni tych regulacji, a tak nie jest. Ja też nie uważam, że wszystkie z tych regulacji są sensowne, wartościowe, mądre i tak dalej. Natomiast moją rolą jest mówienie o tym co w nich jest i co z nich wynika. Jeśli chodzi o to hamowanie rozwoju, to rozumiem tę obawę w zupełności i widzę jeden istotny powód, dla którego do tego zahamowania mogłoby dojść. Mianowicie dewaluacja tych przepisów, które zostały świeżo zatwierdzone, uczynienie z nich obowiązków czysto biurokratycznych i takich upierdliwych formalności dla firm. Bo na przykład tworząc model generatywnej sztucznej inteligencji trzeba będzie go zarejestrować, żeby go zarejestrować to trzeba wypełnić wnioski i tam wskazać różne rzeczy. Nasze podejście do stosowania regulacji może się ograniczyć do tego, że stwierdzimy, że to wdrożenie AI Actu polega na tym, żeby wyprodukować kwity. W ten sposób nie osiągniemy absolutnie niczego, bo to wdrożenie z jednej strony będzie iluzoryczne, a z drugiej będzie rzeczywiście hamowało rozwój w tym sensie, że będzie studziło wszelkie zapędy. Jak dowiemy się, ile na starcie jest warunków brzegowych, które musimy spełnić, żeby stworzyć projekt AI’owy, to stwierdzimy: no nie dzięki.
Natomiast nie jest też tak, że to hamowanie rozwoju jest takie oczywiste. Po pierwsze, tak jak mówiłam, te przepisy AI Actu nie dotyczą kwestii badań naukowych i rozwojowych, ale jest jeszcze jedna istotna rzecz. W ramach różnego rodzaju dyskusji, które odbywam na ten temat, często pada argument: że fajnie, ale Chińczycy to się nie będą regulować, Amerykanie też nie będą, a my będziemy jak zawsze w szarym ogonie i w ogóle nic tu nie będzie, a oni uciekną z Unii Europejskiej ze swoimi usługami i tyle będziemy mieli z tego AI. No więc dwie złe wiadomości dla maruderów. Pierwsza jest taka, że i Chińczycy i Amerykanie już się samoregulują w różnych obszarach związanych z wykorzystaniem sztucznej inteligencji, na przykład w Tennessee zakazano uczenia sztucznej inteligencji na utworach muzycznych, taka ciekawostka. Chińczycy też się samo regulują i to już od dawna. Oczywiście nie można przykładać jeden do jednego, regulacji chińskich do regulacji unijnych czy polskich, bo chińskie regulacje powstają w chińskiej kulturze prawnej, w chińskich społeczeństwie i w chińskim systemie prawnym. One nigdy nie będą identyczne do naszych. Niemniej podwaliny czy w Chinach, czy w Indiach, które też te regulacje tworzą, są podobne.
Więc po pierwsze nie jest prawdą to, że inni się nie regulują, z tym zastrzeżeniem, że oni się regulują po swojemu, tak jak jest adekwatnie do ich systemu, ich kultury i całej ich tożsamości. A po drugie, zgodnie z AI Actem, każdy dostawca modeli sztucznej inteligencji, czy to będzie OpenAI, czy to będzie mały start-up z Polski, tak długo, jak świadczy swoje usługi i dostarcza to swoje narzędzie na rynku unijnym, niezależnie od tego, gdzie ma siedzibę, będzie objęty tymi przepisami.
W związku z czym to, że sobie zarejestrujemy firmę w Delaware albo w jakimś innym miejscu, to jeżeli chcemy swoje usługi kierować na rynek europejski, to i tak te obowiązki wynikające z AI Actu będzie trzeba spełnić i będą musieli je spełnić także dostawcy tych największych modeli. Więc nie jest tak, że te regulacje same z siebie postawią nas gdzieś na szarym końcu. Natomiast zagrożeniem rzeczywiście z mojej perspektywy jest to, że te regulacje zostaną wypaczone z ich sensu i staną się tylko taką biurokratyczną uciążliwością.
Dopytam jeszcze o ten outsourcing, przedstawię swoją koncepcję i pytanie do Ciebie, czy tak będzie można zrobić, czy nie.
Mam do napisania aplikacje, u nas są te wszystkie regulacje, więc piszę do mojego kolegi Chińczyka, mówię: wiesz co, potrzebuję taką i taką aplikację. Dasz radę ją zrobić na jutro? Oczywiście, że tak. No i on sobie zapuszcza tam sztuczną inteligencję, ona mu to wygenerowała, wysyłała do mnie i mówi: masz Mateusz, to jest ta aplikacja, którą chciałeś. Ok, super, no to mam. Czy w tym przypadku te wszystkie regulacje, o których mówiliśmy, są w stanie w jakoś wpłynąć na tego Chińczyka albo na mnie, bo ja mogę nawet o tym nie wiedzieć, że to sztuczna inteligencja wygenerowała. Ja po prostu zleciłem zadanie i otrzymałem projekt. W ten sposób w Polsce nie moglibyśmy tego zrobić, ale mój kolega Chińczyk to zrobił i w zasadzie cały ten program jest wygenerowany przez sztuczną inteligencję. Ona została nauczona na tych wszystkich materiałach, które są teoretycznie chronione prawem autorskim, ale zakładając, że w Chinach te prawa autorskie nie obowiązują, to to wszystko jest zgodne z prawem.
To jest tak, że jeżeli Ty mu to podzlecasz, żeby on to zrobił, a Ty chcesz to dostarczyć swojemu klientowi, to Ty dostarczasz to swojemu klientowi zgodnie z jego wymaganiami. Jego wymagania mogą być wymaganiami chińskimi, mogą być wymaganiami polskimi, mogą być wymaganiami niemieckimi, to zależy wszystko od tego, jak to między sobą poustawiacie.
Natomiast jeżeli Twój klient będzie chciał wykorzystywać to na rynku polskim czy rynku unijnym, to wszystko idzie z góry. On powinien Ci przedstawić takie wymagania w ramach swoich wymagań, zgodność chociażby z przepisami AI Actu pod jakimś tam kątem. Więc w pierwszej kolejności to on musi być ich świadomy. W drugiej kolejności, jeżeli
Ty korzystasz z jakiegoś podwykonawcy, on to wykonuje jak chce. Twoją rolą jest zadbać o to, żeby albo Ci powiedział o tym, że z czegoś korzysta, co jest u Ciebie na cenzurowanym albo o odpowiednie gwarancje w relacji z nim. Natomiast z punktu widzenia prawnego, Ty odpowiadasz przed swoim klientem, Twój kontraktor z Chin odpowiada przed Tobą, a to, gdzie pojawią się dokładnie te wymogi związane z tym, co powinien mieć taki model, to już jest wasza broszka. W tym sensie, że obowiązkiem przedsiębiorcy jest spełnianie tych wymogów, a to, jak zostanie między sobą w tej układance ten ciężar spełnienia tych obowiązków uregulowany, to jest trochę wtórne, bo możecie to uregulować na bardzo różne sposoby.
Więc nie jest też tak, że wtedy Ty nie zarobisz, w tym sensie, że u nas nie ma zakazu również wprowadzenia na rynek czegoś wygenerowanego w 100% przez sztuczną inteligencję. Raczej nigdy tego zakazu nie będzie, w związku z czym Ty również za swój produkt najprawdopodobniej zarobisz, a istotne będzie to, jak będzie opisana Twoja odpowiedzialność. Jeżeli przedmiotem zlecenia, który tworzysz dla swojego klienta był model, który ma służyć do wykorzystania w jakimś systemie do rekrutacji, to jeżeli klient będzie go wykorzystywał w sposób niezgodny z przepisami AI Actu, w pierwszej kolejności przed tym, czyje prawa zostały naruszone, odpowiada klient, a dopiero w drugiej on musiałby Ci dowieść, że Ty naruszyłeś jakieś swoje zobowiązanie umowne wobec niego.
OK, to teraz przejdźmy do tych szczegółów, gdzie w ogóle leży problem dotyczący AI w kontekście prawnym. Już trochę na ten temat sobie porozmawialiśmy, ale czy mogłabyś nam przybliżyć temat praw autorskich i dlaczego on jest w tym przypadku taki istotny?
W kontekście prawnym temat sztucznej inteligencji chyba wybił się właśnie na wątkach praw autorskich. Trudno się dziwić, bo są najbardziej nośne i jest to rzeczywiście problem do rozważenia w pierwszej kolejności. Zaczynając od początku, mamy dwa rodzaje praw autorskich.
Prawa autorskie osobiste, czyli te, które pozwalają nam oznaczyć nasze dzieło naszym nazwiskiem, pseudonimem. Powodują, że nasze dzieło jest nasze. Możemy oznaczyć utwór swoim nazwiskiem, przypisać do siebie i się nim chwalić. Istotne jest to, że te prawa autorskie osobiste są nieprzenoszalne, czyli one raz powstają, coś jest moje i to już zawsze będzie moje. Nawet jeżeli udzielę licencji na korzystanie z tego albo zrobię jakieś inne rzeczy, to i tak zawsze będzie moje.
Drugi rodzaj praw autorskich to są prawa autorskie majątkowe, czyli te, które pozwalają mi zarabiać na moim utworze. Prawa autorskie majątkowe oczywiście są przenoszalne, można je przenieść na inną osobę, na firmę, na pracodawcę. W przypadku umowy o pracę na pracodawcę przechodzą one automatycznie i można nimi rozporządzać na różne sposoby. Można przenieść jakieś udziały w tych prawach trochę na jedną osobę, trochę na drugą.
Żeby coś mogło zostać objęte prawami autorskimi, czy to osobistymi, czy majątkowymi, to musi mieć charakter utworu. Utworem jest to, co jest ustalone w jakiejś konkretnej formie, czyli nie może to być sama koncepcja, sama metoda, sam pomysł na rozwiązanie jakiegoś problemu. To musi mieć konkretną formę, od A do Z, zamknięty produkt. Musi być ustalone i musi być oryginalne. Mieć w sobie jakiś element tej indywidualności, być może innowacyjności, czegoś autorskiego, czegoś, co jest tylko nasze. My spędziliśmy jakiś czas nad tym, żeby wytworzyć to w takiej, a nie innej formie.
Podstawowym problemem w kontekście sztucznej inteligencji, w momencie, w którym ona zaczęła wchodzić na salony, jest oczywiście to, czy to co wytworzy mi ChatGPT albo jakieś inne narzędzie, to jest utwór? I kto ma do tego prawa? Koncepcje były różne, więc ze względu na to, że ten output, który dostajemy z jakiegokolwiek narzędzia generatywnej sztucznej inteligencji, nie zostaje wytworzony przez człowieka, to on nie jest utworem i nigdy nie będzie. Czyli wszystko to, co jest nam wyrzucane, jest po prostu jakimś wytworem. Możemy tym rozporządzać dowolnie. Możemy to sprzedać, możemy to opublikować. Na Amazonie jest dużo książek napisanych przez sztuczną inteligencję do kupienia. Możemy na tym zarabiać, możemy sobie powiesić na ścianie. Natomiast nie powstają prawa autorskie, bo nie ma utworu.
Drugi problem, który się od razu pojawia, to czy jak ja wprowadzę tam 5 modyfikacji do tego obrazka z Midjourney, to to już będzie utwór, czy to nie będzie utwór? No i pytanie jest jak najbardziej zasadne, bo przepisy na dzień dzisiejszy nie dają na nie odpowiedzi. Czyli generalnie tak, jeżeli zmodyfikujesz to, co zostało wytworzone i ta modyfikacja będzie mieć jakąś wartość dodaną, którą zawsze trzeba oceniać w jakimś konkretnym kontekście. Możemy wtedy powiedzieć, że od dnia x mamy prawa autorskie do tego utworu, którym jest coś napisanego czy zaprogramowanego w oparciu o to, co zostało wygenerowane przez sztuczną inteligencję.
Ta niejasność działa na plus i na minus. Na minus działa tak, że nie mamy tej pewności prawa i nie wiemy, ile musimy od siebie dać. Jeden prawnik powie tak, drugi prawnik powie nie i w sumie nic nie wiemy. To jest ryzyko wynikające z tego, że przepisy nie dają żadnego algorytmu na to. Plusem jest to, że możemy podejść do tematu wraz z prawnikiem po partnersku i biznesowo. Powiedzieć: OK, to ja się w swojej umowie, ze swoim klientem umawiam na to, że wprowadzenie poprawek takich i takich, takiego i takiego rodzaju powoduje, że to już jest utwór. I w zasadzie bardzo trudno byłoby zakwestionować tego rodzaju ustalenie, więc w ten sposób można z tego wyjść. Ja mogę ze swojej praktyki powiedzieć, że takie klauzule dotyczące wykorzystania sztucznej inteligencji versus prawa autorskie bardzo często do umów wprowadzam.
Trzecia kwestia, która jest istotna w kontekście rozwoju sztucznej inteligencji i praw autorskich, to uczenie się sztucznej inteligencji na utworach. Myślę, że nikt nie ma złudzeń co do tego, że największe modele, które dzisiaj są najpopularniejsze, powstały dzięki temu, że po prostu zescrapowano co się dało i przetworzono. Oczywiście warto podkreślać na każdym kroku, że generatywna sztuczna inteligencja nie działa tak, że robi kopiuj-wklej. To nie jest ten model. Ona rzeczywiście to wytwarza od podstaw, od pikseli. Nie jest tak, że jak powiemy, że chcemy mieć myszkę Miki, to ona zrobi kopiuj-wklej z innej myszki Miki.
Mamy przepisy Unijnej Dyrektywy Digital Single Market, która została już przyjęta w 2019 roku. W 2021 roku minął termin na jej implementację, czyli wprowadzenie do Krajowego Porządku Prawnego. W Polsce się to nie zadziało. Do dzisiaj trwają prace nad projektem ustawy wdrażającej i implementującej tę dyrektywę i też dzieje się w związku z tym medialnie. Dziennikarze i twórcy stworzyli list otwarty do premiera właśnie w tej sprawie. Dlaczego teraz? Na czym polega ten haczyk? Dyrektywa wprowadza takie pojęcie jak: text and data mining, które oznacza w skrócie to, że można analizować i przetwarzać utwory, czy też całe sety utworów, m.in. na potrzeby trenowania sztucznej inteligencji.
Może się to zadziać w dwóch przypadkach. Pierwszy przypadek to jest tak zwany dozwolony użytek badawczy, czyli można to robić w ramach prac naukowych i prac badawczych pod warunkiem, że te prace są prowadzone przez jakąś organizację badawczą albo przez jakąś instytucję dziedzictwa kulturowego, typu muzeum. Drugi przypadek, ten, który nas bardziej interesuje, to jest dozwolony użytek komercyjny. Pisałam o tych rzeczach znacznie więcej na swoim LinkedInie. Można znaleźć po tym ślad, żeby mnie pociągnąć do odpowiedzialności. Jest na dzisiaj taka furtka, ten dozwolony użytek komercyjny, mamy możliwość ściągnięcia, przetworzenia, wytrenowania modelu, który będzie skomercjalizowany. Tylko jeżeli właściciel praw autorskich do tego utworu, którego chcemy skorzystać, nie zaszyje na swojej stronie oświadczenia o tym, że się na to nie zgadza i to oświadczenie musi być zaszyte w taki sposób w kodzie, żeby było możliwe do sczytania przez boty.
Zastanawia mnie jedna rzecz, od kiedy musimy się na coś nie zgadzać? Zazwyczaj jest tak, że musimy wyrazić zgodę na coś, a w tym przypadku jest tak, że musimy wyrazić niezgodę. Dlaczego akurat w tą stronę idziemy, skoro ktoś nam coś zabiera?
Scrapping ma to do siebie, że jest masowy, więc w drugą stronę nie dałoby się tego wyegzekwować. To co da się wyegzekwować, to jest brak zgody, bo jak nie powiesz, że się nie zgadzasz, to będziemy Ci zabierać, więc dużo łatwiej jest wyegzekwować w praktyce na rynku stosowanie tych przepisów. Myślę, że to z tego wynika. Pozyskiwanie tych data setów najczęściej jest mniej lub bardziej zautomatyzowane, więc to musi być rozwiązanie możliwe do zastosowania masowo i jednolicie. To jest taka szczególna sytuacja.
Druga sytuacja to taka, w której zawieramy z kimś umowę licencyjną. Jeżeli już z kimś wchodzimy w proces podpisania licencji na coś albo bierzemy obrazki z banku zdjęć, to ta licencja nas obowiązuje. Nie możemy teraz powiedzieć, że: no może i podpisaliśmy, ale w sumie to mogę sobie to zescrapować w dowolnym celu z wykroczeniem poza tę licencję.
Dobrze to brzmi z punktu widzenia rozwoju technologii, nie fajnie to brzmi z punktu widzenia twórców, dziennikarzy, wydawców, w zasadzie szeroko rozumianych artystów. To dotyczy zarówno filmów jak i zdjęć, tekstów, wszystkiego co jest utworem. Myślę, że będzie to nadal gorący temat. Stąd też tyle jest pozwów chociażby przeciwko Stable Diffusion dotyczących tego, że właśnie ich model został wytrenowany w oparciu o utwory pozyskane nielegalnie. Póki co szala się nie przechyla na stronę tych artystów, czy reżyserów, czy środowisk twórców, więc trudno powiedzieć, jaka będzie tendencja.
Chociaż informacje o tych pozwach zawsze są medialne i nośne to warto pamiętać, że te postępowania to jest tylko informacja o pozwie wniesionym przez konkretną firmę w konkretnej sprawie. Ona nie będzie miała przełożenia z automatu na wszystkie inne sprawy, które się będą działy. Jeżeli zapadnie wyrok na korzyść artystów, to będzie to oczywiście istotny argument po ich stronie, ale to jeszcze nie będzie determinować niczego samo w sobie. Na pewno będziemy obserwować takie przeciąganie tej regulacyjnej liny pomiędzy światem technologii, a światem artystycznym, twórczym i tym, który dostarcza nam coś, co czasem jest też trudne do wycenienia jako jakaś twórcza aktywność.
Czy problemem są jedynie prawa autorskie czy może również dane, które są przekazywane do AI na przykład RODO?
Tak jak już wspominałam, korzystanie ze sztucznej inteligencji jest dozwolone. Nie ma przepisu, który by tego zabraniał. RODO w żaden sposób nie zakazuje przetwarzania danych osobowych przy wykorzystaniu sztucznej inteligencji. Natomiast ten proces musi być zgodne z tymi przepisami. Co to w praktyce oznacza? Że jeżeli chcemy na przykład wdrożyć w firmie jakiś system bazujący na sztucznej inteligencji i do tego systemu będą wpadać dane osobowe naszych pracowników, to powinniśmy ich o tym poinformować. Być może, jeżeli ten system będzie zbierał jakieś dane, które są ekstra danymi, na które powinniśmy mieć zgodę, zgodnie chociażby z kodeksem pracy, to musimy tę zgodę jeszcze uzyskać, zanim zaczniemy z tego systemu korzystać.
Kolejna kwestia to wszelkiego rodzaju tajemnice przedsiębiorstwa. Wspominałam o tym w kontekście na przykład napisania oferty dla klienta przez ChatGPT. Żeby on nam napisał tę ofertę czy napisał strategię, najczęściej musimy mu dać jakieś informacje, które mogą być tajemnicą przedsiębiorstwa naszego klienta. Co można zrobić? Można wpisać do naszej umowy NDA, którą zawieramy z tym klientem tego rodzaju przestrzeń na wykorzystanie tych informacji, które będziemy pozyskiwać w związku z negocjacjami albo możemy dbać o to, żeby te tajemnice się tam nie pojawiały.
Następna sprawa, szeroko rozumiana własność intelektualna, czyli znaki towarowe, jakieś wzory przemysłowe. Wzór przemysłowy to jest wzór jakiegoś rozwiązania, na przykład wzór wałka do włosów. To jest wzór przemysłowy tworzony z konkretnego materiału, według konkretnego szablonu i wzoru. I teraz można sobie łatwo wyobrazić sytuację, w której bierzemy ten wzór i generujemy jakiś wzór podobnego produktu, który następnie chcielibyśmy na przykład zastrzec jako wzór przemysłowy. Więc to jest też obszar potencjalnych naruszeń, który warto mieć na uwadze. Jeżeli klient zleca nam stworzenie czegoś z wykorzystaniem jego logo i będziemy to tworzyć przy wykorzystaniu sztucznej inteligencji, to zadbajmy o to w umowie, żeby było jasno powiedziane, że my mamy licencję na skorzystanie z tego znaku towarowego w tym konkretnym celu. Żeby później nie było niedomówień, że on jednak się nie zgadzał na to, żeby jego logo wylądowało tam, gdzie wylądowało.
Wreszcie kwestia cyberbezpieczeństwa. OpenAI chociażby ma swój sklep, w którym są różne GPT dostępne, tworzone na bazie ChataGPT. Wbrew politykom, które są tam komunikowane, jest tam duży śmietnik, jeśli chodzi o dostępne GPT, które wprost naruszają prawo i polityki OpenAI. Czyli możemy w dobrej wierze, chcąc w firmie wdrożyć jakieś usprawnienie, skorzystać z narzędzia, za którym będą stali cyberprzestępcy albo naciągacze różnego typu i nasze dane będą wyciekać. Na to też dobrze zwracać uwagę i myślę, że te cztery elementy to jest taki core do tworzenia jakichś polityk, wykorzystania sztucznej inteligencji, czy to w firmie, czy takich własnych, dobrych, profesjonalnych praktyk.
Wydaje mi się, że firma, która na przykład ma oprogramowanie do jakiejś maszyny chirurgicznej, nie chciałaby tego oprogramowania udostępniać dalej, bo jest tam pewnie dużo innowacji. Wspomagają się jakimś pluginem do swojego edytora, ale żeby plugin generował kod, to on musi przejrzeć wszystko, co jest w tym projekcie, aby potem móc wygenerować kolejny kod. Zastanawiam się, na ile potem ta sztuczna inteligencja jest w stanie wykorzystać ten innowacyjny kod i podpowiedzieć innej firmie takie rozwiązanie albo jeszcze lepsze. Czy nie uważasz, że firmy będą się bały korzystać ze sztucznej inteligencji? Czy zauważyłaś taki kierunek, że firmy nie chcą, żeby ich pracownicy korzystali z tego, bo boją się wycieków?
Bardzo często spotykam się z zakazami korzystania i z takimi obawy. Oczywiście część narzędzi daje możliwość teoretycznie albo praktycznie wyłączenia możliwości szkolenia.
To może zatrzymajmy się, bo to że jest napisane, że nie wykorzystujemy, a co faktycznie nie jest wykorzystywane, to druga rzecz.
Do tego właśnie zmierzam, że to jest taki pierwszy kontrargument, który przychodzi do głowy. Czy rzeczywiście uczenie zostanie wyłączone. Jakimś sposobem przeciwdziałania takiemu ryzyku byłoby i podejrzewam będzie, wyspecjalizowanie się dostawców różnego rodzaju modeli. Modele mogą być też hostowane lokalnie. Możemy tworzyć bezpieczne środowisko dla naszego modelu, lokalne środowisko. W związku z czym jest to jakiś kierunek na przyszłość, który byłby w stanie zapobiec tego rodzaju rozwiązaniom.
Oczywiście z drugiej strony myślę sobie, że wraz z rozwojem tych modeli, to takich przypadków, gdzie będzie można powiązać w ogóle to, co zostanie wygenerowane dla kogoś innego z jakimś konkretnym inputem, będzie coraz mniej. Bo tak jak właśnie mówiliśmy po pierwsze, to nie jest copy-paste. Po drugie, zakres tych danych i warunki działania oraz sprawność samych modeli też się będzie zwiększać. Bo sztuczna inteligencja generatywna też ma to do siebie, że ona działa, ale w bardzo wąskim kontekście. Dlatego ona będzie też pewnie się rozwijać branżowo, bo ona sobie świetnie radzi, ale w wąskim obszarze swojej specjalizacji. Ona nie ma globalnego spojrzenia na dzisiaj, na całe nasze środowisko, w którym na przykład jako biznes funkcjonujemy. Ona ma je pozornie. Oczywiście ChatGPT wskaże nam 10 ważnych uwarunkowań uruchomienia swojego SAS-u, ale one będą bardzo podstawowe i będą bardzo ogólne. W związku z czym ona nie ma takiego oglądu i póki co nie będzie go mieć w tej formie. Jest to realne ryzyko, chociaż trudne do uchwycenia, bo ciężko kogoś złapać za rękę. Myślę, że sposobem na jego minimalizację będzie korzystanie z mniejszych dostawców, bardziej lokalnych dla nas i też bardziej lokalnej infrastruktury.
Można powiedzieć, że zrobiliśmy sobie taki wstęp do tego, do czego zmierzamy, bo teraz chciałbym Cię zapytać o regulaminy. Co możemy wyczytać w regulaminach usług, które oferują nam popularne platformy tj. ChatGPT, Midjourney, Compilot itp. Na co powinniśmy uważać?
Jest kilka punktów na które warto zwracać uwagę. Pierwszy jest taki, że patrzymy kto w ogóle nam to dostarcza. Albo inaczej, patrzymy w ogóle na to, czy jest jakiś regulamin. Jak nie ma regulaminu, to już jest pierwsze podejrzenie, że coś będzie nie tak. Możemy poczekać i dać temu szansę, bo może jest to na jakimś bardzo wstępnym etapie rozwoju.
Więc patrzymy, czy ten regulamin jest, czy jest polityka prywatności. Jeżeli jest, to idziemy dalej. Patrzymy na zakres naszej licencji. Większość dostawców tych najpopularniejszych narzędzi stawia sprawę tak, że wszystko to, co sobie wygenerujesz, jest Twoje. Nie rozstrzygamy o tym, czy to jest utwór czy nie utwór, po prostu możesz sobie z tego korzystać dowolnie. Ale tak nie musi być. Często jest tak, że licencje open source'owe, które są różne, mają różne ograniczenia i wyjątki. Na przykład, jak trzeba wskazywać, że oprogramowanie zostało wytworzone w oparciu o licencję open source'ową, to nie dotyczy to SAS-ów. Tych wyjątków jest dużo. I tutaj też patrzymy na ten zakres licencji. Do jakiego wykorzystania tego, co otrzymamy nas upoważnia nasz dostawca. Czasami może być tak, że będzie nam zakazywał wykorzystania w celu trenowania własnego modelu albo w celu budowania modeli. To jest częsty przypadek licencji open source'owych.
Druga rzecz to odpowiedzialność. Przyzwyczajmy się, że póki co to będzie wyglądało tak, że dostawca za nic nam nie odpowiada albo będzie jeszcze taka klauzula, że jak już tam nie uda mu się skorzystać z całej litanii przypadków wyłączenia jego odpowiedzialności i jednak go do tej odpowiedzialności będziemy próbowali pociągnąć, to jego całkowita odpowiedzialność jest ograniczona na przykład do 1000 dolarów. No i tak może być.
Patrzymy na zakres tej odpowiedzialności i znowu tutaj zastrzeżenie. Myślę, że rynek będzie się też profesjonalizował w tym kierunku, że w relacjach biznesowych ta odpowiedzialność się pojawi. OpenAI już zapowiedziało, że dla użytkowników biznesowych w wersji premium będzie OpenAI brać na siebie odpowiedzialność za to, co dostarcza.
Trzecia sprawa to gwarancje. Czy oni nam gwarantują, że te wyniki będą adekwatne do tego, co jest nam potrzebne z punktu widzenia naszej działalności? Oczywiście te wszystkie duże modele dostępne powszechnie nie dają żadnych gwarancji, ale jeżeli będziemy kierować swoją uwagę w stronę start-upów, w stronę mniejszych firm, które dostarczają te modele, to już można od nich w umowach czy regulaminach wymagać tego w jakimś zakresie. Żeby one dały gwarancję, że to co dla nas tworzą za grube miliony to będzie adekwatne do tego, czego my potrzebujemy.
Kolejna rzecz, transfery danych. Naszych danych i tych danych, które zostaną wyprodukowane w ramach korzystania przez nas z danego narzędzia. To znaczy, po pierwsze, w polityce prywatności znajdziemy informację o tym, dokąd mogą trafiać nasze dane osobowe, a raczej powinniśmy znaleźć. Po drugie informację o tym, do jakich spółek powiązanych albo do jakich innych firm mogą trafiać te dane, które wytworzymy. To jest raczej coś takiego, co po prostu dobrze jest wiedzieć, bo jeżeli będziecie korzystać ze sztucznej inteligencji przy wykonywaniu jakichś umów na rzecz waszych klientów, to Ci klienci będą o to pytać. Tak samo jak pytają firmy o to, czy korzystacie z Analyticsa, a jeśli tak, to czy macie ważną umowę z Googlem powierzenia przetwarzania danych osobowych, jak weryfikujecie te standardy itd.
Ostatnia kwestia to takie ogólne podejście dostawcy do regulacji. Często widać, że regulamin jest byle jak napisany. To nie zwiastuje zazwyczaj niczego dobrego. Oczywiście można być świetnym specjalistą, ale mieć w poważaniu prawo i prawników. Z punktu widzenia użytkownika czy klienta, zwłaszcza klienta biznesowego, to dobrze jest widzieć jednak ten profesjonalizm. Czyli nasz dostawca jest świadomy tego, jakie są regulacje. Jak pisze o danych osobowych, to odwołuje się czy to do RODO, czy do kalifornijskich przepisów, jeżeli mówimy o amerykańskim podmiocie. On wie, w jakim otoczeniu prawnym funkcjonujemy. I warto na to też zwracać uwagę, jak to jest napisane i czy daje takie ogólne wrażenie, że my się poruszamy w jakichś ramach regulacyjnych, które są nam znane albo które jesteśmy w stanie łatwo zidentyfikować.
W regulaminach dużo jest napisane o tym, że to my odpowiadamy za wykorzystanie tych danych, czy tak jest?
Tak, my odpowiadamy za to, co zrobimy z tymi treściami, które wygenerujemy. Kiedy to może być istotne? Na przykład: jeżeli pracujemy w agencji marketingowej, została nam zlecona kampania reklamowa dotycząca alkoholu. ChatGPT czy inne narzędzie wygeneruje nam komunikację marketingową, wygeneruje nam grafiki. Ale to my musimy wiedzieć, że na przykład reklama mocnych alkoholi zgodnie z polskim prawem jest zabroniona. Albo że może być prowadzona tylko w określonych warunkach.
AI nam wygeneruje to, o co poprosimy. Natomiast trudno oczekiwać od dostawcy, że będzie odpowiadał za to, że później będziemy mieć postępowanie karne za reklamę wódki niezgodnie z prawem. No bo to my wpuszczamy to do obrotu i to my powinniśmy być świadomi tego, jak ta reklama może być prowadzona, czyli w jaki sposób możemy korzystać z tego w naszym otoczeniu prawnym.
A co jeżeli będzie taka sytuacja, że wygenerowaliśmy tekst, który tak naprawdę jest kopią innego, no i złamaliśmy prawa autorskie. Czy w takim wypadku to też my za to odpowiadamy? Czy za to, że sztuczna inteligencja źle zadziałała? Nie utworzyła utworu, tylko skopiowała go.
My zawsze odpowiadamy i to jest tak jak wspominałam właśnie w kontekście tej odpowiedzialności. Generalnie dostawca za nic nie odpowiada. Za nic w tym rodzaju. Czyli naszą rolą jest ponowna weryfikacja. Czy za pomocą sztucznej inteligencji. Czy przez jakiś system antyplagiatowy. Plagiaty się zdarzają. Zdarzają się wielu z tych narzędzi. Głównie to dotyczy tych tekstowych, więc na to warto rzeczywiście uważać.
Kto odpowiada za szkody wyrządzone przez wykorzystywanie sztucznej inteligencji. Pracownik czy pracodawca? I o jakich szkodach może być mowa.
Możemy mówić o dwóch rodzajach szkód. Pierwsze to szkody, które się dzieją w ramach wykonywania jakiejś umowy. Mamy umowę, która określa warunki wykorzystania bądź niewykorzystywania sztucznej inteligencji i na zewnątrz w relacji do klienta odpowiada zawsze pracodawca. Bo pracodawca jest stroną tej umowy.
Pracodawca ze swoim pracownikiem czy ze swoim kontraktorem może zawrzeć dodatkową umowę dotyczącą jego odpowiedzialności. W przypadku pracownika mało prawdopodobne, bo naruszałaby ona zasady prawa pracy.
Co jest ważne i warte podkreślenia? Zasadniczo nie ma takiej sytuacji, że klient może dochodzić odszkodowania bezpośrednio od pracownika. Wyjątkiem może być przypadek, gdzie jest jakiś zleceniobiorca, współpraca B2B i nasz programista będący na B2B podpisuje również z naszym klientem NDA. Zdarza się to czasami. Wtedy rzeczywiście ten nasz programista na B2B ma jakiś link, relację prawną, stosunek z tym klientem i w oparciu o ten stosunek prawny ten klient może dochodzić jakiejś odpowiedzialności.
Jeżeli mówimy o pracowniku, na zewnątrz on nigdy nie będzie odpowiadał. Więc zostanie naruszone jakieś postanowienie umowy, odpowiada pracodawca, odpowiada po prostu strona tej umowy i ta odpowiedzialność to może być albo kara umowna na przykład za naruszenie ochrony informacji poufnych, bo dane klienta trafiły do ChataGPT, a on się na to nie zgadzał. Albo może to być ogólna odpowiedzialność odszkodowawcza, czyli idziemy do sądu i ten nasz klient musi udowodnić, że złamaliśmy umowę i że w związku z tym jakaś szkoda po jego stronie powstała.
Mogą być też te szkody pozaumowne, czyli na przykład wspomniany przez nas robot chirurgiczny albo autonomiczny samochód. Popełnia on błąd i dochodzi do wyrządzenia komuś szkody. Te relacje gdzie nie ma żadnej umowy, po prostu ktoś sobie żyje spokojnym życiem i nagle jego sztuczna inteligencja wyrządza mu szkodę. W przypadku akurat relacji takich B2B biznesowych to jest raczej bardzo mało prawdopodobne, ale wybiegając trochę poza, no to sytuacja prawna już nie jest jednoznaczna. Pokazuje nam to chociażby trwający już od iluś lat spór o autonomiczne samochody i tym samym ich brak adaptacji w Unii Europejskiej.
Czy możemy się zabezpieczyć w ten sposób, że przerzucamy tę odpowiedzialność na klienta albo pracodawcę? Czy takie rozwiązanie wchodzi w grę i w jaki sposób w ogóle moglibyśmy to zrobić?
Tak, jak najbardziej możemy. Pierwszym naszym zabezpieczeniem zawsze jest umowa, czy jesteśmy pracownikiem, czy zleceniobiorcą, zawsze jest umowa i w niej możemy tę kwestię doprecyzowywać. Jeżeli jesteśmy pracownikiem i nie ma w naszej firmie żadnych zakazów, polityk dotyczących wykorzystania sztucznej inteligencji, to tak długo jak korzystamy zgodnie z podstawowymi zasadami bezpieczeństwa, takimi, które się kształtują ogólnorynkowo, jak nie wrzucanie danych osobowych, czy informacji, które są tajemnicą, no to zawsze możemy się w razie jakiejś sytuacji spornej tym bronić.
Druga kwestia, to umowy z klientami, w których możemy przeprowadzić całe to wnioskowanie, które dzisiaj przeszliśmy. Czyli mówimy: realizując dla Ciebie pracę, będziemy korzystać ze sztucznej inteligencji. Sztuczna inteligencja działa tak, że może wygenerować coś, co narusza prawa autorskie. Materiały, które wygenerujemy i dostaniesz w formie 1 do 1, to Ty stajesz się ich właścicielem, przenoszę na Ciebie ich własność. Możesz z tym kliencie robić, co chcesz. Kiedy jakiś materiał zostanie przeze mnie zmodyfikowany i powstanie utwór (tu wprowadzamy jakieś ramy dotyczące tego, co ja muszę zrobić, żeby to był utwór), wtedy udzielam Ci licencji albo przenoszę na Ciebie autorskie prawa majątkowe i możesz w ramach tego przeniesienia coś z tym robić.
Warto też w umowach wskazywać wprost, że klient jest świadomy tego, że właśnie te narzędzia mogą naruszać prawa autorskie, ich status prawny nie jest jeszcze uregulowany. Zawsze też wskazujemy, że klient jest świadomy i są mu znane warunki świadczenia usług przez OpenAI, wie na jakich zasadach ChatGPT działa i, że nie ma co dochodzić jakichkolwiek roszczeń i my też roszczeń od OpenAI nie będziemy dochodzić w związku z tym.
Ostatnia rzecz to to, o czym już wspominałeś. Odpowiedzialność finansowa pracownika zawsze będzie kwotowo ograniczona. Czy tylko i wyłącznie z tego powodu warto iść na umowę o pracę? No nie sądzę, ale zawsze to jest jakiś argument.
Jak powiedziałaś o tym jak to zrobić, to zastanawiam się ile faktycznie klientów chciałoby się na coś takiego zdecydować. Wydaje mi się, że więcej osób raczej by wolała nie podpisywać takiej umowy i zrezygnować z tej pomocy niż iść w tą stronę. Jak to wygląda z Twojej perspektywy?
Kiedy rok temu mniej więcej proponowaliśmy takie rzeczy, to było takie: może lepiej nie. Natomiast im dalej w las, tym coraz więcej firm tego rodzaju zapisy stosuje. Najczęściej z mojego doświadczenia robią to agencje marketingowe oraz software house'y właśnie. Przy czym software house'y jeszcze robią to w taki sposób bardziej wyspecjalizowany, czyli to co przygotowuje dla software house'ów to odnosi się już często po prostu do konkretnych licencji, rodzajów licencji open source'owych chociażby albo na przykład wspólnie z klientem ustalają listę narzędzi, z których korzystają developerzy, testerzy i inne osoby, a klient jest tego świadomy i się na to zgadza. Tych firm, które tego rodzaju zapisy wprowadzają sobie do umów jest coraz więcej. Rozumiem oczywiście te obawy, bo widziałam je i one gdzieś tam dorastały i kiełkowały na przestrzeni ostatniego roku na moich oczach.
W jaki sposób korzystać z AI, aby nie narażać się na konsekwencje prawne? Czy w ogóle na tym etapie jest to możliwe?
Jest to możliwe. Pierwsza zasada, weryfikujemy to, co zostało nam wygenerowane. Patrzymy, czy gdzieś nie ma czegoś identycznego, patrzymy, czy nie naruszamy jakiejś licencji, której ktoś nam na coś udzielił.
Druga rzecz, podchodzimy do tematu procesowo. Oczywiście wszyscy wiemy, że teraz na Instagramie i na LinkedInie wszyscy są ekspertami od AI, od ChataGPT, od promptów. No i fajnie, niech sobie będą, nie ma problemu. Natomiast ważne, że jeżeli mówimy o takim sensownym wykorzystaniu biznesowym, to warto wiedzieć po co się z tego korzysta i dlaczego. Czy to jest tylko nasze wsparcie na takiej zasadzie, że walidujemy sobie jakiś pomysł i wrzucamy do ChataGPT? Czy to jest nasza inspiracja? Czy jesteśmy adminami i sobie poprosimy, żeby nam ChatGPT napisał trzy linijki kodu? Wiedzmy, po co to robimy i do czego nam to jest potrzebne. Czy jesteśmy w stanie sprawdzić poprawność tego działania? I bądźmy świadomi tego, że ChatGPT może zmyślać.
Warto świadomie dawkować dane, które wrzucamy do tych zewnętrznych narzędzi. Jeżeli mówimy o firmach, które mają własne modele, to jest już inaczej. Nie musimy się o to tak bardzo martwić. Natomiast jeżeli mówimy o zewnętrznych narzędziach, a większość z takich właśnie korzysta, to świadomie dawkujmy te dane, które wrzucamy. Pamiętajmy, że nie każda automatyzacja w firmie od razu musi oznaczać wykorzystanie sztucznej inteligencji. To jest teraz wszystko bardzo chodliwym hasłem. Istnieje mnóstwo automatyzacji, które możecie wprowadzić i które nie mają nic wspólnego ze sztuczną inteligencją. W zależności od mindsetu w waszej firmie dotyczącego wykorzystania AI, być może wcale nie musicie teraz nagle robić wielkiego coming outu, że korzystacie z jakichś narzędzi AI-owych i w związku z tym proces już wykorzystuje AI, bo być może wcale nie.
Świadomie korzystamy ze wszystkiego, co zostało dla nas wygenerowane. Wiemy, że to może nie być adekwatne do tego, czego potrzebowaliśmy. Jeżeli robimy to dla klienta, sprawdzamy, bo to my odpowiadamy za to, żeby to, co klient dostał było dla niego użyteczne i zgodne z umową. Więc posługujemy się tylko tym, do czego mamy prawa i dbamy o to, żeby klienta uprzedzać, jeżeli uznamy, że to ryzyko związane z korzystaniem ze sztucznej inteligencji jest istotne.
Czy polecasz jakieś źródło, z którego moglibyśmy zgłębić wiedzę na temat aspektów prawnych związanych właśnie z wykorzystaniem AI?
Niestety nie ma żadnego miejsca, które by zbierało jakieś wartościowe, prawne treści. Jest to jakaś nisza, więc nie mam jednego źródła. Na pewno, jeżeli was ten temat w kontekście prawnym interesuje, to po prostu różnego rodzaju komentarze dużych portali, wydawnictw, Reutersów itd. Omówienia różnych regulatorów. Brytyjczycy dosyć sporo publikują na ten temat, Amerykanie, światowa organizacja własności intelektualnej, duże organizacje, czy państwa, którym bliskie są innowacje i zainteresowanie innowacjami. Ich regulatorzy publikują różne swoje stanowiska, obawy dotyczące wykorzystania sztucznej inteligencji, te punkty, które powinniśmy brać pod uwagę rozwijając się na tym rynku.
Z innych mniej wartościowych, ale nie mniej zabawnych źródeł mogę polecić mojego LinkedIna, gdzie regularnie postuję rzeczy dotyczące sztucznej inteligencji. Omówienia różnego rodzaju przepisów, praktyk i tego, co się w tym świecie dzieje. I naszego bloga kancelaryjnego, też dostaniecie do niego link. Tam mamy kilka poradników dotyczących bezpiecznego korzystania ze sztucznej inteligencji, bezpiecznego wdrażania sztucznej inteligencji w aplikacjach SAS-owych czy mobilnych. Jest to taki całkiem fajny pakiet startowy.
Super, to może na koniec powiedz nam, gdzie Cię znaleźć. Wspomniałaś o LinkedInie, a gdzie jeszcze moglibyśmy Cię znaleźć? Oczywiście te linki się pojawią, ale jakbyś mogła też nam powiedzieć po prostu, gdzie Cię szukać i w jaki sposób.
To na LinkedInie imię i nazwisko, na Instagramie imię i nazwisko. Tam też wrzucam tak samo posty czy jakieś tam relacje z eventów i inne tego rodzaju treści. Oprócz tego na stronie Creativa Legal mamy newsletter tech-owy. Wychodzi on co dwa tygodnie i tam piszemy na tematy technologiczno-prawne. Dużo jest tam też treści właśnie dla programistów, w tym dla programistów startujących, dla start-upperów. Jak wejdziecie sobie na stronę, którą podlinkujemy, letstalktech.pl, to tam znajdziecie zapis i archiwalne wydania newslettera. Będziecie mogli sobie je przejrzeć wzdłuż i wszerz. Oprócz tego na YouTube są nasze podcasty, webinary. Jest tam też webinar o sztucznej inteligencji właśnie między innymi i myślę, że to są najważniejsze miejsca.
Super. Paulo, bardzo Ci dziękuję za tą rozmowę i podzielenie się z nami ogromną dawką wiedzy.
Bardzo dziękuję za zaproszenie. I zachęcam Was do napisania w razie pytań, inspiracji i zaglądania do kolejnych odcinków, bo na pewno będzie fajnie.
Dzięki jeszcze raz. Cześć.
Dzięki, cześć.
Potrzebujesz cotygodniowej dawki motywacji?
Zapisz się i zgarnij za darmo e-book o wartości 39 zł!
PS. Zazwyczaj rozsyłam 1-2 wiadomości na tydzień. Nikomu nie będę udostępniał Twojego adresu email.
Chcesz zostać (lepszym) programistą i lepiej zarabiać?
🚀 Porozmawiajmy o nauce programowania, poszukiwaniu pracy, o rozwoju kariery lub przyszłości branży IT!
Umów się na ✅ bezpłatną i niezobowiązującą rozmowę ze mną.
Chętnie porozmawiam o Twojej przyszłości i pomogę Ci osiągnąć Twoje cele! 🎯