Sztuczna inteligencja a prawo – czy maszyna może być autorem, wynalazcą lub... obywatelem?

Gdy pojawiały się pierwsze ustawy dot. praw autorskich czy patentowych, sztuczna inteligencja była tylko motywem w książkach i filmach sci-fi. Technologia przyszłości zawitała do teraźniejszości i teraz każdy może korzystać z narzędzi AI. To rodzi pytania. Kto jest autorem treści? Czy wygenerowany tekst jest utworem w rozumieniu prawa autorskiego? Czy robot może być wynalazcą lub… obywatelem państwa?

 

Sztuczna inteligencja a prawa autorskie

Na początku warto nadmienić, że gdy pojawiały się pierwsze ustawy o prawie autorskim oraz umowy międzynarodowe (pierwszą taką była Konwencja Berneńska o ochronie dzieł literackich i artystycznych z 1886 roku) – z góry zakładano, że autorem utworu jest człowiek. Po prostu nie było wtedy innej możliwości.

W niektórych krajach przepisy dosłownie mówią o tym, że tylko istota ludzka może być autorem. Nie zawsze jednak zapis o człowieku widnieje wprost. Mimo to sądy w takich przypadkach interpretują zwykle przepisy na „niekorzyść” AI. Są jednak wyjątki. Przykładowo aplikację RAGHAV uznano za współautora dzieła chronionego prawem autorskim – obrazu „Suryast”[1].

 

Czy dzieło stworzone przez sztuczną inteligencję ma autora?

Najczęściej regulaminy narzędzi AI pozwalają na wykorzystanie wygenerowanych treści w dowolny sposób – również w celach komercyjnych. Zwykle też odpowiedzialność za wykorzystanie treści przeniesiona jest na użytkownika. Jeśli więc wytwór sztucznej inteligencji będzie nosić znamiona plagiatu, to nie odpowiada za to dostawca modelu. Takie sytuacje mogą zdarzyć się ze względu na różnego rodzaju błędy czy też niedoskonałość nowej technologii. 

Kolejny problem polega na tym, że aktualnie nie ma konkretnych przepisów, które określiłyby autora dzieła. A to ważne, bo taka treść „bez ochrony” może być użyta i kopiowana przez inne osoby. Na teraz wiadomo, że praw autorskich do wygenerowanej treści nie ma ani twórca oprogramowania, ani sztuczna inteligencja.

 

Odpowiedź ChatGPT na pytanie, czy ma prawa autorskie do treści

Sam ChatGPT twierdzi, że nie ma praw do treści, które generuje

https://chat.openai.com/

 

Czy więc to, że człowiek musiał stworzyć odpowiedni prompt dla AI, czyni go już autorem efektu finalnego i może się pod nim podpisać swoim nazwiskiem? Pod tym kątem w kwestii praw autorskich zawrzało np. pod koniec sierpnia 2022 roku, gdy ogłoszono wyniki konkursu sztuki zorganizowanego przez Colorado State Fair. W kategorii Digital Arts pierwsze miejsce zajął autor, który wygenerował swój obraz za pomocą AI[2].

A to nasuwa kolejne pytanie – kiedy autor przekracza granicę i już nie wypada mu się podpisać pod treścią tworzoną przy użyciu algorytmów? To również kwestia sporna. Może być tak, że część dzieła nie zostanie objęta ochroną i tak też się stało w przypadku komiksu „Zarya of the Dawn”, w którym znalazły się obrazy generowane za pomocą MidJourney. Grafiki w komiksie nie są chronione prawem autorskim, jednak teksty czy układ już tak[3].

Odpowiedzialny za tą decyzję US Copyright Office (Stany Zjednoczone) stworzył dodatkowe wytyczne dotyczące rejestracji prac. Zgodnie z nowymi zasadami twórcy muszą ujawnić włączenie treści AI do utworu. Na tej podstawie określone będzie, czy artyście należą się prawa autorskie do całości[4]. Sporo więc zależy od tego, jak dużo w utworze jest pracy samego człowieka oraz naniesionych modyfikacji w treści od AI… i jak to zinterpretuje urząd.

Wytwory sztucznej inteligencji w postaci różnego rodzaju obrazów tak naprawdę trudniej jest ocenić niż tekst. Pojawiają się głosy, iż człowiek nie może zapanować nad tym, co dokładnie sztuczna inteligencja wygeneruje na podstawie poleceń i jest to dość podobne do zamawiania grafik, które artysta tworzy na podstawie wytycznych zleceniodawcy.

W narzędziach tekstowych wygląda to nieco inaczej i jest większa możliwość ingerencji w treść od AI. Można szybko przenieść wybrane zdania czy akapity w inne miejsca, podmieniać w nich słowa, dopisywać informacje, usuwać niechciane elementy oraz rozpocząć treść i sprawdzić, jak AI ją zakończy. Tematy poruszone przez sztuczną inteligencję można potem samodzielnie rozwijać, a wygenerowane treści wykorzystać jako inspiracje. I zresztą takiej współpracy z maszyną warto się trzymać. Twoja publikacja jest wtedy lepszej jakości, a przy okazji chronisz się przed ewentualnym plagiatem i do tekstu wprowadzasz „chaos” znany tylko ludziom. Niestety główne pytanie, ile można wygenerować i ile trzeba zmienić, pozostaje nadal bez odpowiedzi. 

 

Czy AI narusza prawa autorskie i generuje plagiaty?

Jak się okazuje – owszem, jest taka opcja, a chatbot od Google został na tym przyłapany. W odpowiedzi na pytanie, który z procesorów jest szybszy (konkretne modele CPU Intel oraz AMD), Bard splagiatował artykuł Tom’s Hardware.

Sam tekst był bardzo podobny do oryginału, a do tego – brzydko mówiąc – chatbot zerżnął nawet informacje o tym, że dane pochodzą z „naszych testów”. To by oznaczał, że Google lub chatbot testował procesory. Zapytany o to, przyznał, że odnosi się do testów Tom’s Hardware, a potem zgodził się z rozmówcą, że powinien podać źródło informacji i że była to forma plagiatu. A na koniec… przeprosił. Trudno powiedzieć, co jest bardziej niepokojące – maszyna wykorzystująca teksty bez podania autora, czy wyrażanie przez nią skruchy 😉[5].

 

Czy sztuczna inteligencja może być wynalazcą?

Jak się okazuje – nie wszędzie – ale AI może być wynalazcą. Ciekawym przykładem takiej sądowej batalii w różnych zakątkach świata jest sprawa Stephena Thalera (twórcy DABUS), który chciał dla swojego systemu uzyskać prawa patentowe do 2 wynalazków.  

DABUS oficjalnie uznano za wynalazcę w Republice Południowej Afryki w 2021 roku. W tym samym roku do podobnych wniosków doszedł australijski Sąd Federalny. Jednak ostatecznie Sąd Najwyższy odrzucił wniosek. Próby uzyskania patentów zakończyły się też fiaskiem w Stanach Zjednoczonych czy w Unii Europejskiej[6].

 

Własność intelektualna w Polsce – czy AI jest podmiotem prawa?

„Własność intelektualna to wytwory ludzkiego umysłu, przedstawione w materialnej postaci, jak utwory literackie, oznaczenia towarów czy wynalazki. Nazywane są dobrami niematerialnymi i stanowią niematerialne składniki majątku firmy. Są to oryginalne i nowatorskie efekty twórczej działalności człowieka.”[7]

Taka definicja ze strony rządowej (tu akurat na temat własności intelektualnej w firmie) nie pozostawia żadnych złudzeń i jasno odpowiada na pytanie, czy w Polsce sztuczna inteligencja może być uznana za twórcę. Na ten moment prawo nie przewiduje takiej opcji. 

 

A czy robot może stać się obywatelem państwa?

W 2017 pierwszy robot na świecie (robotka?) o imieniu Sophia, otrzymała obywatelstwo Arabii Saudyjskiej. Warto zacząć od tego, że każde państwo ma pewien system nadawania obywatelstwa, jednak AI trudno podciągnąć pod jakąkolwiek istniejącą kategorię. Robot nie spełnia ani zasady ziemi, ani zasady krwi. Trudno mówić też o wtórnym nabyciu obywatelstwa na zasadach np. naturalizacji.

Co ciekawe, w tym samym roku, Japonia nadała na specjalnych warunkach pozwolenie na pobyt dla chatbota w ciele uroczego 7-letniego chłopca.

Niech nie zwiedzie Cię jednak młodzieńczy wygląd maszyny, bo Shibuya Mirai ma ważne zadanie – jego pracą jest pośredniczenie i ułatwienie komunikacji między obywatelami okręgu Shibuya a urzędnikami. Jednak podobnie jak w sprawie obywatelstwa Sophii, ten przypadek również stanowi wyzwanie w kwestiach formalnych[8].

Czy Shibuya Mirai stworzony przez Microsoft jest zagranicznym specjalistą? Czy ma umowę o pracę, a jeśli tak – to jaką? Czy jako ponadprzeciętnie inteligentny 7-latek może pracować bez naruszania praw dziecka? 🤔 Brzmi to absurdalnie, jednak takie działania tworzą precedensy.

 

Prace nad aktem o AI w Unii Europejskiej

Na gruncie prawa europejskiego prace nad regulacjami dot. AI rozpoczęły się w 2021 roku. Jednak gdy tego typu narzędzia zostały oddane do ogólnego użytku – nadal nie było konkretnego dokumentu określającego zasady dla dostawców.

To zresztą pośrednia przyczyna tego, że pod koniec marca 2023 Włochy tymczasowo zablokowały ChatGPT w swoim kraju. Nieoficjalny powód? Sztuczna inteligencja zachęcała do jedzenia pizzy z ananasem (imho – profanacja!).

Obraz wygenerowany za pomocą DALL·E

Grafika wygenerowana przez AI pokazuje niezadowolonego mężczyznę, który przed sobą ma pizzę z ananasem.

https://labs.openai.com/

 

Natomiast w oficjalnym oświadczeniu można przeczytać, że decyzja spowodowana jest obawą m.in. o sposób przetwarzania i gromadzenia danych użytkowników oraz brak systemu weryfikacji wieku[9].

W połowie 2023 roku mamy dopiero projekt aktu o sztucznej inteligencji, który skupia się przede wszystkim na klasyfikacji systemów AI na podstawie ryzyka i na tej podstawie zakazywania ich lub dopuszczania do użytku w krajach wspólnoty.

Akt dodatkowo określa wymogi dot. przejrzystości dla narzędzi typu ChatGPT. Chodzi tu o takie rzeczy, jak:

  • zapewnienie, że model AI nie generuje nielegalnych treści;
  • informowanie o tym, że treść została wygenerowana przez sztuczną inteligencję
  • ujawnienie, jakie materiały chronione prawem autorskim zostały użyte do szkolenia modelu AI[10].

Pojawiły się już też badania, w których naukowcy sprawdzili, czy dostawcy modeli AI spełniają wstępne wymagania opisane w projekcie aktu Unii Europejskiej. Instytut Human-Centered Artificial Intelligence (Uniwersytet Stanford) przeanalizował pod tym kątem modele AI od 10 głównych dostawców.

Ocena 10 dostawców i ich modeli AI pod kątem wybranych wymagań (zawartych w przyjętym przez Parlament Europejski projekcie ustawy o sztucznej inteligencji).

Tabela z ocenami 10 modeli AI, którą przygotował Institute for Human-Centered Artificial Intelligence.

Źródło: https://crfm.stanford.edu/2023/06/15/eu-ai-act.html

 

Naukowcy wybrali 12 wymagań zawartych w projekcie aktu i ocenili każdy element od 0 do 4. Wymogi dotyczą zasobów danych, zasobów obliczeniowych, modelu i praktyk wdrożeniowych. 

  1. Na tle konkurentów najlepiej wypada BLOOM (Hugging Face/BigScience), który na 48 możliwych punktów zdobył 36.
  2. Na drugim miejscu, ze stratą 7 punktów do „zwycięzcy”, pojawił się GPT-NeoX (29 punktów).
  3. Na trzecim miejscu PaLM2 od Google (27 punktów).

Najgorzej wypadły modele Luminous (5 punktów) Claude (7 punktów) i Jurassic-2 (8 punktów). To spora przepaść, która pokazuje, jak wiele jeszcze pracy czeka dostawców AI, by sprostać wymogom prawnym. 

Co zyskało najsłabszą ocenę spośród wszystkich wymogów? Dane chronione prawem autorskim wykorzystane do szkolenia. Zaledwie 2 dostawców otrzymało tutaj inną ocenę niż 0[11].

Żaden model nie spełnia w 100% wymogów, a barierę 75% przekroczył jedynie BLOOM (Hugging Face/BigScience). Znany wszystkim GPT-4 od OpenAI zajął dopiero 4 miejsce.

 

Rozwój sztucznej inteligencja ma wpływ na cały świat

Rozwoju sztucznej inteligencji raczej już nie zatrzymamy, a wręcz nabiera on coraz większego tempa. Z pewnością ogromnym wyzwaniem dla państw i podmiotów na arenie międzynarodowej będzie określenie prawnych regulacji dot. różnych aspektów wykorzystania sztucznej inteligencji. W przypadku nowych technologii rozpoczyna się też dyskusja na tematy etyczne. Taki dyskurs był zresztą prowadzony już np. gdy w wojsku pojawiły się bezzałogowe statki powietrzne. Ta forma broni budzi sporo kontrowersji, w pewnym sensie prowadzi do dehumanizacji. Coraz częstsze używanie AI w armii będzie budzić obawy i kolejne wyzwania.

Jasne zasady są również istotne dla samych obywateli oraz dla przedsiębiorstw oferujących ogólnodostępne modele AI. Zwłaszcza w kontekście wykorzystania sztucznej inteligencji a praw dot. własności intelektualnej (w tym praw autorskich i praw patentowych), czy też w kwestiach ochrony danych osobowych. To kluczowe aspekty, którymi trzeba się szybko zająć, by czerpać korzyści z narzędzi AI – bez zastanawiania się nad tym, czy mamy prawa do treści, czy nie.

Dodatkowo wiele kontrowersji budzi sam fakt uczenia maszynowego na treściach stworzonych przez człowieka. Część artystów wyraża sprzeciw wobec takich praktyk i nie chce, by sztuczna inteligencja mogła potem bazować na ich twórczości. Jest to zresztą jak najbardziej zrozumiałe. Jednak i tutaj są widoczne zmiany. Na przykład twórcy Adobe Firefly twierdzą, iż ich platforma wykorzystywała do nauki licencjonowane obrazy z Adobe Stock, materiały z otwartą licencją oraz materiały z domeny publicznej, do których wygasły prawa autorskie[12].

Warto pamiętać, że rozwój nowych technologii nie generuje tylko samych problemów. To ogromny potencjał, który może mieć dobroczynny wpływ na wiele dziedzin naszego życia. Algorytmy można wykorzystać z powodzeniem w wielu branżach, m.in. w marketingu, medycynie (AI w obrazowaniu), sądownictwie (analiza materiałów dowodowych), a nawet rolnictwie. Przykładów można mnożyć, a ogranicza nas jedynie wyobraźnia 😉.

 

___________________

[1] S. Sarkar, India recognizes AI as co-author of copyrighted artwork, https://www.managingip.com/article/2a5czmpwixyj23wyqct1c/exclusive-india-recognises-ai-as-co-author-of-copyrighted-artwork (dostęp 15.06.2023).

[2] Artykuł ze strony internetowej The New York Times, An A.I.-Generated Picture Won an Art Prize. Artists Aren’t Happy,  https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html (dostęp 15.06.2023).

[3] Analla T., Jonnavithula A., Zarya of the Dawn: How AI is Changing the Landscape of Copyright Protection, https://jolt.law.harvard.edu/digest/zarya-of-the-dawn-how-ai-is-changing-the-landscape-of-copyright-protection (dostęp 15.06.2023).

[4] Strona internetowa The U.S. Copyright Office, Copyright Office Launches New Artificial Intelligence Initiative, https://www.copyright.gov/newsnet/2023/1004.html (dostęp 15.06.2023).

[5] Piltch A., Google Bard Plagiarized Our Article, Then Apologized When Caught, https://www.tomshardware.com/news/google-bard-plagiarizing-article (dostęp 15.06.2023).

[6] Brittain B., U.S. appeals court says artificial intelligence can't be patent inventor, https://www.reuters.com/legal/litigation/us-appeals-court-says-artificial-intelligence-cant-be-patent-inventor-2022-08-05/ (dostęp 15.06.2023).

[7] Serwis informacyjno-usługowy dla przedsiębiorcy, Własność intelektualna w firmie – podstawowe informacje, https://www.biznes.gov.pl/pl/portal/00367 (dostęp 15.06.2023).

[8] Atabekov A., Yastrebov O. , „Legal Status of Artificial Intelligence Across Countries: Legislation on the Move”, European Research Studies Journal, Volume XXI, Issue 4,  s. 775-777,  https://ersj.eu/journal/1245 (dostęp 15.06.2023).

[9] Strona internetowa GPDP, Postanowienie z dn. 30 marca 2023 r., https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 (dostęp 15.06.2023).

[10] Strona Parlamentu Europejskiego, Akt ws. sztucznej inteligencji: pierwsze przepisy regulujące sztuczną inteligencję, https://www.europarl.europa.eu/news/pl/headlines/society/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai (dostęp 15.06.2023).

[11] Bommasani R., Klyman K., Zhang D., Liang P., Do Foundation Model Providers Comply with the Draft EU AI Act?, https://crfm.stanford.edu/2023/06/15/eu-ai-act.html (dostęp 29.06.2023).

[12] Wadhwani D., Bringing Generative AI into Creative Cloud with Adobe Firefly, https://blog.adobe.com/en/publish/2023/03/21/bringing-gen-ai-to-creative-cloud-adobe-firefly (dostęp 15.06.2023).

Autor

Katarzyna Żołna's picture

Katarzyna Żołna

Zajmuje się tworzeniem treści w SEMSTORM. Swoje doświadczenie związane z content marketingiem zdobywała podczas pracy jako specjalista, a następnie koordynator zespołu e-commerce w jednym ze sklepów z branży wyposażenia wnętrz.

Przeczytaj także

Komentarze