Sztuczna inteligencja a prawa autorskie
Na początku warto nadmienić, że gdy pojawiały się pierwsze ustawy o prawie autorskim oraz umowy międzynarodowe (pierwszą taką była Konwencja Berneńska o ochronie dzieł literackich i artystycznych z 1886 roku) – z góry zakładano, że autorem utworu jest człowiek. Po prostu nie było wtedy innej możliwości.
W niektórych krajach przepisy dosłownie mówią o tym, że tylko istota ludzka może być autorem. Nie zawsze jednak zapis o człowieku widnieje wprost. Mimo to sądy w takich przypadkach interpretują zwykle przepisy na „niekorzyść” AI. Są jednak wyjątki. Przykładowo aplikację RAGHAV uznano za współautora dzieła chronionego prawem autorskim – obrazu „Suryast”[1].
Czy dzieło stworzone przez sztuczną inteligencję ma autora?
Najczęściej regulaminy narzędzi AI pozwalają na wykorzystanie wygenerowanych treści w dowolny sposób – również w celach komercyjnych. Zwykle też odpowiedzialność za wykorzystanie treści przeniesiona jest na użytkownika. Jeśli więc wytwór sztucznej inteligencji będzie nosić znamiona plagiatu, to nie odpowiada za to dostawca modelu. Takie sytuacje mogą zdarzyć się ze względu na różnego rodzaju błędy czy też niedoskonałość nowej technologii.
Kolejny problem polega na tym, że aktualnie nie ma konkretnych przepisów, które określiłyby autora dzieła. A to ważne, bo taka treść „bez ochrony” może być użyta i kopiowana przez inne osoby. Na teraz wiadomo, że praw autorskich do wygenerowanej treści nie ma ani twórca oprogramowania, ani sztuczna inteligencja.
Odpowiedź ChatGPT na pytanie, czy ma prawa autorskie do treści
https://chat.openai.com/
Czy więc to, że człowiek musiał stworzyć odpowiedni prompt dla AI, czyni go już autorem efektu finalnego i może się pod nim podpisać swoim nazwiskiem? Pod tym kątem w kwestii praw autorskich zawrzało np. pod koniec sierpnia 2022 roku, gdy ogłoszono wyniki konkursu sztuki zorganizowanego przez Colorado State Fair. W kategorii Digital Arts pierwsze miejsce zajął autor, który wygenerował swój obraz za pomocą AI[2].
A to nasuwa kolejne pytanie – kiedy autor przekracza granicę i już nie wypada mu się podpisać pod treścią tworzoną przy użyciu algorytmów? To również kwestia sporna. Może być tak, że część dzieła nie zostanie objęta ochroną i tak też się stało w przypadku komiksu „Zarya of the Dawn”, w którym znalazły się obrazy generowane za pomocą MidJourney. Grafiki w komiksie nie są chronione prawem autorskim, jednak teksty czy układ już tak[3].
Odpowiedzialny za tą decyzję US Copyright Office (Stany Zjednoczone) stworzył dodatkowe wytyczne dotyczące rejestracji prac. Zgodnie z nowymi zasadami twórcy muszą ujawnić włączenie treści AI do utworu. Na tej podstawie określone będzie, czy artyście należą się prawa autorskie do całości[4]. Sporo więc zależy od tego, jak dużo w utworze jest pracy samego człowieka oraz naniesionych modyfikacji w treści od AI… i jak to zinterpretuje urząd.
Wytwory sztucznej inteligencji w postaci różnego rodzaju obrazów tak naprawdę trudniej jest ocenić niż tekst. Pojawiają się głosy, iż człowiek nie może zapanować nad tym, co dokładnie sztuczna inteligencja wygeneruje na podstawie poleceń i jest to dość podobne do zamawiania grafik, które artysta tworzy na podstawie wytycznych zleceniodawcy.
W narzędziach tekstowych wygląda to nieco inaczej i jest większa możliwość ingerencji w treść od AI. Można szybko przenieść wybrane zdania czy akapity w inne miejsca, podmieniać w nich słowa, dopisywać informacje, usuwać niechciane elementy oraz rozpocząć treść i sprawdzić, jak AI ją zakończy. Tematy poruszone przez sztuczną inteligencję można potem samodzielnie rozwijać, a wygenerowane treści wykorzystać jako inspiracje. I zresztą takiej współpracy z maszyną warto się trzymać. Twoja publikacja jest wtedy lepszej jakości, a przy okazji chronisz się przed ewentualnym plagiatem i do tekstu wprowadzasz „chaos” znany tylko ludziom. Niestety główne pytanie, ile można wygenerować i ile trzeba zmienić, pozostaje nadal bez odpowiedzi.
Czy AI narusza prawa autorskie i generuje plagiaty?
Jak się okazuje – owszem, jest taka opcja, a chatbot od Google został na tym przyłapany. W odpowiedzi na pytanie, który z procesorów jest szybszy (konkretne modele CPU Intel oraz AMD), Bard splagiatował artykuł Tom’s Hardware.
Sam tekst był bardzo podobny do oryginału, a do tego – brzydko mówiąc – chatbot zerżnął nawet informacje o tym, że dane pochodzą z „naszych testów”. To by oznaczał, że Google lub chatbot testował procesory. Zapytany o to, przyznał, że odnosi się do testów Tom’s Hardware, a potem zgodził się z rozmówcą, że powinien podać źródło informacji i że była to forma plagiatu. A na koniec… przeprosił. Trudno powiedzieć, co jest bardziej niepokojące – maszyna wykorzystująca teksty bez podania autora, czy wyrażanie przez nią skruchy 😉[5].
Czy sztuczna inteligencja może być wynalazcą?
Jak się okazuje – nie wszędzie – ale AI może być wynalazcą. Ciekawym przykładem takiej sądowej batalii w różnych zakątkach świata jest sprawa Stephena Thalera (twórcy DABUS), który chciał dla swojego systemu uzyskać prawa patentowe do 2 wynalazków.
DABUS oficjalnie uznano za wynalazcę w Republice Południowej Afryki w 2021 roku. W tym samym roku do podobnych wniosków doszedł australijski Sąd Federalny. Jednak ostatecznie Sąd Najwyższy odrzucił wniosek. Próby uzyskania patentów zakończyły się też fiaskiem w Stanach Zjednoczonych czy w Unii Europejskiej[6].
Własność intelektualna w Polsce – czy AI jest podmiotem prawa?
„Własność intelektualna to wytwory ludzkiego umysłu, przedstawione w materialnej postaci, jak utwory literackie, oznaczenia towarów czy wynalazki. Nazywane są dobrami niematerialnymi i stanowią niematerialne składniki majątku firmy. Są to oryginalne i nowatorskie efekty twórczej działalności człowieka.”[7]
Taka definicja ze strony rządowej (tu akurat na temat własności intelektualnej w firmie) nie pozostawia żadnych złudzeń i jasno odpowiada na pytanie, czy w Polsce sztuczna inteligencja może być uznana za twórcę. Na ten moment prawo nie przewiduje takiej opcji.
A czy robot może stać się obywatelem państwa?
W 2017 pierwszy robot na świecie (robotka?) o imieniu Sophia, otrzymała obywatelstwo Arabii Saudyjskiej. Warto zacząć od tego, że każde państwo ma pewien system nadawania obywatelstwa, jednak AI trudno podciągnąć pod jakąkolwiek istniejącą kategorię. Robot nie spełnia ani zasady ziemi, ani zasady krwi. Trudno mówić też o wtórnym nabyciu obywatelstwa na zasadach np. naturalizacji.
Co ciekawe, w tym samym roku, Japonia nadała na specjalnych warunkach pozwolenie na pobyt dla chatbota w ciele uroczego 7-letniego chłopca.
Niech nie zwiedzie Cię jednak młodzieńczy wygląd maszyny, bo Shibuya Mirai ma ważne zadanie – jego pracą jest pośredniczenie i ułatwienie komunikacji między obywatelami okręgu Shibuya a urzędnikami. Jednak podobnie jak w sprawie obywatelstwa Sophii, ten przypadek również stanowi wyzwanie w kwestiach formalnych[8].
Czy Shibuya Mirai stworzony przez Microsoft jest zagranicznym specjalistą? Czy ma umowę o pracę, a jeśli tak – to jaką? Czy jako ponadprzeciętnie inteligentny 7-latek może pracować bez naruszania praw dziecka? 🤔 Brzmi to absurdalnie, jednak takie działania tworzą precedensy.
Prace nad aktem o AI w Unii Europejskiej
Na gruncie prawa europejskiego prace nad regulacjami dot. AI rozpoczęły się w 2021 roku. Jednak gdy tego typu narzędzia zostały oddane do ogólnego użytku – nadal nie było konkretnego dokumentu określającego zasady dla dostawców.
To zresztą pośrednia przyczyna tego, że pod koniec marca 2023 Włochy tymczasowo zablokowały ChatGPT w swoim kraju. Nieoficjalny powód? Sztuczna inteligencja zachęcała do jedzenia pizzy z ananasem (imho – profanacja!).
Obraz wygenerowany za pomocą DALL·E
https://labs.openai.com/
Natomiast w oficjalnym oświadczeniu można przeczytać, że decyzja spowodowana jest obawą m.in. o sposób przetwarzania i gromadzenia danych użytkowników oraz brak systemu weryfikacji wieku[9].
W połowie 2023 roku mamy dopiero projekt aktu o sztucznej inteligencji, który skupia się przede wszystkim na klasyfikacji systemów AI na podstawie ryzyka i na tej podstawie zakazywania ich lub dopuszczania do użytku w krajach wspólnoty.
Akt dodatkowo określa wymogi dot. przejrzystości dla narzędzi typu ChatGPT. Chodzi tu o takie rzeczy, jak:
- zapewnienie, że model AI nie generuje nielegalnych treści;
- informowanie o tym, że treść została wygenerowana przez sztuczną inteligencję
- ujawnienie, jakie materiały chronione prawem autorskim zostały użyte do szkolenia modelu AI[10].
Pojawiły się już też badania, w których naukowcy sprawdzili, czy dostawcy modeli AI spełniają wstępne wymagania opisane w projekcie aktu Unii Europejskiej. Instytut Human-Centered Artificial Intelligence (Uniwersytet Stanford) przeanalizował pod tym kątem modele AI od 10 głównych dostawców.
Ocena 10 dostawców i ich modeli AI pod kątem wybranych wymagań (zawartych w przyjętym przez Parlament Europejski projekcie ustawy o sztucznej inteligencji).