Narzędzia generatywnej sztucznej inteligencji, w szczególności generatywnej, zdominowały ostatni rok nie tylko w branży technologicznej, ale we wszystkich gałęziach biznesu. Narzędzia AI – nawet te dostępne za darmo – oferują rozwiązania, które jeszcze 10 lat temu wydawały się być domeną science fiction.

Potrzebna grafika? Midjourney. Tekst? Chat GPT. Kod? Github Copilot. Popularny Deepl do tłumaczeń również oparty jest na sztucznej inteligencji W Internecie dostępne są całe agregatory usług opartych na AI, oferujących bardziej specjalistyczne rozwiązania.

Czy wykorzystywanie tych narzędzi przez pracowników jest jednak dla pracodawców całkowicie bezpieczne?

Bezpieczeństwo danych i ochrona tajemnicy

Przede wszystkim, korzystanie z takich narzędzi oznacza wysyłanie informacji na serwer dostawcy usługi. Przekłada się to na utratę kontroli nad informacjami przez pracodawcę, ponieważ nikt nie jest w stanie zapewnić co dalej się z nimi dzieje. Wiele narzędzi, jak chociażby Chat GPT, rozwijane jest w pewnym stopniu w oparciu o input użytkowników. Oznacza to, że to, co w okienko chata wpisuje użytkownik jest przechowywane i wykorzystywane przez OpenAI poza jakąkolwiek kontrolą pracodawcy. Samo OpenAI, jak i inni dostawcy otwartych usług AI zapewniają, że stosują najwyższe standardy bezpieczeństwa a także, że dane nie będą wykorzystywane do innych celów. Nie można jednak wykluczyć, że za pośrednictwem takich usług dane wyciekną i już całkowicie wymkną się spod kontroli pracodawcy.

W czasach, gdy compliance jest jednym z największych wyzwań prawnych stojących przed biznesem, takie ryzyko należy minimalizować. Pracownik, który chcą ułatwić sobie życie wrzuci treść jakiegoś poufnego dokumentu do na przykład takiego Chata GPT może mimowolnie dopuścić się incydentu RODO lub naruszyć zasady ochrony tajemnicy przedsiębiorstwa. O tym, że do tego doszło pracodawca może się jednak dowiedzieć dopiero wtedy, pojawią się już konsekwencje…

Czytaj też: Jak chronić firmę przed cyberatakami – kluczowe zagadnienia

Prawa autorskie

Sztuczna inteligencja jest też ogromną szarą strefą w zakresie prawa autorskiego. Nie istnieją do tej pory żadne regulacje prawne, które jasno rozstrzygałyby kwestię tego komu i w jakim zakresie przysługują prawa autorskie do efektów wygenerowanych przez AI. To może być w szczególności problem dla pracodawców z branż kreatywnych, gdzie ich klientom sprzedawane są stworzone dla nich utwory.

Zgodnie z obecnie obowiązującymi przepisami, przedmiotem ochrony prawnoautorskiej – a w konsekwencji dalej umów przenoszących prawa autorskie lub licencyjnych – są wyłącznie wytwory człowieka. Kontrowersje prawne dookoła „własności” wytworów sztucznej inteligencji budzą wątpliwości co do tego, czy taki wytwór może być przedmiotem umowy i czy w efekcie klienci pracodawcy, którzy płacą za prawa autorskie lub za licencję, rzeczywiście je otrzymują.

Pojawia się również druga strona tego problemu – wśród prawników pojawiają się głosy, że wykorzystywanie cudzych utworów do trenowania modeli AI może stanowić samo w sobie naruszenie praw autorskich do nich. Oznaczałoby to, że efekty wygenerowane przez sztuczną inteligencję mogłyby być obarczone tą samą wadą.

Warunki użytkowania usług

Narzędzia AI, zwłaszcza te darmowe, mają określone warunki korzystania z nich (będące z prawnego punktu widzenia podobne do licencji), których użytkownik musi przestrzegać.  Mogą one m.in. wykluczać użytek komercyjny. Wykorzystanie przez pracownika takiego narzędzia w sposób sprzeczny z warunkami narażałoby pracodawcę na roszczenia ze strony usługodawcy. To przekłada się na realne ryzyko prawne, z którego pracodawcy muszą zdawać sobie sprawę.

Jak temu zaradzić?

Pracodawcy powinni przygotować się na takie ewentualności i stworzyć odpowiednie regulacje wewnętrzne, które wyznaczałyby pracownikom jasne zasady korzystania z takich narzędzi. Aprioryczny zakaz wykorzystywania takich technologii jest przeciwskuteczny i może potencjalnie odbić się na konkurencyjności firmy, zwłaszcza w stosunku do konkurentów, którzy z takich rozwiązań (rozsądnie i bezpiecznie) korzystają.

Najlepszą do tego metodą byłoby opracowanie wewnątrzfirmowej polityki AI, która byłaby dla pracowników wiążącym dokumentem.

Autor: Jakub Grabowski, radca prawny, prawnik w PCS Paruch Chruściel Schiffter Stępień Kanclerz | Littler

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *