Dynamiczny rozwój technologii sztucznej inteligencji (AI) stawia przed polskim systemem prawnym i środowiskiem prawniczym bezprecedensowe wyzwania. Raport Future Ready Lawyer 2024 autorstwa Wolters Kluwer, opublikowany w ubiegłym roku, unaocznił rosnącą rolę sztucznej inteligencji w pracy prawników. Z przeprowadzonych badań wynika, że aż 76% prawników zatrudnionych w działach prawnych oraz 68% prawników pracujących w kancelariach sięga po rozwiązania generatywnej AI (GenAI) co najmniej raz w tygodniu. Najnowsze dane wskazują, że niemal 1/3 kancelarii w Polsce testuje rozwiązania oparte na AI, jednak jedynie co szósta wdrożyła je w sposób systemowy. Narzędzia oparte na AI oferują zarówno prawnikom, jak i ich potencjalnym klientom nowe możliwości, ale jednocześnie stwarzają liczne wyzwania natury prawnej, etycznej i praktycznej. Kluczowym czynnikiem hamującym szersze zastosowanie są zidentyfikowane luki regulacyjne oraz ryzyko odpowiedzialności zawodowej. W poniższym artykule analizuję, jakie korzyści i zagrożenia niesie ze sobą sztuczna inteligencja w prawie polskim, uwzględniając zarówno perspektywę klientów, jak i profesjonalnych prawników.
Spis treści:
- Regulacje AI w prawie polskim 2025: implementacja AI Act
- Sztuczna inteligencja jako konkurencja dla prawnika – realne zagrożenia dla klientów
-
AI jako narzędzie dla prawnika – możliwości i zagrożenia
- Potencjalne zastosowania AI w pracy prawnika
- Tajemnica zawodowa a korzystanie z AI
- RODO a sztuczna inteligencja w prawie polskim – anonimizacja danych jako rozwiązanie
- Odpowiedzialność za treści generowane przez AI
- Etyczne aspekty korzystania z AI w praktyce prawniczej
- Tabela: Analiza ryzyk w typowych zastosowaniach AI w prawie polskim
- Sztuczna inteligencja w prawie polskim – kwestie prawno-autorskie
- Sztuczna inteligencja w prawie polskim – praktyczne wskazówki
- Etyka prawnicza a sztuczna inteligencja – nowe role w 2025 r.
- Podsumowanie
- Najczęściej zadawane pytania (FAQ)
Regulacje AI w prawie polskim 2025: implementacja AI Act
Sztuczna inteligencja w prawie polskim oznacza dla kancelarii prawnych konieczność wdrożenia systemów oceny zgodności oraz procedur nadzoru nad algorytmami wykorzystywanymi w procesie świadczenia usług prawnych.
Implementacja AI Act w polskim porządku prawnym
Unijne rozporządzenie w sprawie sztucznej inteligencji1, przyjęte 13 czerwca 2024 r., stanowi podstawowy akt prawny regulujący stosowanie AI w państwach członkowskich Unii Europejskiej. Dokument wprowadza czterostopniową klasyfikację systemów AI według poziomu ryzyka, gdzie rozwiązania stosowane w wymiarze sprawiedliwości zaliczono do kategorii wysokiego ryzyka (art. 6 ust. 2 AI Act).
Wejście unijnego prawa sztucznej inteligencji jest już faktem, natomiast harmonogram przewiduje etapowe wdrażanie AI Act:
- 1 sierpnia 2024 r. – wejście w życie zakazu stosowania systemów AI o niedopuszczalnym ryzyku,
- 2 lutego 2025 r. – obowiązek stosowania wymogów dla systemów wysokiego ryzyka,
- 2 sierpnia 2025 r. – nadzór i regulacje dotyczące AI ogólnego przeznaczenia,
- 2 sierpnia 2026 r. – pełne wdrożenie przepisów dla dostawców i użytkowników AI,
- 2 sierpnia 2026 r. – dodatkowe wymogi dla systemów wysokiego ryzyka.
Z dniem 2 lutego 2025 r. zaczęły również obowiązywać przepisy dotyczące tzw. kompetencji w zakresie sztucznej inteligencji (AI Literacy), określone w art. 4 AI Act. Nakładają one na pracodawców — zarówno dostawców, jak i użytkowników systemów AI — obowiązek podjęcia działań mających na celu wyposażenie pracowników w odpowiednią wiedzę i umiejętności z zakresu AI, niezbędne do prawidłowego wykonywania powierzonych im zadań.
Regulacje AI w prawie polskim
Ministerstwo Cyfryzacji intensywnie pracuje nad ustawą implementującą przepisy AI Act do polskiego porządku prawnego. W ramach tych działań w lutym br. opublikowano zaktualizowany projekt ustawy o systemach sztucznej inteligencji, uwzględniający ponad 2000 uwag z konsultacji społecznych. Planowane jest m.in. utworzenie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI), która będzie monitorować rynek AI i wspierać przedsiębiorców, a także sprawować funkcje nadzorcze i kontrolne. Kluczowe zmiany obejmują też ustanowienie piaskownicy regulacyjnej dla testowania innowacyjnych rozwiązań AI („Piaskownica” ma ruszyć do sierpnia 2026 r.).
Dobrowolna certyfikacja AI
Do tej pory rząd nie zapowiedział uruchomienia odrębnego, krajowego systemu dobrowolnej certyfikacji AI, stawiając na integrację unijnych ram oraz rozwój ekosystemu AI w oparciu o istniejące standardy i kodeksy. W miarę postępu prac legislacyjnych i konsultacji społecznych możliwe jest, że w przyszłości pojawią się inicjatywy uzupełniające – np. krajowe programy akredytacyjne czy systemy znakowania „AI trusted” – jednak na dzień dzisiejszy brak jest takich oficjalnych zapowiedzi.
Ochrona danych osobowych a systemy AI
Istotną rolę w kształtowaniu nadzoru nad systemami AI odgrywa także Prezes Urzędu ochrony danych osobowych (PUODO), który postuluje uwzględnienie szczególnej pozycji tego organu w przygotowywanej ustawie, jako podmiotu odpowiedzialnego za ochronę danych osobowych przetwarzanych w ramach systemów sztucznej inteligencji. Kwestia ta jest szczególnie ważna dla prawników, którzy zobowiązani są do ochrony danych osobowych swoich klientów.
Sztuczna inteligencja jako konkurencja dla prawnika – realne zagrożenia dla klientów
Ograniczenia AI w interpretacji prawa
Chociaż narzędzia oparte na sztucznej inteligencji mogą imponować swoimi możliwościami, to ich zastosowanie w praktyce prawniczej ma poważne ograniczenia. Sztuczna inteligencja to przede wszystkim algorytm, który nie potrafi myśleć krytycznie. Narzędzia AI nie są w stanie prowadzić głębokiego researchu ani formułować nowatorskich konceptów i teorii prawnych, ponieważ bazują na istniejących zbiorach danych.
W praktyce oznacza to, że AI może mieć problem z właściwą interpretacją złożonych przepisów prawnych, zwłaszcza w nietypowych przypadkach, które wymagają niestandardowego podejścia. Algorytmy uogólniają precedensy bez uwzględnienia kontekstu faktycznego. Dla klientów korzystających z takich narzędzi zamiast z usług profesjonalnego prawnika może to oznaczać ryzyko niewłaściwego zrozumienia swojej sytuacji prawnej.
Ryzyko nieaktualnych lub błędnych informacji prawnych
Jednym z największych zagrożeń związanych z korzystaniem z AI zamiast z usług prawnika jest ryzyko uzyskania nieaktualnych lub wręcz błędnych informacji prawnych. Modele AI są trenowane na historycznych danych, co sprawia, że mogą nie uwzględniać najnowszych zmian w przepisach. Sztuczna inteligencja w prawie polskim, gdzie zmiany legislacyjne następują stosunkowo często i zwykle nie w ramach dużych nowelizacji, może nie być tych zmian „świadoma”.
Co więcej, jak pokazują doświadczenia użytkowników, narzędzia AI mogą generować „halucynacje” – czyli tworzyć przekonująco brzmiące, ale nieprawdziwe informacje. W kontekście porad prawnych takie błędy mogą mieć poważne konsekwencje, od nieważności sporządzonych dokumentów po błędne decyzje biznesowe podjęte na podstawie nieprawidłowych porad. Koszty błędów generowanych przez AI często przewyższają profesjonalną opłatę za opinię prawną.
Odpowiedzialność prawna za działania AI
W przeciwieństwie do profesjonalnych prawników, dostawcy usług AI nie ponoszą odpowiedzialności za błędne porady udzielone przez ich systemy. Radcowie prawni i adwokaci są zobowiązani do posiadania ubezpieczenia od odpowiedzialności cywilnej, co zapewnia klientom możliwość dochodzenia odszkodowania w przypadku błędów. Użytkownicy narzędzi AI są natomiast pozbawieni takiej ochrony.
Ponadto, zgodnie z AI Act, użytkownicy będą mieli prawo do złożenia skargi na decyzje podjęte z udziałem AI, jednak procedura ta może być skomplikowana i długotrwała, a jej efekt niepewny.
Tabela 1: Korzyści vs. zagrożenia AI w prawie
Korzyści | Zagrożenia |
---|---|
Szybsza analiza dokumentów | Błędy merytoryczne |
Niższe koszty wstępne | Naruszenie RODO |
Dostępność 24/7 | Brak odpowiedzialności |
AI jako narzędzie dla prawnika – możliwości i zagrożenia
Potencjalne zastosowania AI w pracy prawnika
Sztuczna inteligencja może być cennym narzędziem wspomagającym pracę prawnika, pod warunkiem odpowiedzialnego jej stosowania. Przykładowo, System LEX Kompas Orzeczniczy 2.0 wykorzystuje sztuczną inteligencję do usprawnienia pracy z orzecznictwem. Funkcje takie jak autoTEZA i Analiza treści umożliwiają kontekstowe wyszukiwanie oraz identyfikację kluczowych fragmentów orzeczeń. Warto jednak zauważyć, że działanie tych narzędzi opiera się na danych zawartych w wewnętrznej bazie systemu LEX, co oznacza, że przeszukiwane są wyłącznie dokumenty dostępne w tym środowisku.
Do bezpiecznych i efektywnych zastosowań AI w praktyce prawniczej można zaliczyć:
- Tworzenie materiałów edukacyjnych dla klientów.
- Poszukiwanie informacji o przepisach i interpretacjach ogólnych.
- Tworzenie szablonów dokumentów (po odpowiedniej weryfikacji).
- Wspomaganie w analizie dużych ilości dokumentów.
Ważne jest jednak, aby korzystanie ze sztucznej inteligencji w prawie polskim odbywało się pod nadzorem profesjonalisty, który może zweryfikować poprawność generowanych treści.
Tajemnica zawodowa a korzystanie z AI
Jednym z najważniejszych wyzwań dla prawników korzystających z narzędzi AI jest ochrona tajemnicy zawodowej. Przekazywanie szczegółów sprawy, danych osobowych klientów czy poufnych dokumentów do zewnętrznych usług AI może stanowić poważne ryzyko naruszenia tej tajemnicy. W praktyce rodzi to dylematy przy stosowaniu systemów opartych na chmurze obliczeniowej, gdzie dane klientów mogą być przetwarzane poza UE.
Prawnicy nie mają pełnej kontroli nad tym, jak dane są przetwarzane i przechowywane przez dostawców usług AI. Nieświadome udostępnienie poufnych informacji klienta w zapytaniu do narzędzia AI może prowadzić do naruszenia obowiązków zawodowych i utraty zaufania klientów.
RODO a sztuczna inteligencja w prawie polskim – anonimizacja danych jako rozwiązanie problemu
Jednym z rozwiązań problemu ochrony tajemnicy zawodowej jest stosowanie anonimizacji danych przed ich wprowadzeniem do narzędzi AI. Polega to na usuwaniu lub zastępowaniu wszystkich informacji umożliwiających identyfikację osób, których dane dotyczą.
Proces anonimizacji powinien być przeprowadzony starannie, aby uniemożliwić identyfikację konkretnych osób, jednocześnie zachowując merytoryczną treść dokumentów potrzebną do uzyskania właściwej porady od AI.
Odpowiedzialność za treści generowane przez AI
Korzystanie z AI do generowania pism procesowych czy opinii prawnych rodzi pytanie o odpowiedzialność za te treści. Jak zauważono w jednym z artykułów: „Konia z rzędem temu, kto powie, że za te 'kilka’ lat pisma procesowe i opinie prawne, bez oznaczeń, że przygotowało je AI, nie będą powszechne w użytku publicznym”.
Chociaż sztuczna inteligencja w prawie polskim ma swoje zastosowania, to na prawniku ciąży odpowiedzialność za treść dokumentów, które przedkłada sądowi lub przekazuje klientowi. Nie można zasłaniać się tym, że błędne informacje zostały wygenerowane przez AI – to prawnik ponosi pełną odpowiedzialność zawodową za jakość swoich usług.
Etyczne aspekty korzystania z AI w praktyce prawniczej
Korzystanie z narzędzi AI przez prawników rodzi także szereg pytań etycznych. Czy używanie AI do tworzenia pism procesowych nie sprawi, że staną się one „sprofilowane” pod kątem przeciwnika, albo, co gorsza, konkretnego sędziego? Czy kancelarie mające dostęp do większej „mocy” modeli sztucznej inteligencji nie będą miały przewagi w postępowaniach?
Prawnik powinien kierować się nie tylko efektywnością, ale także zasadami etyki zawodowej, które mogą stać w sprzeczności z maksymalnym wykorzystaniem możliwości AI. Warto pamiętać, że profesjonalizm prawnika polega nie tylko na znajomości przepisów, ale także na umiejętności etycznego rozwiązywania złożonych problemów klientów.
Tabela 2: Analiza ryzyk w typowych zastosowaniach sztucznej inteligencji w prawie polskim
Zastosowanie | Poziom Ryzyka | Wymagane Zabezpieczenia |
---|---|---|
Generowanie wzorów pism i umów | Średnie | Podwójna weryfikacja przez prawnika |
Analiza orzecznictwa | Niskie | Oznaczenie źródeł w przypisach |
Specjalna predykcja wyników spraw | Wysokie | Zakaz wykorzystania w praktyce |
Automatyzacja korespondencji | Minimalne | Anonimizacja danych osobowych |
Sztuczna inteligencja w prawie polskim – kwestie prawno-autorskie
Status prawny treści generowanych przez AI
W kontekście prawa autorskiego kluczowe pytanie dotyczy tego, czy dzieło tworzone przez AI jest utworem w rozumieniu przepisów. Obowiązująca w Polsce ustawa o prawie autorskim2 stanowi, że dzieło stworzone przez AI nie jest dziełem w ujęciu prawa.
Ochrona praw autorskich dotyczy wyłącznie dzieł stworzonych przez ludzi, co oznacza, że sztuczna inteligencja w polskim prawie nie może być uznawana za twórcę. To ważna informacja zarówno dla prawników korzystających z AI, jak i dla ich klientów, którzy mogą chcieć chronić treści stworzone przy użyciu takich narzędzi.
Naruszenia praw autorskich przez AI
Sztuczna inteligencja może także naruszać prawa autorskie, co stwarza dodatkowe ryzyko dla jej użytkowników. Modele AI są trenowane na ogromnych zbiorach danych, które mogą zawierać materiały chronione prawem autorskim.
W rezultacie, treści generowane przez AI mogą zawierać fragmenty prac chronionych prawem autorskim, co może prowadzić do nieświadomego naruszenia tych praw przez użytkownika. Jest to szczególnie istotne w kontekście prawnym, gdzie cytowanie źródeł i respektowanie praw autorskich jest standardem zawodowym.
Sztuczna inteligencja w prawie polskim – praktyczne wskazówki
Dla klientów: kiedy potrzebny jest prawnik, a nie AI
- Złożone sprawy prawne – jeśli Twoja sytuacja jest nietypowa lub wymaga analizy wielu przepisów, skorzystaj z usług profesjonalnego prawnika.
- Sprawy o dużej wartości – gdy w grę wchodzą znaczące kwoty lub istotne interesy, warto zainwestować w profesjonalną poradę prawną.
- Ochrona wizerunku lub tajemnica przedsiębiorstwa – w takich sprawach najważniejsza jest ochrona danych i rzetelność, którą dają tylko profesjonalni pełnomocnicy.
- Sprawy wymagające reprezentacji przed sądem – pamiętaj, że AI nie może reprezentować Cię przed sądem.
- Gdy potrzebujesz pewności – jeśli zależy Ci na pewności, że otrzymane porady są aktualne i dostosowane do Twojej sytuacji.
Sprawdź specjalizacje prawne Kancelarii w Szczecinie.
Dla prawników: jak bezpiecznie korzystać z AI
- Anonimizuj dane przed wprowadzeniem do systemu (np. zamień „Jan Kowalski” na „Klient X”).
- Weryfikuj każdy wynik – zdecydowana większość dokumentów sporządzonych z udziałem AI wymaga korekty.
- Nie ufaj szkoleniom AI – tylko 30% modeli uwzględnia zmiany prawne z ostatnich 6 miesięcy.
- Informuj klientów o stosowanych algorytmach AI – przykładowy wzór niepełnej klauzuli do zastosowania w polityce prywatności: „Administrator wykorzystuje narzędzia sztucznej inteligencji (AI), oprogramowanie oparte na algorytmach uczenia maszynowego, w celu wspomagania czynności analitycznych i organizacyjnych związanych ze świadczeniem usług prawnych”.
- Uzyskaj zgody klientów – zapewnij odrębną zgodę na przetwarzanie danych w systemie AI oraz mechanizm wycofania tej zgody bez wpływu na świadczone usługi.
- Ubezpiecz się – upewnij się, czy standardowe OC w całości pokryje ewentualne szkody wywołane przez AI.
Przetestuj zgodność z RODO i AI Act – zamów audyt prawny w Kancelarii w Szczecinie.
Etyka prawnicza a sztuczna inteligencja – nowe role w 2025 r.
AI jako wsparcie, nie zastąpienie
Mimo obaw o przyszłość zawodu prawnika w dobie AI, wiele wskazuje na to, że sztuczna inteligencja będzie raczej narzędziem wspomagającym pracę prawników, niż ich konkurencją. Zresztą nie jet to żadne przewidywanie trendów na przyszłość, tylko aktualna, postępująca rzeczywistość.
Nowe role i specjalizacje prawnicze
Rozwój AI może także prowadzić do powstania nowych specjalizacji prawniczych, takich jak prawo sztucznej inteligencji czy doradztwo w zakresie zgodności np. z AI Act. Prawnicy mogą stać się ekspertami w obszarze regulacji dotyczących AI, doradzając firmom w zakresie zgodności ich systemów AI z obowiązującymi przepisami. Wzrost zapotrzebowania na specjalizację w prawie sztucznej inteligencji potwierdzają choćby szkolenia oferowane przez Okręgowe Izby Radców Prawnych.
Automatyzacja usług prawnych w Polsce
Obecne na polskim rynku narzędzia AI nie są jeszcze na tyle zaawansowane, żeby całkowicie zastąpiły wiedzę, umiejętności i doświadczenie profesjonalnych pełnomocników. Niemniej ich rola wzrasta. Dla potrzeb artykułu, warto tu wspomnieć np. o LexAI, inteligentnym asystencie prawnym opartym na AI, który, po zintegrowaniu z wewnętrzną bazą dokumentów kancelarii, automatycznie analizuje akta spraw, wyszukuje kontekstowo orzeczenia, identyfikuje sprzeczności oraz dobiera precedensy istotne dla konkretnej sprawy.
Czy warto? I tak, i nie. Z pewnością prawnicy, którzy nauczą się efektywnie korzystać z narzędzi AI, mogą znacząco zwiększyć swoją efektywność, jednocześnie zachowując to, co najcenniejsze – zdolność krytycznego myślenia, empatii i etycznego podejścia do problemów klientów.
Tabela 3: AI w kancelarii prawnej
Przed wdrożeniem AI | Po wdrożeniu AI |
---|---|
Ręczne przeglądanie i analiza dokumentacji | Zautomatyzowana analiza dokumentacji |
Czas przygotowania pisma: 100% | Czas przygotowania pisma: 60% |
Ograniczone ryzyko błędów | Wysokie ryzyko błędów |
Podsumowanie
Sztuczna inteligencja w prawie polskim bez wątpienia zmienia krajobraz usług prawnych, oferując nowe możliwości zarówno prawnikom, jak i ich klientom. Jednak korzystanie z tych narzędzi wiąże się z licznymi wyzwaniami prawnymi, etycznymi i praktycznymi, także w zakresie finansowym. Choć brak jest konkretnych danych, dostępne informacje sugerują, że koszty wdrożenia AI w kancelarii prawnej mogą sięgać od kilkudziesięciu do kilkuset tysięcy złotych, w zależności od zakresu i zaawansowania implementowanych rozwiązań. Koszty te obejmują nie tylko zakup i wdrożenie technologii, ale także szkolenia pracowników oraz dostosowanie procesów biznesowych.
Dla klientów kluczowe jest zrozumienie ograniczeń AI i świadomość, kiedy warto zainwestować w profesjonalną poradę prawną. Dla prawników natomiast istotne jest odpowiedzialne korzystanie z tych narzędzi, z poszanowaniem tajemnicy zawodowej i etyki.
W dynamicznie zmieniającym się otoczeniu prawnym i technologicznym, profesjonalni prawnicy, którzy umiejętnie łączą tradycyjne wartości zawodu z nowoczesnymi narzędziami, będą mogli zaoferować swoim klientom unikalną wartość, której nie zapewni żaden, nawet najbardziej zaawansowany system AI.
Radca Prawny Szczecin | Kancelaria Proksa
Najczęściej zadawane pytania (FAQ) ⭢ rozwiń
Czym jest „sztuczna inteligencja w prawie polskim”?
To zastosowanie technologii AI w polskim systemie prawnym, obejmujące regulacje, procedury nadzoru i praktyczne użycie narzędzi generatywnej sztucznej inteligencji przez prawników.
Jakie są kluczowe regulacje EU AI Act implementowane w Polsce?
Unijne rozporządzenie AI Act wprowadza czterostopniową klasyfikację ryzyka systemów AI, zakaz systemów o niedopuszczalnym ryzyku oraz wymogi dla systemów wysokiego ryzyka, w tym w sektorze prawniczym.
Co oznacza „AI Literacy” w przepisach AI Act?
To obowiązek pracodawców do zapewnienia pracownikom szkoleń i kompetencji z zakresu sztucznej inteligencji, niezbędnych do bezpiecznej i zgodnej z prawem pracy z systemami AI.
Jakie ryzyka wiążą się z użyciem AI zamiast usługi radcy prawnego?
Należą do nich: nieaktualne lub błędne informacje, brak odpowiedzialności cywilnej dostawcy AI, ryzyko naruszenia tajemnicy zawodowej i możliwe „halucynacje” generowane przez model.
Jak kancelaria może chronić dane klientów podczas korzystania z AI?
Poprzez staranną anonimizację danych przed wprowadzeniem do narzędzi AI oraz wdrożenie procedur zgodnych z RODO i wewnętrznym nadzorem nad systemami.
Kiedy warto skorzystać z AI, a kiedy z tradycyjnej porady prawnika?
AI przydaje się do szybkiej analizy dokumentów czy przygotowania szablonów, ale w sprawach złożonych, sądowych lub wymagających indywidualnego podejścia zawsze rekomendowana jest usługa radcy prawnego.
Jakie korzyści przynosi wdrożenie AI w kancelarii prawnej?
Przyspieszenie analiz orzecznictwa, automatyzacja rutynowych czynności, redukcja kosztów i wsparcie w procesie tworzenia dokumentów pod warunkiem nadzoru prawnika.
Profesjonalna pomoc radcy prawnego to inwestycja, która często przynosi wymierne korzyści. Doświadczony radca prawny pomoże nie tylko wygrać sprawę, ale także ograniczyć koszty i stres związany z postępowaniem sądowym.
*Pamiętaj, że niniejszy wpis ma charakter ogólny i nie stanowi porady prawnej w konkretnej sprawie.
Zapraszam do komentowania niniejszego posta, bądź kontaktu z radcą prawnym w Szczecinie w celu uzyskania szczegółowych informacji na temat sztucznej inteligencji w prawie polskim lub reprezentacji w Twojej sprawie.
Jestem przekonany, że moja oferta spełni Twoje oczekiwania zarówno pod względem merytorycznym, jak i finansowym.radca prawny Maciej Proksa
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji). ↩︎
- Ustawa z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych (Dz. U. z 2025 r. poz 24, ze zm.). ↩︎
Dodaj komentarz