Aplikant Adwokacki Mateusz Gontarek | Blog | Prawo, Technologie, AI

Odpowiedzialność za sztuczną inteligencję: przedmiot i zakres dyrektyw

Autor: Mateusz Gontarek | Jul 1, 2024 7:38:11 AM

Zapoznaj się z proponowaną dyrektywą Parlamentu Europejskiego i Rady dotyczącą odpowiedzialności za sztuczną inteligencję, jej zakresem i wpływem na przepisy dotyczące pozaumownej odpowiedzialności cywilnej.

AI w prawie polskim

Sztuczna inteligencja (AI) staje się coraz bardziej powszechna i wpływa na różne dziedziny życia, w tym na prawo. W Polsce istnieją obecnie pewne przepisy dotyczące odpowiedzialności za sztuczną inteligencję, jednak ich zakres jest ograniczony. Projektowana dyrektywa Parlamentu Europejskiego i Rady ma na celu wprowadzenie wspólnych przepisów dotyczących odpowiedzialności za sztuczną inteligencję w całej Unii Europejskiej.

W prawie polskim odpowiedzialność za sztuczną inteligencję dotyczy głównie kwestii związanych z bezpieczeństwem danych osobowych i ochroną prywatności. Istnieją przepisy dotyczące ochrony danych osobowych, takie jak RODO (Rozporządzenie Ogólne o Ochronie Danych Osobowych), które mają zastosowanie do systemów sztucznej inteligencji. Jednak w obszarze odpowiedzialności cywilnej za szkody spowodowane przez sztuczną inteligencję, polskie prawo jest jeszcze niedoprecyzowane.

AI w prawie europejskim

Wraz z rozwojem sztucznej inteligencji, Unia Europejska dąży do wprowadzenia jednolitych przepisów dotyczących odpowiedzialności za sztuczną inteligencję na terenie całej UE. Projektowana dyrektywa Parlamentu Europejskiego i Rady ma na celu ustanowienie wspólnych regulacji, które będą miały zastosowanie we wszystkich państwach członkowskich. W ten sposób, odpowiedzialność za sztuczną inteligencję będzie uregulowana w sposób spójny i dostosowany do potrzeb współczesnego rynku.

Przyjęcie dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję jest istotnym krokiem w harmonizacji prawa dotyczącego sztucznej inteligencji w Europie. Dzięki temu, firmy działające na terenie UE będą miały klarowne wytyczne dotyczące swoich obowiązków i odpowiedzialności związanej z korzystaniem z systemów sztucznej inteligencji.

Projektowana dyrektywa i jej cele

Projektowana dyrektywa Parlamentu Europejskiego i Rady ma na celu dostosowanie przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Jej głównym celem jest zapewnienie ochrony dla osób, które ponoszą szkody w wyniku działania systemów sztucznej inteligencji. Dyrektywa ma również na celu zapewnienie uczciwej i spójnej odpowiedzialności za sztuczną inteligencję w całej UE.

Dyrektywa proponuje wprowadzenie wspólnych przepisów dotyczących ujawniania dowodów w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy. Chodzi o to, aby powód miał możliwość uzasadnienia swojego roszczenia odszkodowawczego przed sądem, przedstawiając dowody na szkodę spowodowaną przez system sztucznej inteligencji.

Kolejnym celem dyrektywy jest określenie ciężaru dowodu w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy. Dyrektywa proponuje, aby ciężar dowodu spoczywał na powodzie, który musi przedstawić wystarczające fakty i dowody, aby uprawdopodobnić roszczenie odszkodowawcze.

Zakres stosowania dyrektywy w przypadku sztucznej inteligencji wysokiego ryzyka

Proponowana dyrektywa ma zastosowanie do pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy w przypadku szkód spowodowanych przez systemy sztucznej inteligencji wysokiego ryzyka. Systemy sztucznej inteligencji wysokiego ryzyka to takie, które mogą powodować poważne szkody lub naruszenia praw człowieka, takie jak systemy do rozpoznawania twarzy czy systemy automatycznego podejmowania decyzji w sprawach związanych z prawami obywatelskimi.

W przypadku szkód spowodowanych przez systemy sztucznej inteligencji wysokiego ryzyka, dyrektywa proponuje, aby powód miał prawo do wniosku o ujawnienie istotnych dowodów dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka. Jeżeli osoba posiadająca te dowody odmawia ich ujawnienia, sąd krajowy może nakazać takiej osobie ujawnienie tych dowodów.

Wymogi dotyczące ujawniania dowodów w przypadku szkód spowodowanych przez AI

Zgodnie z proponowaną dyrektywą, potencjalny powód musi przedstawić wystarczające fakty i dowody, aby uprawdopodobnić roszczenie odszkodowawcze. Jeśli powód podejmie wszelkie proporcjonalne próby uzyskania od pozwanego istotnych dowodów dotyczących systemu sztucznej inteligencji, sąd krajowy może nakazać ujawnienie tych dowodów.

Celem takiego ujawnienia dowodów jest umożliwienie powodowi uzasadnienia pozaumownego cywilnoprawnego roszczenia odszkodowawczego na zasadzie winy. Powód musi być w stanie udowodnić, że szkoda została spowodowana przez system sztucznej inteligencji i że posiada wystarczające dowody na to, że system działał w sposób nieodpowiedni lub nieprawidłowy.

Obowiązki państw członkowskich w kontekście odpowiedzialności za sztuczną inteligencję

Proponowana dyrektywa nakłada obowiązek na państwa członkowskie Unii Europejskiej, aby zapewniły, że sądy krajowe będą miały możliwość żądania ujawnienia istotnych dowodów dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka. Jeśli potencjalny powód spotka się z odmową ujawnienia takich dowodów, może zwrócić się do sądu krajowego o nakazanie ujawnienia tych dowodów.

Państwa członkowskie mają również obowiązek zapewnienia, że dostawcy systemów sztucznej inteligencji będą podlegać odpowiednim obowiązkom zgodnie z rozporządzeniem w sprawie AI. Dostawcy mają obowiązek ujawnienia istotnych dowodów, jeśli zostaną o to poproszeni przez potencjalnego powoda.

Procedura ujawniania dowodów i wymagane kroki przed sądem krajowym

Procedura ujawniania dowodów w przypadku szkód spowodowanych przez sztuczną inteligencję jest uregulowana w proponowanej dyrektywie. Potencjalny powód musi złożyć wniosek do sądu krajowego, w którym przedstawi wystarczające fakty i dowody, aby uzasadnić swoje roszczenie odszkodowawcze.

Sąd krajowy może nakazać ujawnienie dowodów przez osobę, która posiada istotne dowody dotyczące systemu sztucznej inteligencji wysokiego ryzyka, jeżeli powód podjął wszelkie proporcjonalne próby uzyskania tych dowodów od pozwanego. W przypadku odmowy ujawnienia dowodów, sąd krajowy może nakazać osobie ujawnienie tych dowodów.

Procedura ujawniania dowodów ma na celu zapewnienie uczciwości i sprawiedliwości w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych związanych z sztuczną inteligencją. Powód ma prawo do uzasadnienia swojego roszczenia przed sądem poprzez przedstawienie dowodów na szkodę spowodowaną przez system sztucznej inteligencji.