Coraz więcej spraw możemy załatwić za pośrednictwem internetu, coraz mniej jest wiedzy tajemnej, zarezerwowanej tylko…
Coraz więcej spraw możemy załatwić za pośrednictwem internetu, coraz mniej jest wiedzy tajemnej, zarezerwowanej tylko dla wyspecjalizowanych grup zawodowych. Pomimo społecznej krytyki dla takich zachowań, niech pierwszy rzuci kamieniem, kto nie podjął próby diagnostyki u Doktora Google, wobec czego mogę przyjąć, że coraz częściej na skomplikowane pytania prawne odpowiadał będzie mecenas ChatGPT. Czy więc prawnicy mają się czego obawiać, czy też mogą spać spokojnie i upatrywać w sztucznej inteligencji przyjemnego sprzymierzeńca swoich wysiłków? Można bowiem wyobrazić sobie sytuację, w której te bardzo przydatne urządzenia popełnią błędy. Kto wówczas będzie odpowiedzialny za szkody wynikające z nieprawidłowego działania algorytmów wspierających podejmowanie decyzji, bądź też wręcz podejmujących decyzje w sposób zautomatyzowany?
Na tym etapie jeszcze nie doczekaliśmy się konkretnych rozwiązań, ani na poziomie przepisów unijnych, ani na poziomie systemu krajowego. W jaką stronę mogą powędrować rozwiązania proponowane przez prawodawstwo europejskie wysnuć można jedynie pośrednio z treści wniosku dotyczącego Rozporządzenia Parlamentu Europejskiego i Rady w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji z dnia 05.10.2020 r.
Z analizy stanowiska zawartego tamże wysnuć można wniosek, iż podstawą odpowiedzialności w tym przedmiocie będzie odpowiedzialność zbliżona do odpowiedzialności za produkt, przy czym sprowadzała się ona będzie do odpowiedzialności na zasadzie ryzyka. Tak więc ogólna rama będzie zbliżona do działania przedsiębiorcy i jego odpowiedzialności za produkt. W tym zakresie wyróżnić będzie można dwie podstawowe kategorie podmiotów odpowiedzialnych: operatora platformy, na której działa AI, oraz twórcy (bądź twórców). W przypadku operatora odpowiedzialność ta głównie oparta jest na konieczności zapewnienia odpowiednich środków bezpieczeństwa i kontroli nad działaniem sztucznej inteligencji. Odnośnie zaś twórcy lub twórców AI mogą oni ponosić odpowiedzialność w przypadku, gdy system został wadliwie zaprojektowany, nie zostały podjęte odpowiednie środki ostrożności, projektowany system zawierał błędy lub luki i to właśnie te wady doprowadziły do zaistnienia szkody.
I tutaj pojawiało się będzie ogromne pole do rozwijania nowego typu praktyki prawniczej, albowiem rozdzielenie tych procesów, szczególnie w wypadku bardzo zaawansowanych systemów, tworzonych często w warunkach skomplikowanych zależności pomiędzy zespołami twórców, bądź tworzonych w systemie „społecznego” rozwoju tego rodzaju środowisk, wydaje się że w wielu wypadkach ustalenie podmiotu odpowiedzialnego i zakresu jego odpowiedzialności może stanowić skomplikowany proces. Zauważyć jednak należy, iż na tle dotychczasowych prac unijnych zespołów eksperckich coraz bardziej oddala się koncepcja przyznania sztucznej inteligencji swoistej odrębności, tudzież przyznania jej wręcz osobowości prawnej. Wysnuć więc można wniosek, że końca jednak odpowiedzialni za szkody wyrządzone przez maszynę będą ludzie, którzy ją stworzyli i którzy zobowiązani są do pilnowania jej działania. Odrębną kwestią będzie ustalenie zakresu odpowiedzialności poszczególnych podmiotów biorących udział w procesie tworzenia, a także zakresu ich przyczynienia się do powstania szkody.