Wina w nadzorze (culpa in custodiendo) w kontekście korzystania ze sztucznej inteligencji w procesie leczenia może stanowić podstawę odpowiedzialności cywilnej za szkody powstałe w związku z jej użyciem na podstawie art. 427 k.c. w związku z art. 431 k.c..
Zgodnie z art. 427 kodeksu cywilnego, osoba sprawująca nadzór nad inną, której nie można przypisać winy, może ponosić odpowiedzialność za niedochowanie należytej staranności. Przepis ten może być stosowany analogicznie do sytuacji, gdy lekarz lub szpital wykorzystują system AI w swojej praktyce. Chociaż sztuczna inteligencja nie jest osobą prawną i nie można przypisać jej winy, to jednak ten, kto nadzoruje jej działanie, tj. lekarz, może być odpowiedzialny za szkody wyrządzone w wyniku niedochowania należytej staranności.
Nadzór nad systemem AI polega między innymi na wydawaniu poleceń, określaniu ram działania czy aktualizowaniu programu. W literaturze prawniczej można znaleźć argumenty za stosowaniem zasady winy w nadzorze w kontekście korzystania ze sztucznej inteligencji w procesie leczenia. Wniosek z tego jest taki, że osoby korzystające z systemów AI w medycynie powinny zachować należytą ostrożność i nadzorować ich działanie, aby uniknąć sytuacji, w których mogą ponieść odpowiedzialność za ewentualne szkody.
Odpowiedzialność cywilna za niedochowanie należytej staranności jest istotnym aspektem korzystania ze sztucznej inteligencji w medycynie i wymaga przeanalizowania przez prawników oraz służby zdrowia. Ustalenie poszczególnych etapów stanu faktycznego może być trudne. Brak możliwości zrozumienia procesu myślowego systemu AI może prowadzić do rozmaitych problemów. Niejasne są kryteria, na podstawie których system podejmuje decyzje, a co za tym idzie, trudno jest ustalić, czy był on odpowiednio zaprojektowany. Może to wynikać zarówno z błędów w programowaniu czy uczeniu się systemu, jak i z nieprawidłowego korzystania z niego przez użytkownika.
Jednakże, nawet jeśli uda się udowodnić winę czy zaniedbanie ze strony odpowiedzialnego za działanie systemu, pozostaje problem ustalenia związku przyczynowego między takim postępowaniem a wyrządzoną szkodą.
Pomimo tych trudności, stosowanie art. 427 k.c. w przypadku sztucznej inteligencji wydaje się być rozwiązaniem korzystnym dla poszkodowanych. Przypisanie odpowiedzialności z tytułu culpa in custodiendo szerokiemu kręgowi podmiotów może zapewnić ochronę osobom poszkodowanym przez działania systemów AI.
Teoretycznie można rozważać możliwość stosowania art. 431 k.c., który odnosi się do odpowiedzialności za zwierzęta pozostające pod opieką człowieka, do szkód spowodowanych przez AI. Systemy sztucznej inteligencji charakteryzują się nieprzewidywalnością zachowań, samoświadomością oraz autonomią, co można porównać do działania zwierząt, które wyrządzają szkodę z własnego popędu. Mimo że człowiek może w pewnym stopniu kontrolować i nakierowywać roboty wyposażone w AI, to nie zawsze jest w stanie przewidzieć ich działania w sposób kompletny.
Istnieją potencjalne zagrożenia związane z funkcjonowaniem sztucznej inteligencji, jednak nie wszystkie są znane. Regulacja zawarta w art. 431 k.c. nie precyzuje odpowiedzialności producenta i użytkownika systemów AI, ale może stanowić ogólną podstawę określania odpowiedzialności za korzystanie z autonomicznych robotów. Przepis ten zakłada domniemanie winy w nadzorze i umożliwia żądanie rekompensaty za poważne szkody, które wzbudzają moralną dezaprobatę.
Jednakże analogia do odpowiedzialności za szkody wyrządzone przez zwierzęta, oparta na tradycyjnych relacjach społeczności rolniczych, może nie być idealna w przypadku sztucznej inteligencji. Konieczne może być dostosowanie interpretacji prawa do specyficznych warunków działania AI, aby efektywnie regulować odpowiedzialność za szkody spowodowane przez te systemy.
Mimo że technologia sztucznej inteligencji niesie ze sobą wiele wyzwań związanych z przewidywalnością jej działań, należy szukać rozwiązań prawnych, które zapewnią ochronę dla osób poszkodowanych przez jej działania.