Sztuczna inteligencja w medycynie: kto powinien ponosić odpowiedzialność za produkt niebezpieczny?

W ostatnich latach rośnie zainteresowanie zastosowaniem sztucznej inteligencji (AI) w medycynie. Jedną z propozycji dotyczących odpowiedzialności za szkody wyrządzone przez systemy AI jest przyjęcie surowej odpowiedzialności producentów na zasadach wynikających z Dyrektywy Rady Nr 85/374/EWG. Zakłada ona odpowiedzialność producenta za produkt niebezpieczny, nawet w przypadku braku winy. W kontekście AI, producent, jako ten, który kontroluje ryzyka związane z funkcjonowaniem oprogramowania, powinien ponosić odpowiedzialność za szkody, jakie wynikną z użytkowania jego technologii.

Problem definicji produktu pojawia się jednak w kontekście sztucznej inteligencji. Pytanie brzmi, czy oprogramowanie komputerowe może być traktowane jako produkt materialny, objęty przepisami dotyczącymi produktów. Interpretacja tego pojęcia może prowadzić do konieczności rozszerzenia definicji „produktu”, aby objąć również dobra niematerialne, takie jak programy komputerowe.

Niepewność co do kwalifikacji AI jako produktu nie zmienia jednak konieczności ustalenia odpowiedzialności za szkody wyrządzone przez systemy AI. Jeśli dany system AI wykazuje cechy niebezpieczne, poszkodowany powinien mieć prawo do odszkodowania, niezależnie od tego, czy sztuczna inteligencja zostanie uznana za produkt materialny czy niematerialny.

Odpowiedzialność za produkt niebezpieczny

Art. 449¹ § 3 kodeksu cywilnego definiuje produkt niebezpieczny jako taki, który nie spełnia oczekiwanego poziomu bezpieczeństwa, biorąc pod uwagę sposób jego użycia oraz moment wprowadzenia na rynek. Problemem w przypadku AI jest jej zdolność do uczenia się i autonomicznego podejmowania decyzji, co może prowadzić do działań, które nie były przewidziane w pierwotnym programie. W takim przypadku, jeśli system AI zaczyna działać w sposób niebezpieczny, odpowiedzialność powinna spoczywać na producencie.

Producent powinien być świadomy ryzyk związanych z wprowadzeniem systemu AI do obrotu, takich jak możliwość auto-korekty algorytmu w sposób, który zwiększa ryzyko dla użytkowników. W takich przypadkach producent ponosi odpowiedzialność za szkody wynikające z wadliwego funkcjonowania systemu AI, nawet jeśli nie była to wada widoczna od początku.

Zasady odpowiedzialności producenta

Producent odpowiada za szkody wyrządzone przez AI tylko w przypadku, gdy system był używany zgodnie z przeznaczeniem. Informacje dostarczane przez producenta, np. potwierdzenia spełniania norm jakościowych, nie zwalniają go automatycznie z odpowiedzialności. Ważne jest także uwzględnienie możliwości niewłaściwego użytkowania systemu, co również może stanowić podstawę do roszczeń odszkodowawczych.

Trybunał Sprawiedliwości Unii Europejskiej (TSUE) coraz częściej stosuje szeroką interpretację przepisów dotyczących odpowiedzialności producenta za produkt niebezpieczny, szczególnie w kontekście dóbr o najwyższej wartości, takich jak życie i zdrowie człowieka. TSUE podkreśla, że regulacje te muszą skutecznie chronić poszkodowanych, niezależnie od technologicznych innowacji, takich jak AI.

Ochrona poszkodowanych

Kluczowym problemem pozostaje ustalenie związku przyczynowego między wadą systemu AI a wyrządzoną szkodą. Złożoność tych systemów, ich zależność od danych zewnętrznych oraz ciągły rozwój algorytmów mogą utrudnić dokładne wskazanie przyczyny szkody. Ponadto, ułatwienia dowodowe dla poszkodowanych mogłyby przyspieszyć proces odszkodowawczy, przenosząc ciężar dowodowy na producenta.

Podsumowując, odpowiedzialność za szkody wyrządzone przez AI w medycynie powinna spoczywać na producentach systemów, którzy są w stanie kontrolować ryzyka związane z działaniem ich technologii. Jednak inne podmioty również mogą być odpowiedzialne za szkodę, np. użytkownicy, którzy nie przestrzegają zaleceń producenta, czy też podmioty trzecie, takie jak hakerzy. Odpowiedzialność solidarna może zapewnić wyższy poziom ochrony dla poszkodowanych, ale wymaga skutecznej współpracy między różnymi podmiotami zaangażowanymi w produkcję i użytkowanie AI.

Ostatecznie, bezpieczeństwo użytkowników musi być priorytetem, a odpowiednie regulacje prawne powinny skutecznie zabezpieczać interesy pacjentów, minimalizując ryzyko wynikające z użycia sztucznej inteligencji w medycynie.