Kiedy mówimy o rozwoju sztucznej inteligencji, nie możemy zapominać o kwestii odpowiedzialności za szkody wyrządzone przez roboty i systemy AI. Parlament Europejski podkreśla, że kluczowym aspektem jest zapewnienie, aby człowiek zawsze mógł mieć kontrolę nad maszynami oraz uniknąć sytuacji, w której sztuczna inteligencja działałaby zbyt samodzielnie.
Jednak ustalenie, kto ponosi odpowiedzialność za szkody spowodowane przez sztuczną inteligencję, nie jest łatwym zadaniem. Użytkownicy i producenci systemów AI mają ograniczoną możliwość przewidzenia wszystkich zachowań robota, a tym bardziej skutków końcowych takich działań. Dlatego pojawia się pytanie, czy odpowiedzialność powinien ponosić użytkownik (operator) systemu, czy może producent, który czerpie zyski z jego działania, a nawet sama sztuczna inteligencja.
Parlament Europejski wskazuje jednak, że na obecnym etapie rozwoju systemów autonomicznych to człowiek powinien ponosić odpowiedzialność, a nie sama maszyna. Istotne jest, aby operatorzy byli pierwszym „punktem kontaktowym” dla poszkodowanego w przypadku ewentualnych szkód.
W literaturze pojawiają się propozycje zmian przepisów oraz wprowadzenia nowych regulacji, które mogłyby określić odpowiedzialność za szkody wyrządzone przez sztuczną inteligencję. Ważne jest także rozważenie nad nadaniem systemom AI podmiotowości prawnej, czyli tzw. „osobom elektronicznym”. Jednak obecne przepisy dotyczące odpowiedzialności cywilnej mogą być wystarczające do objęcia przypadków szkód spowodowanych przez systemy AI.
W rezolucji Parlamentu Europejskiego z 2017 roku zalecano, aby użytkownicy systemów AI ponosili odpowiedzialność opartą na winie, natomiast producenci – na zasadzie ryzyka.
Wnioskując, odpowiedzialność za sztuczną inteligencję powinien ponosić człowiek, w oparciu o istniejące regulacje prawa cywilnego. Dzięki funkcjonalnej wykładni przepisów możemy lepiej radzić sobie z zmieniającymi się warunkami społeczno-gospodarczymi oraz zapewnić sprawiedliwość w przypadku szkód wyrządzonych przez maszyny.