10월 26, 2020

현행 책임법리 하에서의 인공지능의 책임

현행 책임법리 하에서의 인공지능의 책임

첫째, 인공 지능이 일으킨 책임을 계약 관계로 파악하는 것은 가해자(AI 공급자)와

피해자(소비자 내지 이용자)가 항상 계약 관계에 있는 것이 아니라,

인공 지능이 상품으로 널리 유통되게 되면 제조자의 손을 떠난 유통 과정의 끝에서 손해가 발생하게 된다.

또한 계약책임으로 채무 불이행의 책임을 묻는다고 해도 예견 가능한 손해가 아니었다고

판단되면 책임은 물을 수 없게 된다.

둘째, 불법 행위 책임을 묻는 경우이다.

불법 행위 이론은 피해를 입은 피해자에게 입증 책임을 부과하게 되는데,

피해자 구제라는 관점에서는 가혹한 처사이다.

사실, 피해자에게 인공 지능 제조자의 과실을 입증시키는 것과 프로그래밍의 하자를 이용자가

입증하는 것은 매우 곤란하며, 상당히 어려운 문제이다.

그러나 과실 책임주의의 이점은 잠재적인 가해 행위에게 억지력을 갖게 하는 것이다.

셋째, 불법 행위 책임 한계를 극복하기 위해 생겨난 제조물 책임 제도에도 한계가 있다.

제조물의 정의가 한정적이며, 첨단 기술에 대한 항변을 인정하고 있어 그 실효성이 부족하다.

제조 과정에서의 결함은 프로그래밍 수준에서는 예상할 수 없다.

경고상의 결함에 있어서도 미리 예상할 수 없는 것을 경고하는 것은 예상외의 사고를

경고 할 수 없다는 것이며, 결함이라 할 수 없다.

남겨진 설계상의 결함에 대해서는, 프로그램의 결함을 아마추어가 알아내기 어렵다.

제조물책임에 있어서 특히 설계상의 결함이 있는지 여부의 기준은

“제품의 특성 및 용도, 제조물에 대한 사용자의 기대와 내용, 예상되는 위험의 내용,

위험에 대한 사용자의 인식, 사용자에 의한 위험회피의 가능성, 대체설계의 가능성 및 경제적 비용,

채택된 설계와 대체설계의 상대적 장단점 등의 여러 사정을 종합적으로 고려하여

사회통념에 비추어 판단”한다. 하는데,

이 경우 소비자 내지 이용자측에서 그 사고가 제조업자의 배타적 지배하에 있는 영역에서

발생하였다는 점과 그 사고가 어떤 자의 과실 없이는 통상 발생하지 않는다고 하는

사정을 증명하여야 한다.

즉, 제조물에 대한 책임을 지닌 엄격 책임으로는 충분하지 않으며,

무과실 책임 제도를 도입한 어떤 방식으로 대응할 수밖에 없다.

결론적으로, 인공 지능의 법적 책임을 물을 때 현행법으로는 충분한 해결책은 있다고 할 수 없다.

인공 지능에 특화한 불법 행위 유형 체계를 형성하지 않으면 대응할 수 없다.

특히 장래에 예측되는 인공 지능이 자율적으로 움직이기 시작했을 때,

제조자 등에게 책임을 물을 수 있는가 하는 문제가 발생한다.

즉 어디 까지나 프로그래머의 관리 하에 있는 행동이라면,

프로그래머 자신의 제조물 책임이라는 논리로 배상 책임은 구성할 수 있지만,

프로그래머의 관리를 넘어선 영역이 된 경우 누가 책임을 져야 것인가 하는 문제가 발생할 것이다.

참조문헌 : 카지노게임https://systemssolutions.io/