현재 법 체계에서는 AI 자체에 책임을 묻지 않고, 결국 인간이나 기업에게 책임이 귀속됩니다.
핵심은 사고 원인에 따라 개발자(제작·운영사)와 사용자 중 누구의 과실이 더 큰지 따지는 구조입니다.
사용자가 정상적인 범위 내에서 AI를 이용했는데 시스템 결함이나 설계상 문제로 사고가 발생했다면, 개발자 측 책임이 커질 수 있습니다.
반대로 사용자가 경고를 무시하거나 위험하게 활용했다면 사용자 책임도 인정됩니다.
그래서 최근에는 한쪽만이 아니라 “공동 책임”으로 보는 경우가 많습니다.
법적 근거는 기존의 민법 제750조(불법행위책임), 제조물책임법 등이 적용됩니다.
또한 AI 특성상 위험이 큰 분야에서는 개발자에게 더 높은 주의의무가 요구됩니다.
결국 중요한 판단 기준은 사고를 예측할 수 있었는지, 안전장치를 충분히 마련했는지,사용자가 이를 제대로 따랐는지 입니다.
AI가 스스로 학습했다는 이유만으로 책임이 사라지지는 않는다는 점이 현재 법의 기본 방향입니다.