안녕하세요.
가장 큰 이유는 기술 변화 속도가 너무나도 빠르기 때문일 것 같습니다.
법을 만들 때 수많은 과정을 거칩니다. 그렇기 때문에 법이 만들어질 때쯤이면 이미 현실과 어긋나있는 경우가 많이 생깁니다.
그리고 AI는 국가나 플랫폼, 개발자 등 책임 주체가 상당히 복잡합니다. 그래서 결국에 누가 책임질지에 대한 논쟁이 이어지게 되는 것입니다.
그리고 상황마다 판단 기준도 달라지기 때문에 윤리 문제는 일률적인 규칙으로 묶기 힘든 특성도 있습니다.
감사합니다.