Q. 가족 구성원이 연락이 닿지 않고 행적을 찾을 수 없는 기간이 얼마가 되면 사망 신고를 할 수 있나요?
안녕하세요, 남천우 변호사입니다.민법 제27조에 따르면, 부재자의 생사가 5년간 분명하지 않은 때에는 법원은 이해관계인이나 검사의 청구에 의하여 실종선고를 할 수 있습니다. 실종선고가 이루어지면 실종자는 실종기간이 만료한 때에 사망한 것으로 간주됩니다.[민법]제27조(실종의 선고) ①부재자의 생사가 5년간 분명하지 아니한 때에는 법원은 이해관계인이나 검사의 청구에 의하여 실종선고를 하여야 한다.②전지에 임한 자, 침몰한 선박 중에 있던 자, 추락한 항공기 중에 있던 자 기타 사망의 원인이 될 위난을 당한 자의 생사가 전쟁종지후 또는 선박의 침몰, 항공기의 추락 기타 위난이 종료한 후 1년간 분명하지 아니한 때에도 제1항과 같다. 제28조(실종선고의 효과) 실종선고를 받은 자는 전조의 기간이 만료한 때에 사망한 것으로 본다.
Q. 폭행관련해서 독직 폭행이란 어떤 폭행인가요?
안녕하세요. 남천우 변호사입니다.독직폭행은 공무원이 직무를 수행하는 과정에서 자신의 지위나 권한을 남용하여 타인에게 폭행을 가하는 행위를 말합니다. 이는 공무원의 직권을 이용한 불법적인 폭력 행사로, 일반 폭행보다 더 엄중하게 처벌됩니다. 독직폭행은 공무원이 자신의 직위를 이용해 민간인이나 하급자에게 폭력을 행사하는 경우에 해당합니다. 이는 공무원의 권한 남용이자 공권력의 부당한 행사로 간주되어 일반 폭행죄와는 별도로 처벌됩니다. 형법 제125조에 따르면 재판, 검찰, 경찰 기타 인신구속에 관한 직무를 행하는 자 또는 이를 보조하는 자가 그 직무를 행함에 당하여 형사피의자 또는 기타 사람에 대하여 폭행이나 가혹한 행위를 한 때에는 5년 이하의 징역과 10년 이하의 자격정지에 처하게 됩니다. 이러한 규정은 공무원의 권력 남용을 방지하고 국민의 기본권을 보호하기 위한 것입니다.형법 제125조(폭행, 가혹행위) 재판, 검찰, 경찰 그 밖에 인신구속에 관한 직무를 수행하는 자 또는 이를 보조하는 자가 그 직무를 수행하면서 형사피의자나 그 밖의 사람에 대하여 폭행 또는 가혹행위를 한 경우에는 5년 이하의 징역과 10년 이하의 자격정지에 처한다.특정범죄 가중처벌 등에 관한 법률 제4조의2(체포ㆍ감금 등의 가중처벌) ① 「형법」 제124조ㆍ제125조에 규정된 죄를 범하여 사람을 상해(傷害)에 이르게 한 경우에는 1년 이상의 유기징역에 처한다.② 「형법」 제124조ㆍ제125조에 규정된 죄를 범하여 사람을 사망에 이르게 한 경우에는 무기 또는 3년 이상의 징역에 처한다.
Q. 일방폭행을 당했는데 상대방에서 쌍방폭행으로 신고할 경우 질문합니다.
안녕하세요. 남천우 변호사입니다.일방적인 폭행을 당했음에도 상대방이 쌍방폭행을 주장할 경우, 수사기관은 양측의 주장을 모두 조사하게 됩니다. 그러나 가해자의 일방적 폭행을 보여주는 영상 증거가 있다면, 이는 피해자에게 매우 유리한 증거가 됩니다. 이 경우 가해자의 폭행죄가 인정될 가능성이 높습니다. 또한 가해자가 허위로 쌍방폭행을 주장했다는 것이 명확히 밝혀진다면 무고죄가 성립할 수 있습니다. 무고죄는 타인으로 하여금 형사처분이나 징계를 받게 할 목적으로 허위 사실을 신고하는 경우에 성립합니다. 따라서 가해자가 고의로 허위 사실을 신고했다는 점이 입증되면 폭행죄와 더불어 무고죄도 적용될 수 있습니다. 수사 과정에서는 영상 증거 외에도 목격자 진술, 상해 정도, 현장 상황 등을 종합적으로 고려하여 사실관계를 파악합니다. 피해자는 자신의 입장을 명확히 진술하고 가능한 모든 증거를 제출하는 것이 중요합니다.
Q. 인공지능이 법률 시스템에 적용될 경우 발생할 수 있는 윤리적 문제는 무엇일까요?
안녕하세요. 남천우 변호사입니다.인공지능이 법률 시스템에 적용될 경우 다양한 윤리적 문제가 발생할 수 있습니다. 우선 공정성 문제가 있습니다. AI 시스템이 학습 데이터의 편향성을 그대로 반영하여 특정 집단에 불리한 판단을 내릴 수 있습니다. 또한 AI의 판단 과정이 불투명할 경우, 결정의 근거를 명확히 설명하기 어려워 공정한 재판을 받을 권리를 침해할 수 있습니다. 책임 소재 문제도 중요합니다. AI가 잘못된 판단을 내릴 경우 그 책임을 누구에게 물을 것인지가 불분명합니다. 개인정보 보호 문제도 있습니다. 방대한 양의 개인 정보를 처리하는 AI 시스템은 개인정보 유출 위험이 있습니다. 이러한 문제들을 해결하기 위해서는 AI 시스템의 투명성과 설명 가능성을 높이고, 지속적인 모니터링과 감사를 통해 편향성을 줄여야 합니다. 또한 AI의 결정을 보조 수단으로만 활용하고 최종 판단은 인간이 내리도록 해야 합니다. AI 시스템 개발 및 운영에 대한 명확한 법적, 윤리적 가이드라인을 수립하고, 책임 소재를 명확히 해야 합니다.