Q. 인공지능이 앞으로 나아가야 할 방향에 대해서
AI가 발전되면서 AI로봇들을 만들어서 투입하려는 시도가 많이 생기고 있습니다. 이런 인공지능 로봇들이 투입되면서 윤리적인 측면의 이야기가 지속적으로 이슈가 되는데요. 이중에 제일 많이 이야기가 나오는 것이 바로 자율주행입니다. 자율주행도 결국 인공지능을 통하여서 통제하는 것인데요. 현재 사람이 운전을 하여서 사고가 나면 윤리적인 측면과 시시비비를 따져서 법적으로 처리하는데,,,인공지능이 투입되면서 어쩔수 없이 사고가 발생되는 상황에서 자율주행의 행동을 어디까지 윤리적으로 봐야하는지가 문제가 됩니다. 예를 들면 자동차가 자율주행으로 달리고 있는데 갑자기 아이가 튀어 나와 어쩔수 없이 사고가 나야하는 상황에서 자율주행차는 아이의 안전을 위해서 차를 틀어서 다리밑으로 떨어지면서 운전자가 사망할수도 있고 아니면 아이를 치어서 아이가 사망할수도 있습니다. 이런 상황에서 어떻게 윤리적으로 판단할지를 고민해야합니다. 결국 지속적으로 세계적으로 인공지능에 대한 윤리적 측면이 논의되고 법안으로 지속만들어져야될것으로 보입니다. 질문자님의 대답에 정확히 어디까지라고 말씀을 드리기가 어려워서 죄송하지만 지금 수준으로는 AI로봇이 발전되면서 사전에 논의 되어서 법적으로 제한을 해야하지 않을까 싶습니다.