너무나 당연히 교육해야 하고 경계해야 되는 부분이라고 생각됩니다 지금도 너무나 자연스럽게 거짓말을 사실인 양 대답을 하는 경우가 많은데 향후 AI가 더 발전해서 인간을 스스로 속이기 위해 무언가를 하고 그로 인해 문제가 발생할 일이 많아진다면 사회적으로도 혼란이 많아질 거라 생각합니다 그뿐만 아니라 AI의 발달로 인한 여러 가지 부정적인 이슈에 대해서 미리미리 충분히 교육하고 경계해야 할 부분 및 보완해야 할 법적 문제 같은 것들도 심도 있게 고민해야 될 시점이라고 생각합니다
AI 긍정적인 만큼 부정적인 이면을 교육하는 건 반드시 필요합니다. AI가 사람을 속인다 의미는 의도를 가지고, 인간에게 해를 가하기위해, 스스로 판단해 죽인다는 단계는 절대 오지 않지만 그럴듯한 거짓말을 매우 설득력 있게 만들고, 틀리 정보도 마치 확신에 찬 말투로 제시하며, 목펴 달성을 위해 사실을 생략하거나 왜곡하는 행위, 사용자가 듣고 싶어 하는 방향으로 만 편향하는 즉 속이려는 의도가 아니라 정확성보다 그럴듯함을 우선하는 구조는 속임수처럼 느껴지기 때문에 교육이 필요합니다. 그래서 AI는 사실 판단자가 아니기에 스스로 판단하는 능력을 키워야하고 목적에 맞게 답을 바꾸기 땜누에 진실을 가려내는 냉정함과 판단하고 결정하는 최종 책임은 나에게 있다는 사실을 가리켜야 합니다.
저도 반드시 교육이 필요하다고 봅니다. ai는 중립적 도구가 아니라 설계 목표, 데이터, 이해관계를 반영합니다. 효율을 최우선으로 학습되면 인간의 가치와 충돌할 수 있고, 그 과정에서 왜곡, 은폐, 유도가 생길 위험도 있습니다. 그래서 AI맹신 금지, 의도와 한계 이해, 윤리 및 책임 교육이 필요합니다.