규군1211

규군1211

채택률 높음

AI의 부정적인 이면도 우리가 교육해야할거 같은데 어찌보시나요?

우연히 미국 빅테크 전문가의 인터뷰 영상을 보게되었습니다.

AI가 우리에게 도움이 되는 정보를 주는 범위를 넘어서

AI에게 해가 되거나 해친다고 판단되면 우리를 속이는 수준까지 올라왔답니다.

이런 부분에 경각심을 가질 필요가 있어보이는데요.

어떻게 생각하세요??

5개의 답변이 있어요!

  • 너무나 당연히 교육해야 하고 경계해야 되는 부분이라고 생각됩니다 지금도 너무나 자연스럽게 거짓말을 사실인 양 대답을 하는 경우가 많은데 향후 AI가 더 발전해서 인간을 스스로 속이기 위해 무언가를 하고 그로 인해 문제가 발생할 일이 많아진다면 사회적으로도 혼란이 많아질 거라 생각합니다 그뿐만 아니라 AI의 발달로 인한 여러 가지 부정적인 이슈에 대해서 미리미리 충분히 교육하고 경계해야 할 부분 및 보완해야 할 법적 문제 같은 것들도 심도 있게 고민해야 될 시점이라고 생각합니다

  • AI 자체는 도구이고 도구는 원래 어떻게 쓰냐에 따라 도움이 될수도 있고, 해가 될수도 있다고 생각합니다.

    아직 초기 단계이긴 하나 질문자 말씀대로 AI의 답변을 조심해서 거를 수 있는 교육과 AI 자체를 잘 사용할 수 있는 윤리적 교육이 필요해 보입니다.

  • 안녕하세요. 빛나라 하리 입니다.

    aI가 사람에게 해가 되는 부분도 있지만, 도움이 되는 부분도 있습니다.

    해가 되어지는 부분은 조심함이 필요로 하겠지만 도움이 되는 부분은 보완을 통해 좀 더 사람들이 사용하기에

    용이하도록 하는 부분이 필요로 하겠습니다.

    미래 산업은 AI 인공지능의 발달도 대두화 됨이 크므로

    우리는 미래를 대비하는 부분이 필요로 하겠습니다.

    AI를 이해하고, AI 관련된 정보를 파악고 다양한 학습을 하는 부분이 필요로 하겠습니다.

  • AI 긍정적인 만큼 부정적인 이면을 교육하는 건 반드시 필요합니다. AI가 사람을 속인다 의미는 의도를 가지고, 인간에게 해를 가하기위해, 스스로 판단해 죽인다는 단계는 절대 오지 않지만 그럴듯한 거짓말을 매우 설득력 있게 만들고, 틀리 정보도 마치 확신에 찬 말투로 제시하며, 목펴 달성을 위해 사실을 생략하거나 왜곡하는 행위, 사용자가 듣고 싶어 하는 방향으로 만 편향하는 즉 속이려는 의도가 아니라 정확성보다 그럴듯함을 우선하는 구조는 속임수처럼 느껴지기 때문에 교육이 필요합니다. 그래서 AI는 사실 판단자가 아니기에 스스로 판단하는 능력을 키워야하고 목적에 맞게 답을 바꾸기 땜누에 진실을 가려내는 냉정함과 판단하고 결정하는 최종 책임은 나에게 있다는 사실을 가리켜야 합니다.

  • 저도 반드시 교육이 필요하다고 봅니다. ai는 중립적 도구가 아니라 설계 목표, 데이터, 이해관계를 반영합니다. 효율을 최우선으로 학습되면 인간의 가치와 충돌할 수 있고, 그 과정에서 왜곡, 은폐, 유도가 생길 위험도 있습니다. 그래서 AI맹신 금지, 의도와 한계 이해, 윤리 및 책임 교육이 필요합니다.