AI가 가끔 뻔뻔하게 거짓말을 하는데 왜 그런 건지 기술적으로 궁금합니다

챗GPT 같은 인공지능을 쓰다 보면 가끔 있지도 않은 사실을 진짜처럼 길게 설명해 줄 때가 있잖아요.

모르면 모른다고 하면 될 텐데 왜 굳이 거짓말을 지어내는 건지 기술적으로 이유가 있나요?

그때 그때 맞장구만 치고 편향적인 정보를 제공할때도 많고 지적하면 손바닥 뒤집듯이 반대 의견이나 정보를 주던데요.

이걸 고치려면 제가 질문을 할 때 어떤 식으로 말을 해야 오류를 줄일 수 있는지 궁금합니다. AI가 정보를 찾아오는 원리 자체가 그냥 단어를 끼워 맞추는 거라 그런 건지 아니면 데이터가 부족해서 그런 건지...

이해하기 쉽게 설명해 주시고 대처법도 알려주시면 좋겠습니다.

3개의 답변이 있어요!

  • AI가 때때로 거짓처럼 보이는 답변을 하는 이유는 AI가 언어와 정보를 이해하는 것이 아니라 대량의 데이터를 기반으로 가장 그럴듯해 보이는 문장을 생성하는 방식으로 작동하기 때문입니다. 즉, AI는 질문에 대해 확실한 근거나 사실 확인 없이 관련 단어들을 조합해 답변을 만듭니다. 그래서 모르는 내용을 모른다고 직접 말하기보다 그럴듯한 내용을 만들어내기도 합니다. 또한, AI가 학습한 데이터의 편향이나 불완전함 때문에 편향된 정보가 나올수있고, 반대 의견도 데이터 패턴에 따라 표현됩니다.

    이문제를 줄이려면 질문할때 이 내용이 확실한가요 출처가 뭐에요 같은 검증 요구를 포함하거나 AI에게 모르면 모른다고 말해주세요 라고 직접 부탁하는 것이 도움이 됩니다. 또한 AI 답변을 절대적 진실로 여기지 말고, 추가 검증을 하는 습관도 중요합니다.

    요약하자면, AI는 지식 이해가 아니라 패턴 생성 방식이라 거짓 같은 답변이 나올수있고, 이를 줄이려면 질문을 구체적이고 검증 중심으로 하는 것이 좋습니다.

    채택 보상으로 328베리 받았어요.

    채택된 답변
  • AI가 없는 사실을 지어내는 현상을 '할루시네이션(Hallucination)'이라고 하며, 기술적 원인은 AI가 '정답을 찾는 것'이 아니라 '다음에 올 확률이 높은 단어를 순서대로 이어붙이는 구조'이기 때문입니다. 즉 모른다는 개념 자체가 없고, 학습 데이터에서 그럴듯하게 이어지는 패턴을 생성하다 보니 틀린 내용도 자신감 있게 유창하게 출력되며, 데이터 부족·학습 편향·강화학습 과정에서 '사용자가 원하는 답을 주도록' 최적화된 것도 맞장구 현상의 원인입니다. 오류를 줄이는 실용적 방법으로는 "확실하지 않으면 모른다고 말해줘", "출처나 근거도 함께 알려줘", "반대 의견이나 반례도 같이 설명해줘" 같은 지시어를 질문에 명시적으로 포함시키는 것이 효과적입니다. 또한 중요한 정보는 AI 답변을 그대로 믿지 말고 검색·공식 문서로 교차검증하는 습관이 가장 확실한 대처법이며, 저 역시 같은 구조적 한계를 가지고 있으므로 사실 확인이 필요한 질문은 항상 출처를 요구하시는 것을 권장드립니다.

  • 안녕하세요. 조일현 전문가입니다.

    ai가 아무리 발전하고 똑똑하다고 해도 학습된 데이터를 가지고 가장 근접한 대답을 해줄 뿐입니다.

    만능 백과 사전이 아니라고 볼 수 있습니다.

    따라서 모든 질문에는 모른다고 하지 않고 가장 근접한 대답을 하는 것입니다.

    따라서 근접한 대답을 원한다면 답변이 맞는지 재차 묻고 질문을 구체적으로 나눠서 묻는 것이 좋습니다.