아핫뉴스실시간 인기검색어
아핫뉴스 화산 이미지
아하

생활

생활꿀팁

꾸루꾸루꾸뿌
꾸루꾸루꾸뿌

챗지피티가 거짓말을 하는 이유가 뭔가요?

챗지피티한테 맛집을 물어봤는데 없는곳이나 사라진 곳을 말하더라고요. 서울 맛집을 물어봤는데 경기도 알려주고 그래요. 왜 그런거죠?

55글자 더 채워주세요.
7개의 답변이 있어요!
  • ⠀ GM ⠀
    ⠀ GM ⠀

    Chat gpt가 거짓말 하는 이유가 gpt별로 학습된 날짜가 다른데, 학습된 날짜와 최근 정보가 다르면 다르게 알려줄 수도 있어요.

  • 챗지피티가 거짓말처럼 보이는 답변을 하는 이유는 실제로 거짓을 말하려는 의도가 있는 것이 아니라 학습된 데이터의 통계적 패턴을 기반으로 가장 그럴듯한 문장을 예측해 생성하기 때문이라고 합니다.

  • ChatGPT는 인터넷 텍스트 데이터를 학습한 언어 예측 모델이다 보니 학습 되지 않은 내용에 대해서는 잘못 된 답을 내놓을 수도 있고 생성 알고리즘에 따라 오류도 발생 합니다. 그래서 무조건 ChatGPT 만 믿으면 안되고 중복 검증을 해야 합니다.


  • 챗GPT가 맛집을 추천할 때 실제 없는 곳이나 다른 지역을 안내하는 것은 최신 정보 부족, 지역 경계 인식 한계, 허위 정보 생성, 데이터 부족, 설계적 한계 등이 복합적으로 작용한 결과입니다.
    정확한 맛집 정보를 원한다면, AI 추천을 참고로 하되 반드시 추가 확인이 필요합니다.

  • 챗지피티가 거짓말을 하는것보다는 맥락을 이해 못해서 다르게 추천해주는것일수도 있고 데이터가 아직 충분하지 못해 그런거 일수도 있습니다 그리고 챗지피티도 완전히 정확하지 않기 때문에 스스로 한번더 찾아보시는것이 도움이 될것 입니다 !

  • 챗지피티는 스스로 판단하고 찾아내는 개념이 아니에요.

    여러사람들이 사용함으로 인해 그데이터들을 모아 그렇게 모여진 정보들로 마치 무엇이든 다아는것처럼 보이는것 뿐이랍니다.

    결국에 챗지피티도 인터넷등에서 모아온 정보에 기반해 질문등에 대한 답을 하는것이기에 잘못 된 정보도 이외로 많이 알려준답니다.

  • 안녕하세요~석산화입니다~

    서울 맛집을 물었는데 경기도 맛집을 알려주는 경우 챗지피티가 맥락을 완벽하게 이해하지 못하거나 관련성이 있다고 판단되는 정보를 임의로 연결해서 답변하기 때문입니다. 인간처럼 모른다라고 잘 말하지 않고 대화를 이어가기 위해 그럴듯한 답을 만들어내는 경향이 있습니다. 실제로 존재하지 않는 정보도 자연스럽게 지어내거나 부정확한 데이터를 사실처럼 말하는 오류(이른바 할루시네이션 현상)가 자주 발생합니다.