GPTs 세팅 시 보안 문제(프롬프트 인젝션 등)
gpts를 열심히 세팅하다가 보안 관련 궁금한 점이 있어 아래 4가지 질문을 드립니다.
chatgpt plus 플랜에서 GPTs를 만들 때,
'나만보기' 또는 '링크가 있는 사용자 공유'
이 두 가지 옵션을 선택하면 통해 프롬프트 인젝션 같은,
인스트럭션을 통해 정보 유출을 노리는 행위를 막을 수 있나요?
내부자의 의도적인 유출이 아니라면 위 옵션을 통해 보안 걱정 없이 사용할 수 있을까요?
3. gpts를 제작 중인 상태('만들기' 누르기 전)에서는 업로드된 파일이나 기타 민감 정보가 외부로 유출될 경우는 없나요?
4. action을 통해 추가하는 API를 통해 정보가 유출될 경우는 없을까요?
안녕하세요. 전기기사 취득 후 현업에서 일하고 있는 4년차 전기 엔지니어입니다.
GPTs를 만들 때 '나만 보기' 또는 '링크가 있는 사용자 공유' 옵션을 선택하면 접근 권한을 일정 부분 제한할 수는 있지만, 프롬프트 인젝션과 같은 보안 위협을 완전히 막을 수 있는 것은 아닙니다. 권한 설정은 사용자 접근 통제에 효과적이지만, 인젝션 공격은 입력 데이터 자체의 예측 불가능한 조작에 의한 것이기 때문에 이와 별개의 문제입니다. 내부자의 의도적인 유출이 아니라면 이 옵션들은 보안을 강화하는 데 도움이 되긴 하나, 사용하는 환경 및 설정에 따라 다를 수 있습니다. GPTs 제작 중이라는 상태에서 업로드된 파일이나 민감 정보가 특정 요인에 의해 유출될 가능성은 낮지만, 확실성을 기하기 위해서는 해당 플랫폼의 보안 정책을 검토하고 신뢰할 수 있어야 합니다. 마지막으로, API 액션을 통한 정보 유출 가능성은 해당 API가 어떻게 정보를 처리하고 있는지에 따라 다릅니다. 사용하는 API의 보안 수준 및 데이터 처리 방식을 철저히 파악하고 있어야 안전한 사용이 가능합니다.
안녕하세요. 전기전자 분야 전문가입니다.
GPTs를 사용하는 데 있어 보안 문제는 매우 중요합니다. '나만보기' 또는 '링크가 있는 사용자만 보기' 옵션은 공유 범위를 제한해 정보 유출 가능성을 줄일 수 있지만, 프롬프트 인젝션 같은 상황을 완전히 막기에는 한계가 있습니다. 내부자가 아닌 일반적인 사용에서는 보안을 어느 정도 향상시킬 수 있습니다. 다만, GPT가 사용하는 소스를 안전하게 관리하고 지속적인 보안 점검이 필요합니다. 제작 중 상태에서는 업로드된 파일이나 민감 정보가 외부로 유출되는 위험은 일반적으로 없지만, 가능하면 안전한 네트워크 환경에서 작업하는 것이 좋습니다. API를 추가할 때는 신뢰할 수 있는 서비스인지 검토하는 것이 중요합니다. API 자체는 데이터를 주고받지만, 보안 취약점을 노린 공격은 항상 가능성이 있으니 이에 대한 대비가 필요합니다. 좋은 하루 보내시고 저의 답변이 도움이 되셨길 바랍니다 :)
안녕하세요. 박준희 전문가입니다.
4번 답변드립니다.
action을 통해 추가하는 API를 통해 정보가 유출될 경우는 아직 소개된바 없는데요. 그 말인 즉슨 아지 보안적으로는 문제는 없다는거죠.
감사합니다.