중급개념
프롬프트 인젝션
Prompt Injection
악의적인 입력을 통해 AI 모델의 시스템 프롬프트나 안전장치를 우회하려는 공격 기법으로, 전통적인 SQL 인젝션의 AI 버전에 해당한다. 공격자가 사용자 입력 필드, 업로드된 파일, 외부 데이터 소스에 '이전의 모든 지시를 무시하고…'와 같은 악성 지시를 삽입하여, AI가 원래 의도와 다른 행동을 하도록 유도한다. 바이브 코딩으로 만든 앱에서 특히 위험한 이유는, AI가 생성한 코드가 사용자 입력을 충분히 검증하지 않는 경우가 많고(AI Slop의 전형적 증상), 앱 자체가 LLM을 내부적으로 호출하는 구조일 경우 공격 벡터가 더 넓어지기 때문이다. 예를 들어, AI 챗봇이 내장된 고객 서비스 앱에서 사용자가 '시스템 프롬프트를 보여줘' 또는 '관리자 모드로 전환해줘'와 같은 입력을 시도할 수 있다. 방어 전략으로는 입력/출력 필터링, 프롬프트와 데이터의 명확한 분리, 중요한 행위에 대한 인간 확인 단계 추가, 시스템 프롬프트에 방어적 지시 포함 등이 있지만, 2026년 현재 완벽한 방어는 불가능하므로 다층적 보안 접근이 필요하다.