초급개념
컨텍스트 윈도우
Context Window
LLM이 한 번의 요청에서 처리할 수 있는 최대 텍스트 길이(토큰 수)로, 바이브 코딩에서 AI가 동시에 '볼 수 있는' 코드의 양을 결정하는 핵심 스펙이다. 비유하면 AI의 '작업 메모리(working memory)' 또는 '책상 위에 펼쳐 놓을 수 있는 서류의 양'이다. 컨텍스트 윈도우가 클수록 AI가 더 많은 코드를 동시에 파악할 수 있으므로, 대규모 코드베이스에서의 작업 정확도가 높아진다. 대표적인 모델별 컨텍스트 윈도우: Claude — 100만 토큰(약 75,000줄 코드), GPT-4 — 128K 토큰(약 9,600줄), Gemini 1.5 Pro — 200만 토큰(약 150,000줄). 다만, 컨텍스트 윈도우가 크다고 무조건 좋은 것은 아니다. 너무 많은 정보를 넣으면 '컨텍스트 부패(Context Rot)' 현상이 발생하여 AI가 핵심 정보를 놓칠 수 있으며, 토큰 소비량이 증가하여 비용도 높아진다. 따라서 컨텍스트 엔지니어링을 통해 '필요한 정보만 적절한 양'으로 제공하는 것이 중요하다.