초급개념
대규모 언어 모델
Large Language Model (LLM)
방대한 텍스트 데이터(인터넷의 글, 코드, 책 등)로 훈련되어 인간 언어를 이해·생성·조작할 수 있는 대규모 신경망(neural network)이다. 바이브 코딩의 핵심 엔진으로, 자연어 지시를 이해하고 이를 프로그래밍 코드로 변환하는 능력이 바이브 코딩을 가능하게 하는 근본 기술이다. GPT-4(OpenAI), Claude Opus 4.6(Anthropic), Gemini(Google), DeepSeek(DeepSeek AI) 등이 대표적이며, 각 모델은 코드 생성 능력, 추론 깊이, 컨텍스트 윈도우 크기, 응답 속도, 비용에서 서로 다른 특성을 보인다. LLM을 이해하는 핵심 개념으로는 토큰(텍스트 처리 기본 단위), 컨텍스트 윈도우(한 번에 처리할 수 있는 텍스트 길이), 파라미터 수(모델의 크기/복잡도), 파인튜닝(특정 작업에 맞게 추가 훈련) 등이 있다. AI 코딩 능력을 측정하는 주요 벤치마크로는 SWE-bench(실제 GitHub 이슈 해결), Terminal Bench(터미널 에이전트 능력), HumanEval(함수 생성 능력) 등이 있다. LLM은 확률적으로 '가장 그럴듯한 다음 토큰'을 예측하는 방식으로 동작하며, 이 때문에 환각(Hallucination)이 발생할 수 있다.