LLM은 방대한 텍스트 데이터를 학습해 언어를 이해하고 생성하는 AI 모델입니다. 주로 Transformer 구조를 기반으로 작동하며 입력 텍스트를 토큰화하고 다음 단어를 예측하는 방식으로 동작합니다. 대부분의 LLM은 Transformer 디코더-only 구조를 공유하지만 세부적으로는 MoE, GQA 등에서 차이가 있습니다.
예를 들어 GPT는 Dense 구조, Llama 4나 DeepSeek-V3는 MoE를 도입해 효율성을 높였습니다. 근본 아키텍처는 유사하나 최적화로 성능이 다릅니다.