[AI/LLM] Sampling(샘플링) 완벽 가이드 (데이터 불균형 해결부터 LLM 생성 원리까지)
·
AI Study/[LLM]
1. 들어가며인공지능(AI) 모델을 개발하고 운영하다 보면 우리는 끊임없이 '선택'의 문제에 직면합니다.학습 데이터가 너무 많거나 불균형할 때 "어떤 데이터를 학습시킬 것인가?"를 선택해야 하고, ChatGPT 같은 생성형 AI가 답변을 할 때 "다음에 올 단어로 무엇을 선택할 것인가?"를 결정해야 합니다.이 모든 과정의 중심에 있는 기술이 바로 샘플링(Sampling)입니다.단순히 데이터를 뽑는 것을 넘어, 모델의 성능을 최적화하고 AI의 창의성을 조절하는 핵심 기술인 샘플링에 대해 데이터 전처리(Data)와 모델 생성(Generation) 두 가지 관점에서 완벽하게 파헤쳐 보겠습니다.2. AI 분야에서의 Sampling이란? 2.1 정의AI에서의 샘플링은 전체 집합(모집단 또는 확률 분포)에서 특정한..
[AI/LLM] LLM의 텍스트 생성 과정 (Encoding, Decoding, 그리고 속도의 한계)
·
AI Study/[LLM]
1. 들어가며우리가 챗봇에게 "오늘 날씨 어때?"라고 입력하면 AI는 바로 알아듣는 것 같지만, 사실 내부에서는 엄청난 번역 작업이 일어납니다. AI는 '날씨'라는 단어의 의미를 이해하는 것이 아니라, 수많은 숫자 계산 끝에 '맑음'이라는 숫자를 뱉어내는 확률 계산기이기 때문입니다.LLM(Large Language Model)이 텍스트를 생성하는 과정을 이해하려면 먼저 **Encoding(입력)**과 Decoding(출력), 그리고 그 사이에서 발생하는 구조적 병목 현상을 알아야 합니다. 오늘은 Speculative Decoding이라는 고급 기술을 이해하기 위한 필수 기초 체력을 길러보겠습니다.2. Encoding: 인간의 언어를 기계의 언어(숫자)로컴퓨터는 0과 1밖에 모릅니다. 그래서 우리는 텍스트..