[AI/LLM] 프롬프트 엔지니어링 (Prompt Engineering) 실전 설계 꿀팁 #3 (RAG, ReAct, ToT, PAL, Reflextion)
·
AI Study/[LLM]
1. 들어가며이전 3편에서는 CoT(생각의 사슬), 자기 일관성(Self-Consistency) 등 AI의 '내부 추론' 능력을 극대화하는 기법을 마스터했습니다.하지만 AI가 2023년 9월까지의 지식만 가지고 있다면 어떨까요? AI가 '오늘의 날씨'를 모르거나, '우리 회사 내부 문서'를 참조할 수 없다면 현업에서 사용하기엔 치명적입니다.4편에서는 드디어 이 '닫힌 상자(Closed-book)' 같던 AI를 '외부 세계'와 연결합니다. AI에게 **'실시간 정보'(RAG)**를 검색할 '눈'을, **'외부 도구'(ReAct)**를 사용할 '손발'을 달아주는 'AI 에이전트' 기법들을 마스터할 차례입니다.이제 프롬프트 엔지니어링의 '현업 끝판왕' 기법으로 들어갑니다.2. RAG (Retrieval Aug..
[AI/LLM] 프롬프트 엔지니어링 (Prompt Engineering) 실전 설계 꿀팁 #2 (Few Shot, CoT, Self-Consistency)
·
AI Study/[LLM]
1. 들어가며이전까지는 '좋은 프롬프트'를 설계하는 4가지 팁(구체성, 페르소나 등)과 요약, 분류, Q&A 같은 현업 기본기를 다뤘습니다. 하지만 2편에서 사용한 '제로샷(Zero-shot)' 방식은 AI가 이미 아는 지식으로만 답하는 '단답형' 작업에 그칩니다.AI에게 '복잡한 추론'이 필요한 작업을 시키면 어떨까요? (예: 수학 문제, 논리 퍼즐, 다단계 비즈니스 결정)이번 3편에서는 드디어 프롬프트 엔지니어링의 '꽃'이라 불리는 고급 추론 기법들을 마스터합니다. AI가 사람처럼 '생각하는 과정'을 거치게 만드는 강력한 기법인 **'생각의 사슬(CoT)'**과 그 응용 기법들을 집중적으로 알아봅니다.2. 퓨샷 프롬프팅 (Few-Shot Prompting)첫 번째 핵심 기법은 '퓨샷(Few-shot)..
[AI/LLM] 프롬프트 엔지니어링 (Prompt Engineering) 실전 설계 꿀팁
·
AI Study/[LLM]
1. 들어가며이전 편에서는 프롬프트 엔지니어링의 개념, 역사, 그리고 AI의 '성격'을 제어하는 Temperature, Top_p, Frequency Penalty 같은 핵심 파라미터들을 알아봤습니다. 이론적으로 AI의 답변을 어떻게 '튜닝'할 수 있는지 감을 잡으셨을 겁니다.이제 이론은 충분합니다. LLM을 '진짜' 일 시키기 위해 프롬프트를 작성하는 '실전' 기술을 마스터할 차례입니다.이번 편에서는 좋은 프롬프트를 설계하는 4가지 '국룰'과, 현업에서 가장 많이 쓰이는 요약, 추출, 분류 등의 기본 예시를 마스터합니다. 2. 효과적인 프롬프트 설계를 위한 4가지 "국룰"AI가 엉뚱한 답을 내놓는다면, 90%는 AI가 아닌 '우리의 지시'가 모호하기 때문입니다. 명확한 지시를 위한 4가지 핵심 팁을 소..
[AI/LLM] 프롬프트 엔지니어링(Prompt Engineering)이란 무엇인가? (개념, 배경, LLM 핵심 파라미터)
·
AI Study/[LLM]
1. 들어가며'AI 시대'에 LLM(대규모 언어 모델)을 다루는 것은 선택이 아닌 필수가 되었습니다. OpenAI의 ChatGPT, Meta의 LLaMA 같은 모델들은 이미 인간과 비슷한 텍스트를 생성하며 세상을 바꾸고 있죠.하지만 이 강력한 AI 모델들의 성능은 '프롬프트의 품질'에 전적으로 의존합니다.대부분의 사람들이 그저 '챗봇과 대화'하는 수준에 머물러 있을 때, 우리는 AI가 '진짜' 일을 하도록 지시하는 프롬프트 엔지니어링(Prompt Engineering)을 마스터할 차례입니다.이 시리즈를 통해 AI를 현업의 '조수'에서 '전문가'로 만드는 실전 워크플로우를 마스터해 보세요. 그 첫걸음으로, 프롬프트 엔지니어링의 기초 이론과 AI의 성격을 제어하는 모든 핵심 파라미터(설정값)들을 짚어봅니다...
[Docker] AI 개발을 위한 Docker 완벽 가이드 (개념, 세팅, GPU 등)
·
Tech Archive/[Docker]
1. 들어가며AI/ML 모델 개발자라면 누구나 '내 PC에선 됐는데...'라는 절망적인 순간과 함께해왔습니다.로컬 PC (내 자리): 내 PC에선 기가 막히게 돌아가던 모델이, 동료 PC나 개발 서버에 올리는 순간 온갖 ModuleNotFoundError와 Version Mismatch 에러를 뿜어냅니다.VM (가상 머신): 환경을 통째로 격리시키자고 VM을 쓰자니, OS까지 통째로 설치해야 해서 너무 무겁고(수십 GB), 부팅하는 데 한세월 걸리는 '고대 유물'입니다.수동 설정 (노가다): 서버마다 접속해서 apt-get install ..., pip install -r requirements.txt를 반복하며 환경을 '기도 메타'로 맞추는 건 일상이었죠.프로젝트가 복잡해질수록, 모델 학습 돌려놓고 서..
[FE & BE] TCP와 UDP 한눈에 알아보기 (정의, 특징, 차이점)
·
Tech Archive/[FE & BE]
1. 들어가며네트워크 통신은 여러 계층(Layer)으로 나뉩니다. IP (Internet Protocol)가 '호스트(H)' 간의 통신 경로(라우팅)를 책임진다면, 그 상위 계층인 전송 계층(Transport Layer, OSI 4계층)은 '프로세스(P)' 간의 논리적 연결을 담당합니다. (예: 내 크롬 브라우저 프로세스 $\leftrightarrow$ 구글 웹 서버 프로세스)이 전송 계층에는 성격이 정반대인 두 개의 핵심 프로토콜이 있습니다. 바로 TCP와 UDP입니다. 이 두 프로토콜은 애플리케이션의 요구사항(신뢰성인가, 속도인가)에 따라 선택적으로 사용됩니다.2. TCP (Transmission Control Protocol)TCP는 "전송을 제어하는 프로토콜"이라는 이름처럼, 신뢰성(Reliabi..
[Git] GitLab Merge Request 완벽 가이드 (Issue 연동부터 코드 리뷰까지)
·
Tech Archive/[Git]
1. 들어가며AI 모델이든, 웹 백엔드든, 혼자 개발하는 게 아니라면 Git으로 협업하는 건 대부분 아실겁니다.Github에서는 내 코드를 메인 브랜치에 합쳐달라고 "Pull"라고 요청해서 Pull Request (PR)라고 부르죠.GitLab은 용어가 좀 더 직관적입니다. "Merge"라고 요청해서 Merge Request (MR)라고 부릅니다. (본질은 100% 똑같습니다.)MR(PR)은 단순히 "코드 합치기"가 아닙니다."내가 이 작업을 왜 했는지(Issue), 어떻게 고쳤는지(Code Diff), 리뷰해 주세요(Review)"를 공식적으로 요청하는 '협업과 소통의 핵심 도구'입니다.이 포스팅에서 GitLab을 기준으로, Issue 확인부터 MR 생성, Code Review까지의 플로우를 A to ..
[Linux] screen 사용법 A to Z: 정의 · 설치 · 명령어 총정리
·
Tech Archive/[Linux]
1. 들어가며AI 개발자라면 누구나 한 번쯤 겪는 지옥 같은 순간입니다.서버(A6000, H100)에 SSH로 접속해서 몇 시간짜리 모델 학습이나 vLLM 서버를 띄워놨는데... 노트북 와이파이가 끊기거나, SSH 세션이 타임아웃됐습니다.터미널이 닫히는 순간, 서버에서 돌던 내 모든 작업도 같이 종료됩니다.이걸 방지하기 위해 nohup ... &를 쓸 수도 있지만, 현업에서는 터미널 세션을 '가상 모니터'처럼 백그라운드에 띄워두는 screen을 사용합니다.screen은 1인 개발자에게 K8s(쿠버네티스)의 'Pod 관리'와 비슷한 경험을 제공합니다.2. Screen이란?screen은 리눅스 터미널 세션을 '다중화'하는 윈도우 매니저입니다.쉽게 말해, 서버에 접속해서 screen을 켜는 건, **"내 이름..
[AI/LLM] Docker + vLLM으로 Qwen3-VL 모델 서빙하기
·
AI Study/[LLM]
1. 들어가며이전 포스팅에서 vLLM을 띄우는 법을 알아봤습니다. 하지만 현업에서 docker run --gpus all -p 8000:8000 -v ... (옵션 10줄) ... 같은 명령어를 터미널에 매번 복붙하고 있다면... 그건 재앙의 시작이죠."어? 저번에 썼던 GPU 메모리 옵션이 뭐였지?""새 모델로 바꾸려는데, 명령어 어디부터 고쳐야 해?""HF_TOKEN이 스크립트에 그대로 노출되네?"이때, docker-compose는 복잡한 docker run 명령어를 '설정 파일'로 관리하게 해줍니다. "어떤 모델을, 어떤 GPU로, 어떤 옵션을 줘서" 띄울지 명시하는 '설계도' 그 자체죠.오늘은 최신 멀티모달 모델인 Qwen3-VL을 docker-compose로 완벽하게 띄우는 실전 꿀팁을 A to..
[AI/LLM] 개발자를 위한 AI 서버 관리 꿀팁 A to Z (screen, git, Postman)
·
AI Study/[LLM]
1. 들어가며: "모델 띄웠는데, 어떻게 관리하세요?"AI 개발자/연구원으로서 내 PC(Windows/Mac)에서 잘 돌아가던 vLLM 서버나 FastAPI 앱을, 막상 A6000이나 H100 같은 리눅스 서버에 띄우면 막막할 때가 있습니다."SSH 접속 끊으면 서버도 같이 죽는데?", "코드는 어떻게 수정하고 반영하지?", "로그는 어디서 보지?"AI 엔지니어의 서버 관리란 결국 코드 수정, 배포, 모니터링, 트러블슈팅의 무한 반복입니다.저는 API 서버(A6000)와 LLM 서버(B6000)를 분리해 운영하는 구조를 기준으로, 1인 개발자나 소규모 팀이 K8s(쿠버네티스) 같은 거창한 시스템 없이도 당장 써먹을 수 있는 '현업 생존 관리 꿀팁'을 A to Z로 풀어보겠습니다. 2. 서비스 헬스 체크 ..