[IT_Tips] NAS(Network Attached Storage)에 대해 자세히 알아보자! (정의, 구성요소, 특징 및 장단점, 활용분야, 실습)
·
카테고리 없음
1. 들어가며스마트폰 사진 용량이 꽉 차거나, 팀원들과 대용량 영상 파일을 공유해야 할 때 우리는 자연스럽게 구글 드라이브나 드롭박스 같은 클라우드 서비스를 찾습니다. 하지만 데이터가 테라바이트(TB) 단위로 늘어나면 매월 지불해야 하는 구독료가 눈덩이처럼 불어나고, 기업 입장에서는 사내 기밀문서가 외부 서버에 저장된다는 보안 우려도 무시할 수 없습니다.이러한 비용과 보안, 용량의 한계를 한 번에 해결해 주는 마법의 상자가 바로 NAS(Network Attached Storage)입니다. "네트워크에 연결된 나만의 하드디스크"인 NAS는 단순한 저장 공간을 넘어, 미디어 스트리밍, 가상화, 심지어 최신 AI 모델까지 구동할 수 있는 '초소형 개인 서버'로 진화했습니다.이번 포스팅에서는 NAS의 개념과 원..
[AI/LLM] Qdrant란 무엇인가? (정의 및 장단점, Docker기반 세팅, Python 실습)
·
AI Study/[LLM]
1. 들어가며: AI 시대의 데이터베이스, Vector DBChatGPT와 RAG(검색 증강 생성)가 등장하면서 데이터베이스의 패러다임이 바뀌었습니다.기존 RDB(관계형 DB)나 NoSQL은 "키워드 매칭(LIKE 검색)"은 잘하지만, "의미(Meaning)"를 이해하지 못합니다. "배고파"를 검색해서 "맛집 리스트"를 찾아내려면 텍스트를 숫자로 변환한 '벡터(Vector)'를 다뤄야 합니다.이 벡터 데이터를 저장하고, 0.1초 만에 가장 유사한 데이터를 찾아주는 엔진이 바로 Vector Database입니다. 오늘은 그중에서도 성능, 편의성, 기능의 3박자를 모두 갖춘 Qdrant를 완벽하게 파헤쳐 보겠습니다. 2. Qdrant란 무엇인가?Qdrant는 벡터 유사도 검색 엔진이자 데이터베이스입니다. 단..
[AI/LLM] Langfuse 설치 및 사용 가이드 (Docker 기반)
·
AI Study/[LLM]
1. 들어가며기존 소프트웨어 개발에는 Datadog, Sentry 같은 모니터링 도구가 필수입니다. 그런데 LLM 애플리케이션은 어떤가요?"RAG 체인 중 검색이 느린 건지, LLM 생성이 느린 건지 모르겠음.""지난달보다 토큰 비용이 2배 늘었는데, 어떤 프롬프트 때문인지 모름.""프롬프트 수정을 엑셀이나 노션 등으로 공유하고 있음."이런 '블랙박스' 상태를 해결해 주는 것이 바로 LLM Observability(관측 가능성) 플랫폼입니다. 오늘은 그중에서도 오픈소스이자 Self-Hosting이 강력한 Langfuse에 대해 알아봅니다.Langfuse 공식 링크: https://github.com/langfuse/langfuse GitHub - langfuse/langfuse: 🪢 Open sourc..
[Docker] AI 개발을 위한 Docker 완벽 가이드 (개념, 세팅, GPU 등)
·
Tech Archive/[Docker]
1. 들어가며AI/ML 모델 개발자라면 누구나 '내 PC에선 됐는데...'라는 절망적인 순간과 함께해왔습니다.로컬 PC (내 자리): 내 PC에선 기가 막히게 돌아가던 모델이, 동료 PC나 개발 서버에 올리는 순간 온갖 ModuleNotFoundError와 Version Mismatch 에러를 뿜어냅니다.VM (가상 머신): 환경을 통째로 격리시키자고 VM을 쓰자니, OS까지 통째로 설치해야 해서 너무 무겁고(수십 GB), 부팅하는 데 한세월 걸리는 '고대 유물'입니다.수동 설정 (노가다): 서버마다 접속해서 apt-get install ..., pip install -r requirements.txt를 반복하며 환경을 '기도 메타'로 맞추는 건 일상이었죠.프로젝트가 복잡해질수록, 모델 학습 돌려놓고 서..
[AI/LLM] Docker + vLLM으로 Qwen3-VL 모델 서빙하기
·
AI Study/[LLM]
1. 들어가며이전 포스팅에서 vLLM을 띄우는 법을 알아봤습니다. 하지만 현업에서 docker run --gpus all -p 8000:8000 -v ... (옵션 10줄) ... 같은 명령어를 터미널에 매번 복붙하고 있다면... 그건 재앙의 시작이죠."어? 저번에 썼던 GPU 메모리 옵션이 뭐였지?""새 모델로 바꾸려는데, 명령어 어디부터 고쳐야 해?""HF_TOKEN이 스크립트에 그대로 노출되네?"이때, docker-compose는 복잡한 docker run 명령어를 '설정 파일'로 관리하게 해줍니다. "어떤 모델을, 어떤 GPU로, 어떤 옵션을 줘서" 띄울지 명시하는 '설계도' 그 자체죠.오늘은 최신 멀티모달 모델인 Qwen3-VL을 docker-compose로 완벽하게 띄우는 실전 꿀팁을 A to..
[Docker] Docker 자주 쓰는 유용한 명령어 모음
·
Tech Archive/[Docker]
1. 들어가며개발자라면 누구나 한 번쯤 겪는 지옥 같은 말이죠.내 PC(Windows/Mac)에서 잘 돌아가던 코드가, 서버(Linux)에 올리는 순간 온갖 import 오류와 버전 충돌로 터져버립니다.Docker는 이런 '환경 지옥'을 해결하기 위해 태어났습니다.내 코드, 라이브러리, 설정까지 싹 다 '컨테이너'라는 박스에 담아 통째로 서버에 배포하는 거죠. 이 '박스'는 어디서든 똑같이 작동합니다. (vLLM, DB, 웹서버 등 모든 걸 Docker로 돌립니다.)오늘은 현업에서 매일 쓰는 Docker 명령어들을 상황별로 깔끔하게 정리해 봤습니다.2. 핵심 사이클 (Build, Run, Down)딱 3개만 알면 됩니다. "만들고(build), 실행하고(run), 내린다(down)."단축키 (Win/Li..
[AI/LLM] Docker로 vLLM 모델 서빙 및 서버 구축 A to Z
·
AI Study/[LLM]
1. 들어가며: pip install 대신 Docker이전 게시글에서 vLLM의 '미친' 이론(PagedAttention)을 봤습니다. 이제 이 괴물 같은 놈을 서버에 설치할 차례죠.물론 pip install vllm? 됩니다. (요즘엔 uv pip install vllm이 더 빠르죠.) 하지만 현업에서 서버에 pip으로 직접 설치하는 순간, 지옥이 펼쳐집니다. 며칠 뒤 import가 꼬이고, NVIDIA 드라이버와 CUDA 버전이 충돌해서 밤새 머리를 쥐어뜯게 되죠.이럴 땐 역시 Docker가 편합니다..근데 docker run --gpus all ...로 시작하는 긴 명령어를 매번 치는 건 더 귀찮습니다. (저는 보통 docker-compose.yml로 만들어서 컨테이너를 올립니다.)이번에는 dock..