llm
-
리눅스 환경에 LangChain 설치카테고리 없음 2025. 4. 16. 10:17
LangChain (Python) 설치 – 기본 방법1. Python 가상환경 설정 (선택)python3 -m venv .venvsource .venv/bin/activate 2. pip 업그레이드pip install --upgrade pip 3. LangChain 설치pip install langchain 함께 설치하면 좋은 추가 패키지# 임베딩: HuggingFace 모델 사용pip install sentence-transformers# LLM: OpenAI API 사용pip install openai# PDF 추출 (문서 기반 프로젝트라면)pip install pdfplumber# 벡터 DB: Qdrant 클라이언트pip install qdrant-client 설치 후 테스트from langcha..
-
LLM 생태계 정리AI ML 2025. 4. 5. 16:42
LLM 생태계는 크게 다음 7가지로 나눌 수 있습니다. 1. 모델 (LLMs)2. 임베딩 (Embeddings)3. 서빙 및 추론 (Inference/Serving)4. 파인튜닝/경량학습 (Fine-tuning/LoRA)5. 검색 기반 강화 (RAG)6. 프레임워크/오케스트레이션7. 에이전트 / 도구 실행 (Agents/Tool Use) 1️⃣ 모델 (LLMs)유형대표 모델상용 APIChatGPT (GPT-3.5/4), Claude 3, Gemini, Mistral API, Cohere오픈소스LLaMA 2/3, Mistral, Mixtral, Falcon, Gemma, Phi, Yi, OpenChat✅ 대부분 Hugging Face에 올라옴 2️⃣ 임베딩 (Embeddings)문장을 벡터로 변환하여 유..
-
Large Language Model에서 Transformer 란?AI ML 2025. 4. 4. 07:37
Transformer는 문장에서 단어들 간의 관계(의미)를 한꺼번에 파악할 수 있게 해주는 딥러닝 모델 구조예요.RNN이나 LSTM처럼 순차적으로 처리하지 않고, 모든 단어를 동시에(병렬로) 처리할 수 있어서 빠르고 정확합니다. Transformer는 Large Language Model(LLM)의 핵심이자, 지금의 ChatGPT나 GPT-4 같은 모델이 존재할 수 있게 해준 기초 기술이에요. Transformer가 등장한 이유기존에는 RNN, LSTM 같은 순환 신경망이 주로 사용됐어요.이들은 단어를 순서대로 처리하면서 문맥을 이해하지만:너무 긴 문장은 앞뒤 연결이 약해짐 (long-term dependency 문제)병렬 처리가 어려움 → 학습 속도 느림그래서 나온 게 바로 "Attention is ..