본문 바로가기

반응형

인공지능/LLM 거대모델

(8)
RAG 시스템 사용을 위해 실제 GPT 서비스들을 이용해 보면서 LLM에 관심이 생겼고, 실제 운영환경에서는 다양한 기법들을 접목해서 사용하는 것을 알았다. 그 중 하나가 RAG라는 벡터 임베딩을 활용한 유사도 검색을 통해서 LLM의 환각을 막는 것인데, 이 RAG를 직접 LLM 시스템에 붙여서 사용해보고자 한다. Vector DB벡터 데이터베이스를 GPT에게 물어보니 다양한 것들이 있었고, VectorDB가 내장되어 사용가능한 라이브러리도 여러가지가 있었다. 그 중에서 상업적으로도 무료로 이용가능하고, 로컬 환경에서 벡터 디비를 활용해 안전한 Qdrant를 사용해보고자 한다. QdrantQdrant는 설치할 필요도 없이 도커를 통해 손쉽게 로컬 환경에서 구동해줄 수 있다. mysql 설치처럼 간단하게 사용가능할 것 같다. doc..
파인튜닝 허깅페이스 datasets 라이브러리 사용datasets는 다양한 데이터셋을 쉽게 불러오고 처리할 수 있게 해주는 도구이다.라이브러리 설치pip install datasets네이버 뉴스 데이터셋 by daekeun-mlfrom datasets import load_datasetdataset = load_dataset("daekeun-ml/naver-news-summarization-ko")불러온 dataset의 모습DatasetDict 클래스train 키의 Dataset 클래스validation 키의 Dataset 클래스test 키의 Dataset 클래스featuresprint(set(dataset['train']['date'][:5]))print(set(dataset['train']['category'..
딥시크(DeepSeek)로 로컬 LLM 구축하기: 쉽고 빠른 AI 모델 활용법 설치 사이트 Anaconda | Built to Advance Open Source AIAnaconda simplifies, safeguards, and accelerates open-source AI with a trusted platform, enabling secure scaling, real-time insights, and community collaboration.www.anaconda.com Start LocallyStart Locallypytorch.org 🤗 Transformers(번역중) 효율적인 학습 기술들huggingface.co OllamaGet up and running with large language models.ollama.com  GitHub - open-webui/o..
오퍼레이터 설계모델 각 모델의 입력과 출력을 더욱 상세하게 정리해드리겠습니다.📌 각 모델의 입력 및 출력 정리1️⃣ 비전-언어 모델 (GPT-4o 기반)🛠 역할: • 웹 페이지의 UI를 분석하여 버튼, 입력창, 텍스트 요소를 인식 • 텍스트 정보를 해석하여 문맥을 이해📥 입력:✅ 웹 페이지 스크린샷 (이미지)✅ HTML 구조 및 DOM 트리 데이터✅ OCR(Optical Character Recognition) 결과 (텍스트 정보)✅ 사용자 요청 (예: “로그인 버튼 찾아줘”)📤 출력:✅ UI 요소의 위치 및 유형 (버튼, 입력창, 링크 등)✅ OCR을 통한 텍스트 정보✅ UI의 의미적 해석 (예: “이 버튼은 로그인 버튼입니다.”)✅ 웹 페이지의 레이아웃 분석 결과2️⃣ 강화학습 모델 (RL 기반, 행동 결정)🛠..
LLM을 파인튜닝하다 파인튜닝의 종류 파인튜닝의 기본적인 방법 중 하나가 "모든 파라미터의 값을 업데이트하는 튜닝(Full-FineTuning)이라고 한다.- 이 방법은 모델의 모든 파라미터를 새로운 데이터에 맞게 다시 학습시키는 것!!!!- 이 방법은 모델이 이전에 학습한 내용을 완전히 잊어버릴수가 있다..- 파라미터 수가 크면, 클수록 학습 시간이 오래걸린다.. 또 다른 방법 중 하나가 "매개변수 효율적 파인튜닝 (Parameter-Efficient Fine Tuning, PEFT)이라는 새로운 방법!- PEFT는 모델의 파라미터 전체가 아닌 일부분만 새로 학습시키는 방법이다! 1. 어댑터 튜닝 방법 PEFT- 기존의 거대한 언어 모델에 작은 규모의 신경망을 새롭게 추가하는 방식을 말한다!2. 프롬프트 튜닝 방법 PEFT..
NLP 과거와 오늘, GPT 트랜스포머의 등장 : NLP의 새로운 시대?1990 ~ 2000 -> 차원의 저주  -> 데이터의 차원이 증가할수록 알고리즘의 성능이 급격히 저하되는 현상을 말한다.- 차원 축소 기법 : 주성분 분석 (PCA), (t-SNE) 2000 -> 자연어 처리에 통계적 방법론 적용 2013년 -> Word2Vec -> 단어 임베딩 기술 -> 단어의 의미를 저차원 벡터 공간에 매핑, 컴퓨터가 단어 간의 의미적 관계를 파악할 수 있게 됨. 2014년 -> GloVe (Global Vectors for Word Representation)가 소개. -> Word2Vec의 아이디어를 확장해 전체 말뭉치의 통계 정보를 활용해 더 풍부한 단어 표현을 만들어냄. 2014년 -> RNN (순환 신경망) -> 자연어 처리 분야..
LLM을 이용한 의미 기반 검색을 해보자! AI 회사들이 제공하는 가장 다양하게 활용 가능한 솔루션 중 하나는 강력한 LLM을 기반으로 "텍스트 임베딩"을 생성하는 기능입니다. 텍스트 임베딩 단어나 구문을 그들의 맥락적 의미를 기반으로 다차원 공간에서 기계가 읽을 수 있는 수치 벡터로 표현하는 방법을 말한다. 만약 두 구문이 유사하다면, 그 구문들을 나타내는 벡터들도 유클리드 거리와 같은 측정치로 볼 때 서로 가까워야 하며, 그 반대의 경우도 마찬가지입니다. 유클리드 거리 두 점 사이의 거리를 계산할 때 흔히 쓰는 방법. 텍스트 임베딩을 잘 이용하면 언어 사용에 관한 풍부한 정보를 활용하여 LLM의 사전 훈련과 파인튜닝이 기반이 되는 애플리케이션을 무한하게 구축할 수 있다. LLM을 사용한 의미 기반 검색을 소개 정보 검색과 분석을 위한 강력한 ..
LLM ? 모델 선택, 데이터 형식, 파인튜닝 파라미터, 모델의 내부 작동 원리에 대한 충분한 통찰력, 모든 종류의 LLM을 실용적인 애플리케이션을 위해 어떻게 사용하고 훈련하며 최적화할지에 대한 방법 안내. Google Brain 팀이 트랜스포머라는 진보된 인공지능 딥러닝 모델을 소개했다. 구글이 BERT를 이용해 사용자의 쿼리를 더 잘 이해하는 방식으로 검색 엔진을 향상시켰다. -> 따라서 트랜스포머를 통해 간단히 소스코드 몇줄만으로 자연어 처리 인공지능 모델을 사용할 수 있게 됨. LLM 이란? LLM (Large Language Model)은 대부분 트랜스포머 아키텍처에서 파생된 AI 모델로, 사람의 언어, 코드 등을 이해하고 생성하기 위해 설계되었다. 이러한 모델들은 방대한 양의 텍스트 데이터로 학습되어,..

반응형