Tech blog

  • 홈
  • 태그
  • 방명록

2025/04/11 1

[Paper Review] QLoRA: Efficient Finetuning of Quantized LLMs

QLoRA: 16-bit의 성능을 유지하면서 65B개의 파라미터를 가진 모델을 Single 48GB GPU에 올려 finetuning 할 수 있게 한다.# ContributionQLoRA 방법론1. 4-bit NormalFloat(NF4): 정규분포된 가중치에 대해 정보 이론적으로 최적인 새로운 데이터 타입2. Double Quantization: 양자화 상수를 다시 양자화함으로써 평균 메모리 사용량 절감3. Paged Optimizers: 메모리 사용량이 급증하는 상황을 효과적으로 제어# IntroductionLLM을 Finetuning 하는건 특정 도메인에서의 성능을 향상시키기 위해 필요한 과정이다.기존에는 16-bit finetuning을 하기 위해서는 LLaMA 65B 기준으로, 780GB 크기의..

📚 Study/Paper Review 2025.04.11
이전
1
다음
프로필사진

공부한 것을 기록해요 🙌🏻 (+https://velog.io/@dusruddl2/posts)

  • 분류 전체보기 (107)
    • 📚 Study (102)
      • AI (18)
      • JAVA (7)
      • Data Structures (1)
      • Algorithm (6)
      • Photogrammetry (0)
      • Operating System (0)
      • Vscode | Linux (5)
      • Github | Git (1)
      • Paper Review (18)
      • Baekjoon (38)
      • Mathmatics (7)
    • 🧠 Personal (2)
      • Thinking (1)

Tag

vscode, 알고리즘, 인공지능, kernel,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

  2025. 04  
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.