본문 바로가기 메뉴 바로가기

데이터 사이언스 공부할래

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

데이터 사이언스 공부할래

검색하기 폼
  • 분류 전체보기 (24)
    • Paper Review (6)
    • B.D.A (18)
    • Seminar (0)
  • 방명록

skld (1)
[ICML 2024] DISTILLM: Towards Streamlined Distillation for Large Language Models

본 논문 리뷰는 개인적인 학습 내용을 바탕으로 작성된 것으로, 일부 내용에 오류가 있을 수 있습니다.  논문 정보 Ko, J., Kim, S., Chen, T., & Yun, S. Y. (2024). Distillm: Towards streamlined distillation for large language models. arXiv preprint arXiv:2402.03898.  DistiLLM: Towards Streamlined Distillation for Large Language ModelsKnowledge distillation (KD) is widely used for compressing a teacher model to a smaller student model, reducing it..

Paper Review 2024. 11. 13. 23:34
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
Total
Today
Yesterday

Blog is powered by Tistory / Designed by Tistory

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.