Notice
Recent Posts
Recent Comments
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Spring Data JPA
- Apache Kafka
- 로드밸런서
- 오일러프로젝트
- 머신러닝
- Kafka
- DFS
- Elasticsearch
- aws
- Spring
- 클라우드
- 스프링 부트
- 스프링부트
- 프로그래밍문제
- 백트래킹
- gcp
- 카프카
- VPC
- 자료구조
- JPA
- Spring Boot
- 쿠버네티스
- 클라우드 컴퓨팅
- 알고리즘
- springboot
- 백준
- 스프링
- 개발
- Docker
- 코드업
Archives
- Today
- Total
목록fintuning (1)
GW LABS
서론최근 LLM(Large Language Model)의 경량화 버전인 sLLM(Small Language Model) 이 빠르게 주목받고 있습니다. 거대한 모델을 직접 서빙하기 어려운 환경에서는 sLLM과 같은 소형 모델을 적절히 파인튜닝해 활용하는 것이 매우 유효한 전략입니다. 본 포스팅에서는 Gemma3 270M 모델을 활용하여 LoRA 기반 파인튜닝을 진행하고, 학습된 PyTorch 모델을 TensorFlow Lite 변환 후 Mediapipe 기반 Edge Device 서빙까지 이어지는 전체 워크플로우를 정리합니다. 이 글은 실무 환경에서 sLLM을 파인튜닝하거나 모바일·엣지 디바이스에 배포하려는 개발자에게 최적화된 가이드를 제공합니다. 본론1. Gemma3 270M과 sLLM 파인튜닝Gem..
MachineLearning
2025. 9. 2. 08:53