티스토리 뷰
최근 chat GPT prompt 를 공부하면서, 이런 생각을 많이 했다.
'그냥 내가 데이터를 학습시켜서 원하는 결과만 얻어낼 수 있으면 좋을 텐데'
OpenAI에서도 fine tuning 기능을 제공하고 있기는 하지만,
공짜가 아니다. 학습 시키는데도 비용이 들고, 학습시킨 모델을 활용하는데에도 돈이 든다.
기본적으로 LLM (Large Language Model)은 문자 그대로 '대량'의 데이터를 학습시켜야 하기에
얼마나 천문학적인 비용이 나올지 알수가 없다 ㅠㅠ
그러던 와중에 찾게된 "Dolly"
https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm
728x90
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- requests
- 터틀트레이딩
- 유니티
- PYTHON
- It
- 일자별
- 스타트업
- 심리학
- 시스템투자
- json
- 가격데이터
- ET5X
- 강화학습
- 경영학
- Unity
- beautifulsoup
- 머신러닝
- IT기초
- 사진크롤링
- 주식투자
- 마케팅
- 크롤링
- 알고리즘
- 주식
- 랜덤맵
- 프로그래머스
- 파이썬
- Anet
- C#
- 비전공자
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
글 보관함