Components의 Instance에서 아이콘을 어떻게 바꿀까? 영상링크 : https://youtu.be/nbBx8vgMpYA 프로세스Figma의 플러그인을 사용하여 Icon들을 불러온다아이콘들을 모두 선택한 다음 Components화 한다 이때, 반드시 "Create multipe components"로 해야한다. 만약 아이콘들을 선택한다음 "Create component"를 해버리면 전체 묶음이 다 들어오게 되서 하나만 보여줄 수 없다새로운 Frame을 만들어서 Component화된 Icon들을 넣는다내가 적용할 곳에 아이콘 아무거나 하나를 instance화 해서 넣어둔다그리고 아이콘을 클릭하면 "create instance sawp property"라는 버튼이 생겨나는데 이걸 클릭하면그러면 이제..
가상환경 설정 (Poetry) 1. 가상환경을 사용해야하는 이유 Dajngo 환경설정시 필요한것은 "가상환경설정"이다. 가상환경을 설정해야 하는 이유는 다음과 같다. *의존성 충돌 방지: 하나의 시스템에서 여러 프로젝트를 개발할 때, 각 프로젝트가 특정 패키지의 서로 다른 버전을 요구하게 되는데. 가상 환경을 사용하면, 각 프로젝트가 필요로 하는 정확한 패키지 버전을 설치하여 의존성 충돌을 방지할 수 있음 *개발 환경과 프로덕션 환경의 일관성 유지: 가상 환경을 사용하면, 개발 중인 환경을 프로덕션 환경과 가능한 한 유사하게 만들어 준다. 이는 배포 시 발생할 수 있는 "내 컴퓨터에서는 작동하는데" 문제를 최소화하게 됨 *시스템-wide Python 설치 보호: 가상 환경은 시스템에 설치된 전역 Pyth..
Introduction Chat GPT API 기능 Text completion (문장 완성) Classification (문장분류) Generation (생성) Conversation (대화) Translation (번역 Conversion (전환) Summarization (요약) Completion (완성) Factual response (사실 기반의 답변) Inserting Text (문장 삽입) Editing Text (오타 조정) Chat completion [Beta] ← gpt-3.5 turbo, gpt4 Fine-tuning 못함 Fine-tuning Prepare and upload training data : 학습 데이터 준비 Train a new fine-tune model : 학습..
코드를 짜다보면, 누구도 잘 설명해주지 않는 그리고 조금 하찮고(?) 기본적인 것으로 생각되어서 그냥 넘어갔던 녀석들을 한번에 정리해 보려고 한다. 1. super() : super()은 다른 class의 method를 상속받을 때 사용 한다. (Return a proxy object that delegates method calls to a parent or sibling class of type) 출처 : https://docs.python.org/2/library/functions.html#super class Rectangle: def __init__(self, length, width): self.length = length self.width = width def area(self): retu..
Numpry를 사용하는 이유 ndarray가 python에 내장된 list보다 연산이 더 빠르고, 메모리도덜 사용하기 때문 여러가지 도움이 되는 내장함수(bult-in)을 가지고 있어서 편리함 1차원 ndarray만들기 np.arrange(a, b, c) a는 포함한다, 아무것도 적지 않으면 0부터 시작 b는 포함 안한다. c만큼 a에 가산한다 import numpy as np a = np.arange(10) print(a) out : [0 1 2 3 4 5 6 7 8 9] b = np.arange(4, 10) print(b) out : [4 5 6 7 8 9] c = np.arange(4, 10, 2) print(c) out : [4 6 8] np.linspase(a, b, c) 원소간의 편차가 일정한..
Q1.강화학습의 목표는 무엇일까? => 마르코프 결정과정 주어진 환경에서 어떻게 행동해야 가장 높은 보상을 받을 수 있을지 알아내는 것 주어진 환경 = 상태가치함수 V(s), 행동가치함수 Q(s,a) 구하고자 하는 것 = 어떻게 행동 해야하는지 = 행동 정책 π* Q2. 환경을 알고 있을 때 최적의 행동정책π* 은 어떻게 구해야 하는가? => 동적계획법 환경을 알고 있을 때 = 상태가치함수 V(s)와, 행동가치함수 Q(s, a)를 알고 있을때 환경을 안다는 것은, 모든 상태 (S), 상태천이Tensor (P), 어떤 상태에서 행동에 따른 보상 (R) 을 안다는 것이다 정책평가 = 주어진 행동 정책 π에서 상태가치, 행동가치 계산 Vπ(s), Qπ(s, a) 정책평가는 [bellman 방정식] 을 통해 수..
이전에 강화학습 이론은 우리가 환경에 대한 정보를 안다는 가정을 했었다. 환경이란, 상태의 종류 = S 행동의 종류 = A 행동을 했을 때의 보상 = R 이전에 배웠던 내용들 강화학습의 목표는 무엇일까? : 마르코프 결정 과정 최적의 행동은 어떻게 찾을까? : 동적계획법 (feat 정책반복) 저 효율적으로 최적 행동을 찾을 수는 없을까? : 비동기적 동적계획법 몬테카를로 등장 배경 동적계획법 아래에서 강화학습은 미로(환경)에 대한 정보가 주어지고 그 미로를 통과하기 위한 최적 루트를 찾는 것과 같다. 하지만, 통제된 환경이 아닌 현실세계에서 우리는 위와 같은 정보를 알수가 없다. 그래서 우리는 현재 환경에 대한 정보가 없을때에도 최적의 행동이 무엇인지 찾을 수 있어야 한다. 다시한번 강화학습의 목표와 방..
오늘 배울내용 이전에 알아야할 내용은 다음과 같다. 마르코프 결정 과정과 벨만 방정식 마르코프 결정 과정의 해를 구하는 방법 : 동적계획법 동적계획법으로 최적의 행동 정책π을 구하는 과정에서 While문을 두번 사용해야 한다 정책평가 할 때 정책반복 할 때 이것을 하나로 줄일 수 있는 방법이 있는데, 가치 반복 (VI : Value Iteration)이다. 가치반복 (VI : Value Iteration) 개념은 간단하다. 이전에는 정책평가(PE)에서 평균값에 수렴시켰다면, 가치반복에서는 가치값을 최대값으로 수렴시켰다는 점이다. 근데 여기서 한가지 문제점이 발생하게 되는데 최적값을 찾는 과정에서 원래 정책개선에 포함되어 있던 "불필요한 행동 제거"가 없어지게 되기 때문에 계속 전체 경우의 수를 모두 고려..
- Total
- Today
- Yesterday
- 일자별
- C#
- 사진크롤링
- 크롤링
- 유니티
- 시스템투자
- Anet
- 주식투자
- It
- Unity
- json
- 가격데이터
- 스타트업
- IT기초
- requests
- 강화학습
- ET5X
- beautifulsoup
- 머신러닝
- 주식
- 경영학
- 심리학
- 터틀트레이딩
- 프로그래머스
- 알고리즘
- 마케팅
- 파이썬
- 랜덤맵
- PYTHON
- 비전공자
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |