
이 글은 그냥 개인적으로 공부한 내용을 정리할 목적으로 작성이 되었습니다 ㅎㅎ 마르코프 결정과정 (MDP) 관련 학습 내용 마르코프 연쇄 (Markov Chain) 마르코프 보상과정 (Markov Reward Process) 마르코프 결정과정 (Markov Decision Process) 마르코프의 특성 현재 상태에는 과거의 모든 정보가 포함되어 있다. 현재 상태를 알면 과거와 무관하게 미래상태를 예측할 수 있다. 마르코프 연쇄와 상태 변이 행렬(State Transition Matrix) 특정 상태에서 다른 상태로 변이될 확률을 표현한 행렬 집 학교 학원 PC방 치킨 분식 피자 운동 만화 잠 집 0.6 0.3 0.1 학교 0.3 0.4 0.3 학원 0.1 0.2 0.2 0.5 PC방 0.2 0.8 치킨..

머신러닝? - when: 결과는 알지만 결과에 도달하는 방법은 모를 때 ex) 어렸을 때 어머니가 해주신 김치찌개 맛은 알지만 그 레시피를 모를때 - how: (시도 - 결과와 비교(오류 측정) - 조정) x 반복 / ex) 어머니가 해주신 김치찌개를 만들기 위해 여러가지 레시피를 시도 하여 가장 그 맛에 가까운 레시피를 찾아감 프로그래밍 vs 머신러닝 - 프로그래밍 = 목표를 이루기 위한 방법을 컴퓨터에게 직접 명령하는 방법 ex) 컴퓨터에게 김치찌개의 요리레시피를 주고 그 레시피 대로 수행하도록 하는 것 - 머신러닝 = 목표를 이루기 위한 방법을 컴퓨터가 스스로 찾아가는 방법 ex) 컴퓨터에게 김치찌개의 맛만 보여준 후, 그 맛을 내기 위한 방법을 스스로 찾도록 하는 것 머신러닝 특징들 - 오류를 컴..
- Total
- Today
- Yesterday
- 마케팅
- 비전공자
- It
- 심리학
- 파이썬
- 랜덤맵
- Unity
- 주식투자
- beautifulsoup
- ET5X
- 터틀트레이딩
- 기초
- 알고리즘
- requests
- 일자별
- 주식
- 크롤링
- 시스템투자
- 경영학
- 가격데이터
- Anet
- 스타트업
- 프로그래머스
- IT기초
- C#
- PYTHON
- 머신러닝
- 강화학습
- json
- 유니티
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |