읽기전, 현재 진행중인 프로젝트가 베타 테스트 단계에 들어섰다. 해야할 당면 과제들이 많이 남아있지만, 지금 시점에서 더욱 중요한 것은 미래를 준비하는 것이라 생각했다. 우리는 어떤 모습이고 싶은 걸까? 앞으로 우리가 일하는 모습은 어떤 모습이어야 할까? 지금은 그저 밀린 업무들을 처리하기만 해도 어느정도까지 나아갈 수 있는 시점이라고 생각한다. 하지만 우리가 생존을 넘어서, Game Changer가 되기 위해서는 단순히 사업 아이템이 아닌 일하는 방식, 생각하는 방식 그리고 소통하는 방식을 통헤 다른 사람들에게 insight를 줄 수 있어야 하지 않을까? 그런의미에서 과거부터 '좋은 기업'이란 어떤 기업이었는지 그러한 고민을 했었던 선배들의 경험을 듣는 것은 언제나 중요한 일이라고 생각한다. 시대가 이..
We can not satisfied all customer :) 1. 3 complains about our product's condition what is cause of this? we did not know whether the buyer have the responsibility of the malfuntioning problem : we did not know all the conditions of the product before sending product directly inspect all conditions of the product when by our selves from other indivisual Trading only with the seller in Korea who c..
지금 이 순간에도 상대를 속이려는 사람들과 속지 않으려는 사람들이 각자의 영역에서 각축전을 벌이고 있으리라 생각된다. 이렇듯 정보의 불균형 때문에 발생하는 여러 사회적 비용 중 하나가 '사기'인데 이번에는 조금 다른 관점 (수요과 공급) 에서 '사기'를 바라보려고 한다. 누군가 사기를 당했다면, 사기를 친 사기꾼 때문이라고 생각하기 쉽다. 하지만 '사기'를 하나의 서비스라고 생각한다면, 사기를 당한 사람은 '사기'를 구매한 고객이 된다. 아이디어 사기는 '서비스'이다. 사기의 공급자는 사기꾼이다 사기의 수요자는 사기를 당하는 사람이다. 이 생각의 핵심은 사기의 모든 책임을 공급자에게 돌리지 않는 다는 것이다. 왜냐면 '거래'란 공급뿐아니라 수요가 함께 존재해야하기 때문이다. 그래서 이 글에서는, '사기'..
Q1.강화학습의 목표는 무엇일까? => 마르코프 결정과정 주어진 환경에서 어떻게 행동해야 가장 높은 보상을 받을 수 있을지 알아내는 것 주어진 환경 = 상태가치함수 V(s), 행동가치함수 Q(s,a) 구하고자 하는 것 = 어떻게 행동 해야하는지 = 행동 정책 π* Q2. 환경을 알고 있을 때 최적의 행동정책π* 은 어떻게 구해야 하는가? => 동적계획법 환경을 알고 있을 때 = 상태가치함수 V(s)와, 행동가치함수 Q(s, a)를 알고 있을때 환경을 안다는 것은, 모든 상태 (S), 상태천이Tensor (P), 어떤 상태에서 행동에 따른 보상 (R) 을 안다는 것이다 정책평가 = 주어진 행동 정책 π에서 상태가치, 행동가치 계산 Vπ(s), Qπ(s, a) 정책평가는 [bellman 방정식] 을 통해 수..
when we found a 'problem' we need to figure out the problem is a real problem then what is real problem?? real problem is most fundamental cause real problem is something can be measure real probem is something can be solved to measure whether the problem is real I suggest to answer follow questions 1. Is it most fundamental cause? - the outcome can not be the cause - if there are more fundament..
오늘 문서를 작성하다가. '문제 상황을 개선하다' 라는 표현을 하고 싶었다. 일단 여러가지 표현들이 생각이 났다. The situation became better some of the problem has been solved The problem has been improved 그러던 중에 잘 안쓰던 단어를 하나 발견하였다. ameliorate ameliorate는 to make bad things better 이라는 의미를 내포하고 있다. 좋지 않은 상황을 더 나아지게. 영작을 해보았다. if a problem can not be measured, then you never know whether the problem has been ameliorated = if a problem can not b..
Classified market (Draft) Level explanation target objects To-do Lv0 Focusing on solving problmes of heavy and light users that participated the trading heavy user, light user, merchant in online used smart phone market solve problem of heavy & light users 1. know target's problem 2. make solutions 3. make service and products with the solutions 4. collect data about the products Lv1 Focusing on..
이전에 강화학습 이론은 우리가 환경에 대한 정보를 안다는 가정을 했었다. 환경이란, 상태의 종류 = S 행동의 종류 = A 행동을 했을 때의 보상 = R 이전에 배웠던 내용들 강화학습의 목표는 무엇일까? : 마르코프 결정 과정 최적의 행동은 어떻게 찾을까? : 동적계획법 (feat 정책반복) 저 효율적으로 최적 행동을 찾을 수는 없을까? : 비동기적 동적계획법 몬테카를로 등장 배경 동적계획법 아래에서 강화학습은 미로(환경)에 대한 정보가 주어지고 그 미로를 통과하기 위한 최적 루트를 찾는 것과 같다. 하지만, 통제된 환경이 아닌 현실세계에서 우리는 위와 같은 정보를 알수가 없다. 그래서 우리는 현재 환경에 대한 정보가 없을때에도 최적의 행동이 무엇인지 찾을 수 있어야 한다. 다시한번 강화학습의 목표와 방..
- Total
- Today
- Yesterday
- C#
- 유니티
- 심리학
- requests
- 마케팅
- 파이썬
- json
- It
- 강화학습
- 일자별
- beautifulsoup
- 터틀트레이딩
- 주식
- 사진크롤링
- 가격데이터
- PYTHON
- Anet
- 알고리즘
- 머신러닝
- 크롤링
- ET5X
- 시스템투자
- 랜덤맵
- 프로그래머스
- 스타트업
- 비전공자
- IT기초
- 경영학
- 주식투자
- Unity
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |