728x90
[개발/머신러닝] - [생활코딩/머신러닝야학] 행 - 관측치(observed value), 열 -특성(feature) |
[개발/머신러닝] - [생활코딩/머신러닝야학] 독립변수? 종속변수? |
머신러닝은 크게 3가지로 나뉜다.😁
- 지도학습
- 비지도학습
- 강화학습
1. 지도학습 Supervised Learning
- 기계를 가르친다(supervised)는 의미로, 데이터로컴퓨터를 학습시켜서 모델을 만드는 방식을
지도학습이라고 한다. - 데이터는 누적된 데이터 즉, 과거의 데이터가 있어야 한다.
- 과거의 데이터는 독립변수(원인)와 종속변수(결과)로 분리해야 한다.
- 독립변수와 종속변수의 관계를 컴퓨터에게 학습시키면, 컴퓨터는 그 관계를 설명할 수 있는 공식을 만든다
- 이 공식을 머신러닝에서는 [모델]이라고 한다.
- 모델을 만들면, 결과를 모르는 원인을 모델에 입력했을 때, 결과를 순식간에 계산해서 알려준다.
- 데이터가 많을수록, 정확할수록 좋은 모델을 만들 수 있다.
지도학습(Supervised Learning) | |
회귀 Regression | 분류 Classification |
예측하고 싶은 종속변수(결과)가 숫자 | 예측하고 싶은 종속변수(결과)가 문자 |
양적 데이터(어느 정도인지를 의미하는 데이터, 숫자) --> 종속변수(결과)가 양적데이터 |
범주 데이터(문자) --> 종속변수(결과)가 범주 데이터 |
2. 비지도학습 Unsupervised Learning
- 지도학습에 포함되지 않는 방법들
- 컴퓨터(기계)에게 데이터에 대한 통찰(예리한 관찰력으로 사물을 꿰뚫어 봄)역을 부여하는것
- 누구가 정답을 알려주지않았는데, 무언가에 대한 관찰을 통해 새로운 의미나 관계를 밝혀내는 것
- 데이터의 성격을 파악하거나, 데이터를 정리정돈 하는 것에 주로 사용
- 그룹핑을 하는것
- 데이터의 성격을 파악하는것이 목적
비지도학습(Unsupervised Learning) | |
군집화 Clustering | 연관규칙학습 Association rule learning(장바구니분석) |
비슷한것을 찾아서 그룹을 만듬 | 서로 연관된 특징을 찾아내는것 |
관측치(행)를 그룹핑 해주는 것 | 특성(열)을 그룹핑 해주는 것 |
* 군집화 Clustering VS 분류 Classification
비지도학습(Unsupervised Learning) | 지도학습(Supervised Learning) |
군집화 Clustering | 분류 Classification |
어떤 대상들을 구분해서 그룹을 만드는 것 | 어떤 대상이 어떤 그룹에 속하는지를 판단하는 것 |
*정리
지도학습 | 비지도학습 |
역사(원인,결과) | 탐험 |
과거의 원인과 결과를 바탕으로, 알수없는 원인이 발생했을 경우, 그것은 어떤 결과를 초래할 것인가를 추측하는 것이 목적 |
데이터들의 성격을 파악하는것이 목적, 데이터만 있으면됨 |
독립변수 | 종속변수 | 변수 | 변수 | 변수 |
3. 강화학습 Reinforcement Learning
- 어떻게 하는 것이 더 좋은 결과를 낼 수 있는지를 스스로 느끼면서 실력향상을 위해서 노력하는 수련과 비슷
- 일단 해보면서 경험을 통해서 실력을 키워나가는 것
- 그 행동의 결과가 자신에게 유리한 것이었다면, 상을 받고, 불리한 것이라면 벌을 받는것
- 이 과정을 반복하여, 더 많은 보상을 받을 수 있는, 더 좋은 답을 찾아낼 수 있다는 것이 기본 아이디어
- 경험을 통해 [더 좋은 답]을 찾아가는 것
- 우선 게임은 게이머에게 현재의 상태를 확인하며, 캐릭터는 어디에 있고, 장애물은 어디에 있는지 알려준다.
- 동시에 현재의 점수도 알려준다. 게이머는 이 값이 높아지는 것이 상이고, 장애물에 부딪히는 것이 벌이다.
- 관찰의 결과에 따라서 어떤 상태에서 어떻게 행동해야 더 많은 상을 받고, 더 적은 벌을 받을 수 있는지를 알게 된다.
- 즉, 판단력이 강화된 것
- 판단에 따라서 행동을 한다.
- 그 행동은 게임에 변화를 주게 된다.
이것을 반복하여 판단력을 강화시킨다, 강화학습은 이러한 과정을 모방해서 기계를 학습시키는 것이다
* 강화학습 용어로 변경
게임 | 환경(environment) |
게이머 | 에이전트(agent) |
게임화면 | 상태(state) |
게이머의 조작 | 행동(action) |
상과 벌 | 보상(reward) |
게이머의 판단력 | 정책(policy) |
※ 강화학습에서는 더 많은 보상을 받을 수 있는 정책을 만드는 것이 핵심
이 지도를 따라가보자! 감사합니다. 유용하게 쓰겠습니다.😆
opentutorials.org/course/4548/28938
opentutorials.org/course/4548/28942
728x90
'개발 > 머신러닝' 카테고리의 다른 글
[생활코딩/머신러닝야학] 보스턴 집값 예측 (0) | 2021.01.12 |
---|---|
[생활코딩/머신러닝야학] 레몬네이드 판매량 예측(2) - neural network (0) | 2021.01.11 |
[생활코딩/머신러닝야학] 레몬네이드 판매량 예측(1) - pandas (0) | 2021.01.11 |
[생활코딩/머신러닝야학] 독립변수? 종속변수? (0) | 2021.01.08 |
[생활코딩/머신러닝야학] 행 - 관측치(observed value), 열 -특성(feature) (0) | 2021.01.08 |