본문

핸즈온 머신러닝 3일차 " 머신러닝 시스템의 종류(2)" 준지도, 강화학습 & 배치학습 vs 온라인 학습


3) 준지도 학습(Semisupervised Learning)

레이블이 있는 데이터가 아주 조금있는 경우

ex) 구글 포토 호스팅 서비스

가족사진 중 사람A가 사진 1,5,7에 사람B가 사진 3,4,5에 있음을 인식

대부분 준지도 학습은 지도 학습과 비지도 학습의 조합으로 이루어져 있으며, 심층 신뢰 신경망은 여러 겹으로 쌓은 제한된 볼츠만 머신이라고 불리는 비지도 학습에 기초합니다. RBM으로 훈련된 다음 전체 시스템이 지도 학습 방식으로 세밀하게 조정하는 방식입니다.


4) 강화 학습(Reinforcement Learning)

학습하는 시스템 = 에이전트

환경을 관찰해서 행동으로 실행하고

그 결과로 보상 또는 벌점을 받는 방식

시간이 지나면서 가장 큰 보상을 얻는

‘정책’ = ‘최상의 전략’을 스스로 학습함.

정책 = 주어진 상황에서 에이전트가 어떤 행동을 선택해야 하는지 정의

예시) 보행로봇, 딥마인드의 알파고



1.3.2 배치 학습과 온라인 학습



입력 데이터의 스트림(열을 지어 들어오는 데이터)으로부터 점진적으로 학습할 수 있는지 여부에 따라서도 기준


1) 배치 학습(Batch Learning)

시스템이 점진적으로 학습할 수 없음. 가용 데이터를 모두 사용해 훈련

시간과 자원이 많이 소모되어 오프라인에서 수행. 학습한 것만 적용.

오프라인 학습이라고 함. 전체 데이터를 사용해 다시 새로운 버전을 만듬.


2) 온라인 학습(Online Learning)

데이터를 순차적으로 미니배치라고 부르는 작은 묶음 단위로 주입하여 시스템을 훈련시킴. 단계가 빠르고 비용이 적음. 도착하는 대로 즉시 학습.

연속적인 데이터, 빠른 변화 적응, 컴퓨팅 자원 제한시, 데이터 버림.

전체 프로세스는 오프라인으로 실행되기 때문에 점진적 학습으로 이해하는 게 편함.

변화하는 데이터에 빠르게 적응할 것 인지(학습률)에 대한 기준이 중요함.

학습률이 높으면 예전 데이터를 금방 잊음, 학습률이 낮으면 느리게 학습.

문제점은 시스템 성능이 나쁜 데이터 주입시 점진적으로 감소

스터디 중 필기한 내용으로 모든 참고자료는 핸즈온 머신러닝입니다.

아래 책을 클릭하시면 구매페이지로 이동합니다.


핸즈온 머신러닝


공감과 댓글은 글쓴이에게 큰 힘이 됩니다. 

마음에 드셨으면 공감과 댓글부탁드립니다.




댓글