AI/Machine Learning

AI/Machine Learning

[머신러닝] 비지도학습 K-평균 알고리즘 및 실루엣 계수

파이썬 머신러닝 완벽가이드 - 저자: 권철민 - 위 책을 바탕으로 정리한 내용입니다. 비지도 학습이란 정해져 있는 값(라벨)이 없는 데이터를 (데이터 피처 값을 통해) 비슷한 특징끼리 군집화하여, 이후에 입력하는 새로운 데이터에 대한 결과를 예측하는 학습을 의미합니다. K-평균 알고리즘 (군집화) 군집 중심점이라는 특정한 임의의 지점을 선택해, 해당 중심에 가장 가까운 포인트들을 선택하는 기법입니다. 군집 중심점은 선택된 포인트(데이터)의 평균 지점으로 이동하고, 이동된 중심점에서 다시 가까운 포인트를 선택합니다, 다시, 중심점을 평균 지점으로 이동하는 프로세스를 반복적으로 수행하며, 모든 데이터 포인트에서 더 이상 중심점의 이동이 없을 경우에 반복을 멈춥니다. 1) 군집화의 기준이 되는 중심을 구성하려..

AI/Machine Learning

[Numpy] - expand_dims 차원 추가하기

딥러닝을 공부하면서 모델의 입력 (차원) 형태와 이미지의 형태(차원)를 맞춰주기 위해서 expand_dims() 메서드를 정리하려고 합니다. expand_dims() * 배열의 모양을 확장한다 = 배열의 차원을 추가한다. (1) Test 용 1차원 넘파이 배열 생성하기 import numpy as np x = np.array([2,4]) print(x) print(x.shape) numpy 배열의 shape 출력 결과에서 다음 순서대로 축의 순서가 정해진다. (첫 번째 축, 두 번째 축, 세 번째 축)!! (2) 첫 번째 축에 차원 추가하기. expand_dims np.newaxis y = np.expand_dims(x, axis=0) print(y) print(y.shape) print('\n') y ..

AI/Machine Learning

[ML] 머신러닝 - 회귀, 다항회귀, MSE, RMSE

파이썬 머신러닝 가이드 책을 참고하였습니다. 목차 1. 회귀란 2. 경사 하강법 3. 평가 지표 (MSE, MAE, RMSE) 4. 다항 회귀 (1) 회귀 머신러닝의 (선형) 회귀는 실제 값과 예측값의 차이를 최소화하는 식을 찾는 것으로, 즉) y=wx+b의 식에서 독립변수의 값에 영향을 미치는 회귀 계수(Regression Coefficients)의 최적의 값을 찾는 것입니다. ( y = 종속 변수, w, b = 독립 변수의 값에 영향을 미치는 회귀 계수, x = 독립 변수 ) 예를 들어, 주택 가격이 주택의 크기로만 결정된다고 하면, 종속 변수 = 주택 가격 / 독립 변수 = 주택 크기라고 할 수 있습니다. 여러 개의 독립 변수와 한 개의 종속변수 간의 상관 관계를 모델링하는 기법이다. 실제 값과 회..

AI/Machine Learning

[ML] 머신러닝 - 스태킹 앙상블

[ML] 머신러닝 - 앙상블 ( 보팅, 배깅 ) [ML] 머신러닝 - 앙상블 ( 보팅, 배깅 ) [machine learning] - 머신러닝 - 스태킹 앙상블 머신러닝 - 스태킹 앙상블 파이썬 머신러닝 가이드 책을 참고하였습니다. ● 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 kylo8.tistory.com 파이썬 머신러닝 가이드 책을 참고하였습니다. (1) 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅 및 부스팅과 공통점을 가지고 있다. 하지만, 스태킹은 개별 알고리즘으로 예측한 데이터를 기반으로 다시 예측을 수행한다는 점에서 차이가 있다. 즉, 개별 알고리즘의 예측 결과 데이터 세트를 최종적인 메타 데이터 세트로 만들어, 별도의 ML 알고리..

kylo
'AI/Machine Learning' 카테고리의 글 목록