[1] Comprehension (컴프리헨션) 반복문과 조건문 그리고 변수에 대한 연산까지 모두 갖춘 편리한 문법이다. comprehension의 종류로는 list, set, dict 등이 존재한다. list 변수에서 짝수만 따로 빼와 list를 만들 때 기본 코드 mylist = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10] # 짝수를 만들이 위한 빈 리스트 생성 even = [] for i in mylist: if i % 2 == 0: # even 리스트에 값 추가 even.append(i) print(even) comprehension 을 이용한 코드 even = [ i for i in range(1, 11) if i % 2 == 0 ] 반복문 for문과 range() 함수를 통해 i에 ..
[1]. split() : 문자열을 분리해주는 함수 split은 문장을 특정 규칙에 의해 쪼개주는 기능을 한다. 분리한 결과는 list 형식으로 값을 리턴 받는다. default 값으로 공백이 지정되어 있다. ( 즉, 공백을 기준으로 분리하여 리스트로 반환한다.) a = 'hi my name is' print(a.split()) a = 'hi@my@name@is' print(a.split('@')) 위 코드를 실행해보면 똑같은 결과를 얻을 것입니다. [2] 문자.join() 결합하고자 하는 문자를 .join() 안에 있는 리스트의 원소들을 결합할 수 있다. a = '-'.join(['010', '1234','5678']) print(a) [3] strip() : 양쪽 공백 제거 ( lstrip : 왼쪽 ..
( 도움을 받은 블로그 = https://study-all-night.tistory.com/5 :) [1] 문제 [2] 결과 [3] 코드 # 재귀함수 def draw_star(n): global Map if n == 3 : Map[0][:] = Map[2][:] = [1] * 3 Map[1][:] = [1, 0, 1] return a = n//3 draw_star(n//3) for i in range(3): for j in range(3): if i == 1 and j == 1 : continue for k in range(a): Map[a*i+k][a*j:a*(j+1)] = Map[k][:a] # 3의 거듭제곱수 입력 N = int(input()) Map = [[ 0 for i in range(N)] ..
파이썬 머신러닝 가이드 책을 참고하였습니다. 목차 1. 회귀란 2. 경사 하강법 3. 평가 지표 (MSE, MAE, RMSE) 4. 다항 회귀 (1) 회귀 머신러닝의 (선형) 회귀는 실제 값과 예측값의 차이를 최소화하는 식을 찾는 것으로, 즉) y=wx+b의 식에서 독립변수의 값에 영향을 미치는 회귀 계수(Regression Coefficients)의 최적의 값을 찾는 것입니다. ( y = 종속 변수, w, b = 독립 변수의 값에 영향을 미치는 회귀 계수, x = 독립 변수 ) 예를 들어, 주택 가격이 주택의 크기로만 결정된다고 하면, 종속 변수 = 주택 가격 / 독립 변수 = 주택 크기라고 할 수 있습니다. 여러 개의 독립 변수와 한 개의 종속변수 간의 상관 관계를 모델링하는 기법이다. 실제 값과 회..
[ML] 머신러닝 - 앙상블 ( 보팅, 배깅 ) [ML] 머신러닝 - 앙상블 ( 보팅, 배깅 )[machine learning] - 머신러닝 - 스태킹 앙상블 머신러닝 - 스태킹 앙상블 파이썬 머신러닝 가이드 책을 참고하였습니다. ● 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는kylo8.tistory.com파이썬 머신러닝 가이드 책을 참고하였습니다.(1) 스태킹개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅 및 부스팅과 공통점을 가지고 있다. 하지만, 스태킹은 개별 알고리즘으로 예측한 데이터를 기반으로 다시 예측을 수행한다는 점에서 차이가 있다. 즉, 개별 알고리즘의 예측 결과 데이터 세트를 최종적인 메타 데이터 세트로 만들어, 별도의 ML 알고리즘으로 최..
○ 언더 샘플링과 오버 샘플링 레이블( 결정 값 )이 불균형한 분포를 가진 데이터 세트를 학습시킬 때 예측 성능의 문제가 발생할 수 있다. 이는 이상 레이블을 가지는 데이터 건수가 정상 레이블을 가진 데이터 건수에 비해 너무 적기 때문에 발생한다. ● 언더 샘플링 많은 데이터 세트를 적은 데이터 세트 수준으로 감소 시키는 방식이다. 즉 정상 레이블을 가진 데이터가 10,000건, 이상 레이블을 가진 데이터가 100건이 있으면 정상 레이블 데이터를 100건으로 줄이는 것을 의미한다. ● 오버 샘플링 이상 데이터와 같이 적은 데이터 세트를 증식하여 학습을 위한 충분한 데이터를 확보하는 방법이다. 동일한 데이터를 단순히 증식하는 방법은 과적합이 되기 때문에 의미가 없으므로, 원본 데이터의 피처 값들을 아주 약..
[ML] 머신러닝 - 앙상블 ( 보팅, 배깅 ) [ML] 머신러닝 - 앙상블 ( 보팅, 배깅 ) [machine learning] - 머신러닝 - 스태킹 앙상블 머신러닝 - 스태킹 앙상블 파이썬 머신러닝 가이드 책을 참고하였습니다. ● 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 kylo8.tistory.com 파이썬 머신러닝 가이드 책을 참고하였습니다. 목차 1. 부스팅이란 2. GBM 3. XGBoost 4. LightGBM (1) 부스팅이란 여러 개의 약한 학습기를 순차적으로 학습-예측하면서 잘못 예측한 데이터에 가중치 부여를 통해 오류를 개선해 나가면서 학습하는 방식을 말합니다. * 첫 번째 약한 학습기가 +, - 로 분류를 하며 잘못 분류된 오류 데이터에는 가중치를 부여한..
[machine learning] - 머신러닝 - 스태킹 앙상블 머신러닝 - 스태킹 앙상블파이썬 머신러닝 가이드 책을 참고하였습니다. ● 스태킹 개별적인 여러 알고리즘을 서로 결합해 예측 결과를 도출한다는 점에서 배깅 및 부스팅과 공통점을 가지고 있다. 하지만 스태킹은 개kylo8.tistory.com목차1. 앙상블이란2. 보팅3. 배깅 (1) 앙상블( Ensemble Learning) 이란여러 개의 분류기(Classifier)를 생성하고 그 예측을 결합함으로써 보다 정확한 최종 예측을 도출하는 기법-> 어려운 문제의 결론을 내기 위해 여러 명의 전문가의 의견을 수렴해 결정하는 것과 비슷하다. 앙상블의 유형으로는 보팅, 배깅, 부스팅 방법이 있습니다. 순서대로 정리해보겠습니다. (2) 보팅 : 서로 다른..