머신러닝62 머신러닝 랜덤포레스트 / k-NN - 앙상블 학습의 일종 - 결정 트리의 단순 버전을 여러개 만들어 분류 결과를 다수결로 결정하는 방법 - 선형 분리가 불가능한 데이터셋의 분류가 가증한 점. - 다수의 분류기를 통해 다수결로 결과를 출력하기 때문에 빗나간 값에 의해 예측 결과가 좌우되기 힘든 점. ▼ 기본 예시 ▼ 어제했던 결정트리 예시에서 버섯 한번 더 활용하기 기본 데이터는 여기서 보기 ▶ https://dev-adela.tistory.com/169 ▷이전에 했던 결정트리랑 정확도가 똑같이 나온다..! 왜지 ▷ 버전이 올라가면서 개선된것이라고 함다 - 이웃해있는걸로 비교해서 가까운 것으로 판단한다는것. - 예측할 데이터와 유사한 데이터 몇 개를 찾아내 다수결로 분류 결과를 결정하는 방법. - 게으른 학습 (lazy learning)이.. 2023. 7. 19. 결정트리, decision tree -decision tree - 데이터요소(독립변수) 각각을 주목 - 요소 내의 값을 경계로 데이터를 분할하여 데이터가 속하는 클래스를 결정하는 방법 - 결정 트리에서는 각 독립변수가 종속변수에 얼마나 영향을 미치는지 볼 수 있음. - 스무고개 하듯이 예, 아니오 질문을 이어가며 학습. ▼ 결정트리의 예 178에서 pd.get_dummies 는 자세한 내용은 여기 ▼ https://zephyrus1111.tistory.com/91 하고나니까 이렇게 True(1) False(0) 로 값이 나오더라고 ▼▼▼▼ ▼ 그리고 종속변수 flg 라고 새로운 열을 추가 (람다로 classes 가 p랑 같으면 1 안같으면 0으로 출력) 그리고 기존의 fig가 없는 데이터와 flg 열만 따로 변수 지정해줌 ▼ 그리고 우리가.. 2023. 7. 18. 기본 선형 SVM - 로지스틱 회귀처럼 데이터의 경계선을 찾아내 데이터를 분류하지만 가장 큰 특징은 서포트 벡터가 있다는 점. > 가장 가까이 있는 데이터와 경계선의 거리를 가리킴. 거리 합을 최대화함으로써 경계선을 결정하는 방법. 가장 먼곳에 분류할 경게선이 그려지기 때문에 로지스틱 회귀에 비해 일반화하기 쉬움. > 예측이 향상됨. ▲ 일반 선형 SVM은 이렇게 흘러간다. 그렇게 흘러가서 짠게 요고 ▼ 선형과 비선형의 모델의 정확도를 출력하면 이렇게 ▼ 비선형이 훨씬 훨씬 높다. 128행의 https://scikit-learn.org/stable/modules/generated/sklearn.datasets.make_gaussian_quantiles.html#sklearn.datasets.make_gaussian_qua.. 2023. 7. 18. 로지스틱 회귀 - 선형 분리 가능한 데이터 : 직선으로 데이터의 카테고리를 그룹으로 나눌 수 있는 데이터 ▶ 로지스틱 회귀, logistic regression : 선형 분리 가능한 데이터의 경계선을 학습을 통해 찾고 데이터 분류하는 방법 - 경계선이 직선, 그래서 이항 분류에 주로 사용됨. 클래스로 분류될 확률을 계산하는 것이 가능 ▲ 책에는 69행도 적혀있는데 69행이 있으면 그래프를 덮어서 안나옴,,, (그래프가 2개 그려짐) ▷ 그래서 저게 뭔가 찾아봤음 ( 눈금 스케일 조정하는거던데..ㅎ) https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.set_aspect.html ▷ 별짓을 다해도 안나오길래 방법 2가지를 실행해봄 1. 69행 set_aspec.. 2023. 7. 18. 이전 1 ··· 10 11 12 13 14 15 16 다음