목록Language/Python (22)
생각하는 감쟈

cmd로 python 파일 Compiler 하기>> python hello.py cmd로 java 파일 Compiler 하기>> javac Hello.java>> java Hello 변수vat testint a = 1;float a = 0.1f;String s = "aa";double b = 0.2; // (d)Boolen = true;javajava scriptpythonint a = 1; float a = 0.1f;char c = 'a';String s = "aa"; double b = 0.2; // (d) Boolen = true;var a = 1;var b = 1.0;var c = 'a'; ( char String + )var b = "aa";var e = truea = 1b = "he..
5DAY기본 흐름 파악하기선형모델신경망 모델출처 입력 기본 모델가중치 / 입력 이미지 / 편향 / 스코어 선형 층Dense(output, activation, input_shape)output : 출력값의 개수input_shape : 입력 벡터 형태activation : 해당되는 경우에만 설정 손실함수 설정문제종류label 차원activationLoss이진 함수이진분류1 (0또는1)sigmoidbinary_crossentropy다중분류n (One-hot 백터)softmaxcategorical_crossentropy다중분류n (숫자 0,1,2,...)softmaxsparse_categorical_crossentropy회귀1 (실수)-mse / mae compilecompile : loss, optimiz..
4DAY인공지능이란?딥러닝 흐름 잡기 PART1. 인공지능 머신러닝 : 회귀 / 분류기본적으로 데이터를 분석하는 알고리즘특성을 추출하는 과정을 집적 설계하고 코딩해 결론을 추론하는 방식 딥러닝 : CNN / RNN, LSTM머신러닝 한 분야이면서 고전적인 머신러닝과는 확연히 구분되는 새로운 영역으로 봄 머신러닝과 딥러닝의 차이머신러닝 딥러닝구조적인 데이터데이터지각에 관한 데이터하나의 층층여러Ensembal, Boost모델기법신경망, CNN, RNNSklearn프레임워크tensorflow, keras. pythorch !pip install mglearnimport mglearnfrom sklearn.linear_model import LassoPART2. 딥러닝 흐름 잡기머신렁닝 과정 회귀(Reg..
✔4DAY그래디언트 부스팅 회귀 트리커널 서서포트 벡터 머신커널기법출처 입력그래디언트 부스팅 회귀 트리여러 개의 결정트리를 묶어 강력한 모델을 만드는 앙상블 기법 중 하나이름은 회귀히지만 회귀와 분류에 모두 사용 가능랜덤포레스트와 달라 이전 트리의 오차를 보완하는 방식순차적으로 트리 생성무작이성이 없음강력한 사전 가지치기를 하용하는 방식보통 하나에서 다섯 정도의 깊지 않은 트리 사용빠른 예측과 적은 메모리 사용량 높은 정확도의 그래디언트 부스팅 트리머신러닝 경연 대회 다수 우승업계에서도 널리 사용매개변수 설정에 따라 높은 정확도 제공랜덤 폴스트 보다 매개변수 설정에 조금 더 민감한 편중요한 매개 변수앙상블 방식의 사전 가지치기, 트리 개수이전트리의 오차 보정치 제어값learning_rate : 학습률학습..
21일차 (23.04.10) ✔3DAY나이브베이즈 분류기결정 트리결정 트리 분석결정 트리의 앙상블출처 입력나이브 베이즈선형 모델과 매우 유사한 분류기선형 분류가 보다 훈련 속도가 빠른 장점선형 분류기알번화 성능 나이즈 베이즈 분류기의 원리각 특성을 개별로 취급해 파리미터 학습각 특성에서 클래스별 통계를 단순하게 취급하는 방식 scikit-learn 구현된 3가지 나이브 베이즈 분류기GaussianNB연속적인 어떤 데이터도 적용 가능텍스트 데이터 분류에 주로 사용BernoulliNB이진 데이터에 적용 가능텍스트 데이터 분류에 주로 사용MultinomialNB카운트 데이터에 적용 가능카운트 데이터개수를 나타내는 정수형 특성 x = np.array([[0,1,0,1], [1,0,1,1]..
19일차 (23.04.06) ✔ 2DAYK-NN 알고리즘K-NEIGHBORS REGRESSION 알고리즘선형모델릿지회귀라쏘분류용 선형모델 딥러닝 머신러닝 차이점특징점을 사람이하느냐 스스로 하느냐 차이 k-최근접 이웃 회귀mglearn.plots.plot_knn_regression(n_neighbors=1) mglearn.plots.plot_knn_regression(n_neighbors=3) from sklearn.neighbors import KNeighborsRegressorX,y = mglearn.datasets.make_wave(n_samples=40)X_train, X_test,y_train,y_test = train_test_split(X,y,random_state=0)reg = KNeigh..