SciKit PyTorch 머신 러닝 목차 파일

coding art 2012. 5. 1. 22:06
728x90

 

 

 

Please Download the following file!

 

 

ScikitPyTorch목차.pdf

 

 

 

____________________________________________________________________________________________

 

파이선 코딩 초보자를 위한 ScikitPyTorch머신러닝목차

1Scikit-learn 머신 러닝

1-0 Scikit-learn 라이브러리 지원 Iris flowers 예제 16

https://steemit.com/kr/@codingart/1-0-scikit-learn-iris-flowers

1-1 퍼셉트론 파이선 코드 알고리듬 검토-I 22

https://steemit.com/kr/@codingart/2-20-i

1-2 퍼셉트론 파이선 코드 알고리듬 검토-II: 퍼셉트론 파이선 알고리듬 요약 28

https://steemit.com/kr/@codingart/2-21-ii

1-3 퍼셉트론 파이선 코드 알고리듬 재검토-III: Adaptive Linear Neuron (ADALINE)에 의한 Linear Regression 머신 러닝의 시작 30

https://steemit.com/kr/@codingart/1-3-iii-adaptive-linear-neuron-adaline

1-4 표준화(Normalization)Iris 데이터 Adaline 적용에 따른 개선 35

https://steemit.com/kr/@codingart/1-4-normalization-adaline

1-4-1 Stochastic gradient descent 머신 러닝 37

https://steemit.com/kr/@codingart/1-4-1-stochastic-gradient-descent

1-5 Iris flowers data 머신 러닝을 위한 sklearn 라이브러리 활용 39

https://steemit.com/kr/@codingart/1-5-iris-flowers-data-sklearn

1-6 Sigmoid 함수를 사용한 Logistic Binary Classification과 퍼셉트론 비교 43

https://steemit.com/kr/@codingart/1-6-sigmoid-logistic-binary-classification

1-7 3종류 이상의 데이터 처리를 위한 Muticlass logistic regression 알고리듬 45

https://steemit.com/kr/@codingart/1-7-3-muticlass-logistic-regression

1-8 K=2일 때 Logistic regression을 위한 Pivoting( One vs Rest :OvR) 48

1-9 Logistic RegressionRegularization 파라메터 51

https://steemit.com/kr/@codingart/1-8-logistic-regression-regularization

1-10 Support Vector Machine 기법 적용을 위한 Margin 최대화 알고리듬 54

https://steemit.com/kr/@codingart/1-10-support-vector-machine-margin

1-11 머신 러닝 과잉학습에 따른 Overfitting Regularization 58

https://steemit.com/kr/@codingart/1-11-overfitting-regularization

1-12 kernel SVM을 이용한 비선형 문제를 다루어 보자. 60

https://steemit.com/kr/@codingart/1-9-kernel-svm

1-13 Iris flowers data set 핸들링 63

1-14 Iris flowers data 사용 TensorFlow Deep Learning 66

https://steemit.com/kr/@codingart/1-14-iris-flowers-data-tensorflow-deep-learning

1-15 Iris flowers data 사용 K 근접이웃 머신 러닝: K-nearest neighbors 71

https://steemit.com/kr/@codingart/1-15-iris-flowers-data-k-k-nearest-neighbors

1-16 Decision Tree Classifier GraphViz, PyDotPlus 설치 73

https://steemit.com/kr/@codingart/1-16-decision-tree-classifier-graphviz-pydotplus

1-17 sklearn DecisionTreeClassifier Gini impurity 계산 사례 80

https://steemit.com/kr/@codingart/1-17-sklearn-decisiontreeclassifier-gini-impurity

1-18 Random Forrest 계산 사례 84

https://steemit.com/kr/@codingart/1-18-random-forest

1-19 GaussianNB Classification 85

https://steemit.com/kr/@codingart/1-19-gaussiannb-classification

 

2Softmax 확률분포

2-1 머신 러닝 Softmax와 볼츠만 확률분포와의 Analogy-I 86

https://steemit.com/kr/@codingart/2-1-softmax-analogy

2-2 머신 러닝 Softmax와 볼츠만 확률분포와의 Analogy-II 87

https://steemit.com/kr/@codingart/2-2-softmax-analogy-ii

2-3 Softmax와 볼츠만 확률분포와의 Analogy-III: 볼츠만 확률분포와 머신러닝의 차이점 91

https://steemit.com/kr/@codingart/2-3-softmax-analogy-iii

2-4 볼츠만 확률분포식의 유도 과정과 머신러닝 Softmax의 출발점 96

https://steemit.com/kr/@codingart/2-4-softmax

2-5 Softmax 에 의한 Hypothesis 확률 계산 개론 102

https://steemit.com/kr/@codingart/2-5-softmax-hypothesis

2-6 Softmax로 학습된 확률분포와 테스트된 확률분포 값의 통계적 특성 105

https://steemit.com/kr/@codingart/2-6-softmax

2-7 머신 러닝의 통계학적 인덱스를 반영한 Softmax 정식화 108

2-8 Gradient Descent 적용을 위한 Softmax 의 편미분(Partial Derivative) 113

2-9 로지스틱 확률분포 유도와 이원분류에 관한 Softmax와의 차이점 115

https://steemit.com/kr/@codingart/5ryle1-2-4-softmax

2-10 RoselblattPerceptron 일고리듬과 Adaptive linear neuron의 연결고리 120

https://steemit.com/kr/@codingart/2-1-roselblatt-perceptron-adaptive-linear-neuron

 

3Miscellenous 머신러닝 Topics

3-1 Application of Statistical Softmax To TensorFlow Iris flower data classification 124

https://steemit.com/kr/@codingart/3-1-application-of-statistical-softmax-to-tensorflow-iris-flower-data-classification

3-2 Covariance 항을 포함한 Softmax MNIST 적용 126

https://steemit.com/kr/@codingart/3-2-covariance-softmax-mnist

3-3 Covariance 항을 포함한 Softmax ClassifierXOR 로직 적용 128

https://steemit.com/kr/@codingart/3-3-covariance-softmax-classifier-xor

3-4 Hinton교수의 ReLU 대신 ZSigmoid(z)를 사용하는 Wide Deep Learning 뉴럴 네트워크(NN)Vanishing Gradient의 새로운 해결방안 130

https://steemit.com/kr/@codingart/3-4-hinton-relu-zsigmoid-z-wide-deep-learning-nn-vanishing-gradient

3-5 ReLU 대신 zSigmoid(z)를 사용하는 MNIST CNN 머신 러닝 134

https://steemit.com/kr/@codingart/3-5-relu-zsigmoid-z-mnist-cnn

3-6 복소수에 의한 AND 논리 머신러닝과 폴(Pole)계산, 선형 Hypothesis 유도 135

https://steemit.com/kr/@codingart/3-6-and-pole-hypothesis

3-7 복소수 함수에 의한 OR 논리 머신러닝과 폴(Pole) 139

3-8 복소수 폴(Pole)기법에 의한 XOR 머신러닝과 비선형 Hypothesis 유도-I 140

https://steemit.com/kr/@codingart/3-8-pole-xor-hypothesis-i

3-9 복소수 폴(Pole)기법에 의한 XOR 머신러닝과 비선형 Hypothesis 유도-II 143

https://steemit.com/kr/@codingart/3-9-pole-hypothesis-xor-ii

3-10 복소수 평면에서의 로지스틱 함수의 Hypothesis 추출 146

https://steemit.com/kr/@codingart/3-10

 

4Sentiment Analysis

4-1 Sentiment 코딩 연습을 위한 Imdb 다운로드 149

http://blog.daum.net/ejleep1/1325

4-2 IMDB 데이터 Preprocessing을 위한 PyPrind 라이브러리 모듈 설치 152

http://blog.daum.net/ejleep1/1326

4-3 CSV 데이터 변환 결과 확인 156

http://blog.daum.net/ejleep1/1327

4-4 Bag of Words(단어장)에 의한 feature vector 생성 157

http://blog.daum.net/ejleep1/1328

4-5 Term Frequency-Inverse Document Frequency 단어 관련성 분석

http://blog.daum.net/ejleep1/1329

4-6 Sentiment 분석에 불필요한 텍스트 데이터 클리닝 161

http://blog.daum.net/ejleep1/1330

4-7 Sentiment 분석에서 문서의 토큰화(Processing documents into tokens) 164

http://blog.daum.net/ejleep1/1331

4-8 IMDB 영화 리뷰 데이터 베이스 Sentiment 분석 169

http://blog.daum.net/ejleep1/1332

4-9 IMDB 영화등급 설정 파라메터 연구 사례 173

http://blog.daum.net/ejleep1/1333

 

5-1장 확률이론 매트릭스 계산법 Markov Chain 엔트로피 계산법

5-0 Bayesian Rule 과 기초 확률론 177

https://steemit.com/kr/@codingart/5-0-bayesian-rule

5-1 Iris flower data 텍스트 파일 엑셀 처리기법 180

https://steemit.com/kr/@codingart/4-1-iris-flower-data

5-2 엑셀 매트릭스 연산: MINVERSE MMULT 185

https://steemit.com/kr/@codingart/4-2-minverse-mmult

5-3 엑셀 매트릭스의 행렬식(Determinant) 계산과 Adjoint Matrix 188

https://steemit.com/kr/@codingart/4-3-determinant-adjointmatrix

5-4 TensorFlow Numerical Analysis Revival: sin(x) = 0 191

https://steemit.com/kr/@codingart/4-4-tensorflow-numerical-analysis-revival-sin-x-0

5-5 강화 학습(Reinforced Learning)에 의한 게임 코딩을 위한 워밍업 195

https://steemit.com/kr/@codingart/5-1-markov-decision-process-reinforced-learing

5-6 Markov Chain 매트릭스 예제 엑셀처리 197

https://steemit.com/kr/@codingart/5-2-markov-chain

5-7 Markov Chain 예측 사례 201

https://steemit.com/kr/@codingart/5-3-markov-chain

5-8 Markov Chain 날씨 예측 203

5-9 GraphViz에 의한 Computational Graph 작도 204

5-10 Information Entropy 208

https://steemit.com/kr/@codingart/5-10-information-entropy

5-11 Information Bit number Entropy 계산 210

https://steemit.com/kr/@codingart/5-11-information-bit-number-entropy

5-12 New Multi Hot Code 알고리듬 214

https://steemit.com/kr/@codingart/5-12-new-multi-hot-code

5-13 Multi Hot Code 알고리듬에 의한 TensorFlow Softmax 훈민정음 자음 Classification 예제 217

https://steemit.com/kr/@codingart/5-13-multi-hot-code-tensorflow-softmax-classification

5-14 Information Gain, Gini impurity(Gini index) 220

https://steemit.com/kr/@codingart/5-14-information-gain-gini-impurity-gini-index

 

5-2Linear Discriminant Analysis

5-15 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법: I 220

https://steemit.com/kr/@codingart/5-15-fisher-linear-discriminant-analysis-i

5-16 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법: II 224

https://steemit.com/kr/@codingart/5-16-fisher-linear-discriminant-analysis-ii

5-17 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법:III 수치계산 사례 228

https://steemit.com/kr/@codingart/5-17-fisher-linear-discriminant-analysis-iii

5-18 Iris flowers dataset 적용 Linear Discriminant Analysis I: Histogram 230

https://steemit.com/kr/@codingart/5-18-iris-flowers-dataset-linear-discriminant-analysis-i-histogram

5-19 Iris flowers dataset 적용 Linear Discriminant Analysis II: LDA Graph 233

https://steemit.com/kr/@codingart/5-19-iris-flowers-dataset-linear-discriminant-analysis-ii-lda-graph

5-20 Fisher교수의 Linear Discriminant Analysis 기법 Revision 238

https://steemit.com/kr/@codingart/5-20-fisher-linear-discriminant-analysis-revision

5-21 Fisher교수의 Linear Discriminant Analysis 기법 Revision II 241

https://steemit.com/kr/@codingart/5-21-fisher-linear-discriminant-analysis-revision-ii

5-22 Revision of Linear Discriminant Analysis To Iris Flowers Dataset III 247

https://steemit.com/kr/@codingart/5-22-revision-of-linear-discriminant-analysis-to-iris-flowers-dataset-iii

5-23 LDA+Every Classifier leads to 100% Accuracy! 253

https://steemit.com/kr/@codingart/5-23-lda-every-classifier-leads-to-100-accuracy

5-24 붓꽃 데이터 LDA 처리 후 Classification 256

https://steemit.com/kr/@codingart/5-24-lda-classification

5-25 Wine 데이터와 PCA(Principal Component Analysis) 처리 258

https://steemit.com/kr/@codingart/5-25-wine-pca-principal-component-analysis

5-26 PCA처리한 Wine 데이터 Logistic Regression 및 정밀도 263

https://steemit.com/kr/@codingart/5-26-pca-wine-logistic-regression

 

6Recurrent Neural Network(RNN)

6-1 Recurrent Neural Network의 출발점 Hopfield Network 265

https://steemit.com/kr/@codingart/7-1-recurrent-neural-network-hopfield-network

6-2 언어 처리를 위한 RNN Network 구성 267

https://steemit.com/kr/@codingart/7-2-rnn-network

6-3 Hopfield Network의 기원을 찾아서 271

https://steemit.com/kr/@codingart/7-3-hopfield-network

6-4 Hopfield Network의 전기회로, GPU 5세대 칩의 AI 지원기능 274

https://steemit.com/kr/@codingart/7-4-hopfield-network-gpu-5-ai

6-5 Hopfield Network 회로에서 웨이트의 역할 276

https://steemit.com/kr/@codingart/7-5-hopfield-network

6-6 10라인 TensorFlow 코드로 도전하는 RNN 279

https://steemit.com/kr/@codingart/6-6-10-tensorflow-rnn

6-7 Recurrent 뉴럴 네트워크의 Sequence 데이터 구조와 입력 과정 282

https://steemit.com/kr/@codingart/6-7-recurrent-sequence

6-8 RNNBatch 데이터 입력에서 학습까지 285

https://steemit.com/kr/@codingart/6-8-rnn-batch

6-9 Character level Model RNN 데이터 입력 Architecture 291

https://steemit.com/kr/@codingart/6-9-character-level-model-rnn-architecture

6-10 Character level Model RNN Weight Matix Architecture 293

https://steemit.com/kr/@codingart/6-10-character-level-model-rnn-weight-matix-architecture

6-11 RNN의 핵 LSTM(Long Short Term Memory) Architecture 296

https://steemit.com/kr/@codingart/6-11-rnn-lstm-long-short-term-memory-architecture

6-12 랜덤한 Stock Price RNN(Recurrent Neural Network) 학습과 예측 301

https://steemit.com/kr/@codingart/6-10-stock-price-rnn-recurrent-neural-network

6-13 주기적인 Sin함수의 RNN(Recurrent Neural Network) 학습과 예측 305

https://steemit.com/kr/@codingart/6-11-sin-rnn-recurrent-neural-network

6-14 Sin(1.0/x) 함수의 RNN LSTM에 의한 학습과 예측 307

https://steemit.com/kr/@codingart/6-12-sin-1-0-x-rnn-recurrent-neural-network

6-15 Hopfield 네트워크의 원리 309

https://steemit.com/kr/@codingart/6-15-hopfield

6-16 멀티 유닛 Hopfield 네트워크 수치 예제 312

https://steemit.com/kr/@codingart/6-16-hopfield

6-17 Boltzmann machine으로 표현한 Hopfield 네트워크 317

https://steemit.com/kr/@codingart/6-17-boltzmann-machine-hopfield

6-18 5 Units Hopfield 네트워크 계산 예제 318

https://steemit.com/kr/@codingart/6-18-5-units-hopfield

6-19 LSTM RNN 머신 러닝에 의한 Low Pass Filtering 321

https://steemit.com/kr/@codingart/6-19-lstm-rnn-low-pass-filtering

6-20 Low Pass Filtering 알고리듬을 사용한 학습 데이터 생성 및 RNN 필터링 322

https://steemit.com/kr/@codingart/6-20-low-pass-filtering-rnn

 

7-1PyTorch, CIFAR-10, 구글 GPU Colabo 예제

7-1 Anaconda3 PyTorch install on Wondows 7 326

https://steemit.com/kr/@codingart/6bfrfx-7-1-anaconda3-pytorch-install-on-wondows-7

7-2 윈도우즈 10에서 Anaconda3 PyTorch를 설치하자 329

https://steemit.com/kr/@codingart/7-2-10-anaconda3-pytorch

7-3 PyTorch 튜토리알 사이트의 CIFAR-10 PyTorch 예제 334

https://steemit.com/kr/@codingart/7-3-pytorch-cifar-10-pytorch

7-4 초보자를 위한 Anaconda3 선형회귀문제 단순 파이선 코딩 연습문제 336

https://steemit.com/kr/@codingart/7-4-anaconda3

7-5 초보자를 위한 선형회귀문제 해설 339

https://steemit.com/kr/@codingart/7-4-1

7-6 초보자를 위한 선형회귀법 예제 PyTorch 코딩 341

https://steemit.com/kr/@codingart/7-6-pytorch

7-7 머신 러닝의 핵 텐서플로우, scikit-learn, Keras, PyTorch CIFAR-10 343

https://steemit.com/kr/@codingart/7-6-scikit-learn-keras-pytorch-cifar-10

7-8 Anaconda3 PyTorch CIFAR-10 이미지인식 JupyterNotebook 예제 348

https://steemit.com/kr/@codingart/7-8-anaconda3-pytorch-cifar-10-jupyter-notebook

7-9 5G 시대의 개막: 구글 Colaboratory에 의한 GPU 머신 러닝 351

https://steemit.com/kr/@codingart/7-9-5g-colaboratory-gpu

7-10 MNIST Deep Learning GPU vs CPU 머신러닝 컴퓨팅 시간 비교 357

https://steemit.com/kr/@codingart/7-10-mnist-deep-learning-gpu-vs-cpu

7-11 PyTorch Transfer Learning Tutorial 구글 Colabo GPU 처리 358

https://steemit.com/kr/@codingart/7-11-3-pytorch-transfer-learning-tutorial-colabo-gpu

7-12 붓꽃 데이타 TensorFlow Deep Learning 코드 구글 Colabo GPU 처리 364

https://steemit.com/kr/@codingart/7-12-tensorflow-deep-learning-colabo-gpu

 

7-2PyTorch Image Classification, Transfer Learning

7-13 PyTorch의 정체와 사용법 튜토리얼 소개 366

https://steemit.com/kr/@codingart/7-13-pytorch

7-14 PyTorch의 정체와 자동미분 알고리듬(Automatic Differentiation) 370

https://steemit.com/kr/@codingart/7-14-pytorch-automatic-differentiation

7-15 PyTorch Data Loading and Processing 373

https://steemit.com/kr/@codingart/7-15-pytorch-data-loading-and-processing

7-16 PyTorch 안면 이미지 데이타 Rescale, RandomCrop, Compo 377

https://steemit.com/kr/@codingart/7-16-pytorch-rescale-randomcrop-compo

7-17 구글 Colabo에서 PyTorch CIFAR-10 이미지 GPU 머신 러닝 379

https://steemit.com/kr/@codingart/7-17-colabo-pytorch-cifar-10

7-18 Convolutional Neural Network에서 특징 추출(featur extraction) 알고리듬과 Transfer Learning과의 관계 382

https://steemit.com/kr/@codingart/7-19-convolutional-neural-network-featur-extraction-transfer-learning

7-19 Convolutional Neural Network에서 Pooling 알고리듬에 의한 Edge 특징 추출(featur extraction) 385

https://steemit.com/kr/@codingart/7-19-convolutional-neural-network-pooling-edge-featur-extraction

7-20 구글 Colabo에서 PyTorch CIFAR-10 이미지 머신 러닝 II 386

https://steemit.com/kr/@codingart/7-20-colabo-pytorch-cifar-10-ii

7-21 NumPy 라이브러리에 의한 뉴럴 네트워크 코드의 머신 러닝 특성 391

https://steemit.com/kr/@codingart/7-21-numpy

7-22 NumPy 스타일 머신 러닝 코드의 PyTorch 변환 394

https://steemit.com/kr/@codingart/7-22-numpy-pytorch

7-23 TensorFlow Graph 뉴럴 네트워크 코드 GPU 연산 시간 비교 396

https://steemit.com/kr/@codingart/7-23-tensorflow-graph-gpu

7-24 PyTorch 뉴럴 네트워크 nn.Sequential 클라스 코딩 398

https://steemit.com/kr/@codingart/7-24-pytorch-nn-sequential

7-25 PyTorch 뉴럴 네트워크 nn.Module 하위클라스 코딩 400

https://steemit.com/kr/@codingart/7-25-pytorch-nn-module

7-26 CNN을 모듈로 한 ImageNet의 발전 401

https://steemit.com/kr/@codingart/7-26-cnn-imagenet

7-27 PyTorch Transfer Learning 예제-I 405

https://steemit.com/kr/@codingart/7-27-pytorch-transfer-learning-i

7-28 PyTorch Transfer Learning 예제-II 407

https://steemit.com/kr/@codingart/7-28-pytorch-transfer-learning-ii

7-29 PyTorch Transfer Learning 예제-III 409

https://steemit.com/kr/@codingart/7-29-pytorch-transfer-learning-iii

7-30 PyTorch Transfer Learning 예제-IV : Fine Tuning 모델 준비 411

https://steemit.com/kr/@codingart/7-30-pytorch-transfer-learning-iv-fine-tuning

7-31 PyTorch Transfer Learning 예제 실행-V 413

https://steemit.com/kr/@codingart/7-31-pytorch-transfer-learning-v

7-32 PyTorch Transfer Learning Fine Tuning 예제를 사용한 AlexNet-VI 417

https://steemit.com/kr/@codingart/7-32-pytorch-transfer-learning-fine-tuning-alexnet-vi

7-33 이미지 Classification: Convolutionary Digital FilterAlexNet→∙∙∙→ResNet 421

https://steemit.com/kr/@codingart/7-33-classification-convolutionary-digital-filter-alexnet-resnet

 

8장 텐서플로우 Keras

8-1 초보자를 위한 텐서플로우 코딩 예제 425

https://steemit.com/kr/@codingart/8-1

8-2 초보자를 위한 텐서플로우 array structures 코딩 예제 428

https://steemit.com/kr/@codingart/8-2-array-structures

8-3 Low level TensorFlow API 선형회귀 모델 431

https://steemit.com/kr/@codingart/8-3-keras-low-level-tensorflow-api

8-4 High Level TensorFlow API에 의한 뉴럴네트워크(NN) 학습: I 435

https://steemit.com/kr/@codingart/8-4-high-level-tensorflow-api-nn-i

8-5 High Level TensorFlow API에 의한 뉴럴네트워크(NN) 학습: II 438

https://steemit.com/kr/@codingart/8-5-high-level-tensorflow-api-nn-ii-keras

8-6 텐서플로우를 넘어 Keras API에 의한 뉴럴네트워크(NN)학습 442

https://steemit.com/kr/@codingart/8-6-keras-api-nn

8-7 구글Colabo에서 TensorFlow Keras사용 MNIST 문자 GPU 머신 러닝 447

https://steemit.com/kr/@codingart/8-7-colabo-tensorflow-keras-mnist-gpu

 
ScikitPyTorch목차.pdf
0.07MB