Please Download the following file!
____________________________________________________________________________________________
파이선 코딩 초보자를 위한 Scikit∙PyTorch머신러닝목차
1장 Scikit-learn 머신 러닝
1-0 Scikit-learn 라이브러리 지원 Iris flowers 예제 16
https://steemit.com/kr/@codingart/1-0-scikit-learn-iris-flowers
1-1 퍼셉트론 파이선 코드 알고리듬 검토-I 22
https://steemit.com/kr/@codingart/2-20-i
1-2 퍼셉트론 파이선 코드 알고리듬 검토-II: 퍼셉트론 파이선 알고리듬 요약 28
https://steemit.com/kr/@codingart/2-21-ii
1-3 퍼셉트론 파이선 코드 알고리듬 재검토-III: Adaptive Linear Neuron (ADALINE)에 의한 Linear Regression 머신 러닝의 시작 30
https://steemit.com/kr/@codingart/1-3-iii-adaptive-linear-neuron-adaline
1-4 표준화(Normalization)된 Iris 데이터 Adaline 적용에 따른 개선 35
https://steemit.com/kr/@codingart/1-4-normalization-adaline
1-4-1 Stochastic gradient descent 머신 러닝 37
https://steemit.com/kr/@codingart/1-4-1-stochastic-gradient-descent
1-5 Iris flowers data 머신 러닝을 위한 sklearn 라이브러리 활용 39
https://steemit.com/kr/@codingart/1-5-iris-flowers-data-sklearn
1-6 Sigmoid 함수를 사용한 Logistic Binary Classification과 퍼셉트론 비교 43
https://steemit.com/kr/@codingart/1-6-sigmoid-logistic-binary-classification
1-7 3종류 이상의 데이터 처리를 위한 Muticlass logistic regression 알고리듬 45
https://steemit.com/kr/@codingart/1-7-3-muticlass-logistic-regression
1-8 K=2일 때 Logistic regression을 위한 Pivoting( One vs Rest :OvR) 48
1-9 Logistic Regression과 Regularization 파라메터 51
https://steemit.com/kr/@codingart/1-8-logistic-regression-regularization
1-10 Support Vector Machine 기법 적용을 위한 Margin 최대화 알고리듬 54
https://steemit.com/kr/@codingart/1-10-support-vector-machine-margin
1-11 머신 러닝 과잉학습에 따른 Overfitting 과 Regularization 58
https://steemit.com/kr/@codingart/1-11-overfitting-regularization
1-12 kernel SVM을 이용한 비선형 문제를 다루어 보자. 60
https://steemit.com/kr/@codingart/1-9-kernel-svm
1-13 Iris flowers data set 핸들링 63
1-14 Iris flowers data 사용 TensorFlow Deep Learning 66
https://steemit.com/kr/@codingart/1-14-iris-flowers-data-tensorflow-deep-learning
1-15 Iris flowers data 사용 K 근접이웃 머신 러닝: K-nearest neighbors 71
https://steemit.com/kr/@codingart/1-15-iris-flowers-data-k-k-nearest-neighbors
1-16 Decision Tree Classifier 와 GraphViz, PyDotPlus 설치 73
https://steemit.com/kr/@codingart/1-16-decision-tree-classifier-graphviz-pydotplus
1-17 sklearn DecisionTreeClassifier 의 Gini impurity 계산 사례 80
https://steemit.com/kr/@codingart/1-17-sklearn-decisiontreeclassifier-gini-impurity
1-18 Random Forrest 계산 사례 84
https://steemit.com/kr/@codingart/1-18-random-forest
1-19 GaussianNB Classification 85
https://steemit.com/kr/@codingart/1-19-gaussiannb-classification
2장 Softmax 확률분포
2-1 머신 러닝 Softmax와 볼츠만 확률분포와의 Analogy-I 86
https://steemit.com/kr/@codingart/2-1-softmax-analogy
2-2 머신 러닝 Softmax와 볼츠만 확률분포와의 Analogy-II 87
https://steemit.com/kr/@codingart/2-2-softmax-analogy-ii
2-3 Softmax와 볼츠만 확률분포와의 Analogy-III: 볼츠만 확률분포와 머신러닝의 차이점 91
https://steemit.com/kr/@codingart/2-3-softmax-analogy-iii
2-4 볼츠만 확률분포식의 유도 과정과 머신러닝 Softmax의 출발점 96
https://steemit.com/kr/@codingart/2-4-softmax
2-5 Softmax 에 의한 Hypothesis 확률 계산 개론 102
https://steemit.com/kr/@codingart/2-5-softmax-hypothesis
2-6 Softmax로 학습된 확률분포와 테스트된 확률분포 값의 통계적 특성 105
https://steemit.com/kr/@codingart/2-6-softmax
2-7 머신 러닝의 통계학적 인덱스를 반영한 Softmax 정식화 108
2-8 Gradient Descent 적용을 위한 Softmax 의 편미분(Partial Derivative) 113
2-9 로지스틱 확률분포 유도와 이원분류에 관한 Softmax와의 차이점 115
https://steemit.com/kr/@codingart/5ryle1-2-4-softmax
2-10 Roselblatt의 Perceptron 일고리듬과 Adaptive linear neuron의 연결고리 120
https://steemit.com/kr/@codingart/2-1-roselblatt-perceptron-adaptive-linear-neuron
3장 Miscellenous 머신러닝 Topics
3-1 Application of Statistical Softmax To TensorFlow Iris flower data classification 124
3-2 Covariance 항을 포함한 Softmax MNIST 적용 126
https://steemit.com/kr/@codingart/3-2-covariance-softmax-mnist
3-3 Covariance 항을 포함한 Softmax Classifier의 XOR 로직 적용 128
https://steemit.com/kr/@codingart/3-3-covariance-softmax-classifier-xor
3-4 Hinton교수의 ReLU 대신 ZSigmoid(z)를 사용하는 Wide Deep Learning 뉴럴 네트워크(NN)의 Vanishing Gradient의 새로운 해결방안 130
3-5 ReLU 대신 zSigmoid(z)를 사용하는 MNIST CNN 머신 러닝 134
https://steemit.com/kr/@codingart/3-5-relu-zsigmoid-z-mnist-cnn
3-6 복소수에 의한 AND 논리 머신러닝과 폴(Pole)계산, 선형 Hypothesis 유도 135
https://steemit.com/kr/@codingart/3-6-and-pole-hypothesis
3-7 복소수 함수에 의한 OR 논리 머신러닝과 폴(Pole) 139
3-8 복소수 폴(Pole)기법에 의한 XOR 머신러닝과 비선형 Hypothesis 유도-I 140
https://steemit.com/kr/@codingart/3-8-pole-xor-hypothesis-i
3-9 복소수 폴(Pole)기법에 의한 XOR 머신러닝과 비선형 Hypothesis 유도-II 143
https://steemit.com/kr/@codingart/3-9-pole-hypothesis-xor-ii
3-10 복소수 평면에서의 로지스틱 함수의 Hypothesis 추출 146
https://steemit.com/kr/@codingart/3-10
4장 Sentiment Analysis
4-1 Sentiment 코딩 연습을 위한 Imdb 다운로드 149
http://blog.daum.net/ejleep1/1325
4-2 IMDB 데이터 Preprocessing을 위한 PyPrind 라이브러리 모듈 설치 152
http://blog.daum.net/ejleep1/1326
4-3 CSV 데이터 변환 결과 확인 156
http://blog.daum.net/ejleep1/1327
4-4 Bag of Words(단어장)에 의한 feature vector 생성 157
http://blog.daum.net/ejleep1/1328
4-5 Term Frequency-Inverse Document Frequency 단어 관련성 분석
http://blog.daum.net/ejleep1/1329
4-6 Sentiment 분석에 불필요한 텍스트 데이터 클리닝 161
http://blog.daum.net/ejleep1/1330
4-7 Sentiment 분석에서 문서의 토큰화(Processing documents into tokens) 164
http://blog.daum.net/ejleep1/1331
4-8 IMDB 영화 리뷰 데이터 베이스 Sentiment 분석 169
http://blog.daum.net/ejleep1/1332
4-9 IMDB 영화등급 설정 파라메터 연구 사례 173
http://blog.daum.net/ejleep1/1333
5-1장 확률이론 매트릭스 계산법 Markov Chain 엔트로피 계산법
5-0 Bayesian Rule 과 기초 확률론 177
https://steemit.com/kr/@codingart/5-0-bayesian-rule
5-1 Iris flower data 텍스트 파일 엑셀 처리기법 180
https://steemit.com/kr/@codingart/4-1-iris-flower-data
5-2 엑셀 매트릭스 연산: MINVERSE 와 MMULT 185
https://steemit.com/kr/@codingart/4-2-minverse-mmult
5-3 엑셀 매트릭스의 행렬식(Determinant) 계산과 Adjoint Matrix 188
https://steemit.com/kr/@codingart/4-3-determinant-adjointmatrix
5-4 TensorFlow Numerical Analysis Revival: sin(x) = 0 191
https://steemit.com/kr/@codingart/4-4-tensorflow-numerical-analysis-revival-sin-x-0
5-5 강화 학습(Reinforced Learning)에 의한 게임 코딩을 위한 워밍업 195
https://steemit.com/kr/@codingart/5-1-markov-decision-process-reinforced-learing
5-6 Markov Chain 매트릭스 예제 엑셀처리 197
https://steemit.com/kr/@codingart/5-2-markov-chain
5-7 Markov Chain 예측 사례 201
https://steemit.com/kr/@codingart/5-3-markov-chain
5-8 Markov Chain 날씨 예측 203
5-9 GraphViz에 의한 Computational Graph 작도 204
5-10 Information Entropy 208
https://steemit.com/kr/@codingart/5-10-information-entropy
5-11 Information Bit number 및 Entropy 계산 210
https://steemit.com/kr/@codingart/5-11-information-bit-number-entropy
5-12 New Multi Hot Code 알고리듬 214
https://steemit.com/kr/@codingart/5-12-new-multi-hot-code
5-13 Multi Hot Code 알고리듬에 의한 TensorFlow Softmax 훈민정음 자음 Classification 예제 217
https://steemit.com/kr/@codingart/5-13-multi-hot-code-tensorflow-softmax-classification
5-14 Information Gain, Gini impurity(Gini index) 220
https://steemit.com/kr/@codingart/5-14-information-gain-gini-impurity-gini-index
5-2장 Linear Discriminant Analysis
5-15 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법: I 220
https://steemit.com/kr/@codingart/5-15-fisher-linear-discriminant-analysis-i
5-16 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법: II 224
https://steemit.com/kr/@codingart/5-16-fisher-linear-discriminant-analysis-ii
5-17 머신러닝의 초창기로 돌아가 보자: Fisher 교수의 Linear Discriminant Analysis 기법:III 수치계산 사례 228
https://steemit.com/kr/@codingart/5-17-fisher-linear-discriminant-analysis-iii
5-18 Iris flowers dataset 적용 Linear Discriminant Analysis I: Histogram 230
https://steemit.com/kr/@codingart/5-18-iris-flowers-dataset-linear-discriminant-analysis-i-histogram
5-19 Iris flowers dataset 적용 Linear Discriminant Analysis II: LDA Graph 233
5-20 Fisher교수의 Linear Discriminant Analysis 기법 Revision 238
https://steemit.com/kr/@codingart/5-20-fisher-linear-discriminant-analysis-revision
5-21 Fisher교수의 Linear Discriminant Analysis 기법 Revision II 241
https://steemit.com/kr/@codingart/5-21-fisher-linear-discriminant-analysis-revision-ii
5-22 Revision of Linear Discriminant Analysis To Iris Flowers Dataset III 247
5-23 LDA+Every Classifier leads to 100% Accuracy! 253
https://steemit.com/kr/@codingart/5-23-lda-every-classifier-leads-to-100-accuracy
5-24 붓꽃 데이터 LDA 처리 후 Classification 256
https://steemit.com/kr/@codingart/5-24-lda-classification
5-25 Wine 데이터와 PCA(Principal Component Analysis) 처리 258
https://steemit.com/kr/@codingart/5-25-wine-pca-principal-component-analysis
5-26 PCA처리한 Wine 데이터 Logistic Regression 및 정밀도 263
https://steemit.com/kr/@codingart/5-26-pca-wine-logistic-regression
6장 Recurrent Neural Network(RNN)
6-1 Recurrent Neural Network의 출발점 Hopfield Network 265
https://steemit.com/kr/@codingart/7-1-recurrent-neural-network-hopfield-network
6-2 언어 처리를 위한 RNN Network 구성 267
https://steemit.com/kr/@codingart/7-2-rnn-network
6-3 Hopfield Network의 기원을 찾아서 271
https://steemit.com/kr/@codingart/7-3-hopfield-network
6-4 Hopfield Network의 전기회로, GPU 및 5세대 칩의 AI 지원기능 274
https://steemit.com/kr/@codingart/7-4-hopfield-network-gpu-5-ai
6-5 Hopfield Network 회로에서 웨이트의 역할 276
https://steemit.com/kr/@codingart/7-5-hopfield-network
6-6 10라인 TensorFlow 코드로 도전하는 RNN 279
https://steemit.com/kr/@codingart/6-6-10-tensorflow-rnn
6-7 Recurrent 뉴럴 네트워크의 Sequence 데이터 구조와 입력 과정 282
https://steemit.com/kr/@codingart/6-7-recurrent-sequence
6-8 RNN의 Batch 데이터 입력에서 학습까지 285
https://steemit.com/kr/@codingart/6-8-rnn-batch
6-9 Character level Model RNN 데이터 입력 Architecture 291
https://steemit.com/kr/@codingart/6-9-character-level-model-rnn-architecture
6-10 Character level Model RNN Weight Matix Architecture 293
https://steemit.com/kr/@codingart/6-10-character-level-model-rnn-weight-matix-architecture
6-11 RNN의 핵 LSTM(Long Short Term Memory) Architecture 296
https://steemit.com/kr/@codingart/6-11-rnn-lstm-long-short-term-memory-architecture
6-12 랜덤한 Stock Price RNN(Recurrent Neural Network) 학습과 예측 301
https://steemit.com/kr/@codingart/6-10-stock-price-rnn-recurrent-neural-network
6-13 주기적인 Sin함수의 RNN(Recurrent Neural Network) 학습과 예측 305
https://steemit.com/kr/@codingart/6-11-sin-rnn-recurrent-neural-network
6-14 Sin(1.0/x) 함수의 RNN LSTM에 의한 학습과 예측 307
https://steemit.com/kr/@codingart/6-12-sin-1-0-x-rnn-recurrent-neural-network
6-15 Hopfield 네트워크의 원리 309
https://steemit.com/kr/@codingart/6-15-hopfield
6-16 멀티 유닛 Hopfield 네트워크 수치 예제 312
https://steemit.com/kr/@codingart/6-16-hopfield
6-17 Boltzmann machine으로 표현한 Hopfield 네트워크 317
https://steemit.com/kr/@codingart/6-17-boltzmann-machine-hopfield
6-18 5 Units Hopfield 네트워크 계산 예제 318
https://steemit.com/kr/@codingart/6-18-5-units-hopfield
6-19 LSTM RNN 머신 러닝에 의한 Low Pass Filtering 321
https://steemit.com/kr/@codingart/6-19-lstm-rnn-low-pass-filtering
6-20 Low Pass Filtering 알고리듬을 사용한 학습 데이터 생성 및 RNN 필터링 322
https://steemit.com/kr/@codingart/6-20-low-pass-filtering-rnn
7-1장 PyTorch, CIFAR-10, 구글 GPU Colabo 예제
7-1 Anaconda3 PyTorch install on Wondows 7 326
https://steemit.com/kr/@codingart/6bfrfx-7-1-anaconda3-pytorch-install-on-wondows-7
7-2 윈도우즈 10에서 Anaconda3 PyTorch를 설치하자 329
https://steemit.com/kr/@codingart/7-2-10-anaconda3-pytorch
7-3 PyTorch 튜토리알 사이트의 CIFAR-10 PyTorch 예제 334
https://steemit.com/kr/@codingart/7-3-pytorch-cifar-10-pytorch
7-4 초보자를 위한 Anaconda3 선형회귀문제 단순 파이선 코딩 연습문제 336
https://steemit.com/kr/@codingart/7-4-anaconda3
7-5 초보자를 위한 선형회귀문제 해설 339
https://steemit.com/kr/@codingart/7-4-1
7-6 초보자를 위한 선형회귀법 예제 PyTorch 코딩 341
https://steemit.com/kr/@codingart/7-6-pytorch
7-7 머신 러닝의 핵 텐서플로우, scikit-learn, Keras, PyTorch CIFAR-10 343
https://steemit.com/kr/@codingart/7-6-scikit-learn-keras-pytorch-cifar-10
7-8 Anaconda3 PyTorch CIFAR-10 이미지인식 JupyterNotebook 예제 348
https://steemit.com/kr/@codingart/7-8-anaconda3-pytorch-cifar-10-jupyter-notebook
7-9 5G 시대의 개막: 구글 Colaboratory에 의한 GPU 머신 러닝 351
https://steemit.com/kr/@codingart/7-9-5g-colaboratory-gpu
7-10 MNIST Deep Learning GPU vs CPU 머신러닝 컴퓨팅 시간 비교 357
https://steemit.com/kr/@codingart/7-10-mnist-deep-learning-gpu-vs-cpu
7-11 PyTorch Transfer Learning Tutorial 구글 Colabo GPU 처리 358
https://steemit.com/kr/@codingart/7-11-3-pytorch-transfer-learning-tutorial-colabo-gpu
7-12 붓꽃 데이타 TensorFlow Deep Learning 코드 구글 Colabo GPU 처리 364
https://steemit.com/kr/@codingart/7-12-tensorflow-deep-learning-colabo-gpu
7-2장 PyTorch Image Classification, Transfer Learning
7-13 PyTorch의 정체와 사용법 튜토리얼 소개 366
https://steemit.com/kr/@codingart/7-13-pytorch
7-14 PyTorch의 정체와 자동미분 알고리듬(Automatic Differentiation) 370
https://steemit.com/kr/@codingart/7-14-pytorch-automatic-differentiation
7-15 PyTorch Data Loading and Processing 373
https://steemit.com/kr/@codingart/7-15-pytorch-data-loading-and-processing
7-16 PyTorch 안면 이미지 데이타 Rescale, RandomCrop, Compo 377
https://steemit.com/kr/@codingart/7-16-pytorch-rescale-randomcrop-compo
7-17 구글 Colabo에서 PyTorch CIFAR-10 이미지 GPU 머신 러닝 379
https://steemit.com/kr/@codingart/7-17-colabo-pytorch-cifar-10
7-18 Convolutional Neural Network에서 특징 추출(featur extraction) 알고리듬과 Transfer Learning과의 관계 382
7-19 Convolutional Neural Network에서 Pooling 알고리듬에 의한 Edge 특징 추출(featur extraction) 385
https://steemit.com/kr/@codingart/7-19-convolutional-neural-network-pooling-edge-featur-extraction
7-20 구글 Colabo에서 PyTorch CIFAR-10 이미지 머신 러닝 II 386
https://steemit.com/kr/@codingart/7-20-colabo-pytorch-cifar-10-ii
7-21 NumPy 라이브러리에 의한 뉴럴 네트워크 코드의 머신 러닝 특성 391
https://steemit.com/kr/@codingart/7-21-numpy
7-22 NumPy 스타일 머신 러닝 코드의 PyTorch 변환 394
https://steemit.com/kr/@codingart/7-22-numpy-pytorch
7-23 TensorFlow Graph 뉴럴 네트워크 코드 GPU 연산 시간 비교 396
https://steemit.com/kr/@codingart/7-23-tensorflow-graph-gpu
7-24 PyTorch 뉴럴 네트워크 nn.Sequential 클라스 코딩 398
https://steemit.com/kr/@codingart/7-24-pytorch-nn-sequential
7-25 PyTorch 뉴럴 네트워크 nn.Module 하위클라스 코딩 400
https://steemit.com/kr/@codingart/7-25-pytorch-nn-module
7-26 CNN을 모듈로 한 ImageNet의 발전 401
https://steemit.com/kr/@codingart/7-26-cnn-imagenet
7-27 PyTorch Transfer Learning 예제-I 405
https://steemit.com/kr/@codingart/7-27-pytorch-transfer-learning-i
7-28 PyTorch Transfer Learning 예제-II 407
https://steemit.com/kr/@codingart/7-28-pytorch-transfer-learning-ii
7-29 PyTorch Transfer Learning 예제-III 409
https://steemit.com/kr/@codingart/7-29-pytorch-transfer-learning-iii
7-30 PyTorch Transfer Learning 예제-IV : Fine Tuning 모델 준비 411
https://steemit.com/kr/@codingart/7-30-pytorch-transfer-learning-iv-fine-tuning
7-31 PyTorch Transfer Learning 예제 실행-V 413
https://steemit.com/kr/@codingart/7-31-pytorch-transfer-learning-v
7-32 PyTorch Transfer Learning Fine Tuning 예제를 사용한 AlexNet-VI 417
https://steemit.com/kr/@codingart/7-32-pytorch-transfer-learning-fine-tuning-alexnet-vi
7-33 이미지 Classification: Convolutionary Digital Filter→AlexNet→∙∙∙→ResNet 421
https://steemit.com/kr/@codingart/7-33-classification-convolutionary-digital-filter-alexnet-resnet
8장 텐서플로우 Keras
8-1 초보자를 위한 텐서플로우 코딩 예제 425
https://steemit.com/kr/@codingart/8-1
8-2 초보자를 위한 텐서플로우 array structures 코딩 예제 428
https://steemit.com/kr/@codingart/8-2-array-structures
8-3 Low level TensorFlow API 선형회귀 모델 431
https://steemit.com/kr/@codingart/8-3-keras-low-level-tensorflow-api
8-4 High Level TensorFlow API에 의한 뉴럴네트워크(NN) 학습: I 435
https://steemit.com/kr/@codingart/8-4-high-level-tensorflow-api-nn-i
8-5 High Level TensorFlow API에 의한 뉴럴네트워크(NN) 학습: II 438
https://steemit.com/kr/@codingart/8-5-high-level-tensorflow-api-nn-ii-keras
8-6 텐서플로우를 넘어 Keras API에 의한 뉴럴네트워크(NN)학습 442
https://steemit.com/kr/@codingart/8-6-keras-api-nn
8-7 구글Colabo에서 TensorFlow Keras사용 MNIST 문자 GPU 머신 러닝 447
https://steemit.com/kr/@codingart/8-7-colabo-tensorflow-keras-mnist-gpu
'책' 카테고리의 다른 글
파이선 코딩 초보자를 위한 텐서플로우∙OpenCV 머신 러닝 2차 개정판 (하이퍼링크) 목차 pdf 파일 Updated (0) | 2021.09.24 |
---|