분류 전체보기 1095

노이즈 탄 데이터 식별을 위한 Autoencoder 알고리듬 이용

autoencoder 알고리듬은 학습 데이터에 포함되어 있는 노이즈 제거 특성임을 잘 알고 있다. autoencoding 알고리듬 활용을 위해서는 주어진 데이터를 학습용과 validation 용으로 split 한 다음 학습을 실시하여 autoencoder 를 생성하자. 학습된 autoencoder를 validation 데이터에 적용하면 일반적으로 90% 이상의 정확도 즉 Accuracy를 확인할 수 있다. 아울러 10%남짓 오차를 보여주는 validation 데이터에서 autoencoder로 학습된 validation 데이터와의 차이 즉 mae(mean absolute error) 분포를 조사해 볼 필요가 있다. 특히 학습과정에서 충분한 에포크(epoch) 수를 취하면 보다 정확도를 올려줄수 있는 aut..

통신 2022.03.01

심전도 데이터 Time Series Anomaly Detection

Intro to Autoencoders https://developer.habana.ai/tutorials/tensorflow/intro-to-autoencoders/ 기계장치의 Anomaly Detection 보다 흥미로울 수 있는 ECG5000 심전도 데이터세트를 사용하는 시계열상의 Anomaly Detection 코드를 고려하자. 헤더 영역에서 불러들여야 할 라이브러리들을 살펴보자. fashion_mnist 는 심전도 문제와는 연관이 없으므로 제외 가능하다. 여러 곳에서 ECG5000 데이터세트를 다운받을 수 있으나 여기서는 구글 텐서플로우 사이트로부터 다운 받자. 로드한 raw_data 리스트에 심전도 데이터와 라벨 값이 함께 들어 있으므로 분리해 내도록 한다. raw_data는 마지막이 라벨 데..

머신러닝 2022.02.13

BER(Bit error ratio or Bit Error rate) Wikipedia

https://en.wikipedia.org/wiki/Bit_error_rate 비트 에러 수(number of bit error)란 디지털 통신채널의 데이터 스트림에 있어 노이즈,간섭,왜곡 및 비트동기화 에러등에 의해 변형되어 수신되는 비트 수를 의미한다. BER( bit error rate)이란 단위 시간당 비트 에러 수이다. 한편 BER( bit error ratio)은 일정 시간 동안에 전송되는 총 비트수분에 비트 에러 수를 나타낸다. 비트 에러 확률 BEP( bit error probability) Pe는 BER( bit error ratio) 의 기대값을 나타낸다. BER( bit error ratio)은 장시간에 걸쳐 높은 에러 비트 수를 보일 경우 BEP( bit error probabil..

통신 2022.02.13

리튬 배터리 내부저항 증가 주 원인은? 전기차 폭발과 화재 기술적으로 줄일 수 있나?

각형 LIB 의 구조를 살펴보자. 리튬배터리 LIB(Lithium Ion Battery)는 종류별로 각형(prismatic), 파우치(pouch), 원통형(cylinder) 로 분류되어 형태가 서로 상이하지만 그 그본적인 구조에 있어서는 동일하다고 할 수 있다. 즉 전극, 전해질 및 분리막으로 구성되며 아울러 반드시 가스 배출구(vent) 를 가지도록 제작된다.아울러 오랫동안 안전하게 사용하던 LIB 팩에서도 장시간 사용에 따라 서서히 노화(aging) 현상이 일어나는 것은 불가피하다. 노화가 일어난다함은 리튬 전극에서 돌기(dendrite)가 생성될 수도 있으며 아울러 오랜 사용에 따라 LIB  사용 온도가 제법 높음으로 인해 전해질의 솔벤트가 분해되고  증발하여 기화가 일어나 기포가 발생하게 되며 일..

리튬 배터리 2022.02.11

강화학습 CartPole 예제 구글 Colab으로 이렇게? 여기서부터?

----------------- 생성형 AI 한국어 학습지원 온라인 알바 취업 지원 광고 --------------------아래의 블로그에서 지원과정 사례를 참조하시고 본인 이름(First Name, Last Name) 및 정확한 이메일 주소를 필자의 이메일 ejleep1@gmail.com 으로 보내주세요.https://ejleep1.tistory.com/1573 ----------------------------------------------------------------------------------------------------------------- Frozen Break 에 이은 강화학습(reinforcement learning) 예제는 CartPole 이다.  이는 밸런싱 로봇과 같이..

RCNN Image Classification 첫단계 Selective Search에 관해서

Step-by-Step R-CNN Implementation From Scratch in Python https://towardsdatascience.com/step-by-step-r-cnn-implementation-from-scratch-in-python-e97101ccde55#:~:text=R-CNN%20stands%20for%20Regions%20with%20CNN.%20In%20R-CNN,we%20need%20to%20just%20classify%20first%202000%20regions. R-CNN 은 그 내용이 길고 복잡하므로 여기서는 일차적으로 선택적 검색 즉 Selective Search 단계 까지만 우선 알아보기로 하겠다. 객체 인식은 이미지에 포함되어 있는 객체들을 찾는 작업으로서 ..

카테고리 없음 2022.02.05

OpenCV Haar cascade로 2종 object detection 이 가능한가?

image classification에 관심이 큰 초보자 입장에서 아주 간단하게 OpenCV의 Haar cascade 라이브러리를 사용하여 사람과 고양이의 2종을 포함한 이미지를 classification 해 보도록 하자. 물론 Haar cascade 라이브러리는 object 하나하나씩을 여러개 학습시켜 만든 라이브러리임에도 불구하고 되기는 된다. 별 것 아닌 코드 같겠지만 image classification 을 꽤 오래 해오면서 느꼈던 중요한 의문중의 하나였기에 지금까지 쌓인 일단의 의문이 명쾌하게 해소되었다. 한가지 주의할 점은 OpenCV에서 2종류의 classifier 를 함께 사용하여 최종적으로 image에 중첩하여 bounding box를 출력하는 아래 코드는 그다지 정상적이 아니므로 출력은..

윈도우즈10 아나콘다 YoLoV3 초간단 설치

YoLoV3 는 80종의 객체로 구성된 COCO dataset 을 사용하여 학습되었다. 'person', 'bicycle', 'car', 'motorcycle', 'airplane', 'bus', 'train', 'truck', 'boat', 'traffic light', 'fire hydrant', 'stop sign', 'parking meter', 'bench', 'bird', 'cat', 'dog', 'horse', 'sheep', 'cow', 'elephant', 'bear', 'zebra', 'giraffe', 'backpack', 'umbrella', 'handbag', 'tie', 'suitcase', 'frisbee', 'skis','snowboard', 'sports ball', 'ki..

윈도우즈10 아나콘다에 YoLoV3 를 설치하자.

yolov3 설치 블로그 https://machinelearningspace.com/yolov3-tensorflow-2-part-2/ The beginner’s guide to implementing YOLOv3 in TensorFlow 2.0 (part-2) In part 1, we've discussed the YOLOv3 algorithm. Now, it's time to dive into the technical details of the Yolov3 implementation in Tensorflow 2. machinelearningspace.com 2022년 초 최신 아나콘다에 YoLo 버전3.0을 설치해보자. 윈도우즈10 - 아나콘다 시스템에서 여타의 라이브러리 처럼 YoLo는 가상환경의 O..

Image Classification 네트워크에서의 Batch Normalization

MNIST 수기문자 처리에서 볼 수 있듯이 10종의 수기 50000개를 일시에 처리하는 것이 아니고 예를 들자면 10종을 골고루 포함하는 100개 단위의 batch 를 택하여 수배회에 걸쳐 학습(train) 처리가 이루어진다. 이러한 과정에서 배치 정규화(Batch Normalization) 알고리듬이 도입이 가능할 것이다. 그 내용은 앞 입력층으로부터의 outcome들을 대상으로 통계적 평균과 표준편차를 구한 다음 outcome 으로부터 평균을 뺀 후(recentralizing) 표준편차로 나누어(resizing) 즉 통계학에서의 표준화 내지는 정규화(standardization) 를 실시하여 그 다음 hidden layer에 입력하는 과정을 뜻한다. 2015년 Sergey Ioff와 Christian..

카테고리 없음 2022.01.21