본문 바로가기

Data/Data Science

(46)
[Pytorch] Basic Neural Network Neural Network 기본틀 저장 import torch import torch.nn.functional as F # 모델선언 class NeuralNet(torch.nn.Module): def __init__(self, input_size, hidden_size): super(NeuralNet, self).__init__() self.input_size = input_size self.hidden_size = hidden_size self.linear_1 = torch.nn.Linear(self.input_size, self.hidden_size) self.linear_2 = torch.nn.Linear(self.hidden_size, 1) def forward(self, input_tensor)..
Normalization, Regularization, Standardization Normalization(정규화), Standardization(표준화), Regularization모두 다 머신러닝 또는 딥러닝에 학습에 효율적 또는 Overfitting을 피하기 위해서 나온 기법들이다. Normalization, Standardization은 모델에서 특정 Feature가 값이 큰경우 해당 feature가 큰영향을 끼치는것을 방지하기위해서 적용하는 기법이다. Normalization 값의 범위를 0~1사이의 값으로 바꾸는 것 방법은 다양함 MinMaxScaler - 최대 최소값을 이용한 방법 Standard Score Student's t-statistic Studentized residual Standardized moment Coefficient of variation en.wi..
[Kaggle] Kaggle에 pyspark 설치하기 다음 명령어를 복붙하면된다! !pip install pyspark from pyspark import SparkContext, SparkConf from pyspark.sql import SparkSession sc = SparkContext.getOrCreate(SparkConf().setMaster("local[*]")) spark = SparkSession.builder.getOrCreate() 실행시키면 다음과같은 출력이나오고. 정상적으로 spark 명령어가 듣는걸 볼수가있다
[deeplearning.ai] Sequence Models Recurrent Neural Network(RNN) Model 왜 RNN을 사용해야하는건지? - Inputs, Outputs can be different lengths in different examples. (데이터의 고정적이지않은 길이에도 학습이 가능함) - Doesn't share features learned across different positions of text. (특정위치에 특징점을 잡지않고 유동적이게 특징점을 잡아줌. 이건 CNN에도 동일하다) Forward Propagation forward propagation의 과정은 위와같고, 공식은 아래와같다. 기본적으로 제일처음의 activation함수값(a)은 0으로 설정한다고한다. 그럼 들어있는 파라미터는 Wa,, ba, by인것같다..
[deeplearning.ai] Convolution Neural Network deeplearning.ai 코스의 네번째 수업 Convolution Neural Network(이하 CNN)이다. 컴퓨터 비전과 관련없는 일을 하고있지만 모르는것보단 낫지않은가..! 이참에 공부를해봐야겠다! Padding 패딩을 안하고 컨볼루션을 진행할경우, 코너나 모서리에 있는 정보들이 유실되는 현상이 발생하여 패딩작업을 먼저 진행함 패딩 공식은 N - 인풋이미지 크기 F - 컨볼루션 커널 크기 기존 아웃풋 이미지 크기 공식 (N-F+1) * (N-F+1) 아웃풋 이미지가 인풋 이미지와 같은 크기가 나오게끔 패딩을 한다면, (N+2P-F+1) * (N+2P-F+1) 에 공식에서 P값을 구하면 얼마나 패딩을 해야하는지 계산이됨. 즉, N=6, F=3일때, 6+2P-3 + 1 = 6(인풋이미지 크기) 가..
[deeplearning.ai] Structuring Machine Learning Projects Deeplearning.ai 코스 세번째 강의 시작... 이번엔 ML프로젝트에 필요한 지식들을 배운다고한다. TP&TN&FN&FP True Positive(TP) - 양성인데, 양성으로 제대로 검출된것 True Negative(TN) - 음성인데 음성으로 제대로 검출된것 False Positive(FP) - 음성인데 양성으로 잘못 검출된것 False Negative(FN) - 양성인데 음성으로 잘못 검출된것 Accuracy & Error Rate & Precision & Recall & ROC Accuracy = (TP + TN) / 전체 데이터 수 (정확도) Error Rate = (FP + FN) / 전체 데이터 수 (오류도) Precision = TP / (TP + FP) (정밀성, Positive..
[HMM] Hidden Markov Models [참조1]: https://www.youtube.com/watch?v=HB9Nb0odPRs [참조2]: https://www.youtube.com/watch?v=P02Lws57gqM Three problems of hidden Markov model HMM에서 풀수있는 문제들 나열 lambda = (A, B, pai) *O 는 Observations Given HMM(lambda) and O, find the probability of O > Evaluation problem Given HMM(lambda) and O, find the optimal hidden state sequence (S) > Decoding problem HMM의 핵심 Given X = {O1, ... , On}, find the..
[deeplearning.ai] Coursera 필기정리 4 Hyperparameter 여태까지 배운내용을 종합하여 다양한 하이퍼파라미터가 있다는걸 보았다. 정리해보자면 Alpha - learning rate Beta - Momentum 관련 Layers - 얼마나 깊은 네트워크를 만들것인지 Hidden Units - Hidden layers에 얼마만큼의 Unit을 넣을것인지 Learning rate decay mini-batch size 앤드류쌤은 빨간색 > 노랑색 > 보라색 순으로 중요한 하이퍼파라미터라고 말함 (뭐... 물론 다른사람도 있겠지만!) 또한 하이퍼파라미터 값은 격자형태(Grid, 왼쪽 네모칸)의 값을 선택하는것이 아닌 오른쪽 칸처럼 무작위로 선택하는걸 추천, 이유는 어느 하이퍼 파라미터가 중요한지는 누구도 모르기때문.