분류 전체보기(175)
-
22.03.24 Kfood 프로젝트 GitHub에 올리기
https://www.lainyzine.com/ko/article/how-to-set-git-repository-username-and-email/ Git 최초 설정: 사용자 이름과 이메일 설정하는 방법 Git 저장소에 커밋할 때 이름과 이메일이 기록되며, 이 이메일은 GitHub 사용자와 연결할 때도 사용됩니다. 이 글에서는 커밋에 기록되는 사용자 이름과 이메일을 설정하는 방법을 소개합니다. www.lainyzine.com 용량이 딸려서 fatal: the remote end hung up unexpectedly 가 뜸 100GB * 1024 * 1024 한 값을 git config에 수정해줌. https://bongbongreview.tistory.com/94 Git 사용간 fatal: the rem..
2022.03.24 -
22.03.22 딥러닝 학습과정1 - loss function과 optimizer
딥러닝의 학습과정에서는 loss function , optimizer, epoch의 개념이 쓰인다. - loss function(손실함수) : loss = f(w,b) = pred - 실제정답 을 수치화하는 함수. ex) 회귀 - MSE, 분류 - cross entropy loss function의 종류 1. MSE(Mean Squared Error) model.compile(optimizer='adam', loss='mse', metrics=['mse']) 2. Binary Cross Entropy 출력층에서 sigmoid를 사용하는 Binary Classification의 경우 사용하는 손실함수. model.compile(loss='binary_crossentropy', optimizer='adam'..
2022.03.22 -
22.03.21 Activation Function
퍼셉트론(Perceptron) : 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘. 일정치 이상의 크기를 가지면 신호를 전달한다. 활성화함수 Activation Function : 퍼셉트론에서 hidden layer과 output layer의 뉴런에서 출력값을 결정(일정치 이상이면 어떤 값으로 내보내겠다)하는 함수 f(x). - ex. f(x) = step function , sigmoid function, tanh, ReLU, softmax - 활성화함수의 특징 : 비선형 함수(Nonlinear function)이다. f(x) = wx+b이면 안된다. 왜냐하면 hidden layer를 여러개 계속 쌓을 수 없다. 만약 활성화함수가 선형함수이면 f(x) = wx+b 이고, hidden layer를 여..
2022.03.21 -
22.03.21 퍼셉트론(Perceptron)과 DNN / Activation Function / FFNN, RNN과 FC=Dense layer
인공신경망(Artificial Neural Network)는 수많은 머신 러닝 기법 중 하나이다. 인공신경망을 복잡하게 쌓아올린 딥러닝(Deep Learning = DNN) 이 성능이 좋아지면서 전통적인 머신러닝과 딥러닝을 구분해서 이해해야 한다는 의견이 나오면서 두 분야의 이름을 달리 부른다고 한다. 먼저 초기의 인공 신경망인 퍼셉트론에 대해 알아보자. Perceptron : 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘. 실제 뇌의 신경세포 뉴런에서 따왔다. 뉴런은 가지돌기에서 신호를 받아들이고 이 신호가 일정치 이상의 크기를 가지면 신호를 전달한다. 단층 퍼셉트론(Single Layer Perceptron)과 다층 퍼셉트론(Multi Layer Perceptron)이 있다. 아래 그림은 기본적..
2022.03.21 -
22.03.21 Sample과 Feature / 혼동행렬(Confusion Matrix)
대부분 머신러닝 문제는 1개 이상의 독립변수 input x를 가지고 종속변수 output y를 예측하는 문제이다. 머신러닝 모델 중 특히 인공신경망은 독립변수 x, 종속변수 y, 가중치 w, 편향 b를 행렬 연산을 통해 연산하는 경우가 많다. training set을 행렬로 표현하는 경우가 많다. Sample : 머신러닝에서 하나의 데이터, 위 그림 행렬에서는 하나의 row Feature : 종속변수 y를 예측하기 위한 각각의 독립변수 x, 위 그림 행렬에서 하나의 column 혼동 행렬(Confusion Matrix) Accuracy : 맞춘 문제수 / 전체 문제수 Confusion Matrix : 그러나 맞춘 결과 틀린 결과에 세부적인 내용을 알려주지 않으므로, TF의 경우를 세부적으로 알려주는 행렬..
2022.03.21 -
22.03.21 Validation 세트, Test 세트의 차이
머신 러닝 모델의 평가 머신 러닝을 위한 데이터를 준비했다면 기계를 학습하기 전 해당 데이터를 훈련용, 검증용, 테스트용 이렇게 세 가지로 분리하는 것이 일반적이다. 대부분 training : val : test = 8:1:1의 비율로 분리한다. Training set : 모델을 학습하는 용도 Validation set : 모델의 성능을 조정(tuning)하기 위한 용도. 과적합 되고있는지 판단 or 하이퍼파라미터의 조정을 위한 용도. 검증용 데이터에 대해서 높은 정확도를 얻도록 하이퍼파라미터의 값을 바꿔보는 것이다. 이렇게 튜닝하는 과정에서 모델은 검증용 데이터의 정확도를 높이는 방향으로 점차적으로 수정된다. Test set : 학습한 모델의 성능을 평가하기 위한 용도. 튜닝 과정을 모두 끝내고 모델의..
2022.03.21