반응형

분류 전체보기 764

[Python] 머신러닝 Keras MNIST, CIFAR10 데이터셋이란? 실습

목차 파이썬 Tensorflow의 MNIST 이란? 앞서 포스트에서 데이터셋(Dataset)에 대해 알아보았습니다. MNIST는 텐서플로우(Tensorflow) 라이브러리에서 제공하는 데이터셋 입니다. 위와 같은 손으로 쓴 듯한 숫자 정보를 MNIST에서 가지고 있습니다. 그래서 해당 데이터를 이용해서 머신러닝(Machine Learning) 사용자들은 학습을 통해 해당 숫자를 구분하는 연습을 할 수 있습니다. 그리고 MNIST는 Modified National Institute of Standards and Technology 의 약자로 해당 기관에서 이미지 프로세싱(Image Processing) 학습을 위해 데이터를 제공 합니다. 위 그림과 같은 흑백의 경우 하나의 픽셀이 0~255의 값을 가지고 ..

[머신러닝]데이터 세트(Dataset)란? sklearn iris 예제로 알아보기

목차 Machine Learning 데이터 세트(Dataset)란? 기계학습의 핵심은 데이터를 통해 학습을 하기 때문에 데이터란 기계학습의 근간이라고 할 수 있습니다. 머신러닝을 사용하는 사용자들 간에 데이터의 통일을 위해 암묵적인 합의에 대해 얘기할까 합니다. 데이터 셋은 아래의 2가지 요소로 크게 분류 할 수 있습니다. 행(Row) : Example 열(Column) : Features 아래의 간단한 예제를 통해 쉽게 이해할 수 있습니다. 녹색에 해당하는 행 부분이 예제(Example)이고 열로 표현되는 노란색 부분이 특징(Feature)을 의미합니다. 일반적인 데이터 셋이 그림1과 같이 구성됩니다. 그렇지 않은 경우도 가끔 있으니 데이터셋을 사용하실때 항상 데이터를 확인하셔야 합니다. 그림으로 표현..

머신러닝이란? 분류하기와 간단한 정리글(Machine Learning, Supervised/Unsupervised/Reinforcement Learning)

목차 Machine Learning이란? 분류 하기 위키피디아에서는 위 그림과 같이 AI > ML > Deep Learning 으로 관계를 정의합니다. 머신 러닝이라 함은 1959년에 Samuel에 의해 아래와 같이 정의합니다. Machine Learning: field of study that gives computers the ability to learn without being explicitly programmed 즉, 프로그램된 동작이 아닌 스스로 학습해서 행동하는 것을 머신 러닝이라고 합니다. 그 뒤에 Tom Mitchell 이라는 분이 1988년에 3가지 요소로 머신러닝을 다시 정의하였습니다. Learn from Experience With respect to some class of Ta..

[선형대수학]선형 독립이란? 직교와의 차이, 기저(Linearly independent, Orthogonality, Basis)

해당 포스트(Linear Algebra)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. [선형대수학]선형 독립이란? 직교와의 차이 수식1과 같이 선형 조합(Linear Combination)으로 표현한 벡터(Vector)의 합이 0이되지 않는 조합으로만 이루어 진다면 이는 선형 독립 벡터(Linearly Independent Vector)라고 합니다. 예를 들어 수식2와 같은 벡터는 스칼라를 1과 -1/3으로 곱해서 더하면 0이기 때문에 선형독립이 아닌 벡터 입니다. 수식3과 같은 경우는 스칼라(Scalar) 값을 바꿔도 0을 만들 수 없기 때문에 x, y 벡터(Vector)는 선형 독립입니다. 선형 독립과 직교의 차이와 특성 그림과 같이 a, c와..

[선형대수학]행렬(Matrix) 곱셈의 의미, Span, Linear Combination: 내적(Dot Product),Rank1,열공간(Column Space),행공간(Row Space)

해당 포스트(Linear Algebra)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. 행렬(Matrix) 곱셈의 의미 : 내적(Dot Product) X와 Y라는 행렬이 있습니다. X는 1 x n의 행벡터 x1~xn으로 구성되어 있습니다. Y는 n x 1의 열벡터 y1~yn으로 구성되어 있습니다. XY의 행렬곱은 수식1과 같이 정의 됩니다. 곱에 의한 수식을 보면 앞서 내적에서 공부한 내적 수식의 형태로 표현이 될 수 있음을 알 수 있습니다(https://scribblinganything.tistory.com/671). 즉, 행렬의 벡터들은 서로의 상관 관계를 알려주는 내적으로 곱이 표현됨을 알 수 있습니다. 행렬(Matrix) 곱셈의 의미 : R..

[머신러닝]퍼셉트론(Perceptron)이란? (MLP(Multi Layer), 활성화 함수, 사용목적, 풀이)

목차 해당 포스트(Machine Learning)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. Deep Learning 퍼셉트론(Perceptron)이란? 앞서 포스트에서 신경망(NN, Neural Network)에 대해 알아보았습니다(https://scribblinganything.tistory.com/672). 해당 도식은 단순히 입력의 합을 출력으로 보내주었습니다. 퍼셉트론(Perceptron)은 기존의 입력이 출력으로 가는 활성화 함수(Acitivation Function)에 Step 함수와 같은 값을 넣어서 입력이 음수이면 -1을 양수이면 +1을 출력 해줍니다. 퍼셉트론(Perceptron)을 사용하는 이유(목적)은 0, 1과 같이 Dis..

[선형대수학] 놈(Norm)이란? 벡터 길이측정(Vector, l1, l2, Infinity)

목차 해당 포스트(Linear Algebra)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. Norm(놈)이란? 저희가 벡터(Vector)의 길이를 잴 때 사용하는 Norm은 2-Norm, L2-Norm 이라고도 부릅니다. 위와 같이 x벡터의 Norm은 아래와 같이 구할 수 있습니다. 위 수식1과 같이 2의 제곱으로 표현되기 때문에 2-Norm 이라고도 불립니다. 그리고 일반적인 벡터의 크기는 2-Norm으로 구해집니다. 수식1과 같이 절대값 아래에 2를 넣거나 생략이 가능 합니다. 1-Norm, P-Norm, Infinity-Norn 이란? 1 Norm은 수식1에서 2를 단순히 1로 바꾸기만 하면 됩니다. 위 수식2를 참조하시면 됩니다. 동일한 방..

[머신러닝] 인공 신경망이란?(ANN, Artificial Neural Network), 예제 풀이(Example)

목차 해당 포스트(Machine Learning)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. 인공 신경망(ANN, Artificial Neural Network)이란? 위와 같이 몸무게 데이터와 수명과의 관계알려주는 데이터를 그림1과 같이 모았습니다. 이때 몸무게 데이터는 x값으로 그리고 수명 데이터는 y 데이터로 표기 해줍니다. 이를 선형대수학의 행렬(Matrix)과 벡터(Vector)로 표현하면 아래와 같습니다. 최종적으로 Loss 함수를 최소화(https://scribblinganything.tistory.com/670) 하는 x벡터 값을 찾는 것이 머신 러닝의 모델링 방법인 것입니다. 그리고 수식2와 같이 a, b 변수를 찾는 선형식이기 ..

[선형대수학] 내적이란?(Dot product), 수식, 정규화, 단위 벡터(Normalize,Unit vector)

목차 해당 포스트(Linear Algebra)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. 내적이란?(Dot product) 수식은 위와 같이 간단합니다. 예를 들어 [1 3], [2 4] 벡터의 내적은 위 수식에 따르면 2+12= 14가 됩니다. 내적의 의미에 대해 살펴 보겠습니다. 벡터의 크기를 알려 줄때는 위 수식2와 같이 || || 로 표기 합니다. 위 수식 2는 고등학교때 나오는 수식으로 좌표계에서 임의의 벡터에 대해 그려보면 수식2와 같이 증명이 됨을 알 수 있습니다. 수식2는 수식3으로 설명이 됩니다. x크기에 cosΘ를 곱한 것은 위 그림에서 노란선의 점선과 마주치는 곳까지의 y벡터 값이 됩니다. 즉 내적의 수식을 통해 의미를 살펴 ..

[머신러닝]경사하강법 미분 수식 풀이(Gradient Descent), 벡터 미분, Loss 함수, 학습률(Learning rate, Newton-Raphson)

목차 해당 포스트(Linear Algebra)는 유투브 혁펜하임의 강의 내용을 듣고 제 생각대로 정리한 내용이라 틀린 내용이 있을 수 도 있습니다. 선형 회기 Loss 함수 최소 값 찾기 앞서 포스트에서 선형회기(Linear Regression)에 대해 알아보았고(https://scribblinganything.tistory.com/668) 회기 모델을 만들기 위해 위 수식1을 최소화 하는 것이 데이터를 대표하는 모델이라는 것에 대해 확인하였습니다. 수식1은 Loss Function으로 2차 방정식입니다. f(x) 값이 작을 수록 loss 가 작아지는 것입니다. 찾고 싶은 값은 x 벡터(vector) 값입니다. 여기서 a는 기울기 b는 절편의 값입니다. 나머지 y벡터와 A 행렬은 이미 알고 있는 데이터 ..

반응형