본문 바로가기

DataScience59

컴퓨터 비전 :: Linear Filters(Cross-correlation, Convolution) 본 포스팅은 성균관대학교 최재영 교수님의 '컴퓨터 비전(Computer Vision)' 강의 내용을 참고하여 작성되었습니다. 컴퓨터 비전 :: Linear Filters(Cross-correlation, Convolution) - 이미지에는 노이즈가 있다.(Sensor 품질, 빛의 파동, 양자화 등) → 노이즈를 어떻게 줄일지, 어떻게 유용한 Feature를 찾을 지 - Image Warping은 화소의 위치 변경 - Image Filtering은 화소의 값을 변경 ① 이미지로부터 유용한 정보를 얻을 때 ② 영상의 속성(노이즈 제거, 해상도, 훼손 복원) 향상 및 수정할 때 *CNN(Convolutional Neural Network)이란? : 컴퓨터가 이미지의 특징을 모아 뉴런에서 내용을 인식, Loc.. 2023. 6. 15.
컴퓨터 비전 :: Geometric Camera Models 본 포스팅은 성균관대학교 최재영 교수님의 '컴퓨터 비전(Computer Vision)' 강의 내용을 참고하여 작성되었습니다. 컴퓨터 비전 :: Geometric Camera Models Image Formation의 Factors - Geometry(위치 관계) - Radiometry(복사량, 색상, 반사된 빛의 양) - Photometry(빛의 세기) - Digitizaion(연속적 → 이산적으로 변환) Image Transformation · 선형 변환 - 선형 변환의 경우 P'=T(p)에 따라 아래와 같이 표현 가능 (1) 크기 변환(Scaling) (2) 반전(Mirroring) ① y축에 대한 반전 ② y=x에 대한 반전 (3) 각도(θ) 변환(Rotation) - 아래와 같은 좌표의 평행이동(.. 2023. 6. 14.
딥러닝 :: 밑바닥부터 시작하는 딥러닝 Chap5. 오차역전파법 밑바닥부터 시작하는 딥러닝 Chapter 05. 오차역전파법(Backpropagation) 본 포스팅은 「밑바닥부터 시작하는 딥러닝 - 사이토 고키, 한빛미디어」라는 서적을 참고하였으며, 작성자가 공부한 내용을 기록하는 목적으로 작성하였습니다. 오차역전파법(Backpropagation) 신경망의 가중치 매개변수의 기울기를 구할 때, 수치미분은 단순하고 구현하기 쉽지만 계산시간이 오래 걸리는 단점이 있다. 이에 반해 오차역전파법은 효율적으로 가중치 매개변수의 기울기를 계산할 수 있다. 5.1 계산 그래프(Computational graph) 계산 과정을 그래프로 나타낸 것. 복수의 노트(node)와 에지(edge)로 표현된다. 5.1.1 계산 그래프로 풀다 계산그래프를 이용한 문제 풀이 흐름 1) 계산 그.. 2023. 5. 6.
딥러닝 :: 밑바닥부터 시작하는 딥러닝 Chap4. 신경망 학습 밑바닥부터 시작하는 딥러닝 Chapter 04. 신경망 학습 본 포스팅은 「밑바닥부터 시작하는 딥러닝 - 사이토 고키, 한빛미디어」라는 서적을 참고하였으며, 작성자가 공부한 내용을 기록하는 목적으로 작성하였습니다 · 학습 : 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것을 뜻한다. 신경망이 학습하기 위해서는 '손실함수'가 사용되며, 이 손실함수의 결과값을 최소로 하는 가중치 매개변수를 찾는 것이 학습의 목표이다. 본 포스팅에서는 이러한 방법 중 "경사법"을 다룬다. 4.1 데이터에서 학습한다! 4.1.1 데이터 주도 학습 기계학습은 주로 아래와 같이 두 가지 단계를 통해 데이터(Data)로부터 정답이나 패턴을 찾는다. · 예를들어 컴퓨터비전 분야에서는 1) 데이터에서 특징(Featur.. 2023. 5. 5.
딥러닝 :: 밑바닥부터 시작하는 딥러닝 Chap3. 신경망 밑바닥부터 시작하는 딥러닝 Chapter 03. 신경망(Neural Network) 본 포스팅은 「밑바닥부터 시작하는 딥러닝 - 사이토 고키, 한빛미디어」라는 서적을 참고하였으며, 작성자가 공부한 내용을 기록하는 목적으로 작성하였습니다. · 앞선 챕터에서는 퍼셉트론을 활용해 복잡한 함수도 표현 가능하다는 점을 알 수 있었다. · 하지만 여전히 가중치를 설정하는 작업은 사람이 수동으로 해야 하는 점이 남아있으며, 이를 해결하기 위해 신경망이 좋은 해답이 된다. · 신경망의 중요한 성질 중 하나는 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습하는 능력이 있다는 점이다. 3.1 퍼셉트론에서 신경망으로 3.1.1 신경망의 예 신경망은 입력층(0층), 은닉층(1층), 출력층(2층)으로 구성된다. 여기서.. 2023. 5. 3.
딥러닝 :: 밑바닥부터 시작하는 딥러닝 Chap2. 퍼셉트론 밑바닥부터 시작하는 딥러닝 Chapter 02. 퍼셉트론(Perceptron) 본 포스팅은 「밑바닥부터 시작하는 딥러닝 - 사이토 고키, 한빛미디어」라는 서적을 참고하였으며, 작성자가 공부한 내용을 기록하는 목적으로 작성하였습니다. 퍼셉트론(Perceptron) 프랑크 로젠블라트가 1957년에 고안한, 신경망(딥러닝)의 기원이 되는 알고리즘 2.1 퍼셉트론이란 다수의 신호를 입력으로 받아 하나의 신호를 출력한다. 퍼셉트론 신호는 '흐른다(1)/흐르지 않는다(0)'의 두 가지 값을 가진다. x1, x2는 입력신호 w1, w2는 가중치(weight) *가중치가 클 수록 해당 신호가 그만큼 더 중요함을 뜻함 y는 출력신호 그림의 각 원은 뉴런 혹은 노드라고 부른다. 뉴런에서 보내온 신호의 총합이 정해진 한계를.. 2023. 5. 2.
딥러닝 :: 밑바닥부터 시작하는 딥러닝 Chap1. 헬로 파이썬 밑바닥부터 시작하는 딥러닝 Chapter 01. 헬로 파이썬 본 포스팅은 「밑바닥부터 시작하는 딥러닝 - 사이토 고키, 한빛미디어」라는 서적을 참고하였으며, 작성자가 공부한 내용을 기록하는 목적으로 작성하였습니다. 1.3.1 산술연산 - 사칙연산(+, -, *, /) - 거듭제곱(**) *파이썬2에서는 정수끼리 계산한 결과는 정수(ex. 7÷5의 결과는 1) *파이썬3에서는 정수를 나눈 결과는 실수(부동소수점) 1.3.2 자료형 - type() 을 사용하여 특정 데이터 자료형을 확인 가능하다. type(10) -> 정수 type(2.718) -> 실수 type("hello") -> 문자열 1.3.3 변수 변수의 정의 : x = 10 y = 3.14 print(x) 1.3.4 리스트 a = [1, 2, 3.. 2023. 5. 1.
머신러닝 :: Support Vector Machine 머신러닝 :: 9. Support Vector Machine Support Vector Machine · 서포트 벡터 머신(Support Vector Machine)은 주어진 데이터셋을 바탕으로 카테고리를 분류할 수 있는 선형 분류 모델을 만드는 것을 말한다. 서포트 벡터 머신(support vector machine, SVM[1][2])은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공.. 2023. 4. 28.
머신러닝 :: Constrained Optimization 머신러닝 :: 8. Constrained Optimization Constrained Optimization · Constrained Optimization은 제한이 걸린 상황에서 최적화문제를 푸는 방법으로 SVM(Support Vector Machine)을 알아보기 전에 알아두어야 할 개념이다. 즉, 제한이 있는 input(x 또는 아래 그림의 w)에 따른 최적화 문제를 푸는 것이다. · 이를 수식으로 풀어보기 위해 먼저 f(x)가 n차원 공간의 함수일 때, 즉 w = (w_1, w_2, ..., w_n)일 때 아래처럼 표현된다. · 이 때 equality constraint(g_j(w))와 inequality constraint(f_j(w))는 아래와 같이 convex(아래로 볼록)하다고 가정한다. .. 2023. 4. 27.
머신러닝 :: Naive Bayesian 머신러닝 :: 7. Naive Bayesian Naive Bayesian · 예측 결과에 대한 확률이 주어졌을 때, input 인자들이 서로 독립(Independent)이라고 가정하는 방법이다. · Naive : 느슨한, Overfitting을 피하는 컨셉? → 수행이 매우 쉬운 특징이 있으며 Dataset이 아주 적지만 않다면(Moderate or large training set), 큰 Dataset이 아니더라도 양호한 예측결과를 얻어내는 방법이다. (*각 class의 속성들이 Conditionally independent할 때 사용 가능) → 하지만 만약 input class이 correlation이 크거나, 데이터셋이 일정 수보다 작다면 성능이 떨어지는 문제가 있다. → 본 방법은 진단(Diagn.. 2023. 4. 26.
반응형