분류 전체보기 461

[머신러닝 - 이론] Logistic Regression (로지스틱 회귀)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.05.07 - [Computer Science/머신러닝] - [머신러닝 - Python] 활성화 함수 - 시그모이드 함수 구현 (Activation Function - Sigmoid Function Implemetation) [머신러닝 - Python] 활성화 함수 - 시그모이드 함수 구현 (Activation Function - Sigmoid Function Implemetation) 퍼셉트론은 계단 함수를 사용하지만, 이는 활성화 함수의 일부일 뿐이다. 실제로 제대로 된 신경망을 구현하기 위해서는 다양한 활성화 함수를 이용해야만 한다. 대표적인 활성화 함수로는 시 hi-guten-tag.tistory.com 1. 로지스틱 회귀란? 어떤 회귀 알고리즘..

[머신러닝 - 이론] Regularization (규제)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] Polynomial Regression (다항 회귀) [머신러닝 - 이론] Polynomial Regression (다항 회귀) 앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] Linear Regression (선형 회귀) [머신러닝 - 이론] Linear Regression (선형 회귀) 앞의 글을 읽으시면 이해 hi-guten-tag.tistory.com 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] OverFitting, UnderFitt..

[머신러닝 - 이론] OverFitting, UnderFitting, Cross Validation (과대 적합, 과소 적합, 교차 검증)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] Polynomial Regression (다항 회귀) [머신러닝 - 이론] Polynomial Regression (다항 회귀) 앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] Linear Regression (선형 회귀) [머신러닝 - 이론] Linear Regression (선형 회귀) 앞의 글을 읽으시면 이해 hi-guten-tag.tistory.com 1. OverFitting, UnderFitting이란? OverFitting은 과잉 적합, 과대 적합으로 불리며, 모델이 훈련 데..

[머신러닝 - 이론] Polynomial Regression (다항 회귀)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.18 - [Computer Science/머신러닝] - [머신러닝 - 이론] Linear Regression (선형 회귀) [머신러닝 - 이론] Linear Regression (선형 회귀) 앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.04.07 - [Computer Science/머신러닝] - [머신러닝 - 이론] 인공지능이란? (What is artificial intelligence?) [머신러닝 - 이론] 인공지능이란? (What is artificial intellig hi-guten-tag.tistory.com 1. 다항 회귀란? 만약 가지고 있는 데이터가 직선보다 복잡하다면 어떨까요? 여전히 linear model이 nonlin..

[머신러닝 - 이론] Linear Regression (선형 회귀)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.04.07 - [Computer Science/머신러닝] - [머신러닝 - 이론] 인공지능이란? (What is artificial intelligence?) [머신러닝 - 이론] 인공지능이란? (What is artificial intelligence?) 들어가기에 앞서서 머신러닝의 대다수의 글은 코드 보다는 수학적 이론, 설명 위주로 할 예정입니다. 저는 원래 설명 - 수학적 이론 - 코드 방식으로 공부하는 bottom-up 방식을 매우 좋아합니다. hi-guten-tag.tistory.com 2022.04.08 - [Computer Science/머신러닝] - [머신러닝 - 이론] 머신러닝의 기초 (Fundamental of Machine Lear..

[CV - Python] 가우시안 필터의 성질

가우시안 필터는 이미지의 전체적인 구조를 떨어뜨리지 않고, 유지하면서 스케일을 크게하는 효과를 가지고 있다. 즉 샘플링에 따른 이미지 정보의 손실을 최소화 하면서, 해당 스케일에서의 이미지 구조를 잘 보존하고 있다. 지금까지 알려진 필터 중에는 가우시안 필터가 유일하다고 한다. 아래는 가우시안 필터를 적용했을 때, 250, : 픽셀들을 그래프로 나타낸 코드이다. import cv2 import numpy as np import matplotlib.pyplot as plt img = cv2.imread('Lenna.png', cv2.IMREAD_GRAYSCALE) img = cv2.resize(img, (500, 700)) fig, ax = plt.subplots(2, 3, figsize = (9, 9))..

[CV - Python] Gaussian Filtering

코드가 다소 부정확 할 수 있습니다. import cv2 import numpy as np def gaussian_distribution(sigma = 1) -> np.array: x, y = np.meshgrid(np.arange(-4, 5), np.arange(-4, 5)) z = np.exp(-((np.square(x) / (2 * np.square(sigma)) + (np.square(y) / (2 * np.square(sigma)))))) / (2 * np.pi * sigma * sigma) z = np.sum(z, axis = 1) / 2 return z img = cv2.imread('Lenna.png', cv2.IMREAD_GRAYSCALE) img = cv2.resize(img, (500..

[CV - python] 2D Partial Derivative for Edge Detection (엣지 검출을 위한 2차원 편미분)

코드가 궁금하다면 댓글을 남겨주세요. import numpy as np import cv2 img = cv2.imread('test4.jpg', cv2.IMREAD_GRAYSCALE) img = cv2.resize(img, (400, 600)) new_x = np.zeros(img.shape) new_y = np.zeros(img.shape) img = np.pad(img, (1, 1), 'constant', constant_values = 0) mask_x = np.array([[-1, 0, 1], [-2, 0, 2], [-1, 0, 1]]) mask_y = np.array([[1, 2, 1], [0, 0, 0], [-1, -2, -1]]) for i in range(1, img.shape[0] - m..

[컴퓨터 구조] Type of Instruction (명령어의 타입)

앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.10.01 - [Computer Science/컴퓨터 구조] - [컴퓨터 구조] RISC-V 명령어 작동 과정 (RISC-V Instruction Operation Process) [컴퓨터 구조] RISC-V 명령어 작동 과정 (RISC-V Instruction Operation Process) 앞의 글을 읽으시면 이해에 도움이 됩니다. 2022.09.24 - [Computer Science/컴퓨터 구조] - [컴퓨터 구조] Assembly Language (컴퓨터의 언어 - 어셈블리어) [컴퓨터 구조] Assembly Language (컴퓨터의 언어 -.. hi-guten-tag.tistory.com 2022.09.24 - [Computer Scien..