안녕

  • 홈
  • 태그
  • 방명록

렐루 함수 1

[머신러닝 - Python] 활성화 함수 - 렐루 함수 구현 (Activation Function - ReLU Function Implementation)

최근에 많이 사용하고 있는 활성화 함수의 비선형 함수로는 ReLU 함수가 있습니다. ReLU 함수는 0보다 작은 값에 대해서는 0을 출력하고, 0이 넘으면 그 값을 출력하는 함수입니다. 즉 식은 아래와 같습니다. h(x)={xx>00x≤0 간단하죠? 이를 코드로 구현해보겠습니다. import numpy as np import matplotlib.pyplot as plt def ReLU(x): return np.maximum(0, x) x = np.array([-1.0, 1.0, 2.0]) print(ReLU(x)) x = np.arange(-5.0, 5.0, 0.1) y = ReLU(x..

인공지능/머신러닝 2022.05.07
1
프로필사진

  • 분류 전체보기 (462)
    • 인공지능 (74)
      • 머신러닝 (58)
      • Computer Vision (8)
      • Anaconda (6)
      • Pytorch (2)
    • 논문 (9)
      • Image&Video Recognition (4)
      • Image&Video Super-Resolutio.. (5)
      • QAT(Quantization Aware Trai.. (0)
      • PTQ(Post Training Quantizat.. (0)
    • Computer Science (281)
      • 컴퓨터 구조 (34)
      • 알고리즘 (179)
      • 네트워크 (43)
      • 비디오 코덱 (1)
      • 데이터 베이스 (24)
    • Python Library (55)
      • OpenCV (2)
      • Numpy (0)
      • Pandas (31)
      • Matplotlib (5)
      • 웹 크롤링 (9)
      • 오픈 소스 프로그래밍 (8)
    • 프로그래밍 언어 (10)
      • Python (9)
      • Matlab (1)
    • 수학 (16)
      • 확률과 통계 (16)
    • 여러 공부 (0)
    • 학교 수업 (7)
      • 회계와 사회 생활 (6)
    • 나의 일상 (10)

페이스북 트위터 플러그인

  • GitHub
  • Instagram

공지사항

  • 이것저것

방문자수Total

  • Today :
  • Yesterday :
07-07 11:55

Copyright © Kakao Corp. All rights reserved.

  • GitHub

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.