안녕

  • 홈
  • 태그
  • 방명록

선형 함수 1

[머신러닝 - 이론] 활성화 함수에서 비선형 함수를 사용해야 하는 이유 (Why We Use nonlinearlly function in Activation Function)

신경망에서 활성화 함수는 비선형 함수를 사용해야 합니다. 앞에서 본 계단 함수나 시그모이드 함수 모두 비선형 함수입니다. 그렇다면 선형함수는 무엇일까요? 선형함수는 y = ax + b와 같이 x 값의 배수를 출력하는 함수를 말합니다. 즉 1개의 곧은 직선이 됩니다. 왜 선형 함수는 사용하면 안 될까요? 바로 은닉층을 깊게하는 의미가 없어지기 때문입니다. 예를 들어 활성화 함수 h(x) = cx라고 가정해봅시다. 이때 3층 네트워크라고 가정하면 y = h(h(h(x)))가 되고, 이는 c^3 x와 같습니다. 근데 a = c^3이라고 한다면? 그냥 y = ax와 다를게 없습니다. 즉, 층을 깊게하는 의미가 없어지는 겁니다. 따라서 우리는 활성화 함수를 필연적으로 비선형 함수를 이용해야합니다. 그래야 층을 쌓..

인공지능/머신러닝 2022.05.07
1
프로필사진

  • 분류 전체보기 (462)
    • 인공지능 (74)
      • 머신러닝 (58)
      • Computer Vision (8)
      • Anaconda (6)
      • Pytorch (2)
    • 논문 (9)
      • Image&Video Recognition (4)
      • Image&Video Super-Resolutio.. (5)
      • QAT(Quantization Aware Trai.. (0)
      • PTQ(Post Training Quantizat.. (0)
    • Computer Science (281)
      • 컴퓨터 구조 (34)
      • 알고리즘 (179)
      • 네트워크 (43)
      • 비디오 코덱 (1)
      • 데이터 베이스 (24)
    • Python Library (55)
      • OpenCV (2)
      • Numpy (0)
      • Pandas (31)
      • Matplotlib (5)
      • 웹 크롤링 (9)
      • 오픈 소스 프로그래밍 (8)
    • 프로그래밍 언어 (10)
      • Python (9)
      • Matlab (1)
    • 수학 (16)
      • 확률과 통계 (16)
    • 여러 공부 (0)
    • 학교 수업 (7)
      • 회계와 사회 생활 (6)
    • 나의 일상 (10)

페이스북 트위터 플러그인

  • GitHub
  • Instagram

공지사항

  • 이것저것

방문자수Total

  • Today :
  • Yesterday :
06-02 00:06

Copyright © Kakao Corp. All rights reserved.

  • GitHub

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.