ReLU 함수 계산기 & 그래프
ReLU(Rectified Linear Unit) 함수는 인공신경망에서 가장 널리 사용되는 활성화 함수입니다.
입력값이 0보다 작으면 0, 크거나 같으면 그대로 출력하는 간단한 구조입니다.
ReLU 함수란?
수식: ReLU(x) = max(0, x)
- 음수는 0으로, 양수는 그대로 출력됩니다.
- 계산이 간단하고 학습이 빠릅니다.
ReLU(Rectified Linear Unit) 함수는 인공신경망에서 가장 널리 사용되는 활성화 함수입니다.
입력값이 0보다 작으면 0, 크거나 같으면 그대로 출력하는 간단한 구조입니다.
수식: ReLU(x) = max(0, x)
- 음수는 0으로, 양수는 그대로 출력됩니다.
- 계산이 간단하고 학습이 빠릅니다.
댓글 없음:
댓글 쓰기