ReLU 함수 계산기 & 그래프

ReLU(Rectified Linear Unit) 함수는 인공신경망에서 가장 널리 사용되는 활성화 함수입니다.
입력값이 0보다 작으면 0, 크거나 같으면 그대로 출력하는 간단한 구조입니다.

ReLU 함수란?

수식: ReLU(x) = max(0, x)
- 음수는 0으로, 양수는 그대로 출력됩니다.
- 계산이 간단하고 학습이 빠릅니다.

입력




계산 결과

ReLU 함수 그래프

댓글 없음:

댓글 쓰기