일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 아파치
- 신경망 학습
- 역전파
- picoCTF
- PHP
- FastAPI
- 설치
- sgd
- Python Challenge
- flag
- 신경망
- 기울기
- 우분투
- 리뷰
- 코딩
- PICO CTF
- Apache2
- 오차역전파법
- 백준
- 순전파
- AdaGrad
- HTML
- Python
- C언어
- 파이썬
- CTF
- 딥러닝
- 소프트맥스 함수
- 책
- PostgreSQL
Archives
- Today
- Total
Story of CowHacker
딥러닝 2.0 신경망 본문
728x90
신경망 : 앞에서 본 퍼셉트론의 발전 형태다.
신경망의 원리
신경망은 입력층, 은닉층, 출력층 총 3가지 층으로 이뤄져있다.
신경망과 퍼셉트론의 차이점?
퍼셉트론에서는 가중치의 값을 사람이 수동으로 설정 해야한다는점이다.
신경망에서는 이 가중치 값을 데이터로 부터 자동으로 학습해 설정한다.
다음은 신경망과 퍼셉트론에서 사용하는 함수에 대해 알아보겠다.
활성화 함수
활성화 함수 : 입력 신호의 총합을 출력 신호로 변환하는 함수다.
활성화 함수 식
a = b + w1x1 + w2x2
y = h ( a)
활성화 함수 처리 과정
그림2 편향이 1로 고정된걸 알수있다.
그 이유는 편향의 입력 신호는 항상 1이기 때문이다.
다음은 신경망에서 사용하는 활성화 함수중 두가지를 알아보겠다.
728x90
'공부 > 딥러닝' 카테고리의 다른 글
딥러닝 2.4 신경망 (0) | 2020.08.03 |
---|---|
딥러닝 2.3 신경망 (0) | 2020.08.03 |
딥러닝 2.2 신경망 (0) | 2020.07.26 |
딥러닝 2.1 신경망 (0) | 2020.07.26 |
딥러닝 1. 퍼셉트론 (0) | 2020.07.22 |
Comments