[BDA] Do it! 딥러닝 교과서 스터디(2)
2023. 5. 29. 02:48ㆍeducation/BDA 5-6기
3주차 진도: Chapter 6 (콘볼루션 신경망), Chapter 8(순환신경망)
CNN
1. 생체 신경망과 비슷한 점
- 뉴런은 좁은 영역의 자극에 반응함
- 뉴런마다 다른 모양의 특징을 인식하도록 뉴런의 역할이 나뉨
- 계층 구조를 이뤄 시각 정보를 계층적으로 처리함 -> 특징의 추상화 수준을 높임
2. 콘볼루션 신경망의 성질
- 이미지의 다양한 특징을 추출하기 위해 콘벌루션 계층 + 풀링연산을 하는 서브샘플링 계층으로 이뤄짐
- 입력데이터는 3차원의 텐서로 표현하는데 가로*세로 공간 특징을, 깊이로 채널 특징을 표현함
- 연산 성질
- 강한사전분포: 일부 파라미터를 사용하지 않음 (희소연결), 같은 계층의 뉴런은 파라미터 공유
- 이동불변성 - 특징이 어느 위치에 있든 동일하게 인식
- 위치불변성 - 입력이 조금 움직이면 출력이 안바뀜
- 강한사전분포: 일부 파라미터를 사용하지 않음 (희소연결), 같은 계층의 뉴런은 파라미터 공유
-
- 이미지의 특징을 추출하기 위해 콘볼루션 필터를 학습함
- 여러 단계로 계층화하여 특징의 추상화 수준을 높임
- 업샘플링 연산
- 이미지를 키우는 연산: 저차원의 고양이 이미지를 고차원의 고양이 이미지로 변환
- 세그멘테이션: 이미지 영역 분할
- 언풀링: 풀링의 반대 연산으로 요약 전 크기의 데이터로 복구하는 연산
- ex: 바늘방석, 최근접 이웃, 맥스 언풀링
3. 표준 컨볼루션의 한계
- 파라미터수와 계산량이 많음
- 죽은 채널이 발생해도 알기 어려움
- 여러 채널에 대해 한꺼번에 연산해서 공간특징과 채널 특징이 구분되지 않음.
RNN
CNN과 차이점: 시간적 공간적 순서 관계가 있는 순차 데이터 다룸, 순차데이터는 문맥 또는 콘텍스틑 갖음
1. 순차 구조를 인식하여 콘텍스트를 기억하는 모델구조
- 콘텍스트를 만들기 위해 은닉 계층에 피드백에 연결
- 세 종류의 가중치 W: 입력-은닉 계층을 연결하는 가중치, 은닉계층의 피드백 연결에 대한 가중치, 은닉-출력계층 연결 가중치
- 가중치 공유 효과
- 순차 구조를 파악할 수 있음
- 가변 길이 데이터를 처리하기 쉬움
- 파라미터 수가 절약되고 정규화 효과가 생김
2. 시간펼침 역전파
- 순환 신경망을 시간 순서대로 평친 상태에서 입력 ~ 출력까지 뉴런 실행 순서 정반대로 역전파를 수행
- 절단 시간펼침 역전파: 순차열이 아주 길거나 끝이 없는 경우 일정 단계씩 묶어서 순방향으로 진행한 후 , 역전파를 수행
3. 기본 순환 신경망의 한계
- 장기 의존성: 컨텍스트의 범위가 넓을 때 초기 입력의 영향이 매우 크지만 시간이 지나면서 영향이 사라지는 경우
- 그레이디언트 소실/폭발: 학습하면서 그레디언트가 없어지거나 발산하는 현상
- 그레이디언트 폭발 해결책: 그레디언트 클리핑을 통해 그레디언트가 일정 크기 이상 커지지 않도록 제한
4. 대표적인 RNN 모델: LSTM 과 GRU
(1) LSTM
- 가중치 W와의 행렬곱 연산이 그레이디언트 경로에 나타나지 않도록 구조 수정한 모델
- 은닉상태로 장기기억과 단기기억 모델링 -> 단기기억으로 새로운 사건을 예측, 장기 기억과 단기 기억 갱싱
- 네가지 게이트
- 망각 게이트: 장기기억을 지속할지 판단
- 입력 게이트: 새로운 사건으로 형성된 기억을 장기기억으로 전환할지 선택
- 기억 게이트: 장기 기억을 업데이트하기위해 입력 게이트를 통과한 새로운 기억 추가
- 출력 게이트: 갱신된 장기 기억에서 갱신된 단기 기억에 필요한 기억 선택
(2) GRU
- LSTM의 장점을 유지하면서 게이트 구조를 단순하게 만든 순환 신경망
- 두가지 게이트
- 리셋 게이트: 새로운 사건이 발생했을 때 기억을 새롭게 형성하기 위해 장, 단기 기억에서 필요한 부분 선택
- 업데이트 게이트: 기억을 업데이트하기 위해 기존 기억과 새롭게 형성한 기억의 가중평균 계산
'education > BDA 5-6기' 카테고리의 다른 글
[BDA] Do it! 딥러닝 교과서 스터디(3) (0) | 2023.06.12 |
---|---|
[BDA]Do it! 딥러닝 교과서 스터디(1) (0) | 2023.05.15 |