Fundamental Node
-
[딥러닝] 인공신경망Fundamental Node 2022. 3. 29. 17:09
[딥러닝] 인공신경망 1. 개요 2. 생물학적 신경세포와 인공신경망 비교 ============================= [딥러닝] 인공신경망 1. 인공신경망(Artificial Neural Network) 개요 - 인간 두뇌에 대한 계산적 모델을 통해 인공지능을 구현하려는 분야 - 인간의 뇌 구조를 모방 : 뉴런과 뉴런 사이에는 전기신호를 통해 정보를 전달 2. 생물학적 신경세포와 인공신경망 비교 (1) 신경세포(Neuron) - 수상돌기(Dendrite) : 다른 신경세포의 축색돌기와 연결되어 전기화학적 신호를 받아들이는 부위 - 축색돌기(Axon) : 수신한 전기화학적 신호의 합성결과 값이 특정 임계값 이상이면 신호를 내보내는 부위 - 신경연접(Synapse) : 수상돌기와 축색돌기 연결부위...
-
[파이썬]05. 제어문Fundamental Node 2022. 3. 28. 15:41
[파이썬]05. 제어문 1. 조건문 2. 반복문 3. 에러와 예외 ====================== [파이썬]05. 제어문 1. 조건문 (0) 조건문 개요 - 조건에 따라 문장을 수행 - 주어지 조건을 판단하고 상황에 맞는 처리가 필요할 때 사용 - 파이썬에서 제공하는 조건문 : if, else, elif (1) if문 - if문은 True와 False를 판단하는 조건문 - if 조건 뒤에는 콜론(:) - if 기본 문법 if : - if 구조도 - (예제) if문을 이용한 미세먼지 측정 º 미세먼지 농도 pm º 35 초과는 미세먼지 농도 나쁨 pm = 40 if pm > 35: print("미세먼지 농도 : 나쁨") (2) if-else문 - if-else 기본 문법 if : else: - e..
-
[파이썬]04. 리스트, 튜플, 세트, 딕셔너리Fundamental Node 2022. 3. 28. 15:29
[파이썬]04. 리스트, 튜플, 세트, 딕셔너리 1. 리스트 (1) 리스트 인덱싱 (2) 중첩 리스트 인덱싱 (3) 리스트 슬라이싱 (4) 중첩 리스트 슬라이싱 (5) 리스트 연산자/함수 (6) 리스트 수정 (7) 리스트 메소드 2. 튜플 (1) 튜플 인덱싱 (2) 중첩 튜플 인덱싱 (3) 튜플 슬라이싱 (4) 중첩 튜플 슬라이싱 (5) 튜플 연산자/함수 3. 세트 (1) 세트 연산자 (2) 세트 메소드 4. 딕셔너리 (1) 딕셔너리 요소 추가/삭제 (2) 딕셔너리 메소드 ========================= [파이썬]04. 리스트, 튜플, 세트, 딕셔너리 1. 리스트 (1) 리스트 - 변경 가능한 시퀀스 자료형 - 하나의 변수에 여러 값 할당 가능 - 같은 자료형이 아니라 다른 자료형을 가지는..
-
[딥러닝구조 및 학습]모델Fundamental Node 2022. 3. 26. 13:42
[딥러닝구조 및 학습]모델 1. 모델구성 2. 모델 레이어/가중치/바이어스 확인 3. 모델 컴파일 4. 모델 학습/평가 및 예측 5. MNIST 딥러닝 모델 예제 6. 모델 저장 및 복원 7. 콜백 ======================== [딥러닝구조 및 학습]모델 1. 모델구성 - Sequential API, 함수형 API, Subclassing API (1) Sequential API ⓐ 모델이 순차적인 구조로 진행할 때 사용 ⓑ 간단한 방법 - Sequential 객체 생성 후, add()메서드를 이용한 방법 - Sequential 인자로써 리스트형식으로 한번에 추가하는 방법 ⓒ 다중 입력 및 출력이 존재하는 등의 복잡한 모델을 구성할 수 없음 (2) 함수형 API ⓐ 가장 권장되는 방법 ⓑ 모..
-
[딥러닝]딥러닝 구조 및 학습-레이어Fundamental Node 2022. 3. 25. 21:57
[딥러닝]딥러닝 구조 및 학습-레이어 1. Dense 2. Activation 3. Flatten 4. Input ====================== [딥러닝]딥러닝 구조 및 학습-레이어 0. 레이어 개요 - 신경망의 핵심 데이터 구조 - 하나 이상의 텐서를 입력받아 하나 이상의 텐서를 출력하는 데이터 처리 모듈 - 상태가 없는 레이어도 있지만, 대부분 가중치(weight)라는 레이어 상태를 가짐 - 가중치는 확률적 경사하강법에 의해 학습되는 하나 이상의 텐서 - 케라스에서 사용되는 주요 레이어 : Dense, Activation, Flatten, Input 1. Dense - 완전연결계층(Fully-Connected Layer) - 노드수(유닛수), 활성화 함수(activation) 등을 지정 D..
-
[딥러닝]드롭아웃(Dropout)Fundamental Node 2022. 3. 24. 12:13
[딥러닝]드롭아웃(Dropout) 1. 의의 2. 효과 3. 코딩 ===================== [딥러닝]드롭아웃(Dropout) 1. 의의 ○ 과대적합을 방지하기 위한 방법 - 신경망을 위해 사용되는 규제 기법 중 가장 효과적이고 널리 사용되는 방법 ○ 드롭아웃 : 학습할 때 사용하는 노드의 수를 전체 노드 중 일부만 사용 - 예를 들어, [1.0, 3.2, 0.6, 0.8, 1.1] 라는 벡터에 대해 드롭아웃을 적용하면 무작위로 0으로 바뀜 → [0, 3.2, 0.6, 0.8, 0] - 보통 0.2 ~ 0.5 사이의 비율로 지정됨 2. 효과 ○ 신경망의 레이어에 드롭아웃을 적용하면 훈련하는 동안 무작위로 레이어의 일부 특성(노드)를 제외 3. 코딩 dropout_model = Sequenti..
-
[딥러닝]가중치 초기화Fundamental Node 2022. 3. 24. 11:35
[딥러닝]가중치 초기화 1. 가중치 소실 문제 2. 가중치 초기화 3. 가중치 초기화 전략 ============================== [딥러닝]가중치 초기화 1. 가중치 소실 문제 ○ 활성화 함수가 Sigmoid함수일 때, 은닉층의 갯수가 늘어날수록 가중치가 역전파되면서 가중치가 사라지는 문제 발생 - 0~1사이의 값으로 출력되며서 0 또는 1에 가중치값이 퍼짐 - 이는 미분값이 점점 0에 가까워짐을 의미 - ReLU함수 등장(비선형 함수) 2. 가중치 초기화 ○ 가중치의 값이 일부값으로 치우치게 되면, 활성화 함수를 통과한 값이 치우치게 되고, 표현할 수 있는 신경망의 수가 적어짐. ○ 활성화값이 골고루 분포되는 것이 중요. 3. 가중치 초기화 전략 (1) Glorot Initializat..
-
[딥러닝]옵티마이저2: Adagrad(Adaptive Gradient)Fundamental Node 2022. 3. 24. 10:14
[딥러닝]옵티마이저2: Adagrad(Adaptive Gradient) ================================ [딥러닝]옵티마이저2: Adagrad(Adaptive Gradient) 1. 개념 ○ 가장 빠른 경사를 따라 빠르게 하강하는 방법 - 과거의 기울기를 제곱하여 계속 더하기 때문에 학습을 진행할수록 갱신강도가 약해짐 ○ 학습률을 변화시키며 진행하며, '적응적 학습률'이라고도 부름 - 경사가 급할 때는 빠르게 변화, 완만할 때는 느리게 변화 ○ 간단한 문제에서는 좋을 수도 있지만, 딥러닝에서는 자주 쓰이지 않음. - 학습률이 너무 감소되어 전역 최소값(global minimum)에 도달하기 전에 학습이 빨리 종료될 수 있기 때문 2. 수식 3. 텐서플로우 케라스 코딩 optimi..