티스토리 뷰

1. 신경망

  • 인공신경망? 1943년 신경 생리학자 워런 맥컬록과 수학자 월터 피츠가 이를 처음 소개
  • 명제논리를 사용하여 동물 뇌의 생물학적 뉴런이 복잡한 계산을 위해 어떻게 상호작용하는지에 대한 간단한 계산 모델 제공 -> 최초의 인공 신경망 구조 

생물학적 뉴런 

  • 생물학적 뉴런은 대부분 동물의 대뇌피질( 예를 들면 우리의 뇌)에서 발견되며 핵을 포함하는 세포차와 세포의 복잡한 구성요소로 이루어져 있다.
  • 수상돌기(dendrite) : 나뭇가지 모양의 돌기
  • 축삭돌기(axon) : 나뭇가지 모양의 축삭 돌기
  • 축삭돌기의 끝은 축삭끝까지(telodendria)라 불리는 여러 개의 가지로 나뉘고, 이 가지의 끝은 시냅스 말단(synaptic terminals)이라 불리는 미세한 구조이고 다른 뉴런의 수상돌기와 (또는 세포체에 직접)연결되어 있다.
  • 생물학적 뉴런은 이런 시냅스를 통해 다른 뉴런으로부터 짧은 전기 자극 신호(signal) 을 받는다.
  • 한 뉴런이 천분의 몇 초 동안 다른 뉴런으로부터 충분한 횟수의 신호를 받으면 자체적인 신호를 발생시킨다.

 

2. 뉴런을 사용한 논리연산

 

 

 

3. 퍼셉트론

  • 1957년 프랑크 로젠 블라트가 제안, 가장 간단한 인공 신경망 구조 중 하나, 신경망의 초기 연구과정 중 1950년대에 제안된 것
  • 맥컬록-피츠 모델을 기반으로 두는 학습기계
  • TLU(threshold logit unit)라는 조금 다른 형태의 인공 뉴런을 기반으로 함.
  • 입력과 출력이(이진 on/off) 어떤 숫자고 각각의 입력 연결은 가중치와 연관이 있다.
  • 퍼셉트론 프로그램의 학습 알고리즘? 헵의 법칙을 적용해 출력 값에 따라 플러스와 마이너스로 진동하도록 가중치를 업데이트
  • 퍼셉트론은 네트워크가 만드는 에러를 반영하도록 조금 변형된 규칙을 사용하여 훈련된다.
  • 퍼셉트론의 경우 각 출력 뉴런의 결정 경계는 선형이므로 퍼세
  • 헵의 법칙? 생물학적 뉴런이 다른 뉴런을 활성화 시킬 때 이 두 뉴런의 연결이 더 강해진다. = 서로 활성화되는 세포가 서로 연결된다.
  • 두가지 종류의 상태를 긍정과 부정적인 예로 설정해 출력값에 긍정적인 예라면 플럿, 부정적인 예라면 마이너스로 가중치를 업데이트
  • 단순 퍼셉트론 -> 퍼셉트론 수렴 정리(perceptron convergence theorem)

>> 긍정적인 예와 부정적인 예에서 학습 데이터를 선형 분리할 수 있다면 반드시 유한한 횟수를 반복 실행해 평면 분리 상태를 찾을 수 있다는 개념

>> 그러나 데이터를 선형 분리할 수 없으면 퍼셉트론 학습을 적용할 수 없다.

>> 선형 분리할 수 있더라도 평면 분리 상태로 만드는데 상당한 시간이 걸린다.

 

 

 

 

4. 맥컬록-피츠(McCulloch-Pitts) 모델

  • 1943Warren McCulloch, Walter Pitts에 의해 제안된 모델
  • 인간의 두뇌를 논리적 서술을 구현하는 이진 원소들의 결합으로 추측, 이진 원소인 뉴런은 on이나 off 상태를 나타낸다.
  • 초기 신경 시스템 모델
  • 신경세포(뉴런) -> 다른 신경 세포에게 전기 신호를 받았을 때 전기 신호가 일정 기준을 넘으면 다음 신경 세포로 신호를 전달 -> 이 현상을 수학적 모델로 고안한 것이 신경망의 개념
  • 실제 신경세포끼리는 시냅스라는 부위를 통해 신경 전달 물질 이동
  • 받는 쪽 신경 세포의 세포막 안팎에 미세한 전위차를 발생시키며 전기신호로 시각화
  • 형식 뉴런 formal neuron(소자) <- 맥컬록-피츠 모델로 고안된 신경 세포의 연결 모델

햅의 법칙(Hebb)

- 시냅스를 통한 신경 세포의 상호작용이 증가하면 시냅스가 더 견고하게 강화되며, 상호작용이 감소하면 시냅스는 약해져 신경회로를 사용하지 않게 된다는 이론

- ‘서로 활성화되는 세포가 서로 연결된다

- 즉 두 뉴런이 동일한 출력을 낼 때마다 그들 사이의 연결 가중치가 증가한다.

- 신경세포의 연결에 더 견고하면 기억력 향상과 운동 능력 습득 같은 학습 작용에 도움을 준다

- 수학개념으로 바꾸면 형식 뉴런에 헵의 법칙을 적용했을 때 입력값과 출력값에 의해 가중치가 변한다.

 

 

 

5. 퍼셉트론 - 붓꽃예제 

  • 퍼셉트론의 성질
  • 클래스 확률을 제공하지 않는다.
  • 고정된 임곗값을 기준으로 예측 >> 로지스틱 회귀 선호 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
import numpy as np
from sklearn.datasets import load_iris
from sklearn.linear_model import Perceptron
 
iris = load_iris()
= iris.data[:,(2,3)] #꽃잎의 길이와 너비 #(2,3) 2열, 3열 데이터만 추출 
= (iris.target == 0).astype(np.int# is this Iris Setosa? #iris.taget == 0은 맨 처음 Setosa를 말함 
 
per_clf = Perceptron(random_state = 0)
per_clf.fit(X,y)
 
y_pred = per_clf.predict([[2,0.5]])
print(y_pred)
 
cs
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG more
«   2024/04   »
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
글 보관함