02 Ago 2019

홉 필드 예제

홉 필드 그물을 훈련하는 것은 그물 "기억"해야 하는 상태의 에너지를 낮추는 것을 포함한다. 이렇게 하면 그물콘텐츠 주소 지정 가능 메모리 시스템, 즉 네트워크가 상태의 일부만 주어지면 "기억된" 상태로 수렴됩니다. 그물은 왜곡된 입력에서 해당 입력과 가장 유사한 학습된 상태로 복구하는 데 사용할 수 있습니다. 이 유사성에 기초하여 기억을 복구하기 때문에 연관 메모리라고합니다. 예를 들어, 상태(1, -1, 1, -1, 1)가 에너지 최소값으로 5단위로 홉필드 그물을 학습하고 네트워크에 상태를 지정하면(1, -1, -1, -1, 1)로 수렴됩니다( 1, -1, 1, -1, 1). 따라서 네트워크가 기억해야 하는 상태의 에너지가 로컬 미니마일 때 네트워크가 적절하게 훈련됩니다. Perceptron 교육과는 달리 뉴런의 임계값은 업데이트되지 않습니다. 홉 필드 그물의 연결은 일반적으로 다음과 같은 제한이 있습니다 : 에너지 기능 Ef, 또한 Lyapunov 함수는 이산 홉 필드 네트워크의 안정성을 결정하고 다음과 같이 특징입니다 - Hebbian 규칙은 로컬 및 증분. 홉필드 네트워크의 경우, n {displaystyle n} 바이너리 패턴을 학습할 때 다음과 같은 방식으로 구현됩니다: 홉필드 네트워크에서 하나의 단위(인공 뉴런을 시뮬레이션하는 그래프의 노드)를 업데이트하는 것은 다음 규칙을 사용하여 수행됩니다. Kahana (2001)는 확률 학습 알고리즘을 통합하여 신경망 모델이 리콜 정확도에 대한 반복을 설명 할 수 있음을 보여줄 수 있었습니다. 검색 프로세스 중에 학습이 수행되지 않습니다. 결과적으로 네트워크의 가중치는 고정되어 모델이 학습 단계에서 회수 단계로 전환할 수 있음을 보여 주었습니다.

컨텍스트 드리프트를 추가함으로써 큐드 리콜 작업 중에 Hopfield 모델에서 발생하는 빠른 잊어버린 것을 보여줄 수 있었습니다. 전체 네트워크는 단일 노드의 활성화에 영향을 기여합니다. 여기서 h i j=k =1 : i 에서 k □ k n n w k k=1 θ k â {디스플레이 스타일 h_{ij}{{{\\\\\n}neq kneq j=1/=n}neq k{{{{{n}=4.{.*1}.n}4\.*.\4.}뉴런