4.1 소개 월드와이드맵의 연결 구조를 나타낸 그림을 살펴보면 무작위 네트워크에서는 고도로 연결된 노드 또는 허브가 있을 수 없는데, 링크수가 적은 노드와 수많은 노드가 공존함을 알 수 있다. 실제 네트워크의 링크수 분포를 탐구하면 척도 없는 네트워크를 발견하고 규정할 수 있다. 4.2 거듭제곱 법칙과 척도 네트워크 포아송분포는 월드와이드웹의 링크수 분포를 맞출 수 없어 월드와이드맵은 무작위 네트워크가 아니다. 대신, 분포 데이터가 로그-로그 척도에서 대략적인 직선을 형성하기에 월드와이드웹의 링크수 분포는 다음과 같이 근사될 것이라고 짐작할 수 있다. 월드와이드웹은 방향성 네트워크이므로, 각 문서는 해당 문서에서 연결되는 링크의 숫자인 나가는 링크수(k_out)과, 들어오는 링크수(k_in)을 구분해야 ..
전체 글
3.2 무작위 네트워크 모형 네트워크 과학은 실제 네트워크의 특성을 재현하는 모형을 만드는 것을 목적으로 한다. 하지만, 대부분의 네트워크는 규칙성이 없다. 무작위 네트워크 이론은 진정한 무작위성이 있는 네트워크를 만들고 특징지어서, 이런 명백한 우연성을 포괄한다. 무작의 네트워크는 모든 노드 사이에 확률 p로 연결된 N개의 노드로 구성한다. 무작위 네트워크(무작위 그래프) 구성 방법 N개의 고립된 노드로 시작 노드 쌍을 하나 고르고 0~1사이의 무작위 수를 하나 만든다. 이 무작위 수가 p보다 작다면 노드 쌍을 연결하고, 아니면 끊는다. 2번 과정을 모든 N(N-1)/2개의 노드 쌍에서 반복 3.3 링크의 수 같은 매개변수 N,p로 만든 무작위 네트워크들은 서로 조금씩 다르고 총 링크의 수 L또한 달라..
2.1 쾨니히스베르크의 다리 즉, 시작 노드와 끝 노드에만 홀수개의 링크가 있어야 한붓그리기가 가능하다. 이 오일러의 증명에서 그래프 이론이 시작되었다. 2.2 네트워크와 그래프 네트워크는 노드 + 링크로 이루어진다. 노드(Node or Vertex): 시스템의 구성성분 목록 Number of node : N은 시스템의 구성성분 수 또는 네트워크의 크기라고 부른다. 링크(Link or Edge): 직접적인 상호작용을 나타내는 부분 Number of Link: L은 노드 사이의 총 관계수를 의미한다. (2,4)링크는 노드 2번과 4번을 연결해준다. 네트워크의 방향성 방향성 네트워크(Directed Network): 모든 링크가 방향이 있을 때 방향성 없는 네트워크(Undirected Network): 모든..
1.1 상호 연결 때문에 나타나는 취약성 연쇄적 고장은 일부 구간에서 고장이 날 때, 그 부하가 다른 노드로 이동하는 것이다. 해당 부하를 다른 노드가 견딜만 하면, 눈에 띄는 고장 없이 넘어가지만, 과부하가 온다면, 다른 노드는 해당 부하를 또 다른 노드에게 넘기려고 하고자 한다. 연쇄사건의 손상을 피하려면 1. 연쇄가 퍼저나가는 네트워크 구조를 이해 2. 네트워크 위에서 발생하는 동역학 과정을 모형으로 만들 수 있어야 한다. 3. 네트워크 구조와 동역학의 상호작용이 전체 시스템의 견고함에 어떤 영향을 미치는지 밝혀내야 한다. 상호 네트워크는 Non-locality(비국소성)을 유발한다. 상호 전달하는 비용을 감소시키고 더 단일 지역의 네트워크보다 더 빠르게 전달할 수 있지만, 바이러스 등의 문제 역시..
Decision Stump >> Decision Trees >> Random Forest 순으로 발전한다. Supervised Learning Notation(표기법) Supervised Learning: Input is data and the output will be a program and This is called 'Training' Training: Mapping Input Data to Program Supervised Learning 적용 어려울 때 문제가 너무 복잡해 프로그래밍 똑바로 못할 것 같으면 지도학습 적용 어려움 레이블링 할 때 전문가조차 특정 레이블을 왜 설정했는지 명확시 설명하기 어려운 경우 인간 전문가가 없는 경우 노동을 자동화하고자 할때: 데이터 분류, 고객 서비스 자동화,..
Data : Examples의 집합으로, Column을 Feature라 정의할 수 있다. Types of Data Categorical Feautres : from an unordered set Binary: 직업의 유무 등 Nominal: 국가 별 도시명 등 Numerical Feautres : from ordered sets Discrete counts: age Ordinal: 순위 Continous/real-valued: 키 Converting to Numerical Features 보통 모든 sample들을 Numerical Vector로 변환해야한다. Categorical Data를 변환 시 "1 of K Encoding" 또는 "One Hot Encoding"을 진행한다. 이를 통해 sampl..
분산표상 방법론인 Word2Vec NNLM vs Word2Vec NNLM: 순차적으로 단어가 주어질 때 다음 단어 예측 Word2Vec: 중심단어로 주변단어 예측(CBow) or 주변단어로 중심단어 예측(Skip-gram) Word2Vec: Skip-gram Neural Network이긴 하지만 가장 기본적인 구조라 activation function도 없다. Objective Function(목적함수): Maximize the log probability of any context word given the current center word (K번째 단어가 주어질 때 K 앞뒤로 주어지는 단어의 생성확률 높이기) Input: 1 x 10000 >> 10000개의 단어 Hidden Layer Linear..
Word Embedding : map the words in a lanugage into a vector space so that semantically similar words are located close to each other. (특정 공간에 단어를 연속형의 벡터로 치환하는데, 단어 끼리 유사하다면 공간 상에서 비슷한 위치에 있도록 구현한다.) Word vectors: one-hot vector : vector representation은 표현할 수 있지만, 단어 간 유사도는 알 수 없다. 어떠한 두 벡터간 내적을 해도 직교하므로 모두 연관이 없다고 할 수없다. Word vectors: distributed representation distributed reprenstation: 분산 표상 의..