분류 전체보기
-
네트워크: Network layer 정리3(routing algorithm, link state, distance vector)네트워크 2020. 10. 30. 21:25
네트워크: Network Layer 정리2(IPv4, DHCP, NAT, SDN...) 전송계층에서는 segment라는 패킷단위를 다루었다면 네트워크 계층" data-og-host="seungjuitmemo.tistory.com" data-og-source-url="https://seungjuitmemo.tistory.com/94" data-og-url="https://seungjuitmemo... seungjuitmemo.tistory.com 저번 포스팅에 이어 Network layer control plane에서 routing 프로토콜에 대해서 알아본다. 이번 포스팅은 효율적인 라우팅 알고리즘을 만들기 위해 어떤 알고리즘을 사용하는지가 주내용이다. 우선 라우팅 프로토콜에 대해서 알아보기 전, cont..
-
네트워크: Network Layer 정리2(IPv4, DHCP, NAT, SDN...)네트워크 2020. 10. 24. 18:36
네트워크: Network Layer 정리(forwarding, routing, control plan, SDN...) 이번 포스팅부터는 네트워크 계층에 대해서 다룬다. 네트워크 계층이 어떤 일을 하는지 알아보자 전송계층에서는 segment라는 패킷단위를 다루었다면 네트워크 계층 seungjuitmemo.tistory.com 이번 포스팅은 지난 포스팅에 이어서 전송 계층의 IP 인터넷 프로토콜에 대한 자세한 내용과 Control plane에 대해서 다룬다. IP에 대해 알아보기 앞서 Network layer에서는 크게 routing 프로토콜, ip 프로토콜, icmp 프로토콜들이 사용된다. 라우팅 프로토콜을 통해 packet을 경로를 선택하고 IP프로토콜을 ..
-
머신러닝: Training Neural Networks 공부하기2 (Optimization, Learning Rate, Regularization)머신러닝 2020. 10. 20. 22:59
우선 경사하강법(Gradient descent)는 가장 작은 loss를 갖는 W값을 찾기 위해 gradient를 이용한다. 그리고 SGD는 이를 mini batch를 이용하여 더 효율적으로 W를 찾는 방법이다. 하지만 SGD는 다음과 같은 상황들에 대해서 문제점을 지닌다. 만약 Loss 값이 급격하게 증가하거나 감소한다면 이 때는 얕은 차원이나 가파른 경사 때문에 발산하거나 진동하여 최적의 W를 찾는 과정은 느려진다. 또한 다음과 같이 경우 문제점을 갖는다. 1) local minima를 갖는 부분 우리가 원하는 W는 가장 작은 loss가질때이다. 하지만 첫번째 그래프는 global minima가 아닌 local minima에서 optimization을 멈출 가능성이 있으므로 문제가 발생한다. 2) sa..
-
머신러닝: Training Neural Networks 공부하기1(Activation function, Data preprocessing, Weight Initialization, Batch Normalization, Transfer Learning)머신러닝 2020. 10. 20. 21:12
이번 포스팅은 Neural Network의 Training을 위해 필요한 개념에 대해 알아본다. 다음과 같은 순서로 알아보겠다. - Activation Functions - Data preprocessing - Weight Initialization - Batch Normalization - Transfer learning 1. Activation Functions 1) sigmoid 0부터 1까지의 값을 갖으며 뉴런에서 firing하는 형태를 따서 만들었다 한계 - zero-centered가 아니다. - exp이기 때문에 계산이 복잡 - satureted 된 부분은 gradient가 나오지 않는다. 예를 들어 x = -10이거나 10일 때 기울기 값이 0이므로 backpropagation을 통해 gra..
-
네트워크: Network Layer 정리(forwarding, routing, control plan, SDN...)네트워크 2020. 10. 11. 19:47
이번 포스팅부터는 네트워크 계층에 대해서 다룬다. 네트워크 계층이 어떤 일을 하는지 알아보자 전송계층에서는 segment라는 패킷단위를 다루었다면 네트워크 계층에서는 datagram을 다룬다. host to host구조에서 sending side에서는 segment를 datagram으로 encapsulate한다. 반면, receving side에서는 datagram를 segments으로 decapsulate한다. 하지만 단순히 데이터가 라우터를 경유하여 다른 호스트까지 가는 경우 네트워크 계층에서는 다음 이동할 라우터로 패킷을 전송한다. (모든 호스트와 라우터에는 네트워크 계층이 존재한다. 하지만 라우터에는 응용계층이 필요 없으므로 응용계층이 존재하지 않는..
-
안드로이드: callOnClick 메소드 (클릭없이 이벤트 호출)안드로이드 스튜디오 2020. 10. 9. 02:41
버튼 클릭없이 버튼의 클릭이벤트를 호출하여 사용한다. btn_A.setOnClickListener(new Button.OnClickListener() { @Override public void onClick(View view) { // A 기능 btn_B.callOnClick(); } }); btn_B.setOnClickListener(new Button.OnClickListener() { @Override public void onClick(View view) { // B기능 } }); btn_A를 클릭했을 때 A 이벤트가 발생하고 btn_A의 onClick메소드안의 callOnClick메소드에 의해 btn_B의 B이벤트도 발생한다.
-
알고리즘: TSP 외판원문제 알고리즘 공부하기(동적 프로그래밍)(feat. c++, 의사코드)알고리즘 2020. 10. 8. 22:25
외판원이 출장시간을 줄이기 위해 거주하고 있는 도시에서 출발하여 각 도시를 한 번씩 방문하고, 다시 출발한 도시로 돌아온다고 했을 때 가장 짧은 여행길을 찾는 알고리즘 start node가 있고 n-1 개의 node를 거쳐 1번 node로 돌아간다. brute-force 알고리즘을 이용해서 문제를 해결할 수도 있지만 n이 20만 되어도 걸리는 시간복잡도는 19!usecs(대략 3857년)으로 평생 구하지 못한다. 하지만 동적프로그래밍을 이용한 TSP알고리즘이면 45초만에 해결가능하다. 그렇다면 예제를 TSP알고리즘을 이용하여 풀어보자 다음과 같이 가중치가 있고, 노드 4개로 이루어진 그래프(V)가 있다. 그리고 위 그래프를 인접매..
-
머신러닝: 역전파(back propagation) 공부하기(개념, 예제)머신러닝 2020. 10. 8. 01:19
머신러닝: 최적화(Optimization) 공부하기 (Gradient descent, SGD) Optimization에 대해 알아보기전, Loss function에 대한 선행이 되어 있어야 한다. 다음과 같이 이미 classifer가 된 결과물이 있다. 하지만 보시다시피 각각의 이미지 값에 대해서 해당 label(cat, car, frog)들. seungjuitmemo.tistory.com 계산 결과와 정답의 오차를 구해 이 오차에 관여하는 가중치(W) 값들를 수정하여 오차가 작아지는 방향으로 일정 횟수를 반복해 수정하는 방법이다. Gradient descent를 이용한 방식은 시간이 너무 오래걸리므로 Backpropagation을 이용하여 효율적으로 d..