위키백과 , 나무위키


클라우드(Cloud)의 의미는 컴퓨터 통신망이 구름과 같은 것에 싸여 안이 보이지 않고, 일반 사용자는 이 복잡한 내부를 굳이 알 필요도 없이 어디에서나 구름 속으로 손을 집어넣어 자기가 원하는 작업을 할 수 있다는 것이다. 이른바 동일한 체험을, 인터넷이 연결된 어디에서나 보장해주는 것.


인터넷 상의 유틸리티 데이터 서버에 프로그램을 두고 그때 그때 컴퓨터나 휴대폰 등에 불러와서 사용하는 웹에 기반한 소프트웨어 서비스이다.


클라우드 컴퓨팅의 정의는 개인이 가진 단말기를 통해서는 주로 입/출력 작업만 이루어지고, 정보분석 및 처리, 저장, 관리, 유통 등의 작업은 클라우드라고 불리는 제3의 공간에서 이루어지는 컴퓨팅 시스템 형태라고 할 수 있다.


  • 클라우드 컴퓨팅은 IT 관련된 기능들이 서비스 형태로 제공되는 컴퓨팅 스타일이다.
  • 사용자들은 지원하는 기술 인프라스트럭처에 대한 전문 지식이 없거나 제어할 줄 몰라도 인터넷으로부터 서비스를 이용할 수 있다.
  • IEEE 에서는 "정보가 인터넷 상의 서버에 영구적으로 저장되고 데스크탑이나 테이블 컴퓨터, 노트북, 벽걸이 컴퓨터, 휴대용 기기 등과 같은 클라이언트에는 일시적으로 보관되는 패러다임이다." 라고 말한다.
일반적인 클라우드 컴퓨팅에서 소프트웨어와 데이터는 서버에 저장된다.
  • 클라우드 컴퓨팅은 웹 2.0SaaS(software as a service)와 같이 최근 잘 알려진 기술 경향들과 연관성을 가지는 일반화된 개념이다.
이들 개념들의 공통점은 사용자들의 컴퓨팅 요구를 만족시키기 위해 인터넷을 이용한다는 사실이다. 예로서 구글 앱스(Google Apps)가 있다.

이 외에도 IaaS, PaaS 등의 개념이 있다.

  • IaaS(Infrastructure as a Service): 서비스로써의 인프라라는 뜻으로, AWS에서 제공하는 EC2가 대표적인 예이다. 이는 단순히 서버 등의 자원을 제공해 주면서 사용자가 디바이스에 제약없이 데이터에 접근할 수 있도록 해준다.
  • PaaS(Platform as a Service): 서비스로써의 플랫폼이라는 뜻으로, 사용자(개발자)가 소프트웨어 개발을 할 수 있는 환경을 제공해 준다. 구글의 APP 엔진, Heroku 등이 대표적인 예다.
  • SaaS(Software as a Service): 서비스로써의 소프트웨어라는 뜻으로, drop box, google docs 등 과 같은 것을 말한다.



클라우드 컴퓨팅의 개념은 1965년 미국의 컴퓨터 학자인 존 매카시가 "컴퓨팅 환경은 공공 시설을 쓰는 것과도 같을 것" 이라는 개념을 제시한데에서 유래하였다. 1993년부터는 이미 클라우드라는 용어가 거대한 규모의 ATM을 지칭하는 데 쓰였다. General Magic라는 회사는 1995년 3월부터 AT&T와 다른 여러 통신사들과 제휴를 맺고 클라우드 컴퓨팅 서비스를 최초로 시작했다. 하지만 이 시기는 소비자 중심의 웹 기반이 형성되기 전의 일이었기 때문에 클라우드 컴퓨팅 사업은 당연히 실패했다. 그러나 10년이 지난 2005년에서야 클라우드 컴퓨팅이라는 단어가 널리 퍼지기 시작했다. 하지만 2005년 당시 클라우드 컴퓨팅의 대부분의 내용들은 SaaS에 집중되어 있었다. 2007년까지는 SaaS에 집중되어 있었지만 2008년부터는 더이상 SaaS에만 집중되어 있지 않으며, IaaSPaaS로 그 영역을 넓혀가게 되었다.


장점[편집]

  • 초기 구입 비용과 비용 지출이 적으며 휴대성이 높다.
  • 컴퓨터 가용율이 높다. 이러한 높은 가용율은 그린 IT 전략과도 일치한다.
  • 다양한 기기를 단말기로 사용하는 것이 가능하며 서비스를 통한 일관성 있는 사용자 환경을 구현할 수 있다.
  • 사용자의 데이터를 신뢰성 높은 서버에 보관함으로써 안전하게 보관 할 수 있다.
  • 전문적인 하드웨어에 대한 지식 없이 쉽게 사용 가능하다.

단점[편집]

  • 서버가 공격 당하면 개인정보가 유출될 수 있다.
  • 재해에 서버의 데이터가 손상되면, 미리 백업하지 않은 정보는 되살리지 못하는 경우도 있다.
  • 사용자가 원하는 애플리케이션을 설치하는 데에 제약이 심하거나 새로운 애플리케이션을 지원하지 않는다.
  • 통신환경이 열악하면 서비스 받기 힘들다.
  • 개별 정보가 물리적으로 어디에 위치하고 있는지 파악할 수 없다



정확한 개념이 의외로 복잡한데, 대부분의 작업을 온라인에 분산되어 존재하는 데이터 센터(Data Center, 이하 클라우드)에 맡겨 수행하고, 사용자의 컴퓨터는 클라우드에 접속하여 상호작용하는 단말기 역할만 하는 것이다. 이 때문에 모든 데이터와 연산 자원이 클라우드 안에만 존재하게 되며, 이 자원을 유연하게 관리하기 위해 가상화 기술 등이 투입되게 된다. 


또한 인터넷 서비스 운영자의 입장에서는 직접 서버를 운영하는 대신에, 구글이나 아마존닷컴, 마이크로소프트 등의 대기업의 클라우드 자원을 빌려 서비스를 운영하는 편이 차후에 서비스의 규모가 커졌을 때 대처하기 편하다. 서버 세팅/확장 등은 신경쓰지 말고 서비스 운영 자체에만 집중할 수 있게 해 준다. 컴퓨팅 자원을 마치 전기 끌어다 쓰듯이 쓸 수 있도록 해 준다고 보면 된다.

또한 이러한 서비스를 이용한 실상품으로는 구글에서 추진하고 있는 크롬북이 대표적이다. 크롬북은 컴퓨터 전원을 켜면 크롬 브라우저 하나만[4] 덩그러니 실행된다. 다른 프로그램은 어떻게 쓰냐고? 클라우드에 접속하면 문서도구, 그래픽, 게임을 불문한 모든 작업이 가능하다. 컴퓨터에 아무것도 저장하지 않은 상태로 오직 클라우드 내에서만 구글 크롬 스토어에서 취급되는 앱들을 비롯한 다양한 클라우드 앱을 이용할 수 있으므로 굳이 프로그램을 깔아서 쓸 필요가 없다는 컨셉이다. 다만 크롬북은 모든 작업을 웹과 클라우드상에서 처리하다 보니 인터넷이 없으면 말 그대로 깡통이 된다는 치명적인 단점이 있다.

애플의 맥북 에어도 어떻게 보면 비슷한데, iCloud드롭박스 등의 여러 클라우드 서비스 등장으로 굳이 하드 탑재로 용량을 늘릴 필요가 없어졌기에 맥북 에어의 경우 두께를 위해 용량을 희생하고 그 두께의 거의 모든 부분이 배터리 확충에 치중되고 있다. 저장 용량이 중요하지 않고 되려 사용자의 편의성과 직결되어 있는 배터리 양이 더 중요하다는 것이다. 다만 크롬북과는 달리 인터넷에 연결되지 않아도 웬만한 건 다 할 수 있기 때문에 아래에 서술된 클라우드의 단점 역시 어느 정도 극복할 수 있는 형태라는 결정적 차이점을 가진다.


 그리드 컴퓨팅과는 다르다, 그리드 컴퓨팅과는!

왠지 그리드 컴퓨팅이라는 개념과 혼동하는 경우가 많은데, 분산처리라는 점에서는 같으나, 다음 면에서 큰 차이를 보이고 있다.

  • 그리드 컴퓨팅은 '분산'에, 클라우드 컴퓨팅은 '중앙집중'에 초점이 맞춰져 있다. 실제로 그리드 컴퓨팅은 흩어져 있는 컴퓨터의 여유자원을 인터넷으로 합쳐서 특정 프로그램을 돌리는 것이고, 클라우드 컴퓨팅은 은 내부 네트워크 내 컴퓨터들의 자원을 합쳐 특정 프로그램들을 돌리는 것이다.

클라우드 컴퓨팅은 협업 처럼 한 그룹에 있는 애들이 같이 으쌰으쌰해서 파워를 합치는 것 이고,

그리드 컴퓨팅은 군대처럼 지가 해야될 일을 다른 애들한테 짬시키는 것 이다.

여기까지만 들으면 거의 같지 않나 싶지만.. 클라우드 컴퓨팅은 자기 내부 그룹에서 하는 일이고, 그리드 컴퓨팅은 얼굴도 모르는 애들한테 막 시키고 난리를 친다.


  • 그리드 컴퓨팅은 자원 자체가 흩어져 있기 때문에 중간에 해커가 개입될 수 있지만, 클라우드 컴퓨팅은 자원이 중앙집중 및 가상화되어 있기 때문에 이런 일이 불가능하다. 클라우드를 해킹하려면 어차피 네트워크 전체를 침입해야 하는데, 중간에 방화벽에 막히기라도 하면 말짱 도루묵. 또한 클라우드 컴퓨팅은 용량과 성능의 제약에서 벗어나게 되므로 운영체제 레벨의 보안 처리와 함께 예외처리 떡칠을 해버리게 되면 암호 문제나 내부적인 문제를 제외한 모든 침입면에서는 해커들이 떡실신 당하게 된다. 물리적으로 데이터 센터 내부에 직접 접속하거나 협조를 얻으면 몰라도, 최소한 단말기로 하려는 원격 소프트웨어 해킹 시도는 불가능에 가까울 것이다.

또한 슈퍼컴퓨터와도 혼동하는 일이 있는데, 슈퍼컴퓨터는 전용 OS를 이용하여 모든 노드를 하나로 묶는 반면 클라우드 컴퓨팅은 각 노드마다 OS가 따로 깔리고 상호간 처리는 클라우드 미들웨어 간의 네트워크 전송으로 해결한다. 물론 슈퍼컴퓨터를 여러대 연결해서 그걸 클라우드 컴퓨팅으로 돌리는 것도 가능하고, 외부에서 보면 슈퍼컴퓨팅이나 클라우드 컴퓨팅이나 그게 그거다.


2000년대 들면서 급부상한 IT떡밥 중 하나이나, 정작 통신 보안쪽으로는 크게 골머리다. 클라우드 컴퓨팅 환경에서는 사용자의 개인 정보가 클라우드에 저장되면 사실상 사용자가 그 정보의 위치를 통제할 수 없기 때문.[5] 이를 리처드 스톨먼이 딱 한 단어, (Trap)으로 지적한 바 있다. 덧붙여 사실상의 처리를 사용자의 시스템에서 처리하지 않기 때문에, 통상 시스템에 비해 트래픽이 증가하게 된다. 인터넷 종량제라도 시행했다간...컴퓨터를 켜는 거 자체가 요금 그나마 대부분의 트래픽이 클라우드 내에서 처리될 수 있다는 점에선 그리드 컴퓨팅에 비해 약과. 그리드 컴퓨팅의 경우 처리되는 모든 트래픽을 떠안아야 한다.


여하튼 가벼움이 가장 큰 장점이고, 보안 전문가들이 공밀레가 되는 대신에 일반 사용자는 보안에 그다지 신경을 쓸 필요도 없기에 MS의 Microsoft Azure를 필두로 여러 곳에서 적극 도입이 진행 중. 아파치 재단의 프로젝트인 Hadoop 및 관련 프로젝트들은 이걸 오픈소스로 구현한 것이다.


클라우드 컴퓨팅에는 개인목적으로 저장해둔 데이터들이 사용자 본인이 아무리 관리를 철저하게 한다 해도 하루아침에 사라지거나, 전혀 상관없는 제3자에게 공개될 수 있는 매우 치명적인 단점이 존재한다. 이러한 문제가 발생하는 원인은 전적으로 당신의 데이터를 관리하는 회사에게 있다. 즉 클라우드를 관리하는 회사가 망하거나, 변심하거나, 관리를 소홀히 한다면음모론처럼 들리는 이 단점이 곧바로 현실이 된다.


관리소홀로 인해 데이터가 통째로 증발한 사례는 이미 현실에서 실현되었다. 일본 퍼스트서버 사고가 그것이다. 클라우드 서비스 업체가 5698개 기업의 데이터를 몽땅 날려먹은 초대형 사고가 발생하였다.


차라리 망하면 다행인데 더 끔찍한 비극은 클라우드를 관리하는 회사가 임의로 사용자의 정보를 제3자에게 제공하는 경우다.



구름이란 의미답게 정의도 뜬구름 잡는 듯한 것이 많다. 용어 자체가 굉장히 넓은 범위를 포함하고 있으며, 사람마다 정의하는 의미가 전부 다르다. 실제로 관련 서적을 봐도, 기본적인 내용은 다 같을지라도 세부적인 정의가 전부 다 다르다.

K모 대학에서 관련된 강의를 했었던 기업에서 실무를 담당하고 있는 누군가의 말을 빌리자면, "누군가와 클라우드 컴퓨팅에 대해 토의할 일이 있으면 시간의 80%를 그 사람이 생각하는 클라우드와, 내가 생각하는 클라우드를 비교하는데 쓴다"라고 했을 정도로 사람마다, 기업마다, 부서마다 생각하는 게 다르다.





Posted by GENESIS8

댓글을 달아 주세요


속도는 느려지고, 쓰기 위해서 이것 저것 해야해서 불편한 동기화를 대체 왜 해야하는 걸까?


동기화의 이유는 순서 또는 공유 자원 때문이다.

순서는 말 그대로.. A가 처리 된 이후에 B가 처리되어야하는 상황(입금이 되면 상품을 발송할 게 같은.)일 때 두 작업을 처리하는 작업자가 서로 다르다면 순서가 안 맞는 (입금이 안됬어도 상품을 줄게) 상황이 일어날 수 있으므로.. 순서를 맞출 때 쓰는 것이다.


두 작업자가 하나의 자원에 동시 접근(Write / Read)하는 것인데...

그림은 그냥 동시에 접근하는 것 처럼 보이지만 실제로는 한 대가 다닐 수 있는 병목 구간에 두 자동차가 같이 들어가려는 것 같은 상황이다.


사실 컴퓨터가 작업을 동시에 처리하는 능력이 없고, 하나 씩 처리한다는 것에 비춰볼 때.. 순서가 있다면 그렇다면 사실상 '동시 접근' 은 없는 게 아닌가? 하는 생각이 들었다.


동시 접근이 없다? 그런데 왜 문제가?..



OS가 행하는 스케쥴링은 각 작업자에게 시간을 잘게 잘라서(time slice) 분배하는데.. 위 같은 경우 작업자 A가 공유자원을 미처 다 쓰지 못했을 때, B가 바로 들어오게 된다. 그러니까 상황이 이렇게 된다.

빨간 선 간의 간격이 작업을 하게 지급된 퀀텀(quantum)이라고 가정했을 때,

위와 같이 작업을 하러 들어와서 A를 처리하고 B를 처리한다면 공유자원 문제는 절대로 발생하지도 않을 것이고, 모든 동기화 기법들은 장사를 접어야한다.


그런데 현실은 녹록치 않아서 (단위가 무려 천분의 1초인 millisecond를 10 ~ 20초 지급 받는다) 간격은 더럽게 짧고, 해당 간격이 끝났다면 다음 작업자 (B)에게 넘어가는 식이다.

즉 A - B - A - B - A - B 로 작업이 끝나게 된다.


물론 이 상황은 스케쥴러의 정책에 따라 다르다. 라운드 로빈 같은 경우는 다 똑같이 공평한 시간이 분배되고, HRN 같은 경우 긴 작업과 짧은 작업에 차등성을 부여하는 등 차이가 있을 수 있다.



아무튼 문제가 되는 것은

ABAB.. 로 시작되었을 때 이다. 공유자원이 문제라고 했는데..

A -> B -> B 로 돌아오는 이 과정의 사이 사이에는 문맥[상황] 교환(context switching)이 일어나게 된다. 



이처럼 시간이 지날 때마다 CPU는 A - B - A - B로 작업자가 전환되게 된다. 

문제는 작업이 전부 끝나지 않았을 때, 쓰레드에게 모든 했던 처리를 버리라고하면?

인셉션이 된다. A(10%) - [A버림] > B(10%) - [B버림] -> A(다시 10%) ...


당연히 처리해놓았던 것을 저장해두어야하고, 그것을 메모리 내에 저장해두게 된다. 그리고서는 다시 레지스터에 올려 작업을 시작하게 되는 데...


우리가 두 스레드 A , B 를 통해 공유 자원(주로 데이터 영역)을 변경한다면

A B가 작업하고 난 뒤에 우리가 원하는 형태는


A와 B의 작업이 완료된 공유자원. 의 상태일 것이다.



[ 공유자원 ]

[ A의 작업이 반영된 공유자원 ] <- A 작업 끝

[ A의 작업이 반영된 B의 작업이 반영된 공유자원] < - B 작업 끝



하지만 현실은..


[ 공유자원 ]

 < --- 공유 자원을 가져온 A의 작업 중...

    ㄴ 인터럽트 / 스레드 B 실행

       ㄴ A의 상태 저장 (context switching)

[ 공유자원 ]

 < --- 공유 자원을 가져온 B의 작업 중...

    ㄴ 인터럽트 / 스레드 A 실행

      ㄴ B의 상태 저장 (context switching)

 < --- A의 작업을 반영

[ A의 작업이 반영된 공유자원 ]

 < --- B의 작업을 반영

[ B의 작업이 반영된 공유자원 ]



...?!


최종적으로 B의 작업이 반영된 공유자원이 남았다.


이는 B가 [A의 작업이 반영된 공유자원]을 가져간 게 아니기 때문이다.


[ 공유자원 ]

- > 공유자원을 가져온 A의 작업 시작

[ A의 작업이 반영된 공유자원 ] <- A 작업 끝

- > A의 작업이 반영된 공유자원을 가져온 B의 작업 시작

[ A의 작업이 반영된 B의 작업이 반영된 공유자원] < - B 작업 끝


의 구조로 이루어져야하는 절차가


[공유자원 ]

- > 공유자원을 가져온 A의 작업 시작

  ㄴ interrupt / context switching

- > 공유자원을 가져온 B의 작업 시작

[ A의 작업이 반영된 공유자원 ] <- A 작업 끝

[ B의 작업이 반영된 공유자원 ] <- B 작업 끝


와 같이 되기 때문이다.


물론 스레드 예제를 실행시켜보면 알겠지만.
ABABABABABAB 가 아니라.
AAAABBBABABBBAB 라던가 ABAABBAABBBBAA처럼
균일하지 않게 스레드가 실행되므로 위처럼 순서가 지켜지지 않고
B나 A가 연속적으로 처리되는 일도 있을 수 있다.

이런 것을 비 결정론적 성질(버그)이라고 하는데.. 간단히 말해서 할 때마다 다르다는 얘기다.

우리가 원하는 

[ A의 작업이 반영된 B의 작업이 반영된 공유자원 ] 이라는 상태는

AAA BBB 해서 작업이 끝나버린다면 완벽하게 반영될 것이고... 

이는 오류 없음 의 결과를 도출하게 된다.


그렇지만 스케쥴링이 ABABAB 라던가 AABBBA 같이 된다면 결과는 예측할 수 없게 된다.


비단 멀티 스레드만이 아니라 멀티 프로세스 환경 등에서도 일어날 수 있다. 공유자원을 두고 둘 이상의 작업자가 진입하면 일어날 수 있는 현상인 것이다. 이를 경쟁 상태(race condition)이라고 한덴다...


아무튼 그래서 둘 이상의 작업자가 공유자원에 접근하게 되는 환경에서는 연산이 섞이는 일이 없도록 원자적 연산(atomic operation)을 보장해주거나 [이 경우 값 넣고 있는 동안은 세트로 묶여서 섞이지 않는 범위 까지 연산을 보장해준다]


동기화 기법을 쓰게 되는 것이다.







Posted by GENESIS8

댓글을 달아 주세요

  1. juicyjerry 2020.12.16 00:42 신고  댓글주소  수정/삭제  댓글쓰기

    정리를 잘 해주셔서 잘 읽었습니다.
    유익한 정보 잘 보고갑니다~ :)

출처 : 위키백과


멀티스레딩(Multithreading) 컴퓨터는 여러 개의 스레드를 효과적으로 실행할 수 있는 하드웨어 지원을 갖추고 있다. 이는 스레드가 모두 같은 주소 공간에서 동작하여 하나의 CPU 캐시 공유 집합과 하나의 변환 색인 버퍼 (TLB)만 있는 멀티프로세서 시스템 (멀티 코어시스템)과는 구별한다. 그러므로 멀티스레딩은 프로그램 안에서 병렬 처리의 이점을 맛볼 수 있지만 멀티프로세싱 시스템은 여러 개의 프로그램들을 병렬로 처리할 수 있다. 멀티프로세싱 시스템이 여러 개의 완전한 처리 장치들을 포함하는 반면 멀티스레딩은 스레드 수준뿐 아니라 명령어 수준의 병렬 처리에까지 신경을 쓰면서 하나의 코어에 대한 이용성을 증가하는 것에 초점을 두고 있다.


장점[편집]

  1. 응답성 : 대화형 프로그램을 멀티스레드화하면, 프로그램의 일부분(스레드)이 중단되거나 긴 작업을 수행하더라도 프로그램의 수행이 계속되어, 사용자에 대한 응답성이 증가된다. 예를 들어, 멀티스레드가 적용된 웹 브라우저 프로그램에서 하나의 스레드가 이미지 파일을 로드하고 있는 동안, 다른 스레드에 사용자와의 상호 작용이 가능하다.
  2. 자원 공유 : 스레드는 자동적으로 그들이 속한 프로세스의 자원들과 메모리를 공유한다. 코드 공유의 이점은, 한 응용 프로그램이 같은 주소 공간 내에 여러 개의 다른 활동성 스레드를 가질 수 있다는 점이다.
  3. 경제성 : 프로세스 생성에 메모리와 자원을 할당하는 것은 비용이 많이 든다. 스레드는 자신이 속한 프로세스의 자원들을 공유하기 때문에, 스레드를 생성하고 문맥교환을 하는 편이 보다 경제적이다.
  4. 멀티프로세서 활용 : 멀티프로세서 구조에서는 각각의 스레드가 다른 프로세서에서 병렬로 수행될 수 있다. 단일 스레드 프로세스는 CPU가 많아도 CPU 한개에서만 실행된다. 즉, 다중 스레드화를 하면 다중 CPU에서 병렬성이 증가된다.

단점[편집]

  • 다중 스레드는 캐시나 변환 색인 버퍼(TLB)와 같은 하드웨어 리소스를 공유할 때 서로를 간섭할 수 있다.
  • 하나의 스레드만 실행 중인 경우 싱글 스레드의 실행 시간이 개선되지 않고 오히려 지연될 수 있다.
  • 멀티스레딩의 하드웨어 지원을 위해 응용 프로그램과 운영 체제 둘 다 충분한 변화가 필요하다.
  • 스레드 스케줄링은 멀티스레딩의 주요 문제이기도 하다.


멀티스레드 모델[편집]

다-대-일(Many-to-One)[편집]

여러 개의 사용자 수준 스레드들이 하나의 커널 스레드(프로세스)로 매핑되는 방식으로, 사용자 수준에서 스레드 관리가 이루어진다. 주로 커널 스레드를 지원하지 않는 시스템에서 사용하며, 한 번에 하나의 스레드만이 커널에 접근할 수 있다는 단점이 있다. 하나의 스레드가 커널에 시스템 호출을 하면 나머지 스레드들은 대기해야 하기 때문에 진정한 의미의 동시성을 지원하지 못한다. 다시 말해, 여러 개의 스레드가 동시에 시스템 호출을 사용할 수 없다. 또한 커널 입장에서는 프로세스 내부의 스레드들을 인식할 수 없고 하나의 프로세스로만 보이기 때문에 다중처리기 환경이라도 여러 개의 프로세서에 분산하여 수행할 수 없다.

일-대-일(One-to-One)[편집]



사용자 스레드들을 각각 하나의 커널 스레드로 매핑시키는 방식이다. 사용자 스레드가 생성되면 그에 따른 커널 스레드가 생성되는 것이다. 이렇게 하면 다-대-일 방식에서 시스템 호출 시 다른 스레드들이 중단되는 문제를 해결할 수 있으며 여러 개의 스레드를 다중처리기에 분산하여 동시에 수행할 수 있는 장점이 있다. 그러나 커널 스레드도 한정된 자원을 사용하므로 무한정 생성할 수는 없기 때문에, 스레드를 생성할 때 그 개수를 염두에 두어야 한다.

다-대-다(Many-to-Many)[편집]

여러 개의 사용자 스레드를 여러 개의 커널 스레드로 매핑시키는 모이다. 다-대-일 방식과 일-대-일 방식의 문제점을 해결하기 위해 고안되었다. 커널 스레드는 생성된 사용자 스레드와 같은 수 또는 그 이하로 생성되어 스케줄링한다. 다-대-일 방식에서 스레드가 시스템 호출시 다른 스레드가 중단되는 현상일-대-일 방식에서 사용할 스레드의 수에 대해 고민하지 않아도 된다. 커널이 사용자 스레드와 커널 스레드의 매핑을 적절하게 조절한다.







Posted by GENESIS8

댓글을 달아 주세요

Thread-Package Architectures 는 다음의 구조

user-level threads (1-on-N)

kernel supported threads (1-on-1)

multi-level (userland/kernel hybrid) threads (M-on-N)


[User-level threads]

User-Level threads는 응용 프로그램과 Link/Load가 되는 라이브러리로 구현되어집니다. 이 라이브러리에 동기화, 스케줄링 기능을 모두 담고 있습니다. 커널에서는 아무런 지원을 해주지 않으며, 커널이 보기에는 단지 그냥 Single process일 뿐입니다. 프로세스마다 런타임 라이브러리의 Copy가 호출되므로 스케줄링 정책을 프로세스마다 달리 취할 수 있으며, 각 Thread마다 time quantum을 소모할 필요 없고, 런타임 라이브러리가 context를 유지하기때문에 switching을 할 필요가 없습니다. 그래서 User-Level Threads는 빠르고, 매우 효율적입니다. 그러나 장애가 꽤 있습니다.

1. Blocking System Calls
Blocking function이란 처리가 완료되지않으면 return되지 않는 함수인데, 만약 특정 Thread에서 Blocking이 되어 버리면, 전체 process가 Blocking이 되어버립니다. 이런 이유로 운영체제가 제공하는 non-blocking 함수들만 사용해야 하며, 사용 빈도가 높은 함수(read,select,wait,...)들은 해당 함수의 non-blocking 버젼으로 대체해야할 필요가 있습니다. 
2. Shared System Resources
동기화나 Locking없이 Thread끼리 공유하는 변수(드러나지 않고 감춰져 있는 경우)가 있을때, 그 Thread가 thread-safe하지 않으면 Overwrite되는 문제가 생길 수 있습니다. 이 이유로 사용할 함수는 재진입이 가능해야합니다. User-Level뿐만아니라 Kernel-Level 함수까지 모두.
3. signal Handling, Thread Scheduling
User-Level에서 이것을 구현하기란 상당히 어렵습니다. Timeslice를 다루기 위해 Hardware Clock 인터럽트를 보통의 방법으로는 받지 못합니다. 선점형(Preemptive) 스케줄링을 하기 위해서는 커널로 부터 Time Siganl을 받는 함수를 등록해두어야 하며, Timer Alarm Siganl을 다루는것은 다른 시그널을 다루는 것보다 아주 어렵습니다.


4. Multiprocess Utilization
하나의 프로세스에서 Time을 공유하고 있기때문에 여러개의 CPU를 동시에 사용할 수는 없습니다.


정리 - 구현상의 어려움과 복잡성 그리고, 몇가지 장애에도 불구하고, concurrency와 efficiency의 이득을 가져다 줍니다.


[Kernel-level threads]

Kernel-level에 있는 Threads는 독립적으로 스케줄되므로 특정 Thread에서의 Blocking이 process로 전파되지 않습니다. 그래서 Blocking System Calls를 이용할수 있습니다. 또한 각 Threads끼리 Signal을 주고 받을 수 있습니다. 
Kernel-level threads는 특별히 고려할만한 장애를 가지고 있지는 않습니다. 물론 마찬가지로 Thread-Safe해야 하지만, OS 개발자들은 대개의 표준 라이브러리를 Thread-Safe하게(재진입해도 문제없겠끔) 만들기에 User-level threads보다 통상적으로 보다 덜 말썽을 피웁니다.

Kernel-level threads는 안정성에 비해서 너무 느리다는게 큰 단점입니다. 바로 Thread Context-Switch 때문입니다. 마로비치의 연구에 의하면 10배정도 느리다고 합니다.


[multiplexed threads]

User-level threads와 Kernel-level threads를 섞은 방법입니다. User-level thread(줄여서 Thread)는 LWP(가벼워진 프로세스, Lightweight Processes)에 의해 multiplex됩니다. 커널은 LWP를 스케줄링/실행하고, LWP는 대기중인 thread를 골라서 실행합니다. thread는 하나의 LWP에서 실행이 되어지며, Time slice가 바뀔때 LWP도 바뀌어질 수 있습니다. 프로그래머는 thread를 사용할 수도 있고, LWP를 직접 사용할수 있고, 둘 모두를 동시에 사용할 수도 있습니다.

User-level threads처럼 작동하면서 Hardware Parallelism과 Blocking calls에 대처할 수 있으며, Context-Switch을 많이 하지 않습니다.

이것의 장애는, LWP가 Blocking이 되면 이 LWP가 가진 몇개의 Thread도 동시에 Blocking이 됩니다. 또한 LWP의 Context-Switch 비용은 Kernel-level threas보다 결코 싸지 않습니다. 또한 다중 CPU에서 효율적일려면 각 Thread는 각각 다른 LWP에 할당되어 있어야 합니다. 각 Thread의 LWP 할당과 LWP의 CPU 할당은 별개로서 이루어지기 때문에, 각 Thread가 서로다른 CPU에 할당될려면 이렇게 작동하겠끔 하는 매커니즘이 따로 존재하여야합니다.

이러한 이유로 인해 LWP에 의한 multiplexed threads는 궁극의 해결책은 못됩니다. 이상적으로, Kernel-level threads의 결정적인 단점인 Thread Context-Switch를 user-level threds만큼 빠르게만 한다면 그것으로서 모든 장애는 해결됩니다. 물론 이 방법은 있지만 여전히 문제점을 가지고 있습니다. 아래 방법입니다.

[Scheduler Activation(kernel-supported user-level threads)]

이 방법은 User-level threads들을 위한 특별한 지원을 kernel이 해주는겁니다. 그 부분은 Scheduler Activation이라 합니다. User-level threads 라이브러리는 커널에게 프로세스를 요구할때와 양도할때를 알려줍니다. 그러면 커널의 Scheduler Activation은 이것을 커널에 의한 프로세스 주소 공간으로 할당된 Virtual Processor로 표현합니다. 여기서 스케줄링과 Blocking 감지가 이루어지며, Granted processor,Preemptive thread,Blocked,Unblocked등등의 Event를 User-level의 런타임 시스템에게 알려줍니다.

개념적으로 이 방법이 가장 확실합니다만 이것은 단 한가지, 그러나 치명적일 수도 있는, 약점이 있습니다.

커널과 라이브러리 코드가 효율적인 교신을 위해 같은 주소 공간을 공유하기 때문에 예외적으로 높은 신뢰를 가지고 있어야 하며 bug-free이어야합니다. 이 방법은 개념적으로 비정상적인 작동(의도적인 비정상적 작동 포함)과 버그에 대해서 강건함(robust)을 가지지 못합니다.

SunOS는 multiplexed threads를 지원합니다. 그외(WindowsNT,MACH,OS/2)는 Kernel-level threads를 지원합니다. 이 책에서는 MACH가 Kernel-level threads를 지원한다고 되어 있지만 어떤 Web site에 가니 MACH도 LWP도 지원하는걸로 되어 있군요. 이것이 multiplexed threads를 지원한다라는건지 아님 User-level threads의 구현상의 한방법인지는 모르겠습니다. 어쩌면 둘은 말만 다를뿐 별로 차이가 없는 것일지도 모르겠고.

Linux에서 작동되는 User-level threads는 아래와 같습니다.
Bare-Bones Threads,CLthreads,DCEthreads,FSU Pthreads,JKthread,LinuxThreads,LWP,NThreads (Numerical Threads),PCthreads,Provenzano Pthreads,QuickThreads,RexThreads.


http://www.sftw.umac.mo/resource/LDP/FAQ/Threads-FAQ/ThreadLibs.html



https://kldp.org/node/295#comment-764


Quote:
사용자 수준은 문맥교환(context switching)의 오버해드가 없다.

사용자 쓰레드 방식이 커널 쓰레드보다 오버헤드가 적은(없지는 않음) 이유는
쓰레드간 전환할 때마다 커널 스케줄러를 호출할 필요가 없기 때문입니다.
커널 스케줄러로 진입하려면 프로세서 모드를 사용자 모드에서 커널 모드로
전환해야 하는데, 이때 사용자쪽 하드웨어 레지스터를 전부 저장시키고, 커널
레지스터를 복구하고, 기타 등등...의 수많은 작업이 밑에서 일어납니다.
따라서 사용자 모드와 커널 모드를 많이 왔다갔다 할 수록 성능은 급격하게
떨어지는 것이죠. 사용자 쓰레드는 쓰레드 스케줄러가 사용자 모드에만 있기
때문에 그런 오버헤드는 발생하지 않습니다.

Quote:
커널 수준은 사용자 수준 보다 효율적일 수 있다.

그런데 사용자 쓰레드의 결정적인 단점은 프로세스내의 한 쓰레드가 커널로
진입하는 순간 나머지 쓰레드들도 전부 정지된다는 점입니다. 커널이 쓰레드의
존재를 알지 못하므로 불가피한 현상입니다. 쓰레드가 커널로 진입할 때는
write(), read(), ...같은 시스템 호출을 부를 때인데, 시스템 호출 길이가
짧아서 바로 리턴할 때는 문제가 없지만 연산이 길어지면 상당한 문제
됩니다. 전체 프로세스의 응답성이 확~ 떨어지죠.

그리고 커널 쓰레드를 쓰면 멀티프로세서를 활용할 수 있다는 큰 장점
있습니다. 사용자 쓰레드는 CPU가 아무리 많더라도 커널 모드에서 쓰레드
단위로 스케줄이 안되므로 각 CPU에 효율적으로 쓰레드를 배당할 수 없는
문제가 있습니다(프로세스 단위로만 배당이 되므로).

그래서 리눅스, 윈도, 솔라리스를 비롯한 대부분의 운영체제는 사용자 쓰레드를
쓰지 않고 커널 쓰레드, 또는 커널/사용자 쓰레드 혼합 방식을 쓰는 추세입니다.

Quote:
그리고 현재 리눅스에서는 두가지 쓰레드 모델이 모두 지원 되나요?

예, 모두 지원됩니다.

쓰레드 방식은 크게 세가지가 있습니다. 이중 사용자 쓰레드는 요즘들어 
리눅스에서는 별로 쓰는 사람이 없는 것 같고, 1-on-1 커널 쓰레드 방식인
glibc내의 LinuxThreads가 가장 널리 쓰입니다. 최근에는 이걸 더 발전시킨
NPTL(Native POSIX Threading Library)가 활발히 개발중에 있습니다. 
커널/사용자 쓰레드 혼합 방식인 NGPT(Next Generation POSIX Threads)
도 IBM의 지원하에 최근 2.2.0까지 나와 있습니다. 둘간의 차이를 여기서
설명하기엔 좀 긴 것 같고, 전자가 후자보다 훨씬 간단한 반면, 후자의 성능이
전자보다 다소 높은 것으로 알려져 있습니다. 여담입니다만, NPTL이 처음
나왔을 때 우리 것이 NGPT보다도 성능이 훨씬 좋다고 자랑(?)을 했더니
NGPT팀이 자극을 받았나 봅니다. NGPT 홈페이지에 가면 새버전(2.2.0)
성능이 LinuxThreads는 물론 NPTL도 능가한다고 큼지막하게 써놨습니다.

Quote:
kernel thread는 user thread에서 LWP 자료구조를 통해 연결되는데

중요한 것은 아닙니다만...

LWP는 경량 프로세스(lightweight process)의 준말로, 솔라리스에서(그리고
최근의 NetBSD에서) 내부적으로 쓰는 말입니다. 리눅스, 윈도, FreeBSD에선
그냥 thread라고 합니다.


http://mesl.khu.ac.kr/?document_srl=271099


커널쓰레드는 커널단위로 쓰레드가 할당되기 때문에 운영체제가 각 커널 쓰레드 목록을 관리하구요

유저 레벨 쓰레드는 말그대로 프로세스 안에 유저단위로 쓰레드가 움직이는 양상이기때문에 
운영체제입장에서 보면 결국은 하나의 프로세스가 모든 쓰레드를 관리하는 모양이 됩니다.
(운영체제가보면 프로세스는 하나가 돌고있는거라고 볼수 있겠네요)
그렇기 때문에 만일 그 프로세스 내에서 문제가 생겨서 프로세스에러가 생긴다면
유저레벨 쓰레드에서는 프로세스의 망가짐으로 인해 모든 유저가 큰 타격을 받을수가 있습니다. 하지만 커널모드쓰레드는 각 커널이 개별적이라 그런 위험부문에선 안정적이라고 볼 수도 있겠네요

더 붙여 말하자면 user-level thread는 커널자체에서 개념을 바꾸기 힘들기 때문에 임시적으로 사용하는 방법이었고, 추후에 나오는 커널들에서 완벽한 스레드를 지원하는 kernel-level thread로 바뀌었다


http://dakuo.tistory.com/93




유저 영역 : 사용자가 구현한 프로그램 동작시 사용하게 되는 메모리 영역

커널 영역 : 운영체제 동작시 사용하게 되는 메모리 영역


커널 레벨 쓰레드 :

쓰레드를 생성 및 스케줄링하는 주체가 커널


장점 : 안전성과 다양한 기능

단점 : 유저 모드와 커널 모드로의 전환으로 인해 성능이 저하된다.

(참고 : 사용자가 구현한 프로그램은 기본적으로 유저모드에서 동작하다가 Windows 커널이 실행되어야 하는 경우
커널 모드로의 전환이 일어나고 일을 마치면 다시 유저 모드로 전환된다)


유저 레벨 쓰레드 :

커널에 의존적이지 않은 형태로 쓰레드의 기능을 제공하는 라이브러리를 활용

(참고 : 스케줄러는 쓰레드를 지원하지 않아 쓰레드의 존재를 모른다. 따라서 프로세스 단에서 스케줄링을 한다
따라서 쓰레드 끼리의 스케줄링은 유저가 구현해야 한다) 

장점 : 유저모드에서 커널모드로의 전환이 필요없다. 성능이 좋다

단점 : 프로그래밍 하기 어렵고 커널 레벨 쓰레드에 비해 결과 예측이 어렵다.



http://hyunbogi.tistory.com/88







Posted by GENESIS8

댓글을 달아 주세요

  1. 2020.06.28 23:33  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다


위키백과



kernel

① 낟알 ② 핵심 ③  

1.

(과실(仁); ( 꼬투리·겉껍질 속의 종자[열매]; ( 낟알.

2.

중심부중핵핵심요점, 요지


컴퓨터 과학에서 커널(kernel)은 운영 체제의 핵심 부분으로서, 운영 체제의 다른 부분 및 응용 프로그램 수행에 필요한 여러 가지 서비스를 제공한다. 핵심(核心)[1]이라고도 한다.


커널의 역할

커널은 운영 체제의 핵심 부분이므로, 커널의 역할 역시 운영 체제의 핵심 역할이라 할 수 있다.


보안

커널은 컴퓨터 하드웨어와 프로세스의 보안을 책임진다.

자원 관리

한정된 시스템 자원을 효율적으로 관리하여 프로그램의 실행을 원활하게 한다. 특히 프로세스에 처리기를 할당하는 것을 스케줄링이라 한다.

추상화

같은 종류의 부품에 대해 다양한 하드웨어를 설계할 수 있기 때문에 하드웨어에 직접 접근하는 것은 문제를 매우 복잡하게 만들 수 있다. 일반적으로 커널은 운영 체제의 복잡한 내부를 감추고 깔끔하고 일관성 있는 인터페이스를 하드웨어에 제공하기 위해 몇 가지 하드웨어 추상화(같은 종류의 장비에 대한 공통 명령어의 집합)들로 구현된다. 이 하드웨어 추상화는 프로그래머가 여러 장비에서 작동하는 프로그램을 개발하는 것을 돕는다. 하드웨어 추상화 계층(HAL)은 제조사의 장비 규격에 대한 특정한 명령어를 제공하는 소프트웨어 드라이버에 의지한다.


초기의 커널

초창기의 컴퓨터에서 운영 체제 커널은 필수적인 것이 아니었다. 초기의 프로그램은 하드웨어 추상화나 운영 체제의 지원을 받지 않고도 컴퓨터만으로 불러들인 다음 실행될 수 있었으며, 이것은 초창기 컴퓨터들의 일반적인 운영 방식이었다. 다른 프로그램을 실행하기 위해서는 컴퓨터의 전원을 껐다가 켬으로써 다시 입력자료를 읽어들여야 하는 방식이었다. 이러한 과정이 반복되면서 사람들은 로더와 디버거 같은 작은 프로그램들이 상주해 있는 것이, 다른 프로그램으로 교체하거나 새로운 프로그램을 개발하는 데 유리하다는 사실을 알게 되었다. 이와 같은 로더, 디버거들이 초기 운영 체제 커널의 기초가 되었다.


종류

단일형 커널(monolithic kernel) - 커널의 다양한 서비스 및 높은 수준의 하드웨어 추상화를 하나의 덩어리(주소 공간)로 묶은 것이다. 운영 체제 개발자 입장에서 유지 보수가 일반적으로 더 어려우나 성능이 좋다.

마이크로커널(microkernel) - 하드웨어 추상화에 대한 간결한 작은 집합을 제공하고 더 많은 기능은 서버라고 불리는 응용 소프트웨어를 통해 제공한다.

혼합형 커널(hybrid kernel) - 성능 향상을 위해 추가적인 코드를 커널 공간에 넣은 점을 제외하면 많은 부분은 순수 마이크로커널과 비슷하다. 수정 마이크로커널이라고도 한다.

나노커널(nanokernel) - 실질적으로 모든 서비스를 책임진다.

엑소커널(exokernel) - 낮은 수준의 하드웨어 접근을 위한 최소한의 추상화를 제공한다. 전형적으로 엑소커널 시스템에서는 커널이 아닌 라이브러리가 단일형 커널 수준의 추상을 제공한다.




http://www.terms.co.kr/kernel.htm



커널은 컴퓨터 운영체계의 가장 중요한 핵심으로서, 운영체계의 다른 모든 부분에 여러 가지 기본적인 서비스를 제공한다. 비슷한말로는 '뉴클리어스'라는 용어가 있다. 커널은 쉘과 대비될 수 있는데, 쉘은 운영체계의 가장 바깥부분에 위치하고 있으면서, 사용자 명령에 대한 처리를 담당한다. 커널과 쉘이라는 용어는 IBM 메인프레임을 제외하고, 유닉스와 기타 몇몇 운영체계에서 자주 사용된다.


일반적으로, 커널에는 종료된 입출력 연산 등, 커널의 서비스를 경쟁적으로 요구하는 모든 요청들을 처리하는 인터럽트 처리기와, 어떤 프로그램들이 어떤 순서로 커널의 처리시간을 공유할 것인지를 결정하는 스케줄러, 그리고 스케줄이 끝나면 실제로 각 프로세스들에게 컴퓨터의 사용권을 부여하는 수퍼바이저 등이 포함되어 있다. 커널은 또한, 메모리나 저장장치 내에서 운영체계의 주소공간을 관리하고, 이들을 모든 주변장치들과 커널의 서비스들을 사용하는 다른 사용자들에게 고루 나누어주는 메모리 관리자를 가지고 있다. 커널의 서비스는 운영체계의 다른 부분이나, 흔히 시스템 호출이라고 알려진 일련의 프로그램 인터페이스들을 통해 요청된다.


커널을 유지하기 위한 코드는 지속적으로 사용되기 때문에, 보통 커널은 자주 사용되지 않는 운영체계의 나머지 부분에 의해 덮어씌워져 훼손되지 않도록, 보호된 메모리 영역에 적재된다.


커널을 바이오스와 혼동하면 안된다.



https://namu.wiki/w/%EC%BB%A4%EB%84%90


OS의 심장이자, OS를 규정짓는 매우 중요한 부분. 하드웨어의 자원을 자원이 필요한 프로세스에 나눠주고, 덩달아 프로세스 제어(태스크 매니저), 메모리 제어, 프로그램이 운영체제에 요구하는 시스템 콜 등을 수행하는 부분으로 운영체제 맨 하부에서 돌아간다. 쉽게 말해, OS를 하나의 기업체로 비유한다면 커널은 인사담당 부서인 셈이다. 현재 많이 사용되고 있는 OS는 커널 위에 여러 가지 레이어를 올린 것. 이렇기 때문에 커널이 날아가게 되면 운영체제를 못 쓰게 된다. 이 커널도 한번씩 오작동 하여 정지할 때가 있는데, 이를 가리켜 커널 패닉이라고 부른다. 물론, 현재는 억지로 볼 수는 있지만, 일반적인 상황에선 꽤나 보기 힘들다.


어쨌든 커널로 운영체제의 정체성을 결정하기에 매우 중요하다고 볼 수 있다. 페도라, 우분투등이 다 리눅스로 묶이는 것도 이들이 리눅스 커널을 사용하고 있기 때문.


아직 와 닿지 않는다면, NT 커널 기반에서 KERNEL32.dll, Hal.dll, ntdll.dll, ADVAPI32.dll, KERNELBASE.dll(윈7) 등을 날려보면 된다. 이제 부팅이 되지 않는다. 정말로 망했어요 그리고 재부팅하고 비명을 지르면 된다. 자신이 리눅스를 쓴다면 실행 중인 init 프로세스를 날려보자 근데 요즘은 init 에다가 kill 날려도 안 죽는다 

1.2. 커널의 종류






---


원본 출처 

http://blog.naver.com/quwoo/120029090135


리눅스 커널이란? 
majoR/Sp/Os | 2006/05/25 14:46

리눅스를 만지면서 커널 커널 하지만 의외로 커널이 뭐야? 라고 물으면 모르는 사람들이 많다. 간단히 정리해보자

커널은 시스템에 존재하는 자원을 효율적으로 관리하는 자원 관리자로, 그 기능을 간단히 살펴보면

프로세서 관리 - 처리 속도를 향상시키기 위해 여러 프로세서를 병렬로 연결하여 사용한다. 시스템에서 동작하는 프로세스도 커널에서는 관리해야할 자원이고, 운영체제의 처리 요구에 맞춰 동작할 수 있도록 각 프로세스에 필요한 프로세서를 효율적으로 할당하고 수행하도록 관리한다.

프로세스 관리 - 운영체제에서는 최소한 하나 이상의 프로세스가 동작한다. 프로세스는 다른말로 태스크라고도 하며, 주어진 일을 수행하는 기본 단위다. 커널은 스케줄러를 이용하여 여러 프로세스가 동작할 수 있도록 각 프로세스를 생성하고 제거하며, 외부환경과 프로세스를 연결하고 관리한다.

메모리 관리 - 각각의 프로세스가 독립적인 공간에서 수행할 수 있도록 가상 주소 공간을 제공한다. 가상메모리를 바탕으로 물리적인 한계를 극복할수 있는 기능을 제공한다. 

이외에도 파일 시스템 관리, 디바이스 제어, 네트워크 관리 정도가 있다.



리눅스 커널은 운영체제에서 가장 중요한 부분이다. 프로세서와 시스템 메모리에 상주하면서 디바이스나 메모리 같은 하드웨어 자원을 관리하고, 프로세스의 스케줄을 관리하여 다중 프로세스를 구현하고, 시스템에 연결된 입출력을 처리하는 운영체제의 핵심 역할을 수행한다.

그렇다면 리눅스 커널의 특징은 무엇일까

모놀리식 커널 - 리눅스 커널은 대부분 유닉스 커널과 같은 모놀리식(monolithic)이다. 모놀리식이기 때문에 논리적으로 구분되는 여러 구성요소들이 상호간에 연결되어 동작한다. 

비선점형(커널 2.4)과 선점형(커널2.6) - 비선점형 커널은 프로세스의 동작 상태가 사용자 모드에서 커널 모드로 진입하면 외부에서 해당 프로세스를 중지시키지 못한다. 반대로 프로세스가 커널 모드로 동작하더라도 스케줄링 정책이나 다른 외부적인 접근을 통해 프로세스를 강제로 중지시킬 수 있는 경우를 선점형이라고 한다. 2.6커널은 선점형과 비선점형을 선택할 수 있다.

가상 메모리 시스템(VM) - 리눅스 커널은 다양한 플랫폼에서 동작하는 운영체제이므로 i386에서 동작되던 메모리 관리 시스템을 표준화 하여 다양한 MMU 디바이스에 적용할 수 있도록 구성되어있다. 

No MMU 지원 - 리눅스 커널은 주로 MMU를 이용한 메모리 관리를 수행하지만 임베디드 시스템에서 사용하는 프로세서의 경우는 MMU디바이스가 없는 경우도 있다. 커널 2.6에서는 MMU가 없는 시스템도 지원한다. 

가상 파일 시스템(VFS) - 리눅스에서는 ext2를 비롯 다양한 파일 시스템을 사용할수 있고, 윈도우에서 동작하는 NTFS파일 시스템과 FAT32도 처리할 수 있다. 

모듈을 이용한 커널 확장 - 운영 체제가 동작하는 중에도 커널 코드를 추가하거나 삭제할수 있다.

커널 스레드 - 커널 2.4이전에는 매우 제한된 커널 스레드를 지원했지만, 2.6에서부터는 NPTL(Native POSIX Threading Libray)과 NGPT(Next Generation POSIX Threading Package)를 지원한다. 

멀티스레드 지원, 멀티 프로세서 지원, GPL 라이센스 

[출처] 리눅스 커널이란?|작성자 quwoo





http://software-engineer.gatsbylee.com/%EB%A6%AC%EB%88%85%EC%8A%A4-linux-%EB%9E%80-%EB%AC%B4%EC%97%87%EC%9D%B8%EA%B0%80-%EA%B8%B0%EC%B4%88%EA%B3%B5%EB%B6%80/

커널 ( Kernel ) 이란 무엇인가?

쉽게 말하면, 소프트웨어와 하드웨어간의 커뮤니케이션을 관리하는 프로그램이다.

구체적으로 말하면, 커널이란 운영체제 ( Operating System )에서 가장 중요한 구성요소로서 입출력을 관리하고 소프트웨어로부터의 요청 ( System Call ) 을 컴퓨터에 있는 하드웨어 ( CPU, 메모리, 저장장치, 모니터 등등 )가 처리 할 수 있도록 요청(  System Call )을 변환하는 역할을 한다.

( User는 Shell을 이용하여 Kernel을 통해 하드웨어를 사용 할 수 있다. )

http://www.devpia.com/MAEUL/Contents/Detail.aspx?BoardID=69&MAEULNO=28&No=11050


커널은 실제적으로 CPU를 제어는 S/W 로 생각 하시면 되겠네요.
그다음 OS 서비스(스케줄링,IPC,동기화)및 드라이버가 올라가죠 실제적으로 OS 포팅할떄에 
IPC 및 메모리 ,동기화관련 서비스는 뺴고 포팅이 되는
Embeded OS 도 있습니다.
자세한건 책한건 사시던가 OS 포팅 한번 해보시면 감이 오실듯 합니다.

추천 하는 OS 는 uCOS2 입니다 시중에 책(Micro C/OS-II)도 있죠.




저는 임베디드쪽을 공부했고 지금은 단말기 디바이스 개발일을 하고 있습니다 

질문하신 내용으로 봐서는 커널의 기능 및 역활을 잘 이해를 못하시는 부분이 있으신거 같네요..

운영체제만 전공으로 해서 공부해도 스케줄링 기법등.. 많은부분이 있지만..

윈도우 아키텍처에서 OS 부팅 모드가 크게 3가지 레벨이이 있는거로 알고 있습니다..

Ring 0 모드 ( 일반적으로 커널모드라고 함 ) Ring 3 모드 (일반적으로 유저모드라고 함)

(Ring 모드 개념은 리눅스에도 비슷해요 부팅 옵션에서 3이면 유저, 0이면 커널 모드

참고로 제가 많이 사용했던 ubuntu linux 의경우 0-5 Level 이 있었고요 3,4,5 레벨이 유저 레벨,

각 레벨의 차이는 콘솔 모드로 부팅할것인지 GUI로 할것인지 차이 정도 였던거 같네요..;)

그외 레벨들도 존재 했던 거 같은데 이론을 놓은지가 좀돼서 가물가물 하네요..

여튼 중요한건 윈도우라는 OS를 예로 설명 한다고 할때..

OS 에서도 엄연하게 유저 영역과 커널 영역으로 구분이 되어 있습니다..

이건 윈도우를 설계한 개발자들이 만든 아키텍처가 그렇기 때문이죠..

위사항을 확인 하기 위해서 Ring 레벨 대해서 검색해보시면 보다 자세한 설명을 보실수 있고요..

실제 윈도우에서 파일로 존재하는 라이브러리를 확인 해보시려면 (xp 기준)

C:\WINDOWS\system32\kernal32.dll

C:\WINDOWS\system32\user32.dll

위 두가지 dll 파일이 존재 합니다 파일명에서 보시면 아시겠지만 ..

위에서 말씀드린 커널 모드 부분은 kernal32.dll 파일에 구현되어 있고, 유저 모드는 user32.dll 파일에서

구현 되어 있습니다..

커널 모드와 유저 모드는 윗분들 께서 간략하게 설명 해놓으셨는데요..

가장 간단하게 설명 해드리면 커널 모드는 유저모드를 포함한 윈도우 OS 의 모든 부분을 제어할수가 있습니다

반면 유저모드의 경우 일정부분만 제어가 가능하며 커널모드로 작업이 필요 한부분은 커널모드에 작업을 

요청하는 방식으로 이루어지며 유저모드에서 직접적으로 커널모드의 크리티컬한 작업을 할수없습니다 (권한이 없음)

위 처럼 커널모드가 OS의 실질적인 모든 작업을 관리 하기 때문에 보안쪽 회사에서는 커널모드 쪽 작업을 베이스로

하게 되어집니다..

그리고 위에서 말씀 드린 dll 을 이용하여 Win32 API 를 통하여 사용 되고 있습니다 

Window 쪽으로 일하시려면 API 는 기본이죠 .. 특히 보안쪽 가시려면 Native API 까지 알아야..

하는거로 알고 있습니다 실제 Native API 들이 해킹, 보안 의 주축이 되는 함수들이 많이 들어 있기 때문에..

모든 보안제품들, 공격 루틴들이 Native API 들을 통해서 많은 해킹기법으로 이용되는거로 알고 있어요..


커널의 역활설명을 간략히 드렸는데요..



책보다 사이트가 좀더 공부하시는데 도움 되실꺼 같네요

http://kldp.org/ 

리눅스에 관심이 있으시면 잘 아실테지만 .. 우리나라 리눅스 포럼중 가장 큰 규모이며 업데이트가 잘되고 있습니다

고수분들도 많으시고요.. ^^ 윈도우쪽은 저도 그닥 잘모르겠네요..

(참고로.. 전 임베디드쪽을 공부하면서 윈도우도 시스템 공부를 했지만 리눅스쪽을 좀더 많이 공부를 해서요..^^;;)

윈도우쪽은 API 는 윗분들 의견에서 나온 winapi 사이트에서 기본 베이스 공부하시기 좋고요

Native API 는 블로그나 검색으로 찾으셔야 할꺼에요.. 영어 압박이 좀 있을꺼에요..^^;

그리고 많은 OS 종류들이 존재 합니다.. 윈도우, 리눅스, RTOS 등..

이 중 사람들이 리눅스에 관심을 많이 가지며 작업하는거중 하나가 open 소스 기반이기 때문에..

리눅스의 라이센스 GNU 정책 때문에 open 소스 기반으로 개발 되어서 커널이 공개 되고 있습니다.

리눅스 장점중 하나죠.. 윈도우 같은경우 철저히 소스 공개를 하지 않기 때문에 지금 알려진 대부분의

내용들은 많은 해커들이 해킹을 통해서 알아낸것 입니다. 물론 Microsoft MVP 자격을 얻으면 windows 소스를

열람할수 있는 기회가 주어지는 것도 있더군요.. ;; (요즘은 해킹을통해서 윈도우가 많이 공개 된거로 알고 있어요..)

쓸데 없는 얘기가 길어졌는데요.. 커널 내부를 공부하시기에는 윈도우 보다는 리눅스가 접근하기 용이 합니다..

하지만 중요한건 윈도우와 리눅스는 아키텍처가 틀린 부분이 많기 때문에.. 리눅스를 공부했다고 윈도우를 다 아는게

아니죠.. 그점을 유의 하셔야 하고요.. 윈도우 같은경우 처음부터 접급해서 공부하기 어려운 부분이 많습니다..

그래서 전 리눅스 기반에서 공부를 많이 했고요.. 핵심적인 개념들은 비슷한게 많아요..;; 

RTOS 중에서도 보시면 아시겠지만 리눅스 기반으로 개발 된것들이 많이 있습니다..

어느 부분을 공부하시던지 공통적인 부분은 나오길 마련이죠..^^

































윈도우쪽에 보시면 rootkit 이란 사이트가 있고요..

www.rootkit.com // 윈도우 쪽애서 고급 기법들이 많이 공개 되고 있습니다.

최근에 루트킷 이란 책으로 발간된 국내 서적도 있습니다..

http://book.naver.com/bookdb/book_detail.php?bid=4298506 링크 참조

저도 WDK 쪽이나 rootkit 쪽은 관심이 많아서.. ^^

책은 구입해뒀는데 .. 시간상.. 이런 저런 핑계로 못보고 있네요..

평은 좋은거로 알고 있는데요 .. 기초가 없으면 처음 보기는 다소 어려운 내용 이지만..

기본적인 내용이 많아서 보시면 도움 될꺼 같네요..

해킹 기법적인 내용이 많지만.. 커널을 공부하는데 있어서 해킹 기법 만한게 없죠..ㅎ

그럼 수고하세요..ㅎ



커널이라고 하면 보통 운영체제에 많이 쓰이는 개념인데요.

다른말로 뉴클레어스, 코어라고도 합니


OS의 핵심부분을 의미하고요, 가장빈번하게 프로세스를 제어하는 부분이라고 할 수 있습니다.

대부분의 인터럽트가 처리되기 때문에 오퍼레이팅시스템에서 중요한 부분이고요,

때문에 주로 메인 메모리에 상주됩니다. 

제가 전공이 거의 OS라서요.

오에스 책보시면 자세히 알 수 있어요.

뭐 책들은 많습니다. 일단 기본적인 운영체제론 만 보셔도 확실할듯..
















커널(Kernel)

커널은 운영체제의 핵심을 이루는 요소로서 컴퓨터내의 자원을 사용자 프로그램(User Application)이 사용할 수 있도록 관리하는 프로그램이다.

커널은 프로세스, 파일 시스템, 메모리, 네트워크의 관리를 맡는다. 사용자 프로그램은 이러한 기능들을 정해진 규칙에 따라서 커널에 요구하게 되며, 커널은 이러한 요구들을

만족시켜 주도록 구성되어 있다. 사용자 프로그램은 시스템 라이브러리(System Library)의 도움을 받거나 아니면 직접적으로 소프트웨어 인터럽트(Softw are Interrupt)를 이용해서 트랩(Trap)을 걸어 커널에

접근하게 되며, 이러한 모든 접근은 시스템 콜 인터페이스(System Call Interface)를 통하여 이루어진다.



커널은 대부분이 C 코드(Code)로 작성되어 있으며, 프로세스의 구조에 의존적인(Processor Architecture Dependent) 부분들과 속도를 요하는 부분만 기계어 코드

(Assembly Code)로 작성되어 있다. 따라서 커널의 구조에 의존적인(Architecture Dependent) 부분을 고침으로 해서 새로운 프로세스로의 포팅(Porting)이 가능해진다.

[참고] Add-on L i nu x Ke rne l P rogrammi ng[2001. 11 이귀영 著]

이하 내용은 `Running Linux 4rd` 에서 발췌하였습니다. 06. 5. 15 - subz ero


커널은 운영체제의 핵심에 해당한다. 커널은 사용자 프로그램과 하드웨어 장치간의 인터페이스를 제어하고, 다중 작업을 지원하려고 프로세스 스케쥴링을 하며, 기타 시스템의 다양한 측면을 관리하는 소스 코드이다. 커널은 시스템에서 동작하는 어떤 개별 프로세스가 아니라, 항상 메모리에 존재하면서 모든 프로세스가 사용할 수 있는 루틴(routines)들의 집합이라고 할 수 있다. 커널 루틴은 여러 가지 방법으로 호출된다. 커널을 사용하는 직접적인 방법은 시스템 호출(system call)을 사용하는 것으로 커널이 호출

한 프로세스를 위해 특별한 코드를 실행한다. 예를 들어, read 시스템 호출은 파일 기술자(file descriptor)로부터 자료를 읽는다. 프로그래머에게는 C 함수처럼 보이지만 read 의 실제 코드는 커널 안에 있다.


커널 코드는 다른 상황에서도 실행된다. 예를 들어, 하드웨어 장치가 인터럽트(interrupt)를 발생시키면 커널 내부의 인터럽트 처리기를 찾는다. 어떤 프로세스가 어떤 행동을 취하고 결과를 기다려야 할 때는 커널이 개입하여 그 프로세스를 잠들게 하고 다른 프로세스가 활동할 수 있게 스케쥴링한다. 마찬가지로 커널은 한 프로세스에서 다른 프로세스로 이동할 때 클럭 인터럽트를 사용하여 프로세스간의 제어권을 신속하게 옮긴다. 다중 작업은 대개 이런 방식으로 이루어진다.


리눅스 커널은 단일(monolithic) 커널 방식으로, 모든 핵심 함수와 장치 드라이버가 커널의 일부다. 일부 운영체제는 장치 드라이버와 다른 코드가 필요할 때 적재되고 실행되는 마이크로 커널(micro kernel) 아키텍처를 사용하고 있다. 따라서 이 코드는 항상 메모리에 있을 필요가 없다. 두 방식에는 각각 장 · 단점이 있다. 


대부분의 유닉스 구현에서는 일반적으로 단일 커널 아키텍쳐가 사용되며, 이는 시스템 V, BSD 와 같은 전통적인 커널에서 채택한 방식이다. 하지만 리눅스는(사용자의 명령에 따라 메모리에 적재하거나 빼

낼 수 있는) 적재 가능한 장치 드라이버도 지원하고 있다.


인텔 플랫폼에서 동작하는 리눅스 커널은 인텔 x86 프로세서(80386 부터 현재의 펜티엄 4 가지)의 특별한 보호모드 특성을 사용하도록 개발되었다. 특히 리눅스는 보호모드, 기술자 기반의 메모리 관리 정책과 기타 수많은 인텔 프로세서의 향상된 기능을 활용한다. x86 보호 모드 프로그래밍에 익숙한 사람은 이 프로세서가 유닉스 같은 다중 작업 시스템용(사실은 멀틱스의 영향을 받은 것이다)으로 설계된 것을 알고 있을 것이다. 리눅스는 이 기능을 십분 활용한다.


대부분의 현대적인 운영체제와 마찬가지로 리눅스는 다중 프로세서(M ulti Processing) 운영체제다. 메인보드에 하나 이상의 CPU 가 있는 시스템을 지원한다. 이 기능을 통해 동시에(또는 `병렬로`) 다른 프로그램을 서로 다른 CPU 에서 실행할 수 있다. 리눅스는 또한 하나의 프로그램 안에서 메모리의 데이터를 공유하고 있는 `제어 스레드`를 다중으로 생성하는 프로그래밍 기법인 스레드(thread)도 지원한다. 리눅스는 여러 가지 커널-레벨 그리고 사용자-레벨 스레드 패키지를 지원한다. 리눅스의 널 스레드는 다중 CPU에서 동작하므로, 하드웨어 병렬 처리 능력을 제대로 활용한다고 할 수 있다. 리눅스 커널 스레드 패키지는 POSIC 1003.1c 표준과 호환된다.


리눅스 커널은 필요에 따라 페이징하고, 적재하는 실행 파일을 지원한다. 즉 프로그램 세그먼트 중 실제로 쓰이는 부분만 메모리로 읽어들인다. 그리고 한 프로그램이 동시에 여러번 실행 중일 때에는 프로그램의 복사본 하나만 메모리에 적재한다. 실행 프로그램은 동적으로 링크된 공유 라이브러리를 사용한다. 즉 실행 프로그램들은 디스크에 있는 라이브러리 파일 내의 공용 라이브러리 코드를 공유할 수 있다. 이렇게 하면 실행 파일이 차지하는 디스크 공간을 줄일 수 있다. 또한 라이브러리 코드 복사본 하나가 메모리에 올라가므로, 전체 메모리 사용량을 줄일 수 있다. 물론 공유 라이브러리에 의존하지 않고 `완전한` 실행파일을 가지고 싶은 사람들을 위해 정적 링크 라이브러리도 있다. 리눅스 공유 라이브러리는 실행 중 동적으로 링크되므로, 프로그래머는 실행 파일을 변경하지 않고도 라이브러리 모듈을 자신이 만든 루틴으로 변경할 수 있다.


시스템 메모리를 최대한 활용하기 위해, 리눅스는 디스크 페이징이라는 기능으로 가상 메모리(virtual memory)를 구현한다. 즉 일정량의 스왑 영역(sw ap space) 을 디스크에 할당할 수 있다. 애플리케이션이 머신에 실제 설치되어 있는 물리적인 메모리보다 많은 메모리를 필요로 하는 경우, 리눅스는 사용하지 않는 페이지를 디스크에 스왑시킨다(페이지page란 운영체제가 메모리를 할당하는 단위다. 대부분의 아키텍처에서는 4KB다). 그리고 스왑아웃시킨 페이지에 다시 접근할 때는 디스크에서 페이지를 읽어와 메인 메모리에 다시 넣는다. 이 기능을 통해 큰 애플리케이션을 실행할 수 있고, 동시에 더 많은 사용자를 지원할 수 있다. 물론 스왑으로 물리적인 RAM 을 대신할 수는 없다. 


이는 메모리보다 디스크에서 페이지를 읽는 것이 더 느리기 때문이다. 리눅스 커널은 메모리보다 디스크에 자주 접근하는 것을 피하기 위해, 최근 접근한 일부파일을 메모리에 보관한다. 커널은 디스크 접근 캐시를 위해 시스템에 남은 모든 메모리를 사용하므로, 시스템 부하가 적을 때는 여러 파일에 접근해도 메모리에서 재빨리 처리한다. 만약 사용자 애플리케이션이 더 많은 물리적인 메모리를 요구하면, 디스크 캐시의 크기를 줄인다. 물리 메모리를 쓰지 않고 방치하는 경우는 절대 없다.

또한 디버깅을 쉽게 하기 위해 잘못된 메모리 주소에 접근하는 등의 잘못된 연산을 수행한 프로그램의 코어 덤프(core dump)를 발생시킨다. 프로그래머는 프로그램을 실행시

킨 디렉토리에 저장된 core 라는 코어 덤프를 사용하여 비정상 종료의 원인을 판단한다.

----------

커널의 버전 번호

major.minor.patchlevel

리눅스 커널에는 항상 두 개의 `최신` 커널이 존재한다. 하나는 `안정(stable) 버전`이고 다른 하나는 `개발(development) 버전`이다. 안정 버전은 가장 최신의 실험적인 기능을

해킹하기 보다는 안정적이며 잘 작동하는 시스템을 원하는 대부분의 리눅스 사용자를 위한 것이다. 반면 개발 버전은 인터넷을 통해 개발자들이 새로운 기능을 추가하고, 테스

트하기 때문에 빠르게 변화한다. 안전 버전의 변화는 주로 버그 수정이나 보안 패치인 반면, 개발 버전의 변화는 완전히 다른 커널 하부시스템에서부터 좀더 나은 성능을 위해

장치 드라이버를 개선한 것까지 모든 것이 그 대상이다.

안전 버전이 짝수 마이너(minor) 버전 번호(예를 들어, 2.4)를 가지는 반면, 개발 버전은 홀수 마이너 버전 번호(예를 들어, 2.5)를 갖는다. 따라서 현재 안정 버전이 2.6 이라

면 개발 버전은 2.7 이 된다.

각 커널 버전은 2.4.19 또는 2.5.12 와 같이 셋째 `패치 레벨(patch level)` 버전 번호를 사용한다. 패치 레벨은 각 커널 버전의 갱신 횟수를 나타내며 높은 번호일수록 최신판이다.




Posted by GENESIS8

댓글을 달아 주세요

출처 : 

http://www.terms.co.kr/reentrant.htm


재진입성은 메모리 내의 동일한 사본이 다중 사용자들에 의해 공유될 수 있도록 작성된 컴퓨터 프로그램이나 루틴을 설명하기 위한 형용사이다. 재진입 코드는 통상 다중사용자 시스템 내에서 공유될 목적으로 작성된 운영체계와 응용프로그램에서 필요하다. 프로그래머는 어떠한 명령어도 프로그램 내의 다른 명령어들을 위한 변수 값을 수정하지 않는다는 확신을 가지고 재진입 프로그램을 작성한다. 프로그램이 한 사용자를 위해 진입할 때마다, 그 사용자를 위한 모든 변수 값들을 유지하기 위해 데이터 공간이 확보된다. 프로그램 그 자체의 데이터 공간은 메모리의 또다른 부분에 들어 있다. 다른 사용자에게 순서를 넘기기 위해 그 프로그램이 중단될 때, 그 사용자와 관련된 데이터 공간에 관한 정보는 저장된다. 중단된 사용자의 프로그램이 다시 재개될 때, 데이터 공간에 저장된 정보가 복원되며, 그 프로그램은 프로그램 내의 다른 명령어가 변수값을 변경했을지도 모른다는 우려 없이 재진입할 수 있다.



https://ko.wikipedia.org/wiki/%EC%9E%AC%EC%A7%84%EC%9E%85%EC%84%B1


컴퓨터 프로그램 또는 서브루틴에 재진입성이 있으면, 이 서브루틴은 동시에(병렬) 안전하게 실행 가능하다. 즉 재진입이 가능한 루틴은 동시에 접근해도 언제나 같은 실행 결과를 보장한다. 재진입이 가능하려면 함수는 다음 조건을 만족하여야 한다.


정적 (전역) 변수를 사용하면 안 된다.

정적 (전역) 변수의 주소를 반환하면 안 된다.

호출자가 호출 시 제공한 매개변수만으로 동작해야 한다.

싱글턴 객체의 잠금에 의존하면 안 된다.

다른 비-재진입 함수를 호출하면 안 된다.


여러 '사용자/객체/프로세스'와 멀티프로세싱이 대개 재진입 코드의 제어를 복잡하게 만든다. 또한 입출력 코드는 디스크나 터미널과 같은 공유 자원에 의존하고 있기 때문에 보통은 재진입성이 없다.


재진입성은 함수형 프로그래밍의 핵심 개념이다.



다음 C 코드에서 f g 함수는 재진입이 불가능하다.

int g_var = 1;

int f()
{
  g_var = g_var + 2;
  return g_var;
}

int g()
{
  return f() + 2;
}

위 코드에서 f 함수는 전역 변수 g_var에 의존하고 있다. 만약 두 개의 스레드가 이 함수를 실행하여 g_var에 동시에 접근할 경우, 결과는 실행되는 시점에 따라서 바뀌게 된다. 그러므로 f는 재진입성을 가지지 않는다. g 함수는 비-재진입 함수 f를 호출하기 때문에 역시 재진입이 불가능하다.

이 함수를 다음과 같이 고치면 재진입이 가능하다.

int f(int i)
{
  int priv = i;
  priv = priv + 2;
  return priv;
}

int g(int i)
{
  int priv = i;
  return f(priv) + 2;
}


http://www.jiniya.net/wp/archives/1197/trackback


재진입 함수의 의미
by 신영진(YoungJin Shin), codewiz at gmail.com, @codemaruhttp://www.jiniya.net

‘윈도우 메시지 프로시저는 재진입 가능한 함수다.’

그렇게도 많은 책에서 위와 같은 말들을 하고 있다. 하지만 딱 한 줄뿐 저 말이 무엇을 의미하는지를 자세히 설명하고 있는 책은 드물다. 그래서 그런지 저 말을 쓰면서도 저 말이 무슨 의미인지 모르는 경우도 많고, 자신의 의미대로 해석해버리는 경우도 있다. 그렇게 많이들 오해하는 이 재진입 함수의 의미에 대해 한번 제대로 이해해 보자.

재진입이라는 말은 말 그대로 함수 내부로 다시 진입하는 것을 의미한다. ‘다시’라는 말이 의미하듯이 함수 코드가 처리되는 와중에도 다시 함수 내부로 진입됨을 의미한다. 여기까지 설명하면 대부분의 윈도우 개발자는 다음과 같이 잘못된 생각을 가진다. <리스트 1>과 같은 간단한 메시지 처리 루틴에서 WM_PAINT 메시지가 처리되는 동안 Sleep 상태일 때에도 키보드가 눌리면 다시 MyWindowProcedure가 실행되어 WM_KEYDOWN 이벤트가 처리된다고 생각하는 것이다.

<리스트 1> 간단한 메시지 처리 루틴

  1. LRESULT CALLBACK MyWindowProcedure(HWND Window, UINT MsgId, WPARAM W, LPARAM L)  
  2. {  
  3.     switch(MsgId)  
  4.     {  
  5.     case WM_PAINT: Sleep(1000); break;  
  6.     case WM_KEYDOWN: OutputDebugStringA("WM_KEYDOWN"); break;  
  7.     }  
  8.   
  9.     return DefWindowProc(Window, MsgId, W, L);  
  10. }  

뭔가 이벤트 드리븐 개념에도 부합하는 게 그럴듯해 보인다. 하지만 이는 완전 엉터리 설명이다. 실제로 테스트해 보면 알겠지만 Sleep 상태인 동안에 키를 아무리 눌러본들 디버그 메시지는 출력되지 않는다. 이유는 무엇일까? 답은 메시지를 처리하는 방법에 있다. 많은 윈도우 프로그래밍 책들이 마치 메시지 프로시저를 운영체제가 알아서 호출해 주는 것처럼 설명하지만 실제로 운영체제는 메시지 프로시저를 호출하는 일 따위는 하지 않는다. 해당 일은 <리스트 2>에 나타난 것과 같은 메시지 처리 루틴에 의해 이뤄진다. DispatchMessage 함수 내부에서 해당 윈도우에 맞는 메시지 프로시저를 찾아서 호출되는 일이 진행된다. 따라서 해당 메시지 처리가 완료되어서 다음 GetMessage가 호출되기 전까지 메시지 프로시저는 새로운 것을 처리하고 싶어도 할 수 없는 상태인 것이다.

<리스트 2> 메시지 처리 루틴

  1. wehile(GetMessage(&Msg, NULL, 0, 0))  
  2. {  
  3.     TranslateMessage(&Msg);  
  4.     DispatchMessage(&Msg);  
  5. }  

그렇다면 다시 본론으로 돌아가서 재진입이란 말이 내포하고 있는 실제 의미에 대해 살펴보자. 이 말이 실제로 하고자 했던 이야기는 윈도우 프로시저는 스레드에 안전하며 병렬적으로 호출이 가능하도록 작성되어야 한다는 것을 나타낸다. 다시 설명한 내용도 무슨 말인지 선뜻 이해하기가 쉽지 않다. <리스트 3>과 <리스트 4>를 보면 무슨 의미인지가 분명해진다. <리스트 3>의 코드는 한 스레드에서 윈도우가 실행될 때와 두 스레드에 윈도우가 실행될 때 동작이 달라진다. 윈도우 의존적으로 처리되어야 하는 데이터가 정적 변수로 되어 있어서 다른 윈도우의 동작에까지 영향을 미치기 때문이다. 이를 제대로 처리하기 위해서는 윈도우 의존적인 변수는 윈도우 프로퍼티로 설정해서 참조하도록 변경해야 한다. <리스트 4>의 코드는 윈도우 프로시저가 글로벌 크리티컬 섹션에 묶여 있어서 메시지가 처리되는 과정이 서로 다른 스레드에 있는 윈도우의 동작에까지 영향을 미치게 된다. 다시 말하면 서로 다른 스레드의 윈도우는 상호 동작에 간섭을 받지 않아야 함에도 이 메시지 프로시저는 한 스레드의 메시지 프로시저가 완료되기 전까지는 다른 스레드의 메시지 프로시저가 처리될 수 없게 됨으로써 서로 원활하게 동시 실행이 처리되지 못하는 문제가 있다는 것이다. 이는 윈도우 운영체제가 의도하는 바가 아니기 때문에 이러한 식의 메시지 프로시저를 작성하는 것은 옳지 않다.

<리스트 3> 스레드에 안전하지 않은 메시지 프로시저

  1. LRESULT CALLBACK MyWindowProcedure(HWND Window, UINT MsgId, WPARAM W, LPARAM L)  
  2. {  
  3.     static int Count = 0;  
  4.     switch(MsgId)  
  5.     {  
  6.   case WM_KEYDOWN:  
  7.     ++Count;  
  8.     if(Count % 2)  
  9.       OutputDebugStringA(“WM_KEYDOWN”);  
  10.       break;  
  11.     }  
  12.   
  13.     return DefWindowProc(Window, MsgId, W, L);  
  14. }  

<리스트 4> 병렬적으로 호출이 불가능한 메시지 프로시저

  1. LRESULT CALLBACK MyWindowProcedure(HWND Window, UINT MsgId, WPARAM W, LPARAM L)  
  2. {  
  3.     EnterCriticalSection(&GlobalCs);  
  4.     switch(MsgId)  
  5.     {  
  6.   case WM_KEYDOWN: OutputDebugStringA(“WM_KEYDOWN”); break;  
  7.     }  
  8.     LeaveSection(&GlobalCs);  
  9.   
  10.     return DefWindowProc(Window, MsgId, W, L);  
  11. }  

아직도 무슨 상황에 문제가 생긴다는 건지 잘 이해가 되지 않을 수도 있다. 그렇다면 위와 같은 메시지 핸들러를 가지고 다음과 같은 세 가지 경우를 모두 테스트해 보도록 하자.

1. 한 스레드에서 해당 메시지 핸들러를 사용하는 윈도우를 하나만 생성한 경우
2. 한 스레드에서 해당 메시지 핸들러를 사용하는 윈도우를 여러 개 생성한 경우
3. 여러 스레드에서 해당 메시지 핸들러를 사용하는 윈도우를 생성한 경우

올바로 디자인된, 다시 말하면 재진입 가능하도록 만들어진 메시지 프로시저라면 1, 2, 3의 경우에 모두 동일한 동작을 보장해야 한다. 만약 세 가지 중에 한 가지 경우라도 동작이 다르다면 해당 메시지 핸들러는 잘못 작성된 것으로 범용적으로 사용할 수 없음을 의미한다.

 0  0 



Read more: http://www.jiniya.net/wp/archives/1197#ixzz40KVbEKvT







Posted by GENESIS8

댓글을 달아 주세요

출처 : 위키 백과


중앙 처리 장치


CPU는 여기로 연결됩니다. 다른 뜻에 대해서는 CPU (동음이의) 문서를 참조하십시오.


중앙 처리 장치(中央處理裝置, 문화어: 중앙처리소자) 또는 CPU(영어: central processing unit)는 소프트웨어 명령의 실행이 이루어지는 컴퓨터의 부분, 혹은 그 기능을 내장한 칩을 말한다. 컴퓨터 안의 중앙 처리 장치(CPU)는 외부에서 정보를 입력 받고, 기억하고, 컴퓨터 프로그램의 명령어를 해석하여 연산하고, 외부로 출력하는 역할을 한다. 따라서 중앙 처리 장치(CPU) 는 컴퓨터 부품과 정보를 교환하면서 컴퓨터 시스템 전체를 제어하는 장치로, 모든 컴퓨터의 작동과정이 중앙 처리 장치(CPU)의 제어를 받기 때문에 컴퓨터의 두뇌에 해당한다고 할 수 있다. 실제의 CPU 칩엔 실행 부분뿐만 아니라 캐시 등의 부가 장치가 통합된 경우가 많다.


CPU에는 MCU(Micro Control Unit)와 주변 장치(외부 확장 장체에 관한 IC)가 다 들어있는 Soc(System One Chip)가 있다. 주변 IC가 따로 달려 있을 경우, 그것은 MCU라고 할 수 있다.


CPU는 기계어로 쓰인 컴퓨터 프로그램의 명령어를 해석하여 실행한다. CPU는 프로그램에 따라 외부에서 정보를 입력하고, 기억하고, 연산하고, 외부로 출력한다. CPU는 컴퓨터 부품과 정보를 교환하면서 컴퓨터 전체의 동작을 제어한다.


기본 구성으로는 CPU에서 처리할 명령어를 저장하는 역할을 하는 프로세서 레지스터, 비교, 판단, 연산을 담당하는 산술논리연산장치(ALU), 명령어의 해석과 올바른 실행을 위하여 CPU를 내부적으로 제어하는 제어부(control unit)내부 버스 등이 있다.


각종 전자 부품과 반도체 칩을 하나의 작은 칩에 내장한 전자 부품을 마이크로프로세서라고 한다. 마이크로프로세서는 전기 밥통에 쓰이는 낮은 성능의 제품부터 컴퓨터에 쓰이는 높은 성능의 제품까지 매우 다양하다. 마이크로프로세서들 가운데 가장 복잡하고 성능이 높은 제품은 컴퓨터의 연산 장치로 쓰인다. 이것을 중앙 처리 장치(CPU)라고 한다.


CPU의 출현

'고정된-프로그램 컴퓨터' 라고 불리는 ENIAC같은 컴퓨터는 다른 종류의 작업을 하기 위해 전선을 재배열 하는 과정이 필요했다. "CPU" 라는 용어가 소프트웨어의 실행을 위한 장치로 불리게 된 이래로, CPU라고 불릴 수 있는 장치의 출현은 프로그램 내장 방식 컴퓨터의 출현 덕분이었다.


프로그램 내장 방식 컴퓨터는 J.Presper Eckrt와 John Willian Mauchly's의 ENIAC 설계에도 이미 어느 정도 드러나 있다. 하지만 ENIAC을 빨리 제작하기 위해서 생략되었다. ENIAC이 만들어지기 전인 1945년 6월 30일 수학자 폰 노이만은 'EDVAC 초안에 대한 보고' 라는 논문을 발표했다. 이것은 프로그램 내장 방식 컴퓨터의 개요로써 1949년에 완전히 정립되었다. EDVAC은 일정한 수의 다양한 작업을 수행하기 위해 고안되었다. 확실한 것은, EDVAC 프로그램은 물리적 선의 연결이 아니라 빠른 속도의 컴퓨터 메모리에 저장된다는 것이다. 이것은 새로운 작업을 수행하기 위해서는 상당한 시간과 노력이 필요한 ENIAC의 한계를 이겨내는 데 도움을 주었다. 폰 노이만의 디자인은 소프트웨어(프로그램)을 단순히 메모리에 있는 내용을 바꾸는 것 만으로 손쉽게 실행할 수 있게 만들어 주었다. 하지만 EDVAC은 최초의 프로그램 내장방식 컴퓨터는 아니었다. 맨체스터 대학교의 SSEM(Small-Scale Experimental Machine)과 마크 1이 프로그램 내장 방식 컴퓨터의 초기 버전이다.


트랜지스터와 집적회로 CPU의 등장[편집]

트랜지스터 CPU는 트랜지스터가 발명된 이후 생긴다.


마이크로프로세서[편집]

페드리코 페긴이 1970년대에 발명한 것은 CPU의 설계와 구현에 대한 전반적인 기초를 완전히 바꾸어 놓았다. 1970년에 등장한 최초의 상업용 마이크로프로세서(Intel 4004)와 1974년의 최초의 범용 마이크로프로세서(Intel 8080) 이후로,생겼다 


연산[편집]

모든 CPU에서 메모리에 저장된 명령어들을 순서대로 불러와서 실행한다는 사실은 물리적형태와는 관계없이 동일하다. 그리고 CPU가 이 동작을 수행하기 위해서는 꺼내고, 해독하고, 실행하는 5단계가 필요하다. 마지막 단계에서 명령어를 실행하고난 이후에는 다시 이 다섯 단계의 명령 주기가 반복되며, 프로그램카운터의 변화된 위치에서 실행될 명령어를 불러오게 된다.


인출(Fetch)[편집]

첫번째 단계인 인출은 프로그램의 메모리에서 명령어를 불러오는 역할을 한다. 프로그램 내부의 명령어의 위치(주소)


해독(Decode)[편집]

두번째 단계인 해독은 인출 단계에서 가져온 명령어를 해독하여 명령어 내의 데이터 정보와 연산 정보를 추출한 뒤, 중앙처리 장치 내의 각 장치에 적절한 제어신호를 보내 연산, 처리에 대한 준비를 하는 단계이다.


실행(Execute)[편집]

명령어에서 추출한 두 데이터와 연산 정보를 이용해 실제로 연산을 하는 단계를 말한다. 연산이 끝난 결과는 곧바로 다음 명령어에서 사용될지, 그렇지 않을지에 따라 메모리 단계로 가던지, 라이트백 단계로 가던지 결정된다.


메모리(Memory)[편집]

네번째 단계인 메모리는 연산결과가 다음 명령어에 바로 사용되지 않는다면, 결과를 메모리에 저장하는 것을 말한다.


라이트백(Write-Back)[편집]

연산의 마지막 단계인 라이트백은 이전 명령어의 연산 결과가 다음 명령어의 입력 데이터로 사용될 경우, 계산 결과를 레지스터에 다시 쓰는 것을 말한다.


설계와 구현[편집]

CPU의 내장회로는 CPU가 수행할 수 있는 기본적인 연산들의 집합인 '명령어 집합'으로 이루어져있다. 예를 들면 두 개의 숫자에 대한 가감연산 혹은 비교연산 같은것이 있다. 각각의 기본 연산은 옵코드라고 불리는 특정한 비트의 조합으로 나타내진다.


모든 명령어의 실제 수학적인 연산은 CPU 내부의 산술논리장치(ALU, arithmetic logic unit)이라는 조합논리회로에서 담당한다. CPU는 대부분 산술논리장치가 연산을 수행하기 위한 명령어를 메모리로부터 불러오고, 연산의 결과값을 저장하는 일을 한다. 메모리로부터 데이터를 불러오는 연산의 명령어 집합의 종류와 동작은 확연한 차이를 보인다.


성능[편집]

싱글 코어[편집]

싱글 코어는 하나의 코어로 이루어진 CPU이다. 일반적으로 멀티 코어에 비해 경비가 싸고 프로그래밍도 간단하지만 보수 작업이나 고장의 경우에는 시스템이 완전히 멈추고 멀티 코어에 비해 처리 속도가 느리다는 단점이 있다.


멀티 코어[편집]

 이 부분의 본문은 멀티 코어입니다.

최근에 나오는 중앙 처리 장치의 성능은 크게 클록(Clock) 속도와 코어 수로 결정된다. CPU에서 클록이라고 하는 수치는 중앙 처리 장치 내부에서 일정한 주파수를 가지는 신호로 이 신호에 동기화되어서 중앙 처리 장치의 모든 명령어가 동작되게 된다. 예를 들어, 클록 수가 3.0GHz이면 초당 30억 번의 명령어 처리를 할 수 있다는 말이다. 따라서 클록 주파수가 빠를수록 제한된 시간에 더 많은 명령을 처리할 수 있기에 더 좋은 성능의 중앙 처리 장치라고 할 수 있다. 또, 중앙 처리 장치안의 코어의 수로도 성능의 차이가 난다. 코어는 중앙 처리 장치의 역할을 하는 블록으로 예전에는 한 개의 칩 안에는 한 개의 코어의 구조를 가졌으나, 최근에는 한 개의 칩 안에 여러 개의 코어를 가지는 구조를 채택하고 있다. 이렇게 한 개의 칩 안에 여러 개의 연산을 처리할 수 있는 장치를 병렬적으로 연결한 멀티 코어 시스템을 통하여 더 좋은 성능의 중앙 처리 장치를 얻을 수 있게 된다..


싱글 코어 및 다중 코어를 칭하는 명칭은 다음과 같다.


코어의 개수 명칭

1 싱글 코어

2 듀얼 코어

3 트리플 코어

4 쿼드 코어

6 헥사 코어

8 옥타 코어

10 데카 코어

12 도데카 코어

16 헥사 데시멀 코어





'프로그래밍 > 프로그래밍 공부' 카테고리의 다른 글

커널(kernel)  (0) 2016.02.17
재 진입성(re-entrant)  (0) 2016.02.16
CPU  (0) 2016.02.15
스레드(Thread)의 기본적인 특성  (0) 2016.02.15
프로세스(Process) , 스케쥴링(Scheduling)  (0) 2016.02.15
스트림(Stream)이란  (0) 2016.02.05
Posted by GENESIS8

댓글을 달아 주세요

원본 출처 :
http://egloos.zum.com/sweeper/v/2815395

1. 기본적인 특성

프로세스 단위의 컨텍스트 스위칭은 그 비용이 아주 비싸다.
왜냐면, [Code - Data - Heap - Stack]으로 이루어진 메모리가 모두 스위칭 되어야 하기 때문이다.

아주 다른 목적이 아닌, 하나의 프로세스 내에서 실행의 흐름을 바꾸면서 컨텍스트 스위칭 비용을 줄이기 위해서 고안된 것이 Thread 이다.
컨텍스트 비용을 줄이기 위해 고안되었다고 하는데, 아래 차이점을 보면 감이 올 것이다. 쓰레드는 하나의 프로그램 내에서 여러 개의 실행 흐름을 두기 위한 모델이다.
  • 쓰레드는 프로세스처럼 완벽히 독립적인 구조가 아니다. 쓰레드들 사이엔 공유하는 요소들이 있다. 쓰레드는 공유하는 요소가 있는 관계로 컨텍스트 스위칭이 걸리는 시간이 프로세스보다 짧다. 위 내용은 아래 프로세스와 쓰레드의 메모리 구조의 차이점을 그린 그림을 보면 더 이해가 편할 것이다.

프로세스는 자식 프로세스를 생성하더라도 자식 프로세스들은 모두 완전한 프로세스의 메모리 구조를 가진다.
이에 비해레드는 해당 프로세스와 [Code - Data - Heap] 영역은 공유하고, 자신만의 Stack 영역만 별도로 소유한다.
이는 쓰레드를 생성하는 함수의 파라미터 중 스택 사이즈를 지정하는 파라미터가 있음만 봐도 명확하다.

쓰레드는 프로세스 내 다른 실행 흐름을 가지기 위해 사용한다고 하였다.
실행 흐름을 다르게 가져가기 위해선 다른 함수 호출 시퀀스를 가져야 하고, 스택 영역이 별도로 있어야 하는 이유이다.

암튼, 위에서 보듯이 쓰레드는 Stack 영역만 별도로 소유함으로써 프로세스 대비 쓰레드간 컨텍스트 스위칭은 비용이 적은 것이다.

특히 캐쉬 메모리의 활용 측면으로 넘어가면 그 비용의 차이는 더 커진다.
프로세스 컨텍스트 스위칭시에는 모든 데이터 영역이 갈아엎히기에 캐쉬 메모리가 싹 비워져야 하지만, 쓰레드의 경우엔 그렇지 않다. 

다시 한번 정리하면 메모리 관련 쓰레드의 특성은 다음과 같다.
  • 쓰레드마다 독립된 스택을 할당해 준다.
  • 쓰레드마다 고유의 CPU 레지스터값 세트를 가진다. (그래야 쓰레드 스위칭 이후 실행하던 지점으로 돌아갈 것 아닌가?)
  • 코드 영역을 공유한다.
  • 힙 & 데이터 영역을 공유한다.
    : 이로 인한 동기화 문제는 후~


2. 프로세스와 쓰레드

사실 Windows OS에서 프로세스는 단순히 쓰레드를 담는 상자에 불과하다고 해도 과언이 아니다. 모든 프로세서는 별도의 쓰레드를 생성하지 않더라도 Main 쓰레드를 통해 동작하기 때문이다.

프로세스 챕터(http://sweeper.egloos.com/2814918)에서 정리했던 스케쥴링은 사실 쓰레드에 적용되는 것들이다.


3. Kernel Level 쓰레드

(이 내용은 음...굳이 뭐...그냥 적어봄)

쓰레드를 누가 생성하고 관리하느냐에 따라 커널 레벨 vs 유저 레벨 쓰레드로 나눌 수 있다. 우리가 사용하는 Windows이든 Linux이든 우리가 흔히 접하는 모든 OS는 커널 레벨 쓰레드를 사용한다.

즉, 쓰레드를 생성하고 스케쥴링하는 주체가 커널인 것이다.

쓰레드를 생성하는 것만 보아도 쉽게 알 수 있다.
우리는 쓰레드 생성시 쓰레드 커널 오브젝트의 오브젝트 핸들을 넘겨 받는다.


'프로그래밍 > 프로그래밍 공부' 카테고리의 다른 글

재 진입성(re-entrant)  (0) 2016.02.16
CPU  (0) 2016.02.15
스레드(Thread)의 기본적인 특성  (0) 2016.02.15
프로세스(Process) , 스케쥴링(Scheduling)  (0) 2016.02.15
스트림(Stream)이란  (0) 2016.02.05
압축  (0) 2016.01.28
Posted by GENESIS8

댓글을 달아 주세요

원본 출처 :
http://sweeper.egloos.com/2814918

프로세스에 대해 간략하게 리마인드 차원에서 정리한다.

사실 Windows OS에서 프로세스는 쓰레드를 감싸고 있는 박스떼기에 불과하다고 해도 과언이 아니지만,
개념적으로 접근하기 위해 쓰레드보다는 프로세스를 주인공 취급하여 설명토록 하겠다.

귀찮아서 정리할 지 안할 진 모르겠지만, 이후 쓰레드 기초 내용 정리에서 다시 이에 관련된 내용들이 나올 것이다.

------------------------------------------------------------------------------

1. 프로세스란?


실행중인 프로그램의 instance


2. 프로세스의 구성 요소

1) 프로그램 실행시 메모리 구조

Code : 실행 파일을 구성하는 명령어(기계어)들이 올라가는 공간
Data : 프로그램이 종료될 때까지 지워지지 않는 데이터를 저장하는 공간. 대표적으로 전역/Static 변수가 있다.
Heap : 동적으로 할당되는 메모리를 위한 공간
Stack : 함수 내 지역 변수 및 함수 매개변수, 함수 반환 주소

2) Register set

실행 중인 프로세스에 관련된 데이터들고 CPU 내 레지스터들이 채워지기에 역시 구성 요소로 포함할 수 있다.


3. 프로세스 스케쥴링

멀티 프로세스 운영체제에서 하나의 CPU가 복수의 프로세스를 실행하기 위해선 스케쥴링이 필요하다.

프로세스 스케쥴링 방식에 따라 OS를 크게 두 가지 방식으로 나눌 수 있다.

1) Non-Preemptive OS

비선점형 OS는 현재 실행 중인 프로세스보다 높은 우선순위를 가지는 프로세스가 실행된다고 해서 실행 대상을 바로 변경하지 않는다.
새로 실행된 보다 높은 우선순위의 프로세스가 실행되기 위해서는 현재 실행 중인 프로세스가 명시적으로 CPU를 양보할 때까지, 혹은 I/O 작업 등으로 블로킹 상태가 될 때까지 기다려야만 한다.

과거 Windows95 이전, 그리고 Mac OS X 이전의 OS들이 비선점형 OS 였으며, 그 이후의 모든 OS는 선점형 OS 이다.

2) Preemptive OS

선점형 OS는 실행 중인 프로세스보다 높은 우선 순위의 프로세스가 실행되면, 스케쥴러에 의해 실행 순서가 적극 조정되는 OS를 얘기한다.

또한, 비선점형 OS에 비해 훨씬 더 스케쥴링이 복잡하게 처리가 되어 있는데, 우선 순위가 같은 프로세스들간 실행 배분에도 관여를 하기 때문이다.

최근의 모든 OS는 선점형 OS이며, Windows OS에서 선점형 스케쥴링 알고리즘으로 채택하고 있는 두 가지를 소개하겠다.

1. Priority Scheduling Algorithm

뭐 말 그대로 각각의 프로세스마다 우선 순위를 부여해서 우선 순위가 높은 프로세스를 먼저 실행시키는 알고리즘이다.

우선순위 10 프로세스와 1 프로세스가 동시에 실행중이라고 가정해 보자.
10 짜리가 더 높으니 거의 모든 CPU 타임을 10 프로세스가 차지하고 있을 것이다.

그럼 1 짜리 프로세스는 언제 실행되는가?
10 짜리 프로세스가 I/O Busy나 다른 프로세스를 기다리는 등의 블로킹 상태가 되어야만 한다.

2. Round-Robin Scheduling Algorithm

우선 순위 스케쥴링 방식의 예외를 처리하기 위해 고안된 알고리즘.
우선 순위가 같은 프로세스간에는 어떻게 해서 CPU를 분배하는가에 대한 스케쥴링 방식이다.

즉, 같은 우선 순위의 프로세스들간 형평성 유지를 위해 정해진 시간 간격 만큼만 실행을 하고 우선 순위가 동일한 다른 프로세스에게 CPU의 할당을 넘기는 방식을 뜻한다.

실행의 최소 단위 시간 간격을 우리는 Quantum 또는 Time Slice 라 하는데, 동일한 우선 순위의 모든 프로세스들은 이 타임 슬라이스를 기준으로 CPU의 할당을 넘기게 된다.

타임 슬라이스 간격이 관건인데...

1) 너무 길면 인터랙티브한 시스템에서 문제가 될 수 있다. 입력에 대한 반응이 늦는 등...
2) 너무 짧으면 컨텍스트 스위칭이 너무 많이 발생해서 성능 저하 문제가 심각해 진다.

최근 OS들은 보통 15~20ms 간격으로 스케쥴링을 수행한다고 한다.
Windows7의 경우 약 15ms 단위 (정확하게 15.6001ms)로 스케쥴링한다.

따라서, 우리가 만든 쓰레드가 임의로(::Sleep 등) 쓰레드 컨텍스트 스위칭을 시키지 않았다 하더라도,
항상 수행되고 있다고 가정해서는 안 된다는 것을 반드시 기억해야 한다.

특정 쓰레드가 모든 프로세서를 점유하고 있다면 다른 쓰레드가 어떻게 수행될 수 있겠는가?

Window 운영체제의 경우 GetSystemTimeAdjustment 함수를 활용하면 정확한 타임 슬라이스 값을 확인할 수 있다.

  1. DWORD timeAdjustment = 0;
  2. DWORD timeIncrement = 0;
  3. BOOL timeAdjustmentDisabled = FALSE;
  4.  
  5. GetSystemTimeAdjustment(&timeAdjustment, &timeIncrement, &timeAdjustmentDisabled);


정리를 하면,
Windows OS에서는 (Linux도 MAX OS X도...거의 모든 OS에서)

1) 우선 순위 스케쥴링과 2) 라운드-로빈 스케쥴링 알고리즘을 혼합한 선점형 스케쥴링을 수행한다.

윈도우 OS에서는 프로세스들의 Priority와 I/O Busy state 등을 토대로 아래 그림과 같이 스케쥴링한다.



4. 프로세스 스케쥴링 발생 시점

이 발생 시점에 대해서는 특별하게 따로 외우거나 할 필요가 있다기 보다, 스케쥴링 방식을 이해하고 있으면 자연스레 습득할 수 있다.

1) 라운드-로빈 방식을 위한 Every Time Slice 

동일 우선 순위의 다른 프로세스에게 CPU를 넘겨줘야 하는지 판단하기 위해 매 타임 슬라이스마다 스케쥴러가 동작해야 한다.

2) 우선 순위 방식을 위한 프로세스 생성과 소멸

우선 순위가 가장 높은 프로세서가 CPU를 차지해야 하므로, 현재 실행 중인 프로세스보다 더 높은 프로세스가 새로 생성되었는지, 더 높았던 프로세스가 종료되었는지를 알기 위해서는 프로세스가 생성되고 소멸될 때마다 스케쥴러가 동작해야 한다.

3) 실행 중인 프로세스 블로킹

현재 실행 중인 프로세스가 블로킹 상태가 되면, 다른 프로세스가 대신 실행된다. 따라서, 현재 실행 중인 프로세스가 블로킹 상태에 놓이면 다음 실행될 프로세스 선정을 위해서 스케쥴러가 동작해야 한다.


5. Context switching

CPU가 멀티 프로세스를 수행함에 있어 위 그림과 같이 프로세스 스케쥴링이 발생한다.
이로 인해 프로세스의 잦은 교체가 발생할 수 있다.

현재 실행중인 프로세스가 바뀌는 것은 Context switching이라고 하며, 같은 절차가 필요하다.

1) A 프로세스의 데이터로 채워져 있던 레지스터들의 내용을 B 프로세스의 내용들로 교체.
2) A 프로세스의 데이터들은 컨텍스트 메모리에 백업.


'프로그래밍 > 프로그래밍 공부' 카테고리의 다른 글

CPU  (0) 2016.02.15
스레드(Thread)의 기본적인 특성  (0) 2016.02.15
프로세스(Process) , 스케쥴링(Scheduling)  (0) 2016.02.15
스트림(Stream)이란  (0) 2016.02.05
압축  (0) 2016.01.28
statement란?  (1) 2016.01.27
Posted by GENESIS8

댓글을 달아 주세요

http://chaoxifer.tistory.com/82


저도 스트림에 대해 그다지 알고 있다는 생각은 들지 않지만 그래도 전혀 모르는 미로인을 위해 약간 적어 보려고 합니다.

프로그램을 실행 할때 키보드를 통해서 입력을 하고, 모니터를 통해서 출력을 하고 있죠? 우리는 별다른 무리 없이 간단하게 입출력을 합니다. 생각을 해보면 키보드에서 입력을 받고, 하드웨어적인 부분을 처리하여야 입력이 되고 화면으로 출력이 되겠죠? 예로 A라는 문자를 눌렀다고 가정해 봅시다. 그러면 키보드에서 신호가 나갈것이고, 그것을 컴퓨터에서 처리하여, 출력 장치인 모니터로 신호를 보내 결과적으로 화면에 A라는 문자가 찍힐것입니다.


그러나, 우리는 이렇게 하드웨어적인 세세한 부분까지 신경을 쓰지는 않습니다. 입출력을 도와주는 스트림( Stream )이란 녀석이 있기 때문이죠.


스트림을 사용하는 입출력 장치( Input/Output Device )는 많죠. 조금 전 예로든 키보드나 모니터 뿐만 아니라 파일, 프린터, 마우스, 네트워크, 메모리 등등 많은 입출력 장치에서 쓰입니다. 물론 스트림의 종류도 입출력 장치의 종류만큼 다양합니다. 파일에 데이터를 쓰고 싶다고 한다면 파일관련 스트림을 찾아서 목표지점으로 삼을 것입니다. 목표지점이란 입력 스트림의 경우 입력받을 데이터가 위치 하는 곳을 말하고, 출력 스트림의 경우 데이터가 저장될 곳을 말합니다.

입출력 장치에 데이터를 입력하거나 출력하는 처리를 하기 위해 스트림이 존재 한다고 했었습니다. 스트림은 방향에 따라 2가지로 나눌수 있는데, 사용자의 입장에서 데이터가 들어오면 입력 스트림( input Stream )이고, 데이터가 나가면 출력 스트림( Output Stream )이 됩니다.


입력 스트림은 데이터를 스트림으로 읽어 들입니다. 그리고 스트림에 존재하는 데이터를 하나하나 읽어들입니다. 예를 들어봅시다. 음료수가 있고, 거기에 빨대가 꽂혀 있네요. 빨대에 입을 갖다대고 쭉 빨아 당기면 음료수가 빨대에 모이게 되고, 계속 빨아 당기면 입안으로 음료수가 들어오게 됩니다.


출력 스트림은 출력될 데이터를 스트림으로 보냅니다. 그리고 스트림에 있는 데이터를 비워 버립니다. 비워진 데이터는 모두 목표지점에 저장이 되는 것 입니다. 위와 같은 예를 들자면, 입안에 들어 있던 음료수를 빨대로 보냅니다. 빨대로 가겠죠? 빨대에 있던 음료수를 불어 버립니다. (fflush) 음료수가 다시 음료수 통으로 들어 갑니다.


정리를 해보자면, 스트림은 데이터의 입출력 처리의 중간자 역할을 합니다. 데이터의 목표지점은 중요치 않습니다. 네트워크건 메모리건 프린터건 전혀 상관이 없습니다. 그저 해당되는 데이터를 스트림으로 읽어 들이거나 스트림으로 내보내면 끝인 것 입니다. 하드웨어적인 복잡한 작업은 스트림이 알아서 해주고 사용자는 편하게 사용만 하면 되는 것입니다

.



출처

http://www.ktword.co.kr/abbr_view.php?m_temp1=1311




1. 스트림(Stream) 이란? 일반적으로 데이터,패킷,비트 등의 일련의 연속성을 갖는 흐름을 의미 - 음성,영상,데이터 등의 작은 조각들이 하나의 줄기를 이루며 전송되는 데이터 열(列) . 호스트 상호간 또는 동일 호스트프로세스 상호간 통신에서 에 의한 메세지 전달방식을 이용한 가상 연결 통로를 의미하기도 함 2. 멀티미디어 스트리밍 기술전송 방식 구분 - 다운로드 방식 : 재생(Play) 전에 데이타를 완전히 다운로드 받는 방식 . (웹 서버)/HTTP/TCP/IP 상에서 동작 - 스트리밍 방식 : 데이타 수신과 동시에 재생. 사용자에게 동시성 제공. 실시간 전송기술 . (미디어 서버)/RTP/UDP/IP 상에서 동작 * [참고] . 비디오 파일 포멧 : 디지털 비디오 데이터를 저장,복원하기 위한 파일 포멧 .. 例) AVI, MKV, MP4, ASF, MOV, WMV 등 . 스트리밍 미디어 : 즉시 재생 가능 미디어 .. 전체 다운로드 없이도, 실시간 실행이 가능한 미디어를 말함 ㅇ 스트리밍 종류 - [RTP 스트림] 인터넷 스트리밍 프로토콜 . RTP/UDP/IP 패킷에 실릴 수 있도록 한 스트리밍 프로토콜 . 오디오,비디오 등의 정보를 담은 일련의 패킷화된 정보 앞에 RTP 헤더를 붙힌 스트림 - [MPEG 스트림] 주로, 디지털 방송용 스트리밍 프로토콜 . MPEG 다중화 방식에 의해 패킷 스트림화된 것 .. 인터넷 상에서는 MPEG 다중화 스트림이 RTP 스트림 위에 또한 실릴 수 있음 . MPEG 스트림 종류 .. PS(Program Stream), TS(Transport Stream), ES(Elementary Stream), PES(Packetized Elementary Stream) 등 ㅇ 스트리밍 관련 프로토콜 - 인터넷 실시간 미디어 흐름 및 제어 관련 프로토콜 . 물리적 정보의 빠른 흐름 및 제어 : RTP(빠른 수송) / RTSP(수송 제어) . 스트리밍 재생 제어 : RTSP(RTP 스트림 전반에 대한 제어) - 디지털 방송용 . 비디오 압축 전송프로토콜 : MPEG-2, H.264 등 . 음성 압축 전송용 프로토콜 : MPEG-2 오디오, AC-3 등 ㅇ 멀티미디어 스트림 재생 Player 例) - RealNetworks社의 RealPlayer, MS社의 Windows Media Player, Apple社의 QuickTime 등 3. 프로그래밍 언어상의 스트림C 언어에서 스트림 - 연속된 문자 또는 데이터 . 크게 텍스트(바이트) 스트림 및 바이너리(이진) 스트림으로 구분 - `ANSI C` 의 표준 파일 스트림 例 : stdin, stdout, stderr 등 ㅇ 스트림 사용 이유 - 물리 디스크상의 파일,장치들을 통일된 방식으로 다루기 위한 가상적인 개념 . 따라서, 스트림은 어디서 나왔는지 어디로 가는지 신경을 쓸 필요없이 자유롭게 어떤 장치 및 프로세스, 화일들과 연결될 수 있어 프로그래머에게 많은 편리성 줌

http://blog.lifeis.gift/101


입/출력은 소스를 제공하는 입력이나 목적지로의 출력을 의미합니다. 스트림은 디스크 파일이나, 장치, 다른 프로그램들, 그리고 메모리 배열들과 같은 많은 종류의 소스들과 목적지들을 표시 할 수 있습니다. 

스트림은 간단한 바이트나 primitive 데이터 타입, 글자들의 모음과 객체들과 같은 많은 종류의 다른 데이터를 지합니다. 어떤 스트림들은 단순히 데이터를 넘겨주는 역할만 합니다. 또 다른 스트림들은 유용한 방법들로 데이터를 변형하고 가공합니다.

내부적으로 어떻게 스트림들이 작동하는지는 중요하지 않습니다, 모든 스트림들은 같은 단순한 모델을 스트림을 사용하는 프로그램으로 표시합니다. 스트림은 데이터들의 연속입니다. 프로그램은 input stream을 사용하여 한개의 데이터를 동시에 소스로 부터 읽어들입니다.



결론적으로 스트림의 메모리가 어떻게 잡히는 지 라던가, 어떤 원리 라던가 같은 내부 구조에 대한 내용은 찾을 수 없었다. 좀 더 찾아봐야할 듯..







'프로그래밍 > 프로그래밍 공부' 카테고리의 다른 글

스레드(Thread)의 기본적인 특성  (0) 2016.02.15
프로세스(Process) , 스케쥴링(Scheduling)  (0) 2016.02.15
스트림(Stream)이란  (0) 2016.02.05
압축  (0) 2016.01.28
statement란?  (1) 2016.01.27
DAO / VO / DTO란?  (2) 2016.01.27
Posted by GENESIS8

댓글을 달아 주세요