posted by 은이종 2013. 12. 1. 11:15
 사용하지 않는 기능이 많아서
 불필요한 배터리소모 와 성능저하가 발생하는데

 이번에 싹 정리해보았다.

 1. S 보이스

앱스 - S보이스 - 메뉴키 눌러서 - 설정

홈버튼으로 실행
위치정보사용
호출명령

체크되어있는 부분 해제


=> 홈버튼 등 속도 향상


 
2.  무선네트워크사용

설정 - 위치서비스 - 무선네트워크사용 해제

데이터 사용같은 게 아니라 GPS를 잡지 못하는 상황, 즉 건물내에 있거나 할때 와이파이나 기지국등의 네트워크에 연결해서 위치를 잡아주는 역할을 하는 겁니다.
건물내에 있으면 지속적으로 연결시도를 하기 때문에 와이파이 지연율도 높아지고 특정기기에서 간섭도 일어나는 것 같더군요.

 

=> 해제 후 WIFI Upload-Down 속도 향상


3. 공유기 업그레이드
보통 집에서 IPTIME 공유기를 많이사용하는데
공유기의 펌웨어 업데이트를 하여도 성능에 영향을 준다


 

'기타' 카테고리의 다른 글

DarkNamer 파일명 일괄 변경 프로그램  (0) 2014.07.15
블로그에 구글애드센스(adsense) 추가하기  (0) 2014.03.27
OpenStack  (0) 2013.07.17
RAID + JBOD  (0) 2013.07.04
Correctable or Uncorrectable Memory (DIMM) Errors  (0) 2013.05.02
posted by 은이종 2013. 7. 17. 21:45

OpenStack

 

  요즘 IT 분야에서는 클라우드 컴퓨팅에 대한 관심이 뜨겁다. 그러나 정작 클라우드가 무엇인지 검색해 보면 속 시원한 설명은 하나도 없다. 나 또한 작년에 클라우드를 접한 후 개념을 잡는데 상당한 시간이 걸렸었는데, 가장 좋은 방법은 역시 직접 사용해 보는 것이었다. 시중에는 클라우드 컴퓨팅의 표준이 되어가고 있는 Amazon이나 국내에서도 통신사업자, 인터넷 서비스업체들이 무료로 클라우스를 접해볼 수 있는 서비스를 제공하고 있다. 하지만 이들의 서비스를 제대로 사용하려면 일정 요금을 지불해야 한다. 또한 내부 구조가 어떻게 되어있는지 파악할 목적이라면 직접 클라우드를 구축해 보는 것이야 말로 가장 좋은 방법일 것이다.

 

  OpenStack은 Rackspace와 NASA가 주축이 되어 시작된 클라우드 매니지먼트 스택으로 Apache 2.0 기반의 오픈소스이다. 현재는 Cisco, HP, Dell, KT, Samsung과 같은 대기업들도 관심을 가지고 적극적으로 개발과 상용화에 참여하고 있으며 Canonical, Suse와 같은 Linux 진영에서도 OpenStack을 기본 패키지에 포함하여 릴리즈 할 계획을 밝히는 등 무서운 성장을 하고 있다. OpenStack은 스토리지 서비스(Swift)와 컴퓨트 서비스(Nova), 이미지 서비스(Glance) 세 가지로 이루어져 있지만 내가 사용해 본 것은 컴퓨트 서비스(이하 Nova)와 이미지 서비스(이하 Glance) 이다. 클라우드 컴퓨트 서비스란 쉽게 말해 강력한 컴퓨팅 파워나 디스크를 가진 먼지 날리고 시끄러운 서버를 집에 두는 것이 아니라 이런 서비스를 제공하는 업체의 데이터 센터에 만들어 두고 인터넷이 되는 곳이라면 어디든 접속할 수 있도록 하는 서비스이다. 작업의 자동화와 관리의 편의를 위해 가상화 기술이 여기에 이용된다. 즉, 사용자에게 제공되는 서버는 가상머신이다. 사용자의 수에 따라 서버 두 세대만 있어도 운영이 가능하다. 나 또한 처음에는 한 대의 서버로 테스트를 했었다. Nova는 원하는 OS 설치와 네트워크 연결, 보안 설정이 완료된 가상의 서버를 클릭 한 번으로 손쉽게 제공해 주는 기능을 포함하는 소프트웨어이다.

그림1.jpg

[그림 1. Nova의 역할]

  소스가 완전히 오픈되어 있고 현재도 활발히 개발이 진행 중이기 때문에 오픈소스 소프트웨어를 사랑하는 사람이라면 설치, 테스트를 해 보는 일이 상당히 재미있을 것이다.

 

2. 설치법

 

  Nova는 간단한 응용프로그램이 아니기 때문에 설치가 간단하지는 않다. 우선 Linux가 깔린 서버가 한 대 이상 필요한데, 여의치 않다면 VirtualBox를 이용해 생성한 가상머신도 괜찮다. 개발자들이 Ubuntu를 사용해서 인지 Ubuntu 환경이 가장 안정적인 것 같았다. 여러 대의 서버로 시스템을 구성하더라도 각 서버의 설치 과정은 동일하다. 서버가 준비되었다면 아래의 방법을 통해 모든 서버에 Nova와 Glance를 설치한다. 설치 과정을 모두 설명하기 보다는 가장 설명이 잘 되어있는 웹 페이지의 링크를 적어두겠다.

 

 

옵션 1. 패키지를 이용한 설치: wiki.openstack.or.kr/index.php/Nova_설치가이드

옵션 2. 스크립트를 이용한 설치: www.devstack.org

옵션 3. 소스코드를 이용한 설치: wiki.openstack.or.kr/index.php/Nova_설치가이드

 

 

  UI 기반의 설치가 아니라서 그리 쉽지는 않지만 패키지나 스크립트를 이용한 설치는 간단한 편이다. 또한 설치하는 과정을 통해 어떻게 클라우드 컴퓨트 시스템이 구성되어 있는지 이해할 수 있을 것이다. 여러 대의 서버로 시스템을 구성 할 경우 어떤 실행파일이나 서비스들이 어떤 서버에서 실행중인지만 config 파일에 잘 명시해 주면 된다.

 

3. 기능 및 사용법

 

  Nova의 설치가 완료되었다면 아래의 과정을 통해 가상머신을 생성할 수 있다. Nova 시스템에 명령을 내리는 방법은 DB, 네트워크, 계정 관리에 필요한 명령이 포함된 관리자 커맨드라인 툴 nova-manage와 가상머신 생성, 사용, 관리에 필요한 명령이 포함된 사용자 커맨드라인 툴 euca2ools, novaclient가 있다.

 

그림2.jpg

 

[그림 2. 가상머신 실행 과정]

 

1) DB 생성

그림_3.jpg    

 

2) 서버별로 필요한 서비스 실행

그림_4.jpg

 

3) 네트워크 생성 및 유동 IP 등록

그림_5.jpg  

 

4) 계정 및 인증 생성

그림_6.jpg  

 

5) Glance 실행

그림7.jpg

 

6) 이미지 등록

그림8.jpg

 

7) 이미지 등록 확인

그림9.jpg

 

8) Keypair 생성

그림10.jpg  

 

9) 이미지 확인 및 선택

그림11.jpg

 

10) 가상머신 생성

그림12.jpg

 

  커맨드라인 툴의 사용이 어렵다면 Dashboard를 이용해도 된다. 다만 Dashboard는 아직까지 불안정한 상태이고 커맨드라인 툴이 제공하는 기능을 모두 포함하고 있지는 않다.

 

그림13.jpg

[그림 3. Dashboard]

 

  이렇게 생성된 가상머신에 접속하는 방법 또한 여러 가지다. 사용 가능한 공인 IP가 있다면 가상머신에 할당해서 공인 IP로 바로 접속이 가능하다. 그렇지 않다면 OpenVPN을 이용해 가상머신과의 가상 네트워크를 만들어 접속하는 방법이 있다. 마지막으로 Web Socket이 지원되는 브라우저(Chrome, Firefox)를 통해 VNC Console 접속이 가능하다.

 

옵션 1) 공인 IP 할당

그림_14.jpg    

 

옵션 2) VPN 접속

계정 및 인증 생성 과정에서 얻어진 nova-vpn.conf와 인증파일들을 이용하면 OpenVPN 프로그램을 이용해 가상머신과 같은 네트워크에 연결이 된다. 

그림_15.jpg

 

Windows로 nova.zip 파일을 다운받아 풀고 nova-vpn.conf 파일의 확장자를 ovpn으로 변경하면 OpenVPN 프로그램을 통해 네트워크 생성이 가능하다.

 

그림16.jpg

 

3) VNC Web Console

 

그림17.jpg

 

 

4. 비교

 

  OpenStack은 오래 전에 클라우드 컴퓨팅 분야에서 자리매김을 한 Amazon의 서비스와 비교해 볼 때 기능 면에서 전혀 뒤지지 않는다. 특히 Nova는 아마존의 컴퓨트 서비스인 EC2 서비스의 API와 호환되도록 설계되었으며 OpenStack이 자체적으로 개발한 OpenStack API는 EC2 API 보다 더 다양한 인터페이스를 제공하고 있다. 뿐만 아니라 대부분의 기능을 드라이버 방식으로 수용할 수 있도록 설계하여 같은 기능이라 하더라도 관리자가 원하는 방식을 선택할 수 있어 확장성/유연성에 있어서는 Amazon의 서비스보다 큰 잠재력을 지녔다고 볼 수 있다.

 
http://www.oss.kr/41708  에서 퍼옴

참고사이트
https://launchpad.net/swift
 

posted by 은이종 2013. 7. 4. 17:21

RAID란 무엇인가?

요즘 웬만한 메인보드를 보면 RAID(레이드)를 지원한다는 내용을 발견하기가 쉽다. RAID는 예전에는 적은 용량을 가진 디스크 여러 대를 연결해 하나의 디스크처럼 만들어 사용하는 것이었지만 이제는 하드 디스크 드라이브가 갖는 성능이나 안정성을 더 향상시키기 위해서 사용된다.

RAID란 단어는 'Redundant Array Of Independent(예전에는 Inexpensive) Disk'의 약자로 굳이 해석하자면 복수배열독립(複數配列獨立) 디스크 정도로 풀이할 수 있다. RAID는 독립적으로 만들어진 2개 이상의 하드 디스크 사이를 병렬로 처리해서 데이터를 입/출력 하는 것이라 컴퓨터에 2개 이상의 하드 디스크 드라이브가 있을 때에 구성 가능하다.

물론 데스크탑용 PC에서 사용되는 3.5인치 하드 디스크가 이제는 단일 제품으로 1TB(테라바이트) 용량까지 출시되었으니 필자처럼 그 동안 용량이 모자랄 때마다 100~200GB 하드 여러 대를 가끔씩 구입해서 사용하는 사람이라면 아직도 RAID의 원래 개념인 '저렴한 하드를 하나로 묶어서 쓰기'로 생각해도 무방하겠다.

 

아무튼 기술 자체가 하드 여러 개를 지지고 볶는 일이다 보니 인터페이스나 동작이 복잡하고 시스템 자원을 많이 필요로 하기 때문에 처음에는 SCSI 인터페이스를 중심으로 하는 서버 시스템에서나 사용되곤 했지만 점차 데스크탑 시스템에서도 IDE와 SATA를 통해 RAID 기능을 지원하더니 이제는 메인보드에 기본으로 포함되기까지 한다.

 

RAID 성능 향상의 원리

RAID는 크게 스트라이핑(Strpping)과 미러링(Mirroring)으로 구분할 수 있는데, 뒤에서 설명할 RAID 규격은 모두 이 스트라이핑과 미러링을 어떤 식으로 구성했느냐에 따라 나눈 것이기 때문에 두가지 방식 차이만 잘 알아두면 RAID에 대해 절반은 알고 시작하는 것이라고 하겠다.

스트라이핑이란 논리적으로 연속된 데이터를 물리적으로 여러 개의 저장 장치에 나눠서 저장하는 방식으로 우리가 생각하는 파일 1개씩이 아니라 데이터 단위로 나뉘므로 우리가 볼 때는 하나의 하드로 나타나지만 실제로는 하나의 하드에 들어갈 내용을 여러 개의 디스크에 저장하므로 개별 하드의 데이터는 독립적으로는 쓸모가 없고 스트라이핑 된 모든 하드가 있어야 완전한 저장장치가 된다.

스트라이핑이 좋은 점은 병렬로 하드 디스크를 묶었을 때 각 하드와 데이터를 주고 받는 속도가 단일 하드에 데이터를 주고 받는 속도보다 빠르다는 것이다. 이로 인해 데이터를 하드 디스크에 쓰거나 읽기 위해서 기다려야 하는 시간에 다른 하드의 데이터를 읽고 쓰는 식으로 액세스 타임을 줄일 수 있으며, 이론상 하드 디스크를 추가할수록 성능은 증가하게 된다.

 

미러링은 말 그대로 거울에 비치는 것처럼 같은 데이터를 복수의 장치에 동일하게 저장하는 방식이다. 이것은 성능과는 관계없는 순수한 데이터 보호를 위한 안정성을 추구하는 방식으로 사용자가 직접 데이터를 백업하는 것이 아니라 데이터 자체를 동일한 형태로 2개 이상의 복수 장치에서 보관하기 때문에 한군데서 데이터가 분실되거나 파손되더라도 보존된 다른 장치에서 같은 데이터를 그대로 복구할 수 있다.

미러링의 경우는 스트라이핑처럼 성능 향상과 관계없고 오히려 복수의 하드에 같은 내용을 저장해야 하므로 성능이 같거나 미세하게 떨어질 수 있고 2개의 하드가 같은 데이터를 기록하게 되니 사용 가능한 용량도 절반으로 줄어든다. 하지만 데이터 복구가 가능하기 때문에 역시 단독 RAID 1 시스템보다는 데이터 유실의 염려가 큰 스트라이핑을 보완하는 식으로 함께 구성된다.

스트라이핑과 미러링을 어떤 식으로 구성하느냐, 그리고 두가지 방식을 보완하기 위해서 어떤 방법을 택하고 있느냐에 따라 RAID의 규격이 바뀌게 되는데... 다음 장에서는 수많은 RAID 규격 가운데 표준 규격으로 사용되는 것들과 비표준 규격이지만 데스크탑 메인보드 제품에서 지원되는 규격들을 살펴보겠다.


2. 기본적인 RAID 규격을 알아보자

RAID의 규격에는 어떤 것들이 있을까?


RAID 표준 규격 및 데스크탑 PC에서 쓰이는 비표준 규격 소개

RAID는 일정한 방식에 따라 여러 개의 디스크를 묶는 것이라 그 묶는 원리와 구성에 따라 다양한 조합으로 만들어질 수 있다. 표준 규격은 RAID 0부터 1, 2, 3, 4, 5, 6 등으로 이어지며 이와 다른 중첩(Nested) RAID와 비표준(Non Standard) RAID 레벨인 0+1, 1.5, 인텔 Matrix RAID 등이 있다. 이번 페이지는 다양한 RAID 가운데 표준 규격과 데스크탑 PC에서 많이 사용되는 나머지 규격을 간단히 설명하도록 하겠다.

 

RAID 0

RAID 0은 일반적으로 2개 이상의 하드를 병렬로 연결해서 데이터를 블록(Block) 단위로 분산해서 읽고 쓰는 방식으로 구성된다. 하나의 데이터를 복수의 하드를 이용해 분산시키기 때문에 하드 1개에 데이터를 저장하고 불러오는 것보다 훨씬 빠른 속도를 가질 수 있게 되며 하드 용량도 모두 쓸 수 있다.

이론상으로는 하드 디스크를 추가할 때마다 계속 성능이 향상되기 때문에 여러 대의 하드를 RAID 0으로 묶으면 하드 자체가 가진 물리적인 성능을 넘어 컨트롤러의 대역폭을 충분히 활용할 수 있는 강력한 드라이브를 구축할 수 있다. 하지만 안정성을 체크하는 기능이 없어 만약 1개의 하드라도 완전히 고장나면 RAID 0으로 구성된 모든 데이터를 전부 날리게 된다.

따라서 서버나 워크 스테이션처럼 RAID가 주로 사용되는 분야에서는 절대 RAID 0만으로는 RAID 시스템을 구축하지 않으며, 미러링이나 패리티 정보 저장 등 다른 방식과 함께 구성해 성능/안정성을 동시에 추구하도록 보완된 RAID 규격을 쓴다. 

PC에서도 보존해야 할 중요한 데이터가 있는 경우 RAID 0 하드에 저장하지 않는다는 것이 상식이지만, 데이터 보존용이 아니라 프로그램 설치/실행 및 캐시 용도로 사용한다면 충분히 좋은 성과를 누릴 수 있다. RAID 0 방식이 위험하긴 하지만 심심하면 깨지는 그런 형편없는 수준은 아니다.

 

RAID 1

RAID 1은 데이터의 안정성을 높이기 위해 동일한 데이터를 1개 이상의 하드에 똑같이 저장하는 방식으로 RAID 0과는 반대되는 개념이라고 할 수 있다. RAID 1로 구성한 하드는 한 쪽이 망가져도 동일한 데이터가 저장된 다른 하드가 살아있다면 데이터를 복구할 수가 있으며, RAID 구성이 풀리더라도 같은 데이터를 가진 2개의 하드 디스크가 존재하게 된다.

RAID 1은 데이터 안정성은 높지만 2개의 하드를 RAID 1로 묶으면 같은 데이터를 2개에 기록해 전체 하드 디스크 용량의 절반만 사용하게 된다. RAID 1은 2개의 하드 디스크를 1조로 묶는 것을 기본으로 하므로 RAID 1로만 시스템을 구현하지 않고 다른 RAID 방식과 합쳐서 구성하게 된다.

 

RAID 2

RAID 2는 RAID 0처럼 스트라이핑 방식이지만 에러 체크와 수정을 할 수 있도록 Hamming Code를 사용하고 있는 것이 특징이다. 하드 디스크에서 ECC 기능을 지원하지 않기 때문에 ECC(Error Correction Code)을 별도의 드라이브에 저장하는 방식으로 처리된다. 

하지만 ECC를 위한 드라이브가 손상될 경우는 문제가 발생할 수 있으며, 패리티 정보를 하나의 하드 드라이브에 저장하는 RAID 4가 나오면서 거의 사용되지 않는 방식이라고 하겠다.

 

RAID 3, RAID 4

RAID 3, RAID 4는 RAID 0, 1의 문제점을 보완하기 위한 방식으로 3, 4로 나뉘긴 하지만 RAID 구성 방식은 거의 같다. RAID 3/4는 기본적으로 RAID 0과 같은 스트라이핑(Striping) 구성을 하고 있어 성능을 보완하고 디스크 용량을 온전히 사용할 수 있게 해주는데, 여기에 추가로 에러 체크 및 수정을 위해서 패리티(Parity) 정보를 별도의 디스크에 따로 저장하게 된다.

RAID 3는 데이터를 바이트(byte) 단위로 나눠 디스크에 동등하게 분산 기록하며, RAID 4는 데이터를 블럭 단위로 나눠 기록하므로 완벽하게 동일하진 않다. RAID 3는 드라이브 동기화가 필수적이라 많이 사용되지 않고 RAID 4를 더 많이 쓴다고 한다.

RAID 0+1과는 다르게 패리티 정보 기록용 하드 1개만을 제외한 나머지 하드를 모두 스트라이핑으로 묶어 사용하게 되므로 저장 용량에서도 유리하며, 패리티 정보를 별도의 디스크에 저장하므로 스트라이핑 하드 가운데 1개가 고장나도 패리티 정보 디스크를 통해 복구가 가능하다. 하지만 패리티 디스크 쪽도 데이터를 갱신해줘야 하므로 느려질 수 있으며 패리티 디스크가 고장나면 문제가 생길 수 있다. 스트라이핑과 달리 패리티 정보 저장 및 추후 복구를 위해 XOR 연산이 필요하며, 이 때문에 고가의 RAID 컨트롤러는 XOR 연산을 담당하는 프로세서를 따로 장착하고 있다. 

 

RAID 5 
 

RAID 5는 RAID 3, 4에서 별도의 패리티 정보 디스크를 사용함으로써 발생하는 문제점을 보완하는 방식으로 패리티 정보를 스트라이핑으로 구성된 디스크 내에서 처리하게 만들었다. 물론 패리티 정보는 데이터가 저장된 디스크와는 물리적으로 다른 디스크에 저장되도록 만들어 1개의 하드가 고장 나더라도 남은 하드들을 통해 데이터를 복구할 수 있도록 했다. 최소 3개부터 구성이 가능하며 하드 1개 용량만 빠지게 되므로 미러링으로 처리되는 RAID 1보다 저장 공간도 크다. 

패리티 정보가 데이터가 저장된 디스크와는 다른 디스크에 저장되기 때문에 위의 RAID 5 구성에서 만약에 3번 하드(Disk3)가 고장날 경우 A3, C2, D2, 데이터는 다른 하드에 별도로 저장된 패리티 정보를 통해서 복구하고 B 패리티 정보는 나머지 하드에 있는 B1, B2, B3 데이터를 토대로 다시 작성할 수 있다. 그러나 별도로 패리티 정보를 저장하는 작업을 해야 하므로 RAID 1보다 쓰기 성능이 떨어진다.

RAID 3, 4와 달리 패리티 정보가 저장된 디스크가 따로 없어 패리티 디스크 고장과 같은 문제에서 자유롭고 실제 서버/워크스테이션에서 가장 많이 사용되는 방식이기도 하다. 보드나라 서버 역시 3개의 하드로 RAID 5를 구성하고 있다. 

RAID 5 역시 XOR 연산을 필요로 하기 때문에 PCI 방식의 보급형 RAID 컨트롤러 카드나 데스크탑 메인보드의 내장 RAID 컨트롤러에서는 그 동안 거의 지원하지 않았던 규격이기도 하지만, 컴퓨터 성능이 올라간 요즘에는 메인보드 사우스브릿지 칩셋에 RAID 5 기능을 넣는 추세로 가고 있다.

 

RAID 6

RAID 6는 RAID 5와 같은 개념이지만 다른 드라이브들 간에 분포되어 있는 2차 패리티 정보를 넣어 2개의 하드에 문제가 생겨도 데이터를 복구할 수 있게 고안되었다. 이론상 하드 3개부터 만들 수 있지만 이럴 경우는 1개의 하드에 저장될 용량을 2개의 하드로 패리티 정보를 저장하는 꼴이므로 전체 용량의 1/3만 사용 가능하게 된다. 따라서 보통 4개 이상의 하드 디스크로 구성하며 RAID 5보다 더욱 데이터 안정성을 고려하는 시스템에서 사용한다.

위의 이미지처럼 40GB 하드 4개로 RAID 6를 구성하면 패리티 정보를 저장하는데 2개 분량의 용량을 잡아먹기 때문에 실제 사용 가능한 용량은 절반에 불과하지만 4개의 하드를 스트라이핑으로 묶었기 때문에 RAID 0+1이나 RAID 10(1+0)보다 성능은 더 높고 신뢰성도 우수하다. 하지만 패리티 정보를 2중으로 저장하면서 읽기 성능은 RAID 5와 비슷하지만 쓰기 작업 구현이 아주 복잡해서 일반적으로 잘 사용되지는 않는다.

 

RAID 0+1과 RAID 10(1+0)

RAID 0+1과 RAID 10(1+0)은 RAID 0(스트라이핑)과 RAID 1(미러링) 방식을 혼합해 만들어졌다는 점에서는 매우 비슷하게 보여진다. 특히 서버/워크스테이션이 아닌 일반 사용자의 PC로 RAID를 구성한다면 많아야 4개 정도까지 묶기 때문에 RAID 0+1과 RAID 1+0을 헷갈릴 수도 있으며 실제 RAID 0+1을 RAID 10으로 표기하는 곳도 많이 있다. 필자 역시 이 둘을 혼동하는 사람 중에 하나였는데, 두 방식은 어느 쪽을 먼저 묶고 나중에 묶느냐에 따라 다르다고 한다.

RAID 0+1은 이름 그대로 RAID 0과 RAID 1을 합쳐놓은 방식이다. RAID 0으로 묶은 하드 디스크를 최종적으로 RAID 1로 구성하기 때문에 일반 RAID 1 구성보다 높은 성능을 낼 수 있으며 한쪽 RAID 0에 들어가는 하드들이 모두 고장난다고 해도 나머지 RAID 0 하드를 통해 정상 동작 및 데이터 복구를 할 수 있다.

그래도 RAID 1이 들어가므로 전체 하드 디스크 용량의 절반 밖에 사용하지 못한다는 단점은 같지만, 성능과 안정성을 동시에 추구할 수 있는데다 따로 패리티 정보를 사용하지 않기 때문에 패리티 정보를 별도로 처리할 필요가 없다. 또한 RAID 기능을 지원하는 웬만한 메인보드 컨트롤러 및 보급형 RAID 카드에서 RAID 0+1을 기본 지원하고 있어 RAID 3, 4와 달리 고급형 컨트롤러가 필요하지 않다.

 

이와 달리 RAID 10(1+0)은 RAID 1로 구성된 하드들을 최종적으로 RAID 0 방식으로 스트라이핑해서 성능을 높이게 된다. 역시 RAID 1의 미러링을 기본으로 하고 있으므로 하드 1개가 고장나도 그와 함께 미러링 된 하드를 통해 데이터 복구가 가능하다.

 

RAID 0+1과 RAID 10은 4개의 하드 디스크로 RAID를 구성할 경우 용량이나 구조에서 별 차이가 없어 보이지만 6개 이상의 하드를 사용하게 되면 위와 같은 차이가 생긴다. RAID 0+1은 RAID 0으로 구성된 하드들을 최종적으로 RAID 1로 묶는 것이라 각각 3개씩 하드가 나눠지며, RAID 10은 2개씩 RAID 1으로 묶여있는 하드들이 RAID 0으로 구성된다.

RAID 0+1은 양쪽 RAID 0 구성 중 하나씩 고장이 나면 전체 데이터가 손실되고, RAID 10은 미러링 된 하드 2개가 동시에 고장 날 경우 전체 데이터가 날라간다. 물론 그 대신 RAID 0+1은 미러링 된 한쪽이 하드 전체가 망가져도 데이터를 살릴 수 있고, RAID 10도 각 RAID 1 묶음에서 하나씩이 고장이 나도 이상없이 동작한다.

그러나 RAID 0+1의 경우 1개의 하드만 고장나서 복구해도 다른 RAID 0 구성에서 나머지 하드까지 데이터 전체(A1~3, B1~3, C1~3)를 복구해야 하지만, RAID 10으로 만든 시스템은 고장난 하드가 A2, B2, C3 가 저장된 하드 1개라고 하면 미러링으로 묶인 하드를 통해 A2, B2, C2 데이터만 복구하면 되므로 실제로 운용하는데는 RAID 10이 훨씬 유리하다.

 

JBOD (Just Bunch of Disks)

제이비오디(JBOD)는 Just Bunch of Disks의 약어로 사실은 스트라이핑이나 미러링 방식을 쓰지 않았기 때문에 RAID 규격이라고 할 수 없다. 다만 여러 대의 하드 디스크를 묶어 하나의 하드처럼 보이게 만든다는 점에서 RAID와 비슷하기 때문에 함께 쓰이고, RAID 지원 컨트롤러에서 JBOD 역시 지원하는 일이 많은 것이다.

JBOD는 단순히 물리적인 여러 하드를 모아서 하나의 큰 용량을 제공하는 하드처럼 보이게 만드는 방식으로 스패닝(Spanning)으로도 불린다. 디스크 전체 용량을 사용한다는 점에서 RAID 0과 같지만 RAID 0처럼 데이터를 분산 저장하는게 아니라 디스크 순서대로 저장하기 때문에 대용량 디스크를 만들 수 있지만 실제 성능 향상은 없다. 그러나 디스크 종류/용량에 제한을 받게 되는 RAID 규격과 달리 각기 다른 용량의 디스크도 묶을 수 있다는 장점이 있다.

 

 

RAID 1.5

RAID 1.5는 RAID 비표준 규격 가운데 하나로 RAID 컨트롤러 칩셋을 만드는 회사 중 하나인 Highpoint에서 만든 것이다. RAID 15라고 불리기도 하는 이 규격은 최소 4개의 하드가 필요한 RAID 0+1 구성을 단 2개의 하드로 구성하도록 만들었다.

RAID 1.5의 동작 원리는 읽기는 RAID 0 모드로 읽기 성능을 향상시키고 쓰기 모드일 때는 RAID 1 방식처럼 2개의 디스크 모두 데이터를 기록해 안정성을 높인다는 것이다. 일단 하드 디스크의 구성은 기본적으로 미러링으로 만든 RAID 1과 같지만, 읽기에서 RAID 0처럼 미러링 된 2개의 하드에서 다른 부분을 동시에 읽어서 시간을 절약하게 된다고 한다. 위의 이미지가 RAID 1.5의 정확한 구조를 나타낸 것은 아니지만 Read, Write 부분을 보면 RAID 1.5가 어떤 방식으로 동작하는지 참고하는데 도움이 될 것이다.

하지만 쓰기 속도에서 RAID 1과 같으므로 읽기/쓰기가 반복되는 작업에서 RAID 0 만큼 체감 성능 향상을 느끼기 어려운데다 전체 하드 용량의 절반만 쓸 수 있다는 점에서 RAID 1과 같다. 어차피 2개의 하드로 RAID를 구성해야 한다면 RAID 0, RAID 1 외에는 다른 방법이 없기 때문에 RAID 1.5는 성능과 안정성에 타협을 본 방식이라 할 수 있지만 RAID 1.5를 지원하는 컨트롤러나 메인보드가 있어야 하므로 일반적으로 널리 사용되진 않는다. (예전에 보드나라에서 리뷰했던 DFI 메인보드 중 일부가 Highpoint RAID 컨트롤러를 달아 RAID 1.5를 지원했었다)

 

Intel Matrix RAID 

인텔 매트릭스 레이드(Intel Matrix RAID)는 인텔 ICH6R부터 들어간 RAID 규격으로 RAID 1.5와 마찬가지로 2개의 하드 디스크로도 RAID 0과 RAID 1을 구성할 수 있도록 한 것이다. 하지만 미러링된 RAID 1 디스크를 기반으로 하는 RAID 1.5와 다르게 2개의 하드 디스크를 수평으로 묶어서 2개의 파티션(Partition)을 만들어 한 쪽은 RAID 1으로 구성하고 다른 한쪽을 RAID 0으로 만들어 2개의 하드처럼 쓰게 된다. 물론 Matrix RAID 기술은 2개의 하드를 위한 것이 아니므로 인텔에서는 4개의 하드로 같은 방식의 RAID 0 / RAID 1 파티션을 만들어 낼 수 있다고 설명한다.

매트릭스 RAID를 구성하면 운영체제에서 각 파티션이 구분되어 2개의 하드 디스크로 잡히게 되는데, 용량은 RAID 1로 만든 쪽은 실제 묶인 하드 용량의 절반, 그리고 RAID 0 쪽은 당연히 묶인 하드 용량을 온전히 사용할 수 있어 단순한 RAID 1, RAID 1.5 방식보다 용량이나 운용면에서 이득을 준다.

중요 데이터가 있는 부분은 RAID 1로 보호하고 애플리케이션 실행처럼 빠른 하드 성능이 요구되는 쪽은 RAID 0으로 구성된 파티션에 설치해 실행하므로 성능과 용량, 그리고 데이터 보호까지 적절하게 만족시키는 타협점인데다 2개의 하드 디스크만으로 구성이 가능하기 때문에 하드가 많지 않은 일반 유저들이 데스크탑 PC로 구성하기에 적당하다. 또한 인텔 매트릭스 레이드를 지원하는 메인보드들에서 호환되기 때문에 특별한 문제가 없다면 ICH6R에서 ICH9R까지 같은 매트릭스 레이드 구성을 보존해준다고 알려지고 있다.

하지만 비표준 RAID 규격으로 일반 RAID 컨트롤러에서 사용할 수 없고 인텔 메인보드만 지원하기 때문에 업그레이드 범위가 제한된다는 단점은 있다. 굳이 Matrix RAID라는 용어를 쓰지 않더라도 일부 RAID 컨트롤러는 전체 RAID 볼륨 용량을 나누는 방법으로 2개의 하드에 RAID 0, 1을 따로 구성할 수 있다.

posted by 은이종 2013. 5. 2. 17:06


Scenario:

Correctable Memory Error Threshold Exceeded (Slot x, Memory Module y) .

Corrected Memory Error Threshold Passed (Slot x, Memory Module y) .

Uncorrectable Memory Error detected by ROM-based memory validation .

Uncorrectable Memory Error (Slot x, Memory Module y) .

Solution

NOTE: Most of the Correctable and Uncorrectable Memory Errors can be solved with a BIOS update. Refer to servers BIOS release notes for fixes.

What is correctable memory error?

Correctable errors can be detected and corrected if the chipset and DIMM support this functionality. Correctable errors are generally single-bit errors. Most of the ProLiant servers are capable of detecting and correcting single-bit errors. In addition, ProLiant servers with Advanced ECC support can detect and correct some multi-bit errors.

Correctable errors can be classified as "hard" and "soft" errors.

  • Hard error typically indicates a problem with the DIMM.

  • Although hard correctable memory errors are corrected by the system and will not result in system downtime or data corruption, but still they indicate a problem with the hardware.

  • Hard error will typically cause a DIMM to exceed HP’s correctable error threshold and the user is warned about hard correctable errors.

  • Soft errors do not indicate any issue with the DIMM.

  • A soft error occurs when the data and/or ECC bits on the DIMM are incorrect, but the error will not continue to occur once the data and/or ECC bits on the DIMM have been corrected.

  • Soft error will not typically cause a DIMM to exceed HP’s correctable error threshold and is not notified about soft errors which do not indicate any issue with the hardware.

    The user is warned about a DIMM exceeding the correctable error threshold in multiple ways.

  • DIMM LEDs on the front panel or on the system board or on memory board.

  • Integrated Management Logs.

  • SNMP Traps if configured.

  • System Management Homepage and System Insight Manager.

What is uncorrectable memory error?

While correctable errors do not affect the normal operation of the system, uncorrectable memory errors will immediately result in a system crash or shutdown of the system when not configured for Mirroring or RAID AMP modes.

Uncorrectable errors are always multi-bit memory errors. The internal Health LED will indicate a critical condition, and on most systems, the LEDs next to the failed DIMMs will be illuminated. In addition, the error will be logged if the Systems Management Driver is loaded. Uncorrectable memory errors can typically be isolated down to a failed Bank of DIMMs, rather than the DIMM itself.


Possible solutions:

Most of the Correctable and Uncorrectable Memory Errors can be solved with a BIOS update. Refer to server’s BIOS release notes for fixes.

Run Insight Diagnostics and replace the faulty part.

If diagnostics is not an option, swap with a known good memory module, to make sure the DIMM slot on the system board or memory board is good.

After swapping with known good part or after performing diagnostics, the faulty part has to be replaced.

'기타' 카테고리의 다른 글

OpenStack  (0) 2013.07.17
RAID + JBOD  (0) 2013.07.04
서비스 무정지 DNS 기관 이전 시 작업순서  (0) 2013.03.28
POC, Pilot, BMT 약어 설명  (0) 2013.02.20
Filezilla (파일질라) Client 관련 오류  (0) 2013.01.29
posted by 은이종 2013. 3. 28. 17:18

A. 작업 사전 설명

jongeun.co.kr (서버 IP 1.1.1.1)이란 도메인이  KT DNS를 사용 중(DNS IP 168.126.63.1)

jongeun.co.kr은 도메인클럽에서 구매하여 관리

KT 에서 SK(58.227.193.227)로 서버 이전(서버 IP 110.45.229.135 로 변경됨)은  및 DNS을 이전 하려 한다.

 

B. 작업 진행

1. SK DNS에 사용 중인 도메인(jongeun.co.kr 1.1.1.1)을  등록해놓는다

등록과정에서 TTL값은 최소한으로 줄여서, 빠른 전파가 되게 설정

 

2.SK DNS에 정상적으로 등록되었는지 Query 확인

dig @58.227.193.227 jongeun.co.kr

 

3. 도메인클럽(도메인 구입처)에서 도메인 설정에서 DNS서버 설정을 KT DNS에서 SK DNS로 변경한다

 

* 실제 서버 이전 전에 미리 변경해둬야  이전 작업 시 변경작업이 용이하다

  이 작업 이후로는 KT DNS쪽은 신경 안 써도 된다.

 

4. 이전 작업 (서버 IP변경)

 

5. SK DNS에서 신규 변경한 IP로 변경

 
6. 이전 후 쿼리 확인 

메일 관련 확인 (DNS 이전시 가장 문제가 많다.)


(1) type=mx  MX레코드 확인
(mx레코드 등록시.. 서브 도메인보다 아래에 있을경우<특히www> 제대로 Query가 이뤄지지 않을 수 있다.
 항상 A레코드 위에 등록하는 버릇!!)

> set type=mx

> xxx.co.kr

서버:    ns1.xxx.co.kr

Address:  211.206.124.xx

xxx.co.kr     MX preference = 10, mail exchanger = xxx.xxxx.co.kr


(2) type=txt  SPF등록 확인

  xxx.co.kr     text =

        "v=spf1 ip4:xxx.xxx.xxx.xxx ~all"


(3)type=ptr  리버스 도메인 확인
 조회 IP를 넣을때 ip를 거꾸로 넣어야한다.
 1.2.3.4 란 IP면
 4.3.2.1.in-addr.arpa

4.3.2.1.in-addr.arpa    name = xxx.xxx.xxx.xxxx


(2) 화이트도메인 확인
Kisarbl.or.kr 
 

(3) 스팸으로 등록되어있는지 확인
http://www.spamhaus.org

 (4) http://www.dnsstuff.com/tools 통하여 빠진 부분이 없는지 최종 확인


'기타' 카테고리의 다른 글

RAID + JBOD  (0) 2013.07.04
Correctable or Uncorrectable Memory (DIMM) Errors  (0) 2013.05.02
POC, Pilot, BMT 약어 설명  (0) 2013.02.20
Filezilla (파일질라) Client 관련 오류  (0) 2013.01.29
Raid Stripe  (0) 2013.01.17
posted by 은이종 2013. 2. 20. 19:10


POC, Pilot, BMT 이 세가지에 대한 IT업계에서 통용되는 의미에 대해 정리를 해 봤습니다.

물론, 약간의 이견과 분야별로 다르게 해석될 수 있으나, 최대한 공통적인, 일반화된 의미로 해석해봤습니다.

1. POC (Proof Of Concept)
기존에 시장에서 사용돼지 않던, 신기술을 프로젝트에 도입하기에 앞서, 검증하기 위한 목적으로 사용.
사업과 관계가 약간은 동떨어진 기술 검토를 위한 프로젝트고객사에서 하고, 업무는 아주 간단한 것을 수반. 신기술 여부는 중요치 않음

2. Pilot
이미 검증된 기술을 가지고, 대규모 프로젝트 진행에 앞서 소규모로 진행해보는 시험 프로젝트를 말함.
본사업(프로젝트) 진행을 위한 수행안 검증 프로젝트로 가령 기술셋을 확정했으면 그 기술셋으로 실제 업무에 적용해보고 문제점이나 개선안을 마련해서 본 프로젝트에 피드백 주는 것
(계획, 기술문제, 관리요소, 위험요소, 비용 이런 것을 피드백하는 용도, 당초 기대한 효과에 비해 결과가 너무 미미하거나 비용이 많이 들면 취소)

3. BMT(Bench Marking Test)
말그대로 성능테스트입니다. 
예를 들면 00발주처에서 테라바이트 라우터를 도입한다고 할때, 입찰에 응한 업체들의 제품에 대해서 성능비교를 하는 겁니다.
필요에 의해 이것 저것 골라다가 테스트해보고 비교하는 것. 장비 뿐만이 아니라 소프트웨어(솔루션)도 포함되구요.
(대부분은 수평적으로 기술셋 비교에 대한 내용이 많지만 업무적 특성을 포괄하는 솔루션인가? 이러한 요건이면 업무도 물론 수반)

'기타' 카테고리의 다른 글

RAID + JBOD  (0) 2013.07.04
Correctable or Uncorrectable Memory (DIMM) Errors  (0) 2013.05.02
서비스 무정지 DNS 기관 이전 시 작업순서  (0) 2013.03.28
Filezilla (파일질라) Client 관련 오류  (0) 2013.01.29
Raid Stripe  (0) 2013.01.17
posted by 은이종 2013. 1. 29. 19:22

1. 디렉토리 목록이 보이지 않을때

(1) Filezilla설정에서 능동형으로 변경

image

(2) 사용하는 서버 내에서 방화벽 정책 추가

방화벽 인바운드규칙에서 – Fileziila 프로그램 추가 

image

'기타' 카테고리의 다른 글

RAID + JBOD  (0) 2013.07.04
Correctable or Uncorrectable Memory (DIMM) Errors  (0) 2013.05.02
서비스 무정지 DNS 기관 이전 시 작업순서  (0) 2013.03.28
POC, Pilot, BMT 약어 설명  (0) 2013.02.20
Raid Stripe  (0) 2013.01.17
posted by 은이종 2013. 1. 17. 15:09

레이드 striping array 를 구성할때 동일한 레이드 컨트롤러와 하드디스크를 사용할지라도 stripe width

와 stripe size 에 따라서 전송률과 액세스타임, 시퓨사용율 등의 성능이 차이가 나길래.. 직접 테스트를

해보면서 얻은 결과치를 설명하고자 합니다.

우선 stripe width 경우는 동시에 읽기/쓰기 가능한 parallel stripes의 갯수에 관한것이며.. 이것은

바꿔말하면 어레이에 참여한 디스크의 숫자가 많을수록(more wide) 더 성능을 높게 냅니다. 하지만

4개로 스트라이핑을 구성하는 경우가 일반용 데스크탑에서는 거의 드물기 때문에 논외로 하고요.

2개의 디스크로 어레이를 구성한 경우만을 생각해 봅시다.

따라서 stripe size가 성능을 좌우하는 중요 요소가 되는데요.  이것을 "분할쪼가리(?) 크기" 정도로

해석을 해봅니다. 일반적으로 세팅시 사이즈를 4KB~128KB 정도까지 사용자가 결정을 할수가 있고요.

          △ 사이즈를 작게 쪼갠 경우.                          △ 사이즈를 크게 잡은 경우.

위 그림은 하드 4개로 어레이 구성한것을 예로 든건데.. 보시다시피 stripe size 에 따라서 분할정도가

달라집니다. 여기서 stripe size가 작을수록 파일들의 단편화가 심해지며 이것은 그 파일의 데이타를

포함하는 하나의 블럭에 이용되는 드라이버의 갯수가 증가한다는 의미와 같습니다. 그래서 전송율 즉

transfer performance 는 증가를 하지만, 대신에 파일들을 액세스 할수있는 positioning performance

는 감소를 하게 됩니다.

반대원리로 생각하면 stripe size를 오른쪽처럼 아주 크게 잡은 경우는  전송율은 감소를 하는 대신에

파일들에 대한 엑세스는 증가를 하게됩니다.

이정도로 개념 설명은 그만 넘어가고요. (저도 더이상 자세히는 모릅니다.^^;)

다름이 아니라, 이번에 보드를 p4p800-E Dlx 로 바꾸면서 WD SATA 120G *2개로 스트라이핑을 구성

해봤는데.. 위의 stripe size 별로 성능을 한번 테스트 해봤습니다.

테스트하게된 동기가.. 메뉴얼에 적힌 설명을 읽어보니..

16KB  - 적은 디스크 사용율

64KB  - 일반적인 디스크 사용율

128KB  - 성능위주의 디스크 사용율.  뭐 이런식으로 적혀있길래..

무조건 stripe size = 128K 로 잡고 일단 레이드 구성을 했습니다.  근데 막상 윈도우XP 설치하고 사용을

해보니 기존에 사용했던 히타치 7K250 120G 8M 에 비해 그렇게 빠르다는 느낌을 가질수가 없었습니다.

그저 부팅할때 화살표 3~4번이 2~3번으로 줄어들었다거나 또는 삼디겜 로드 과정에서 근소한 차이로

빠르다는.. 뭐 그 정도였습니다.

  OS

   win XP SP2

  s/w

   IAA RAID ver4.5

   HD Tune ver2.10

하드가 WD 1200JD 두개입니다. 이걸로 제일 먼저 프라미스378 컨트롤러에다 물려서 레이드_0 잡았는데

부팅시 FastTrack 바이오스 인식부분이 딜레이가 심하길래, 부팅용으로 쓰기는 별로겠다 싶어서 과감히

포기를 하고(사실 PDC378 이것때문에 Deluxe 모델 구입한건데 돈 아깝습니다).. ICH5R 에 물려서

설치를 하였습니다.

실제의 체감성능을 비교할려면 ICH5R 컨트롤러에 1200JD*2개에다가 XP 설치하고 몸으로 느끼면서

비교를 해야겠지만.. 윈도우를 6번씩이나 깔아야된다는건 거의 죽음! 이라서.. 히타치 7k250에 부팅용

으로 XP 설치하고 여기서 접근하는 1200JD*2개의 성능입니다. 측정유틸로는 HD Tune을 이용하였고요.

HD Tach 도 돌려봤는데 그다지 얻을 정보가 시원찮아서 빼버렸습니다.

아래 도표를 보시면.. (각각의 테스트는 두번씩 측정을 하고 그중 수치가 좀더 잘 나온녀석으로 샘플을

뽑았습니다.)

전송율 즉 Transfer performance 경우는 이론에 부합하듯이 stripe size가 작을수록 더 높은 수치가

나왔습니다. 근데 4/8/16K 세 경우에서는 우열을 가리기가 힘들었고요. 대신에 32K 로 넘어가면서

급격히(!) 전송율이 하락함을 알수가 있습니다. 또 32/64/128K 셋중에서는 오히려 128K 가 58.3MB/s

로 약간이나마 높은 수치를 보였습니다. 전체적으로 가장 높은 전송율을 보이는것은 size= 16K 에서

85.2MB/s 로 나타납니다. (Avrg 값입니다. Max/Min은 제외.)

액세스 타임입니다. 데이타의 위치를 잘 추적해서 읽고/쓰고 하는데 도움이 되는 녀석입니다.

여기서는 이론과는 달리 stripe size 와는 상관없이 133.2~3 ms 로 거의 동일하게 나타났습니다.

stripe size가 클수록 positioning performance가 높아져서 액세스 속도가 좀더 잘 나온다고 알고

있었는데.. 막상 측정을 해본 결과는 전혀 뜻밖이었습니다. 사이즈와는 전혀 무관하게 거의 동일한

수치로 측정이 되었습니다.

참고로, 이때의 부팅용 히타치 7k250 의 access time 을 측정해보니 12.8ms 로 오히려 더 뛰어난

수치가 나타납니다. 접근속도면에서는 히타치가 더 우세한게 사실인 모양입니다. 대신에 전송율

(transfer rate) 경우는 평균 46.9MB/s 로서 단일하드의 한계치가 드러났습니다. 위에 웨스턴 레이드

경우는 50~85MB/s 정도가 나오니 말입니다.

시퓨사용율 입니다. 이경우가 stripe size 별로 차이가 현격히 드러나고 있습니다. 사이즈가 가장 작은

4K에서는 19.2% 로 높게 측정이 되며 사이즈가 클수록 시퓨사용율은 떨어지고 있음을 봅니다. 첫번째

전송율 측정그림의 size=128K 에서 오히려 64/32K 보다 약간 더 좋은 전송율을 보여주는게 시퓨사용율이

줄어드는것과 연관이 있지않을까 생각을 해봅니다. regression package 같은걸 돌려보면 함수관계도

찾을것 같습니다. 변곡점 같은게 아마 나타날듯..

이상으로 결론을 내면요. 제 경우 ICH5R + 1200JD*2개 스트라이핑 구성시는 각각의 stripe size 별로

고려를 해볼때 16KB 가 가장 최적인것 같습니다. 전송율은 가장 뛰어나고.. 액세스타임은 비슷하고..

유일하게 걸리는게 시퓨사용율이 size>32K 에 비해서 높다는 점인데.. 그렇다고 80->50 대로 떨어지는

전송율을 가지고 사용할수는 없기 때문입니다.

이제 이글을 올린다음에는.. size=16K 에 맞추고 1200JD*2개 에다가 XP 설치해서 세팅을 해볼까 합니다.

그러면 기존에 먼가 빠른 느낌이 없었던 size=128K 에 비해서 체감적으로 얼마나 나아졌는지 알수가

있겠지요. 측정툴로써 아무리 떠든들, 몸으로 느낄수있는 체감성능 향상이 없다면 레이드_0 구성하는

의미가 없으니 말입니다.

흔히들 말하기에.. 데이타나 파일 전송이 많은 컴터라면 stripe size 를 작게 잡아서 전송율을 높여주고

반대로 서버용으로 사용할 컴터라면 size를 높게 잡아서 positioning or locating 을 높여주라는 말들을

많이 합니다. 결국 "Optimal" stripe size 라는건 없다는 소리입니다. 사용자마다 돌리는 애플리케이션이나

컴터의 사용목적에 따라서 사이즈는 각자가 판단하기에 최적이라는 수치를 잡아야 할것입니다.

또 이런 사이즈별로 성능이 컨트롤러를 뭐 사용하느냐.. 하드를 뭐 사용하느냐.. 에 따라서도 달라지는것

같습니다.

제 경우 지금 처한 상황에서는 size = 16K 에 맞추는게 최적값이라고 판단을 하기에 이걸로 결정을

봤습니다. 여러분들도 한번쯤은 사이즈를 조절해보시는게 동일사양에서 좀더 높은(= 원하는) 성능을

이끌어낼수가 있다고 생각을 합니다. 그럼 이만 글 줄이면서 물러갑니다.

** 아래는 측정한 결과들을 캡쳐한 그림입니다.

위에 도표로 이미 작성은 해놨으므로.. 아래는 그냥 참고삼아 보시길 바랍니다.

위쪽부터 순서대로 stripe size = 4 / 8/ 16/ 32/ 64/ 128 KB 입니다.

△ stripe size = 4K

△ stripe size = 8K

△ stripe size = 16K

△ stripe size = 32K

△ stripe size = 64K

△ stripe size = 128K

[출처] stripe에 대한 좋은 자료 스크랩|작성자 검은박쥐