DC

인용/출처 : http://d2.naver.com/helloworld/176039

참고 : https://en.wikipedia.org/wiki/Data_center

개요
인터넷 서비스의 보편화로 이제 데이터 센터(Data Center, DC)라는 용어는 일상에서 흔히 사용하는 익숙한 단어가 되었습니다. 그러나 익숙하다고 해서 그것을 잘 아는 것은 아닐 것입니다.

공장을 지으려면 땅이 필요하고, 가게를 열려면 상가를 얻어야 하듯이, 인터넷 서비스를 하기 위해서는 데이터 센터가 확보되어야 합니다. 즉 안정적인 데이터 센터 환경은 안정적인 인터넷 서비스의 필요 조건이라 할 수 있습니다.

이 글에서는 데이터 센터 관련한 자주 사용하는 용어를 설명하는 방식으로 데이터 센터에 대한 이해를 도모할 수 있는 내용을 준비했습니다. 이 기사를 포함해 총 3회 동안, 소프트웨어 개발자가 데이터 센터에 대해 더 깊은 이해를 할 수 있도록 연재 기사를 준비했습니다.

데이터 센터는 무엇을 하는 곳인가데이터 센터는 무엇을 하는 곳인가?
데이터 센터(Data Center, DataCenter로 붙여 쓰기도 한다)는 Server Farm이나 Server Hotel이라 부르기도 하는데, 주로 기업의 서버와 스토리지를 설치하고 운영하는 장소를 말한다. 서버와 스토리지 같은 하드웨어들을 효과적이면서도 안정적으로 운영하기 위해 고도화된 전원 관리 시스템이나 고대역 네트워크 환경은 물론 백업 시스템, 보안 시스템, 공조 시스템을 비롯해 화재는 물론 폭우나 태풍 같은 환경 재해를 극복할 수 있는 시설을 갖추고 있다.

데이터 센터의 역사
오늘날 서버라고 부르는 기기는 1980년대에는 Micro Computer나 Mini Computer라고 불렀다. 수십 년 전의 컴퓨터는 워낙 거대했기 때문에 작은 방 하나 정도를 가득 채울 만한 크기의 컴퓨터는 Mini Computer라 불렀다. 당시에 이런 기기들은 운영 편의성보다는 사용자 접근성에 중점을 두어 주로 사용자가 있는 곳에 설치하여 사용했다.

그러다가 산발적으로 흩어져 있는 자원을 한 곳에 모아서 관리하는 방법을 고민하기 시작했다. 그 결과로 1990년 대에는 데이터 센터의 초창기 형태라 할 수 있는 전산실 설비가 각 기업에 등장하기 시작했다. 이런 전산실은 표준화된 케이블링(cabling), 계층화된 네트워크 장비를 사용했다.

데이터 센터가 본격적으로 등장한 때는 1990년 대 말과 2000년 대 초반 사이의 닷컴버블 시대다. 규모가 작은 벤처 기업 입장은 비용상의 문제로 독자적인 전산실을 운영할 수 없는 상황이었고, 이런 벤처 기업의 수가 폭발적으로 증가하자 현재와 같은 IDC(Internet Data Center) 비즈니스가 태동하게 되었다. 그 후 점점 IDC 운영이 전문화되고 많은 수의 서버를 운영해야 하는 큰 기업도 자체 전산실보다는 전문화된 IDC를 이용하는 것이 효율성과 품질면에서 나아지게 됨에 따라, 닷컴버블 이후에도 지속적으로 IDC는 계속 성장해 왔다.

일반적인 공장에서 단위 시간당 생산량 등을 기준으로 공장의 효율성을 평가하듯이, IDC에서는 얼마나 많은 서버를 안정적으로 운영할 수 있는지가 중요한 척도다. 당연히 IDC는 많은 서버를 효과적으로 운영할 수 있는 방법 위주로 발전하기 시작했으며, 대규모 환경(large-scale 운영 환경)에 대한 요구도 지속적으로 발생했다. 그리고 새로운 기술들이 속속 데이터 센터에 도입되면서 데이터 센터는 계속 발전해 왔다.

요즘 데이터 센터의 화두는 클라우드다. 수요에 탄력적으로 대응하면서 사용한 만큼만 과금하는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Soft as a Service) 등과 같은 서비스가 부상하면서, 데이터 센터 또한 DcaaS(Data Center as a Service)라는 이름으로 클라우드 기술을 적용하고 있다. 수요에 탄력적으로 대응할 수 있도록 수 분만에 신규 기기를 투입할 수 있는 기술들이 DCaaS에 소개되고 있다.

데이터 센터 등급(DC Level)
소프트웨어나 프로토콜에 ANSI나 W3C, IEEE, JCP와 같은 표준화 단체가 있듯이, 데이터 센터에도 표준화 단체가 있다. TIA(Telecommunications Industry Association)라는 곳이 바로 데이터 센터에 대한 표준화 단체다. TIA는 ANSI에 의해 공인된 단체로, 정보통신기술(ICT, Information & Communication Technology) 업계를 대표하여 트렌드를 주도하고 있다. TIA의 회원 수는 600에 이르며, 통신 회사, 브로드밴드, 모바일, 정보 기술, 네트워크, 케이블, 위성, 통합 통신, 긴급 통신, 그린 기술 분야 관련 기업이 회원으로 있다.



그림 1 Data Center Tiering 요약(출처: Uptime Institute)

Tier 4 설비는 Tier 3 설비에 비해 공간을 포함하여 두 배의 인프라스트럭처가 필요하기 때문에 Tier 4는 Tier 3보다 구축과 운영에 훨씬 많은 비용이 든다. 결과적으로 많은 기업들이 CAPEX(Capital expenditures)와 OPEX(Operating Expenditure) 및 가용성간의 밸런스를 고려해 더 경제적인 Tier 3 등급의 운영을 선호하고 있다(가용성 0.013%. 연간 1.2시간의 차이).
 * Tier 1 Basic —리던던트(Redundant) 구성요소가 없음(N) : 99.671% 가용성
 * 계획/비계획적인 활동에 따른 장애 가능성 있음
 * 전력 공급과 냉각이 단일 경로화되어 있음
 * 예방 유지 보수를 수행하기 위해 셧다운해야 함
 * 연간 28.8시간의 다운타임
 * Tier 2 — 리던던트 구성요소(제한적인 N+1) : 99.741% 가용성
 * 계획/비계획적인 활동에 따른 장애 가능성이 Tier1에 비하여 낮음
 * 전력과 냉각 설비는 N+1 리던던트 구성으로 되어 있으나 공급 경로는 단일 경로로 되어 있음
 * Raised Floor, UPS 및 발전기 포함
 * 연간 22.0시간의 다운타임
 * Tier 3 — Concurrent 유지 보수 환경(N+1) : 99.982% 가용성
 * 전산 시스템에 대한 영향 없이 정기 예방 점검과 유지 보수와 같은 계획된 활동이 가능함(비계획 활동은 장애를 유발시킬 수 있음)
 * 전력과 냉각의 공급 경로의 복수 구성(하나는 액티브 경로), 리던던트 구성(N+1)
 * 연간 1.6시간의 다운타임
 * Tier 4 — Fault Tolerant(2N+1) : 99.995% 가용성
 * 계획된 활동은 핵심 운영에 영향을 주지 않으며, 예상치 못한 최악의 사고가 발생해도 핵심 부하에 영향을 주지는 않음
 * 복수의 액티브 전력 및 냉각 경로
 * 연간 0.4시간의 다운타임

주요 구성 요소
데이터 센터에는 다음과 같은 4개의 주된 구성 요소가 있다.

상면
장비나 설비를 설치할 수 있는 공간이다. 실제 IT 장비를 설치할 수 있는 white space와 작업 통로나 메인 통로, 설비 설치 공간과 같이 필요하지만 IT 장비를 설치할 수 없는 공간인 grey space로 구분하기도 한다.

Support infrastructure
데이터 센터 운영을 지원하기 위해 white space외에 추가적으로 필요한 공간과 설비다. 전기실(수변전 설비 공간), 발전기실, UPS, 공조기 등이 포함된다. 고밀도 환경의 경우 Tier 3급 데이터 센터 구성을 위해 지원 인프라 설비 공간이 white space 면적보다 4~6배 정도 더 필요할 수 있기 때문에, 전산실 전력 밀도가 올라갈 때에는 기획/설계 과정에서 공간에 대한 요구 사항을 반영하는 것이 매우 중요하다.

IT equipment
컴퓨팅 서비스를 제공하기 위해 필요한 랙(Rack)과 케이블링, 서버, 스토리지, 관리 시스템 및 네트워크 장비 등이 포함된다.

Operations
운영 인력은 시스템을 정상적으로 운영/관리하고, 필요 시 업그레이드와 수리를 책임진다. 대부분의 회사에서는 IT 기술 운영 그룹과 설비 지원 시스템을 책임지는 부서를 각각 두고 서로 다른 책임을 지게 하고 있다.

데이터 센터 관련 여러 지표 및 인증
데이터 센터의 효율이나 수준을 표현하기 위한 여러 가지 지표 및 인증이 있다. 대표적인 항목을 소개해 보겠다.

PUE(Power Usage Effectiveness)
Green Grid의 멤버가 만든 것으로, 데이터 센터의 에너지 효율성을 표시하는 데 사용하는 단위다. 데이터 센터의 PUE는 데이터 센터에 인입되는 전력량을 그 안에 있는 컴퓨터 인프라스트럭처가 동작하면서 사용하는 전력량으로 나눈 값이다. PUE는 IT 소비 전력 대비 전체 전력량의 비율로 표시된다. 1에 가까울수록 효율성이 좋다. 데이터 센터의 PUE는 보통 1.3(우수)에서 3.0(나쁨)에 걸쳐 있고 평균은 2.5다.

다음 그림의 예와 같이 100W의 IT 장비를 구동하는 데 전체 275W를 공급해야 한다면, PUE는 275/100=2.75가 된다. 그림 2 데이터 센터에서의 에너지 사용 예

DCiE(Data Center Infrastructure Efficiency)
Green Gird에 의해 만들어진 DCiE는 데이터 센터의 효율을 표시하는 또 다른 단위로, PUE의 역수이다. DciE는 IT 장비에 공급되는 전력량을 전체 설비에 대한 공급 전력량 기준으로 백분율로 표현한 것이다. 즉, 데이터 센터 전체 전력 중 IT 장비가 사용하는 전력량이 몇 퍼센트나 되는지를 표시한다. DCiE는 100%에 근접할수록 효율이 좋다. 데이터 센터의 DCiE 값은 보통의 경우 33%(나쁨)에서부터 77%(우수)에 걸쳐 있고 평균 DCiE는 40%이다. 그림2의 예에서 DciE는 100/275= 36.36%가 된다.

LEED Certified
미국 그린빌딩위원회(USGBC, U.S. Green Building Council)가 인증하는 것으로 국제적인 인증 가치를 인정받고 있다. LEED(Leadership in Energy and Environmental Design)에서는 건물이나 설비에서 물 같은 자원이나 기타 에너지를 효율적으로 사용하고 있는지에 대한 판단뿐만 아니라, 이산화탄소 배출 감소와 실내 환경 품질(공조, 조명 등), 친환경 자재 채용 의무와 같은 항목도 다루고 있다.

LEED 인증은 등급제인데, '표준'(계량 전 점수대비 40%~50%), 'Silver'(50%~60%), 'Gold'(60%~80%), 'Platinum'(80% 이상)의 4단계가 있다. 가장 높은 등급인 Platinum 인증을 받을 경우 인증 비용을 환불받을 수 있다. 환불 조건에서 알 수 있듯이 Platinum 인증은 매우 어렵다. NHN 춘천 IDC는 현재 LEED Platinum 인증을 받기 위한 활동을 하고 있다.

The Green Grid

데이터 센터에서의 에너지 효율성 향상과 비즈니스 컴퓨팅 에코시스템에 관심이 있는 기업과 정부기관 및 교육기관들이 참여하는 비영리 국제 컨소시엄이다. The Green Grid는 특정 벤더의 제품이나 솔루션을 추천하지는 않지만, 대신 데이터 센터 에너지 효율성 전체를 개선할 수 있는 베스트 프랙티스와 기술을 기초로 업계 전반에 적용 가능한 권고안을 제공한다. The Green Grid에 관한 상세한 정보는 www.thegreengrid.org에서 참고할 수 있다.

몇 가지 데이터 센터 관련 지표를 살펴봤는데, 이런 지표와 밀접한 관계가 있는 것이 그린 데이터 센터(Green Data Center)다. 그린 데이터 센터는 최고 수준의 에너지 효율성과 환경에 대한 영향을 최소화한 운영이 가능한 데이터 센터를 말한다. 주로 전기 사용을 줄이기 것에 집중되고 있다.

인터넷 비즈니스는 유해 물질을 배출하지 않는 클린 비즈니스로 알려져 있기도 하지만, 엄청난 양의 전기를 사용하기 때문에 과연 인터넷 비즈니스가 친환경적이냐에 대해서는 논란의 여지가 있을 수 있다. 데이터 센터에서 전기를 덜 사용하도록 하는 것은 지구 환경에 매우 긍정적인 영향을 줄 수 있기 때문에, 미국에서는 연방정부가 직접 그린 데이터 센터 관련 업무를 추진하고 있다. 행정기관인 환경보호국(EPA)이 미국 내의 데이터 센터와 서버의 에너지 비용과 에너지 사용 경향을 분석하여 그 결과를 기준으로 다양한 인센티브 프로그램을 운영하고 있다.

더 이상 가용한 전력이나 공간이 없다면?
데이터 센터 운영 중에 지속적으로 발생하는 고민은 상면에 관한 것이다. 항상 상면 공간을 확보하기 어려운 상황이 발생하고, 그때마다 여러 방법으로 상면 공간을 확보하고 있다. 상면 문제가 발생하면 어떻게 문제를 해결하고 있을까?

최적화(Optimize)
데이터 센터 운영에서 최적화 활동은 상시 업무 활동이라고 할 수 있다. 서버 가상화 등을 통해 전체 서버 전력 부하와 공간을 줄이거나, 설비의 효율을 개선하는 것이 모두 최적화 활동과 관련된 것이다. 예를 들어 데이터 센터의 냉각과 가습에 필요한 전력의 70%까지는 외기(바깥 공기)를 이용하고, 이코노마이저나 초음파 가습기/고효율 변압기 또는 가변 주파수 제어 기술 등과 같은 기술을 통해 공간과 전력을 절감할 수 있다.

이러한 기술들이 새로운 고밀도 IT 시스템과 결합하면 설비의 부하를 줄일 수 있음과 동시에 수용 가능한 IT 용량을 확대시킬 수 있게 된다. NHN의 IDC는 평상시 이런 방법으로 상시 최적화를 적용하고 있다.

Move(IDC이전)
만일 기존의 데이터 센터에서 최적화로는 더 이상 가용한 용량을 확보할 수 없다면, 새로운 곳으로 옮기는 것 외에는 할 수 있는 일이 없을 것이다. NHN은 몇 번의 데이터 센터 이전 경험이 있다. 이전에 소요되는 비용이 크기 때문에 자주 옮기지 않도록 적절한 데이터 센터에 대한 운영계획 수립은 필수라 할 수 있다.

Outsource
직접 소유한 새로운 설비로 옮기는 방법 외에도 colocation이나 cloud computing을 통해 필요한 리소스를 확보하는 방법도 고려할 수 있을 것이다.

데이터 센터 관련 용어 정리
데이터 센터에 대해 더 잘 이해하기 위해 알아야 할 용어가 있다. 대표적인 용어를 소개해 보겠다.

Alternative Energy
태양광, 바람, 수소가 환경 친화적인 방법으로 전력을 생산하기 위한 차세대 발전 방법으로 부상하고 있다. 그러나 이런 발전 방식은 아직 기존 발전 방식을 대체할 만큼 대용량의 전력을 지속적이고 안정적으로 공급할 수 있는 단계에는 이르지 못했다. 대체 에너지를 사용하더라도 전력 사용 피크 시간대에 상용 전력 회사의 전기를 사용해야 한다면, 대체 에너지 적용으로 얻을 수 있는 경제적 이익은 크지 않게 될 것이다. 전기요금은 시간대별로 다르기 때문에 피크타임에 사용하는 하는 전기의 요금은 평균 단가보다 높기 때문이다.

그렇기 때문에 대체 에너지 사용으로 넘어가는 과도기에는 고수준의 배터리 기술이 필요하게 된다. 초과로 발전되는 전력을 저장하여 피크타임에 사용할 수 있도록 하는 것이다. 이런 배터리 기술이 일반화된다면 본격적으로 데이터 센터에서 대체 에너지 사용 발전을 고려할 수 있게 될 것이다. 물과 공기를 기반으로 친환경적인 전력 저장 시스템이 소개되고 있기도 하다.

Ambient Return
냉각 시스템에서 외기를 사용하는 방법이다. 이 방법은 찬 공기와 더운 공기가 만날 때 발생하는 현상이 데이터 센터의 기기에 영향을 줄 수 있고, 정압에 의해 발생하는 공기 정체 등의 이유로 일부 환경에는 맞지 않은 방식이다.

Chiller based cooling
CRAC 유닛(냉동기 없이 열 교환 코일만 있는)에 냉수를 순환시켜 열을 식히는 방식의 냉각 방법이다. 냉수를 만드는 냉동기 시스템(Chiller based system) 자체를 위한 열 교환기는 공냉식 또는 수냉식을 사용할 수 있다. 냉동기 방식(Chiller type)은 DX(냉매 순환 방식) 기반 시스템보다 더 큰 냉각 용량을 가지는 CRAC을 지원할 수 있다. DX 방식의 급배기 온도차 한계인 13.3℃를 극복하고 있을 뿐만 아니라, 냉수를 사용하는 냉각 방법은 냉각 부하 발생 시에 유연한 대처가 가능하다.

Chimney effect
굴뚝이 연기를 배출하기 위해 공기압 차이를 이용하는 것과 동일한 원리가 데이터 센터에서도 사용될 수 있다. Raised floor 하부로 전달되는 찬 공기를 데이터 센터로 밀어 넣고 더워진 공기는 굴뚝을 통해 상부로 배출하는 방식의 공조 방식이다. 이 디자인은 찬 공기와 더운 공기의 섞임을 최소화하면서도 매우 효율적인 공기 순환을 만들어 준다. 온도차에 따른 공기 밀도 변화로 더운 공기가 위로 올라가는 현상은 공간을 채우고 있는 공기 내의 온도차이가 있을 때만 발생하는 현상이며, 앞서 설명한 Chimney Effect에서 다룬 굴뚝을 이용한 방식은 찬 공기와 더운 공기의 통로가 구분되지 않은 예전의 데이터 센터에서나 효과가 있다. 최근의 데이터 센터는 찬 공기와 더운 공기 흐름이 분리되도록 만들기 때문에, 굴뚝을 만드는 것은 효과가 없다.

그림 3 굴뚝 (chimney)이 있는 랙(직접 촬영@Cisco Allen DC)

Cogeneration
전기를 생산하기 위해 엔진(통상적으로 디젤 또는 천연 가스)을 사용하고 동시에 여기에서 발생하는 열을 사용하는 방식이다. 이런 방식은 자체 생산 전기 이외에도 엔진에서 배출되는 열을 흡수식 냉동기에서 사용하여 냉각에 사용할 수 있다는 장점이 있다. 추가로 잉여 발전 용량을 전력 회사에 되팔 수도 있다. 이러한 열병합발전의 ROI는 전기와 연료의 단가와 밀접하게 연관되어 있다. 이러한 열병합발전은 상당한 수준의 이산화탄소 배출 감소에도 기여할 수 있다. 향후 환경친화적인 방법으로 부상할 수 있고, Cap과 탄소 Trading에서의 우위를 점할 수 있게 된다.

Colocation
Colocation은 자신의 데이터 센터 설비를 다른 기업에게 제공하는 여러 비즈니스 모델 중 하나다. Colocation 서비스에서는 동일 데이터 센터에 입주한 여러 기관이 전력과 냉각 인프라스트럭처와 설비 관리 등을 공유한다. Colocation은 고객이 IT 시스템을 각자 소유한다는 점에서 전용 호스팅 서비스와 구별되며 데이터 센터 내에 어떤 시스템을 구성할 것인지, 어떤 애플리케이션을 구현할 것인지 선택할 수 있다. 권리와 책임 그리고 위험도 등의 변화에 따라 다양한 아웃소싱 모델 간의 구분이 불명확한 점이 있다. 이러한 이유 때문에 비즈니스 관점에서 필요한 전산 설비를 장기적으로 적절하게 일치시키기 위해서는 새로운 데이터 센터의 평가가 중요하다.

Containers
데이터 센터를 선박용 컨테이너나 적재 가능한 빌딩 블록으로 구축하는 방법을 말한다. 각각의 컨테이너나 빌딩 블록에는 표준화된 전력 공급 시스템, 냉각, 기타 인프라스트럭처가 준비될 수 있도록 하고, 데이터 센터 용량 확장 필요 시에 이러한 컨테이너나 빌딩 블록의 수를 늘리는 방법이다. 이런 컨테이너는 사업자 건물 외부에 설치할 수도 있고 창고형 건물에 설치할 수도 있다.

데이터 센터 컨테이너가 제공하는 근본적인 장점은 빠른 적용과 초고밀도 집적으로 인한 공간 사용 효율화이다. Google과 Microsoft는 클라우드형 서비스에 사용하기 위해 컨테이너 데이터 센터를 사용했다. 그러나 컨테이너 방식에는 치명적인 단점도 있다. 일단 개별 컨테이너의 가격이 비싸며, 사용하는 시스템이 특정 브랜드의 특정 제품으로 단일화되는 경향이 있다. 또한 특성상 밀폐되어 운영되어야 하기 때문에 자동 운영 시스템을 적용할 수 있는 상황에서만 사용할 수 있다.

CRAC(Computer Room Air Conditioner)
전자 기기에 적절한 수준의 습도를 제공하기 위해 가습 기능이 있는 데이터 센터 전용의 특별한 공조기다. CRAC은 매우 중요한 시스템이기 때문에 가용 안정성과 조절 민감도 등에 있어 일반 건물용 공조기보다 훨씬 높은 수준의 품질이 요구된다.

Density Meltdown Point
서버 시스템 밀도를 증가시켜 데이터 센터 운영 효율을 꾀하는 것에는 한계가 있다. 서버나 스토리지 시스템의 수용 시스템 규모 확대 효과와 이에 따른 백업 룸 확대 요구의 상호 배반적인 관계를 Power Density Paradox라고 하며, 서버 시스템 밀도 증가에 따라 운영 효율이 증가하는 한계점을 Density Meltdown Point라고 부른다.

DX(Direct Expansion) cooling
공냉식 방식으로 전산실의 공기를 식히는 열 교환기에서 직접 냉매의 기화가 이루어지도록 한 방식이다. 실내에 설치되는 설비에 컴프래서가 포함되어 있는 것이 특징이다. 냉매의 순환 거리 제약 때문에 냉매의 냉각을 위해 글리콜을 사용하는 경우도 있는데, 이 경우에는 동일한 DX 방식이지만 글리콜 방식이라는 이름으로 부른다. 'direct'라는 용어는 냉매가 공기를 냉각시키는 열 교환 코일에서 직접 기화되기 때문에 붙었다. DX 기반 시스템은 공기의 온도를 최대 13.3℃까지만 내릴 수 있기 때문에(냉각기로 인입되는 공기와 냉각되어 토출되는 공기의 온도차) 유연한 냉수 방식 시스템과 비교했을 때 적용에 제약이 많다.

Economizer
데이터 센터 냉각 시스템의 한 구성요소로서 찬 외기를 이용하여 냉동기 가동 시간을 줄이는 회로다. 외부 온도에 따라 냉동기는 바이패스(부분적으로 또는 전체로)되어 프리쿨링이라는 냉수 순환 구조가 만들어진다. 자연히 이 회로는 찬 기온의 지역에서 가장 효율적이다. Econimizer에는 Air Side Economizer와 Water Side Economizer가 있다. Water Side Economizer는 외부의 온도가 일정 기온(통상적으로 5℃ 정도) 이하인 경우 냉동기의 컴프래서를 가동하지 않고 냉각 타워를 거치면서 차가워진 냉각수의 순환만으로 냉수의 열을 흡수하는 방식이다. 쿨링시스템 전체에서 가장 전력 소비 비중이 큰 냉동기를 가동하지 않는다는 의미에서 프리쿨링이라고 불린다. 반면에 Air Side Economizer는 전산실에서 나오는 더운 공기를 외부로 배출하고 대신 상대적으로 낮은 온도의 외기를 직접 전산실로 유입하는 방식이다. 외기의 온도가 실내 설정 온도(통상 22~25℃) 이하이면 냉동기의 가동 없이 쿨링이 이루어지기 때문에 Water Side방식보다 월등히 효과가 좋다. 그러나 Air Side 방식은 외기가 직접 유입되기 때문에 정화용 필터와 습도 조절을 위한 회로가 필요할 수 있다.

Fan tile
데이터 센터의 특정 지역에 대한 공조량을 증가시키기 위해 팬이 부착된 Raised floor 타일을 사용할 수 있다. 팬 타일은 주로 핫 스팟을 완화시키는 목적으로 사용했다. 핫 스팟은 비계획적인 랙과 서버 배치때문에 발생할 수 있다. 팬 타일의 사용은 단기간 동안 핫 스팟을 완화시킬 수 있지만 대부분의 경우 이 방법보다는 전력 소비를 줄일 수 있는 공조의 개선이나 냉각 시스템을 통한 개선이 더 효과적이다.

Local Utility
대용량 전력을 소비하는 전력 소비처의 경우 전력 소비처에서 직접 전기를 생산하는 시설을 갖추는 경우가 있는데, 이를 Local Utility라고 부른다. 전력 생산 증가율이 환경적인 문제 등의 이유로 전력 소비 증가를 충분히 따라가지 못하는 현상이 도래하면서 대규모 전력을 소비하는 대형 데이터 센터와 같은 전력 소비처에서 Local Utility 시설을 채용하는 비율이 급격하게 증가하고 있다. 필요한 전력의 원활한 확보와 송전 경로상의 손실을 보상하기 위한 목적으로 Local Utility가 만들어지는 것이다. 하지만 순수하게 발전만 하는 경우 상업용 발전 회사만큼의 전력 생산 단가에 이르기는 쉽지 않다.

따라서 발전 과정에서 발생하는 대량의 폐열을 얼마나 활용할 수 있는지가 자가 발전 수익성 확보의 관건이 된다. 일반 건물의 경우 폐열을 활용할 수 있는 기간이 겨울(난방용)과 여름(냉방용)에 국한되고 나머지 계절에는 폐열 활용처가 없기에 경제성 확보가 쉽지 않지만, 데이터 센터의 경우 연중 일정한 냉각 요구가 있기 때문에 데이터 센터는 다른 어떤 시설보다도 열병합 발전 설비의 적용이 효과적일 수 있는 시설이라 할 수 있다.

Raised-floor plenum
이것은 데이터 센터의 바닥 면과 raised floor 타일 사이의 공간을 말한다. 이것은 일반적으로 압력이 가해진 찬 공기를 타공판 타일을 통해 IT 장비로 전달하는 통로로 사용된다. 또한 이 공간을 네트워크나 전원 케이블의 배치 목적으로 사용할 수 있지만, raised floor를 통해 바닥으로 케이블링을 하는 것은 데이터 센터의 설계에서 권하는 방법이 아니다. NHN IDC에서는 랙 상부에 케이블 tray를 설치하는 방식을 사용하고 있다.

Floor to Ceiling Height
최근 고밀도 데이터 센터의 경우 바닥부터 천정까지의 높이(층고)가 데이터 센터 평가에 매우 중요한 기준이다. 베스트 프랙티스를 참고하면 전력과 통신 케이블을 오버헤드형으로 구성하는 경우 효과적인 공기 소통을 위해 raised floor의 높이가 0.9m(36인치) 이상 요구된다. 이렇게 층고가 높아지면 대류 효과에 의하여 뜨거운 공기는 위쪽에 찬 공기는 아래 쪽에 머무르게 되어 효율적인 냉각이 가능하게 된다. 4.3KW/㎡가 가능한 데이터 센터를 구축하기 위해서는 바닥에서 천정까지의 높이가 최소한 5.5m(18피트) 이상이어야 한다. 일부 데이터 센터의 경우 raised floor를 사용하지 않고 대신 상부 덕트를 구성하여 급배기를 구성하고 찬 공기 통로와 더운 공기 통로를 차페하기도 한다. 이런 구성 방식은 급배기 덕트가 랙 배치와 맞춰져야 하기 때문에 수시로 배치를 바꿔야 하는 데이터 센터의 경우에는 부적합할 수 있다.

UPS(Uninterruptible Power Supply)
정전이 발생했을 때 다시 전력이 공급되기 전까지 IT 시스템에 백업 전원을 제공하는 시스템이다. 일반적인 UPS 시스템은 인버터 기반의 배터리 시스템이다. 이러한 배터리 방식의 단점은 배터리 축전 용량을 넘어선 정전에 대비할 수 없다는 것이다. 그렇기 때문에 일부 선진적인 데이터 센터에서는 배터리 대신 또는 배터리를 보조하여 플라이 휠(Flywheel) 방식을 사용하기도 한다.

Flywheel UPS system
회전 운동을 하고 있는 무거운 플라이 휠에 저장되는 운동 에너지를 이용해 정전 시 짧은 시간 동안 전력을 생산하는 발전기다. 보통 플라이 휠과 디젤 발전기를 함께 사용하며, 플라이 휠은 정전시점부터 비상 발전기가 동작하기 직전까지 필요한 전력을 제공한다. 플라이 휠 방식의 에너지 저장 기술은 일반적인 UPS에서 통상적으로 사용하는 배터리에 비해 환경친화적이고 설치 면적을 적게 차지한다는 점 때문에 주목을 받고 있다. 설치 면적 축소는 배터리가 보통 10분~20분 정도의 백업 타임을 가지는 용량으로 구성하는 데 비해 플라이 휠은 단지 15~45초 정도의 백업 타임을 제공하는 까닭이기도 하다. 왜냐하면 보통 30초 정도면 발전기를 구동할 수 있기 때문이다.

Hot Aisle/Cold Aisle
더워진 공기(서버에서 배출되는)와 찬 공기(냉각 시스템에서 공급되는)의 혼합은 데이터 센터의 비효율성을 야기하는 큰 원인 중 하나이다. 이것은 핫 스팟을 만들며 일정치 못한 냉각과 불필요한 냉각으로 설비 마모를 일으킬 수 있다. 더운 공기와 찬 공기의 혼합 현상을 최소화하기 위한 최선의 방법은 인접한 랙에서 배출되는 더운 공기가 서로 만나도록 랙을 배치하는 것이다. 이렇게 하면 랙 열과 랙 열 사이에 자연스럽게 찬 공기 통로와 더운 공기 통로가 만들어 진다. 이런 방식으로 찬 공기 통로에 배치된 타공판을 통해 불어 나오는 찬 공기는 랙의 전면으로 유입되고 랙의 후면으로 배출되는 더운 공기는 전산실의 상부를 통해 배출된다.

NOC(Network Operations Center)
서버의 성능과 가용성에 대한 문제를 사전 탐지하고, 안정적인 운영을 유지 하도록 하기 위하여 컴퓨터 네트워크를 감시하는 서비스 책임이 부여된 조직으로, DoS(Denial of Service)공격 치료나 연동컨넥션 단절 복구 및 보안 이슈 같은 긴급 지원을 담당하기도 한다.

Rack Unit: '랙 단위'나 'U' 또는 'RU'라고도 부른다. 랙 마운팅 형 전산장비장비의 높이를 표현하는 단위이다. 1U는 1.75인치(44.45mm)이다.

RTU(Rooftop Unit)
RTU는 건물의 옥상에 설치 가능한 데이터 센터 냉각 공조 설비다. 이런 방식은 전산실 상면(white space)에 냉각 설비를 설치할 필요성을 제거하여 효율성을 개선할 수 있게 한다. 건물 옥상에 설치하는 방식이기 때문에, IT 자원에 영향을 주지 않고 업그레이드할 수 있는 장점도 있다.

Power-density
단위 면적당 전력 사용랑을 나타내는 수치다. 최근에는 데이터 센터 넓이를 기준으로 하는 Power –density(Watt/㎡)보다도 랙당 전력(Watt/Rack)을 계산하는 것이 더 의미 있는 경우가 많다.

Power Density Paradox
데이터 센터 상면 공간이 한계에 달한 기업은 가끔 장비의 배치 밀도를 높임으로써 추가 공간을 확보하기도 한다. 그러나 이렇게 집적도가 높아지면, 더 많은 전력이 필요해지고 냉각 시스템의 처리 용량 확충 또한 필요하게 된다. 증가하는 서버 수에 대응할 수 있는 전력 시스템과 냉각 시스템을 준비하다 보면 더 많은 공간이 필요할 수도 있다. 이것을 전력밀도 역설(Power Density Paradox)이라고 한다. 서버의 밀도와 서버 밀도에 적절한 수준의 설비를 위해 필요한 공간 사이의 적절한 균형은 운영의 효율성과 총 비용 최소화가 가능한 수준에서 결정된다.

Remote hands
호스팅 서비스를 이용하거나 colocation DC 환경에서 remote hands(Nobrain Service, Hands*Eye Service)는 IT 장비의 전원 온/오프(on/off)나 화면 표시 내용 전달, 케이블링과 같이 사업자가 제공하는 엔지니어링 지원을 위한 온사이트 지원 서비스를 말한다. 여기에는 시스템의 교체도 포함될 수 있다.

Steam Humidification
에어컨에서 발생하는 응축(차가운 냉각파이프에 물방울이 맺히는 현상)때문에 데이터 센터의 습도는 낮아진다. 전산실 내부 공기 순환 방식의 냉각 시스템(기존의 데이터 센터는 대부분 내부 순환 방식)에서 냉각만 지속되는 경우 응축에 따른 습기 제거 현상 발생으로 때로는 지나치게 낮은 습도의 환경이 만들어 지게 된다. 하지만 전기/전자 장비의 정전 방지와 정상적인 운영을 위해서는 적절한 습도 유지가 필요하다. 이를 위해 대부분의 CRAC 유닛은 가열을 통한 증기 발생을 통해 습기를 보충하는 회로를 가지고 있다. 이러한 증기 방식의 시스템은 CRAC 유닛의 냉각 효율을 떨어뜨리게 된다.

Ultrasonic Humidification
초음파 가습기는 금속판을 초음파 주파수로 진동시켜 물의 분자 운동을 활발하게 자극해 공기 중으로 습기를 공급하도록 만들어진 시스템이다. 초음파 가습은 가습을 위해 열을 사용하지 않기 때문에 전통적으로 대부분의 CRAC에서 사용해 왔던 열에 의한 증발 방식에 비해 95%이상 효율이 좋다. 대부분의 경우에 초음파 가습기로 교체는 쉽게 할 수 있다.

VFD (Variable Frequency Drive)
모터에 공급되는 전력의 주파수를 조정함으로써 교류 모터의 회전 속도를 조절하기 위한 시스템이다. VFD는 모터의 최대 용량으로만 가동되는 것보다는 시스템의 요구량에 적합하도록 공기나 유체의 양을 조절할 수 있게 하여 에너지를 절감한다.

Watts per Square Foot
단위 면적당 와트(Watt/㎡)는 설비의 전체 용량을 표시하기 위한 방법으로, 데이터 센터의 용량을 나타낼 때 쓰는 방법 중 하나이다. 예를 들어 1MW 전력용량과 냉각 용량을 가지는 1000㎡ 면적(전산실 상면 면적)의 경우라면 평균 1KW/㎡로 표현된다. 이 공간의 일부는 CRAC과 통로 등으로 사용되기 때문에 실제 IT 장비가 설치되는 면적당 전력 밀도는 훨씬 더 크다. 몇 년 전에 600Watt/㎡로 설계된 데이터 센터의 경우라면 단위면적당 400Watt를 추가로 공급하기 위한 업그레이드가 필요하다. 그러나 단위 면적당 전력량은 실제 용량 표현 방식으로는 부족한 점이 많다. 기준 면적을 어디까지로 설정하는지, 이 면적 중 설비나 통로가 차지하는 면적이 얼마나 되는지, 장비의 배치는 어느 정도로 촘촘하게 이루어지는지에 따라 실제 시스템에 공급 가능한 전력 밀도가 결정되기 때문이다. 따라서 Rack당 전력량(Watt/Rack)이 더 정확한 정보 전달에 유리하다.

마치며
이상으로 간략하게 데이터 센터라는 인터넷 비즈니스의 핵심 요소에 대해서 살펴봤다. 서비스의 가용성 확보를 위해서 가장 기본이 되는 인프라인 만큼 개발자들도 상식으로 알고 있다면 업무에 도움이 될 것이라 생각한다.