[an error occurred while processing this directive]
Обзор "Рынок серверных технологий 2007" подготовлен При поддержке
CNewsAnalytics Kraftway

Как «охладить» серверы

Как 'охладить' серверыПотребности в вычислительных мощностях серверных систем удовлетворяются путем установки новых более высокопроизводительных серверов в стойки. Эти серверы в свою очередь потребляют большее количество электроэнергии, которая практически вся преобразуется в тепло. В конечном счете, встает грандиозная проблема отвода выделяемого тепла для нормального функционирования ЦОД.

В настоящее время самые распространенные модели серверов, на первый взгляд, потребляют не так много энергии — приблизительно 400Вт. Однако, в количестве 42-45 серверов на стойку при плотной компоновке путем умножения получается 16,8кВт. Показатель может доходить до 30кВт на стойку. Сама по себе эта цифра не пугает. В России проблема дефицита электричества стоит не так остро, как, например, в США. И вопрос экологической безопасности нас, к сожалению, по-прежнему не сильно волнует. В общем, и количество используемых серверов в стране существенно меньше. В итоге в США принято около 20 соответствующих законов и нормативных актов, касающихся эффективного использования электроэнергии, в России - пока только один. Да и призывы экономить электроэнергию мы слышим только в Москве, и то только два раза в год в моменты пиковых нагрузок - в сильный зной и лютый мороз.

Самая большая проблема, что при плотной компоновке серверов при увеличении выделяемого тепла затраты на охлаждение растут чуть ли не в геометрической прогрессии, прямо пропорционально выделяемому теплу, то есть потребляемой электроэнергии. Затраты на охлаждение за границей в будущем могут составлять до 3/4 от всего бюджета, выделяемого на обслуживание серверов.

По мнению Владимира Лонгинова, руководителя направления структурированных кабельных систем компании «Черус», «при сравнении с США стоимость электроэнергии в России меньше, однако, все остальные проблемы присутствуют. Например, оборудование (системы прецизионного кондиционирования, источники бесперебойного питания и т.д.) одно и то же, принципиальных различий нет. Анализ затрат на создание ЦОД в США и в России показывает очень близкие цифры в расчете на квадратный метр при одинаковом уровне резервирования».

Именно для развития и продвижения технологий более эффективного использования электроэнергии для дата-центров и был основан консорциум The Green Grid, учредителем которого стала компания APC, а членами правления — специалисты крупнейших производителей серверных технологий: Intel, AMD, Hewlett-Packard, Dell, Sun, IBM, Microsoft и др. То есть вопросами энергосбережения задались не только производители «железных» платформ, но и те, чей бизнес строится на программном обеспечении. Не последнюю роль в эффективном использовании электроэнергии играют компании-интеграторы, внедряющие решения центров обработки данных.

Энергосберегающие процессоры

Долгое время Intel и AMD занимались гонкой производительности, многоядерности, возможностями виртуализации процессоров и не обращали (или делали вид, что не обращали) внимание на выделяемое тепло и эффективность потребления электроэнергии. Первой на этих параметрах сосредоточилась AMD и вместо количества  операций с плавающей точкой акцентировала внимание общественности на атрибуте «производительность на ватт потребляемой энергии». Кроме этого, снижение потребляемой энергии и, как следствие, совокупной стоимости владения в системах на базе процессоров AMD Opteron достигается использованием памяти DDR2 с пониженным энергопотреблением.

Благодаря этим прорывам, AMD удалось добиться лояльности многих производителей серверного оборудования, в линейках серверов появились модели на базе процессора Opteron. Пожалуй, наибольшим достижением для AMD стали отношения с компанией Dell, имевшей до этого эксклюзивное партнерство с ее конкурентом Intel. Результатом стало признание специалистами технологического лидерства AMD и увеличение доли продаж x86 серверов на базе ее процессоров, которая в 2006 году перешагнула рубеж 20%.

Понимая, что конкурентоспособность серверной архитектуры Xeon падает, Intel заявил о смене стратегического курса. Было принято решение не гнаться за максимальной производительностью и тактовой частотой, а делать процессоры, эффективные с точки зрения энергосбережения. Стимулом такого решения послужило то, что совокупная стоимость владения остается важным дифференцирующим фактором для заказчика. Сегодня большинство серверов можно приобрести с процессорами либо с обычным энергопотреблением, либо энергосберегающими.

Примеры процессоров AMD и Intel с обычным и низким уровнем энергопотребления

  Обычный уровень энергопотребления Низкий уровень энергопотребления
Intel Xeon E5320 (1,86 ГГц, 80 Вт, шина 1066 МГц); Xeon L5320 (1,86 ГГц, 50 Вт, шина 1066 МГц);
AMD Opteron 8220SE (2,8 ГГц, 120 Вт) Opteron 8220 (2,8 ГГц, 95 Вт)

Источник: Intel, AMD, 2007

Процессоры с низким энергопотреблением рекомендуется использовать в системах с высокой плотностью монтажа: blade-системах, стоечных серверах 1U 2U, предназначенных для «забивки стоек под завязку». Цена на процессоры с низким энергопотреблением немного выше; предполагается, что экономия будет на стадии использования за счет электроэнергии и систем охлаждения.

Как избежать лишнего энергопотребления

Технические характеристики большинства самых популярных серверов очень похожи: одни и те же процессоры, практически та же самая аппаратная база. По идее и энергопотребление серверов различных вендоров должно быть одинаковым. По мнению Виктора Городничего, руководителя подразделения серверов стандартной архитектуры НР Россия, разница в деталях. Если в корпусе сервера неэффективно расположены элементы и вентиляторы охлаждения, то издержки на сверхобдув приводят к увеличению потребляемой мощности. Виктор Городничий считает, что для серверов стандартной архитектуры разница значений может составлять до 10%. Кроме того, blade-серверы изначально имеют более эффективную систему электропитания и охлаждения, поскольку она проектируется не на каждый отдельный сервер, а на корзину в целом. Встроенный чип управления также может оптимизировать режимы энергопотребления процессоров сервера, если он умеет измерять текущие и пиковые значения и ограничивать энергопотребление верхним пределом.

Важным параметром, характеризующим энергопотребление сервера, является коэффициент полезного действия (КПД) блока питания сервера. В настоящее время большинство крупнейших производителей блоков питания поддерживают спецификацию 80 Plus, которая обеспечивает КПД не менее 80%. Более того, некоторые вендоры заявляют, что уже сегодня готовы поставлять БП с КПД 90%.

Единственная проблема повышения КПД блока питания — финансовый вопрос. Каждый шаг в приближении к заветной цифре 100% отражается на повышении цены. К примеру, при повышении КПД с 80% до 90%, цена поднимается на несколько десятков долларов. Вполне возможно к 2009-2010 годам производители найдут способ увеличить КПД до 90% без удорожания своих продуктов.

Проблема лишнего энергопотребления лежит и в многократных преобразованиях электрического тока: розетка - источник бесперебойного питания (ИБП) - блок питания — 12 и 3,5 Вольт для питания элементов сервера. По предложению Intel надо уменьшить число преобразований, например, на выходе ИБП получать не переменный ток, а постоянный, и его уже преобразовывать в постоянный ток внутри сервера.

Горячие и холодные коридоры в ЦОД

Сколько бы производители процессоров не заботились об уменьшении энергопотребления, сколько бы производители серверов не оптимизировали элементы внутри корпуса, тепло будет выделяться. И это тепло необходимо отводить от вычислительных ресурсов. Жидкостное охлаждение серверных стоек еще не очень развито. Гораздо чаще применяется воздушное охлаждение.

Один из наиболее распространенных способов решения проблемы нагрева — создание фальшпола, когда горячий воздух снизу попадает на шкаф, проходя через него, охлаждает системы. Нагретый воздух попадает в систему кондиционирования и, охлаждаясь, снова попадает в фальшпол. Плюсом такого способа является относительная простота, а минусом — большие энергозатраты на подъем холодного и спуск горячего воздуха.

В конце 2006 года компанией APC был представлен другой вариант в области кондиционирования, основанный на горизонтальной циркуляции воздуха. Стойки с серверами стоят зеркально, а «горячие» и «холодные» коридоры чередуются. Кондиционеры устроены так, что на них из одного коридора поступает горячий воздух, а охлажденный выходит в соседний коридор. Такая схема заметно снижает затраты электроэнергии, поскольку нет необходимости перемещать воздух по вертикали.

Главный принцип построения систем кондиционирования заключается в том, чтобы шло четкое разграничение горячих и холодных потоков воздуха, чтобы «для охлаждения» сервера не поступал горячий воздух, а обратно в систему кондиционирования холодный.

На рынке существует такая сервисная услуга, как специальное обследование центра обработки данных на предмет выявления проблемных зон путем трехмерного моделирования воздушного потока. Эта дает повышение эффективности охлаждения дата-центров в целом. Общая эффективность охлаждения, кроме организации потока воздуха, зависит также от способа расстановки систем — чтобы в одной части ЦОД не стояли наиболее греющиеся стойки.

Вернуться на главную страницу обзора

Версия для печати

Техноблог | Форумы | ТВ | Архив
Toolbar | КПК-версия | Подписка на новости  | RSS