Ответить на комментарий


IBM получила заказ на создание самого большого дата-центра

By metelica - Posted on 30 августа 2011

Картинка: 
IBM

Ученые исследовательского центра IBM Almaden в Сан-Хосе, Калифорния, разрабатывают крупнейший в мире дата-центр емкостью 120 петабайт, что в 8 раз превышает самый крупный из реализованных на сегодняшний день проектов подобного рода.

Данная емкость позволяет записать примерно 24 млрд. MP3-файлов, либо хранить 60 копий архива интернета Wayback Machine, содержащего 150 млрд. страниц, или чтобы сохранять данные всех пользователей Facebook в течение примерно 13 лет, (из расчета, строящегося на нынешних данных, согласно которым на серверы Facebook ежедневно загружается 25 терабайт пользовательской информации). Лишь для записи имен, свойств и атрибутов всех файлов, хранимых в подобной системе, потребовалось бы 2 петабайта пространства.

"Новое хранилище будет значительно больше тех, которые я когда-либо видел. Самые крупные доступные на сегодняшний день хранилища предлагают емкость около 15 петабайт". – говорит Стив Конвей, аналитик IDC в области высокопроизводительных систем. По его словам, дополнительная емкость помогает решать вычислительные задачи, связанные с прогнозированием землетрясений и погоды, а также с изучением живых организмов на клеточном уровне. Информация будет храниться на традиционных жестких дисках. Всего система будет включать в себя 200 тыс. винчестеров, что поставило перед специалистами ряд задач: во-первых, они сконструировали более широкие стойки, чтобы в каждую из них поместилось больше накопителей; во-вторых, вместо воздушного охлаждения, которое было признано неэффективным в данном проекте, было использовано водяное. Для защиты данных от сбоев был применен стандартный метод резервирования на нескольких накопителях, однако использование специальных технологий позволит системе продолжать работу практически без снижения производительности в случае сбоев. Когда из строя выходит какой-либо жесткий диск, его заменяют и данные на нем начинают постепенно восстанавливаться. Если же сбой затронул несколько накопителей, скорость восстановления возрастает для того, чтобы не возникла нехватка данных. Была использована файловая система GPFS, разработанная IBM в конце прошлого века: она способна распределять один файл по нескольким жестким дискам, таким образом, процессы его чтения и записи могут быть разделены на множество параллельных операций.

По словам руководителя проекта Брюса Хиллсберга, цель разработок - сделать так, чтобы система могла надежно работать бесконечно долго. Несмотря на то, что в IBM поступил заказ на строительство одного такого хранилища, в будущем технологии, которые будут опробованы на пути реализации проекта, обязательно найдут применение в обычных коммерческих системах, считает Хиллсберг. По его словам, программные усовершенствования позволяют строить подобные массивы: поскольку производительность самих дисков повысить гораздо сложнее, на помощь приходят специальные алгоритмы.

Главная интрига проекта состоит в том, что IBM не разглашает имя заказазчика столь крупного хранилища. Сообщается лишь, что дата-центр необходим для "симуляции событий глобального масштаба".
© egzt.ru

Ответить

  • Строки и параграфы переносятся автоматически.
  • Доступны HTML теги: <ul> <ol> <li> <dl> <dt> <dd> <b> <i> <p> <center> <br>

CAPTCHA
Вы, случаем, не робот?

Уведомления группы

Предложения групп RSS лента. Или подписаться на эти персонализированные, общесайтовые каналы:

Сейчас на сайте

Сейчас на сайте 0 пользователей и 53 гостя.

Последние комментарии