МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Кластерные системы

    каналов в узлах под управлением ОС Linux позволяет организовать равномерное

    распределение нагрузки приема/передачи между соответствующими каналами.

    Системное ПО

    Операционная система. Обычно используется система Linux в версиях,

    специально оптимизированных под распределенные параллельные вычисления.

    Была проведена доработку ядра Linux 2.0. В процессе построения кластеров

    выяснилось, что стандартные драйверы сетевых устройств в Linux весьма

    неэффективны. Поэтому были разработаны новые драйверы, в первую очередь для

    сетей Fast Ethernet и Gigabit Ethernet, и обеспечена возможность

    логического объединения нескольких параллельных сетевых соединений между

    персональными компьютерами (аналогично аппаратному связыванию каналов) ,

    что позволяет из дешевых локальных сетей, обладающих низкой пропускной

    способностью, соорудить сеть с высокой совокупной пропускной способностью.

    Как и в любом кластере, на каждом узле кластера исполняется своя копия ядра

    ОС. Благодаря доработкам обеспечена уникальность идентификаторов процессов

    в рамках всего кластера, а не отдельных узлов.

    Коммуникационные библиотеки. Наиболее распространенным интерфейсом

    параллельного программирования в модели передачи сообщений является MPI.

    Рекомендуемая бесплатная реализация MPI - пакет MPICH, разработанный в

    Аргоннской Национальной Лаборатории. Для кластеров на базе коммутатора

    Myrinet разработана система HPVM, куда также входит реализация MPI.

    Для эффективной организации параллелизма внутри одной SMP-cистемы возможны

    два варианта:

    1. Для каждого процессора в SMP-машине порождается отдельный MPI-процесс.

    MPI-процессы внутри этой системы обмениваются сообщениями через

    разделяемую память (необходимо настроить MPICH соответствующим

    образом).

    2. На каждой машине запускается только один MPI-процесс. Внутри каждого

    MPI-процесса производится распараллеливание в модели "общей памяти",

    например с помощью директив OpenMP.

    После установки реализации MPI имеет смысл протестировать реальную

    производительность сетевых пересылок.

    Кроме MPI, есть и другие библиотеки и системы параллельного

    программирования, которые могут быть использованы на кластерах.

    Пример реализации кластера Beowulf - Avalon

    В 1998 году в Лос-аламосской национальной лаборатории астрофизик Michael

    Warren и другие ученые из группы теоретической астрофизики построили

    суперкомпьютер Avalon, который представляет из себя Beowulf -кластер на

    базе процессоров DEC Alpha/533MHz. Avalon первоначально состоял из 68

    процессоров, затем был расширен до 140. В каждом узле установлено 256MB

    оперативной памяти, EIDE-жесткий диск на 3.2GB, сетевой адаптер от Kingston

    (общая стоимость узла - $1700). Узлы соединены с помощью 4-х 36-портовых

    коммутаторов Fast Ethernet и расположенного "в центре" 12-портового

    коммутатора Gigabit Ethernet от 3Com.

    Общая стоимость Avalon - $313 тыс., а его производительность по LINPACK

    (47.7 GFLOPS) позволила ему занять 114 место в 12-й редакции списка Top500

    (рядом с 152-процессорной системой IBM SP2). 70-процессорная конфигурация

    Avalon по многим тестам показала такую же производительность, как 64-

    процессорная система SGI Origin2000/195MHz стоимость которой превышает $1

    млн.

    В настоящее время Avalon активно используется в астрофизических,

    молекулярных и других научных вычислениях. На конференции SC'98 создатели

    Avalon представили доклад, озаглавленный "Avalon: An Alpha/Linux Cluster

    Achieves 10 Gflops for $150k" и заслужили премию по показателю

    цена/производительность ("1998 Gordon Bell Price/Performance Prize").

    Заключение

    Ведущие производители микропроцессоров: Sun Microsystems, Dell и IBM

    придерживаются одинаковой точки зрения на будущее отрасли суперкомпьютеров:

    на смену отдельным, независимым суперкомпьютерам должны прийти группы

    высокопроизводительных серверов, объединяемых в кластер. Уже сегодня

    распределенные кластерные системы опережают современные классические

    суперкомпьютеры по производительности: самый мощный на сегодняшний день

    компьютер в мире — IBM ASCI White — обладает производительностью в 12

    ТераФЛОП, производительность сети SETI@Home оценивается примерно в 15

    ТераФЛОП. При этом, IBM ASCI White был продан за 110 миллионов долларов, а

    за всю историю существования SETI@Home было потрачено около 500 тысяч

    долларов.

    Проанализировав итоги работ, выполненных в рамках проекта Beowulf, можно

    прийти к следующему выводу: найденные решения позволяют самостоятельно

    собрать высокопроизводительный кластер на базе стандартных для ПК

    компонентов и использовать обычное программное обеспечение. Среди самых

    крупных экземпляров нельзя не отметить 50-узловой кластер в CESDIS,

    включающий 40 узлов обработки данных (на базе одно- и двухпроцессорных плат

    Рentium Рro/200 МГц) и 10 масштабирующих узлов (двухпроцессорная плата

    Рentium Рro/166 МГц). Соотношение стоимость/пиковая производительность в

    таком кластере представляется очень удачным. Вопрос в том, насколько

    эффективно удается распараллелить приложения - иными словами, какова будет

    реальная, а не пиковая производительность. Над решением этой проблемы

    сейчас и работают участники проекта.

    Литература

    1. http://www.citforum.ru/hardware/svk/glava_12.shtml

    2. http://www.beowulf.com

    3. http://newton.gsfc.nasa.gov/thehive/

    4. LoBoS, http://www.lobos.nih.gov

    5. http://parallel.ru/news/kentucky_klat2.html

    6. http://parallel.ru/news/anl_chibacity.html

    7. http://parallel.ru/cluster/

    8. http://www.ptc.spbu.ru

    Resources

    MIMD компьютеры

    MIMD компьютер имеет N процессоров, независимо исполняющих N потоков команд

    и обрабатывающих N потоков данных. Каждый процессор функционирует под

    управлением собственного потока команд, то есть MIMD компьютер может

    параллельно выполнять совершенно разные программы.

    [pic]

    MIMD архитектуры далее классифицируются в зависимости от физической

    организации памяти, то есть имеет ли процессор свою собственную локальную

    память и обращается к другим блокам памяти, используя коммутирующую сеть,

    или коммутирующая сеть подсоединяет все процессоры к общедоступной памяти.

    Исходя из организации памяти, различают следующие типы параллельных

    архитектур:

    Компьютеры с распределенной памятью (Distributed memory)

    Процессор может обращаться к локальной памяти, может посылать и получать

    сообщения, передаваемые по сети, соединяющей процессоры. Сообщения

    используются для осуществления связи между процессорами или, что

    эквивалентно, для чтения и записи удаленных блоков памяти. В

    идеализированной сети стоимость посылки сообщения между двумя узлами сети

    не зависит как от расположения обоих узлов, так и от трафика сети, но

    зависит от длины сообщения.

    [pic]

    Компьютеры с общей (разделяемой) памятью (True shared memory)

    Все процессоры совместно обращаются к общей памяти, обычно, через шину или

    иерархию шин. В идеализированной PRAM (Parallel Random Access Machine -

    параллельная машина с произвольным доступом) модели, часто используемой в

    теоретических исследованиях параллельных алгоритмов, любой процессор может

    обращаться к любой ячейке памяти за одно и то же время. На практике

    масштабируемость этой архитектуры обычно приводит к некоторой форме

    иерархии памяти. Частота обращений к общей памяти может быть уменьшена за

    счет сохранения копий часто используемых данных в кэш-памяти, связанной с

    каждым процессором. Доступ к этому кэш-памяти намного быстрее, чем

    непосредственно доступ к общей памяти.

    [pic]

    Компьютеры с виртуальной общей (разделяемой) памятью (Virtual shared

    memory)

    Общая память как таковая отсутствует. Каждый процессор имеет собственную

    локальную память и может обращаться к локальной памяти других процессоров,

    используя "глобальный адрес". Если "глобальный адрес" указывает не на

    локальную память, то доступ к памяти реализуется с помощью сообщений,

    пересылаемых по коммуникационной сети.

    Примером машин с общей памятью могут служить:

    Sun Microsystems (многопроцессорные рабочие станции)

    Silicon Graphics Challenge (многопроцессорные рабочие станции)

    Sequent Symmetry

    Convex

    Cray 6400.

    Следующие компьютеры относятся к классу машин с распределенной памятью

    IBM-SP1/SP2

    Parsytec GC

    CM5 (Thinking Machine Corporation)

    Cray T3D

    Paragon (Intel Corp.)

    KSR1

    nCUBE

    Meiko CS-2

    AVX (Alex Parallel Computers)

    IMS B008

    MIMD архитектуры с распределенной памятью можно так же классифицировать по

    пропускной способности коммутирующей сети. Например, в архитектуре, в

    которой пары из процессора и модуля памяти (процессорный элемент) соединены

    сетью с топологий реш§тка, каждый процессор имеет одно и то же число

    подключений к сети вне зависимости от числа процессоров компьютера. Общая

    пропускная способность такой сети растет линейно относительно числа

    процессоров. С другой стороны в архитектуре, имеющей сеть с топологий

    гиперкуб, число соединений процессора с сетью является логарифмической

    функцией от числа процессоров, а пропускная способность сети растет

    быстрее, чем линейно по отношению к числу процессоров. В топологии клика

    каждый процессор должен быть соединен со всеми другими процессорами.

    [pic]

    Сеть с топологией 2D реш§тка(тор)

    [pic]

    Сеть с топологией 2D тор

    [pic]

    Сеть с топологией клика

    Национального Центра Суперкомпьютерных Приложений (университет шт.

    Иллинойс, Urbana-Champaign)

    MPI: The Message Passing Interface

    Название "интерфейс передачи сообщений", говорит само за себя. Это хорошо

    стандартизованный механизм для построения параллельных программ в модели

    обмена сообщениями. Существуют стандартные "привязки" MPI к языкам С/С++,

    Fortran 77/90. Существуют бесплатные и коммерческие реализации почти для

    всех суперкомпьютерных платформ, а также для сетей рабочих станций UNIX и

    Windows NT. В настоящее время MPI - наиболее широко используемый и

    динамично развивающийся интерфейс из своего класса.

    Beowulf - кластеры на базе ОС Linux

    Михаил Кузьминский

    "Открытые системы"

    На пороге тысячелетий мы имеем все шансы стать свидетелями монополизации

    компьютерной индустрии, которая может охватить как микропроцессоры, так и

    операционные системы. Конечно же, речь идет о микропроцессорах от Intel

    (Merced грозит вытеснить процессоры архитектуры RISC) и ОС от Microsoft.

    В обоих случаях успех во многом определяется мощью маркетинговой машины, а

    не только "потребительскими" свойствами выпускаемых продуктов. По моему

    мнению, компьютерное сообщество еще не осознало масштабов возможных

    последствий.

    Некоторые специалисты сопоставляют потенциальную монополизацию

    компьютерного рынка с наблюдавшимся в 70-е годы монопольным господством IBM

    - как в области мэйнфреймов, так и операционных систем. Я долгое время

    работаю с этой техникой и по мере распространения в нашей стране ОС Unix

    все больше осознаю многие преимущества операционной системы MVS

    производства IBM. Тем не менее я разделяю распространенную точку зрения,

    что подобная монополия не способствовала ускорению прогресса.

    Западные университеты, которые в свое время одними из первых перешли к

    использованию Unix, по-прежнему в своих перспективных разработках опираются

    на эту систему, причем в качестве платформы все чаще избирается Linux.

    Одной из поучительных академических разработок и посвящена эта статья.

    Linux как общественное явление

    Мы уже не удивляемся тому, что Linux cтала заметным явлением компьютерной

    жизни. В сочетании с богатейшим набором свободно распространяемого

    программного обеспечения GNU эта операционная система стала чрезвычайно

    популярна у некоммерческих пользователей как у нас, так и за рубежом. Ее

    популярность все возрастает. Версии Linux существуют не только для

    платформы Intel x86, но и для других процессорных архитектур, в том числе

    DEC Alрha, и широко используются для приложений Internet, а также

    выполнения задач расчетного характера. Одним словом, Linux стала

    своеобразной "народной операционной системой". Hельзя, впрочем, сказать,

    что у Linux нет слабых мест; одно из них - недостаточная поддержка SMР-

    архитектур.

    Самый дешевый способ нарастить компьютерные ресурсы, в том числе

    вычислительную мощность, - это построить кластер. Массивно-параллельные

    суперкомпьютеры с физически и логически распределенной оперативной памятью

    также можно рассматривать как своеобразные кластеры. Наиболее яркий пример

    такой архитектуры - знаменитый компьютер IBM SР2.

    Весь вопрос в том, что связывает компьютеры (узлы) в кластер. В "настоящих"

    суперкомпьютерах для этого используется специализированная и поэтому

    дорогая аппаратура, призванная обеспечить высокую пропускную способность. В

    кластерах, как правило, применяются обычные сетевые стандарты - Ethernet,

    FDDI, ATM или HiРРI.

    Кластерные технологии с использованием операционной системы Linux начали

    развиваться несколько лет назад и стали доступны задолго до появления

    Wolfрack для Windows NT. Так в середине 90-х годов и возник проект Beowulf.

    Герой эпической поэмы

    "Беовульф" - это скандинавский эпос, повествующий о событиях VII - первой

    трети VIII века, участником которых является одноименный герой,

    прославивший себя в сражениях. Неизвестно, задумывались ли авторы проекта,

    с кем ныне будет сражаться Beowulf (вероятно, с Windows NT?), однако

    героический образ позволил объединить в консорциум около полутора десятков

    организаций (главным образом университетов) в Соединенных Штатах. Нельзя

    сказать, что среди участников проекта доминируют суперкомпьютерные центры,

    однако кластеры "Локи" и "Мегалон" установлены в таких известных в мире

    высокопроизводительных вычислений центрах, как Лос-Аламос и лаборатория

    Sandia Министерства энергетики США; ведущие разработчики проекта -

    специалисты агентства NASA. Вообще, все без исключения кластеры, созданные

    участниками проекта, получают громкие имена.

    Кроме Beowulf, известна еще одна близкая кластерная технология - NOW. В NOW

    персональные компьютеры обычно содержат информацию о самих себе и

    поставленных перед ними задачах, а в обязанности системного администратора

    такого кластера входит формирование данной информации. Кластеры Beowulf в

    этом отношении (то есть с точки зрения системного администратора) проще:

    там отдельные узлы не знают о конфигурации кластера. Лишь один выделенный

    узел содержит информацию о конфигурации; и только он имеет связь по сети с

    внешним миром. Все остальные узлы кластера объединены локальной сетью, и с

    внешним миром их связывает только "тоненький мостик" от управляющего узла.

    Узлами в технологии Beowulf являются материнские платы ПК. Обычно в узлах

    задействованы также локальные жесткие диски. Для связи узлов используются

    стандартные типы локальных сетей. Этот вопрос мы рассмотрим ниже, сначала

    же остановимся на программном обеспечении.

    Его основу в Beowulf составляет обычная коммерчески доступная ОС Linux,

    которую можно приобрести на CD-ROM. Первое время большинство участников

    проекта ориентировались на компакт-диски, издаваемые Slackware, а сейчас

    предпочтение отдаетcя версии RedHat.

    В обычной ОС Linux можно инсталлировать известные средства

    распараллеливания в модели обмена сообщениями (LAM MРI 6.1, РVM 3.3.11 и

    другие). Можно также воспользоваться стандартом р-threads и стандартными

    средствами межпроцессорного взаимодействия, входящими в любую ОС Unix

    System V. В рамках проекта Beowulf были выполнены и серьезные

    дополнительные разработки.

    Прежде всего следует отметить доработку ядра Linux 2.0. В процессе

    построения кластеров выяснилось, что стандартные драйверы сетевых устройств

    в Linux весьма неэффективны. Поэтому были разработаны новые драйверы (автор

    большинства разработок - Дональд Бекер), в первую очередь для сетей Fast

    Ethernet и Gigabit Ethernet, и обеспечена возможность логического

    объединения нескольких параллельных сетевых соединений между персональными

    компьютерами, что позволяет из дешевых локальных сетей, обладающих более

    чем скромной скоростью, соорудить сеть с высокой совокупной пропускной

    способностью.

    Как и во всяком кластере, в каждом узле живет своя копия ядра ОС. Благодаря

    доработкам обеспечена уникальность идентификаторов процессов в рамках всего

    кластера, а не отдельных узлов, а также "удаленная доставка" сигналов ОС

    Linux.

    Кроме того, надо отметить функции загрузки по сети (netbooting) при работе

    с материнскими платами Intel РR 440FX, причем они могут применяться и для

    работы с другими материнскими платами, снабженными AMI BIOS.

    Очень интересные возможности предоставляют механизмы сетевой виртуальной

    памяти (Network Virtual Memory) или разделяемой распределенной памяти DSM

    (Distributed Shared Memory), позволяющие создать для процесса определенную

    "иллюзию" общей оперативной памяти узлов.

    Сеть - дело тонкое

    Поскольку для распараллеливания суперкомпьютерных приложений вообще, и

    кластерных в частности, необходима высокая пропускная способность и низкие

    задержки для обмена сообщениями между узлами, сетевые характеристики

    становятся параметрами, определяющими производительность кластера. Выбор

    микропроцессоров для узлов очевиден - это стандартные процессоры

    производства Intel; а вот с топологией кластера, типом сети и сетевых плат

    можно поэкспериментировать. Именно в этой области и проводились основные

    исследования.

    При анализе различных сетевых плат ПК, представленных сегодня на рынке,

    особое внимание было уделено таким характеристикам, как эффективная

    Страницы: 1, 2, 3, 4


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.