The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Кластерные технологии

   Корень / Администратору / Система / Кластерные технологии

----* Настройка СУБД PostgreSQL 13 под управлением Pacemaker/Corosync в Debian 11   Автор: Slonik  [комментарии]
  В статье расскажу про мой опыт настройки Postgresql для работы под контролем кластерной службы Pacemaker
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* История про Ceph и реплику 1+2   Автор: alex  [комментарии]
  Обратился как-то знакомый с вопросом можно ли c Ceph реализовать реплику 1+2. Было 2 сервера OSD и требовалось сделать хранилище, причём только на запись (операции чтения не больше 10 процентов, а 90 процентов это запись). В виду горького раннего опыта с данной репликой и файловым Ceph пытался отговорить его от этого, но интерес взял своё.
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Создание отказоустойчивого хранилища на базе FreeBSD или FreeNAS с использованием ZFS, HAST и CARP (доп. ссылка 1)   [комментарии]
  Начиная с FreeBSD 8.1 в состав включена поддержка системы репликации устройств хранения данных HAST (Highly Avalable STorage), позволяющей создавать высоконадежные конфигурации, в которых данные синхронизированы между несколькими узлами. HAST реализован в виде работающего на уровне пользователя демона hastd, использующего стандартный класс GEOM Gate для обработки запросов ввода/вывода. Hastd, обеспечивает синхронную репликацию блочных устройств поверх TCP/IP сетей, независимо от типа накопителя и файловой системы. HAST предусматривает возможность быстрого восстановления после сбоя, причём, при выходе из строя первичного master-узла, его функции могут быть делегированы slave-узлу. После проверки и монтирования UFS раздела или импорта ZFS пула на поврежденном узле, система автоматически синхронизирует внесенные за время восстановления изменения и продолжит работу без потери данных.
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Запуск John the Ripper в MPI-кластере на базе Ubuntu 10.04 (доп. ссылка 1)   [комментарии]
  Инструкция по превращению нескольких компьютеров в MPI-кластер и последующем запуске в этом кластере John the Ripper с целью организации эксперимента по распределенному подбору значений, соответствующих заданному хэшу (например, для проверки своих паролей на надежность). Руководство носит упрощенный характер и не охватывает некоторых вопросов по обеспечению высокой надежности и безопасности, рассматривая процесс создания кластера как проводимый в академических целях эксперимент.
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Отказоустойчивый кластер на базе OpenVZ, DRBD и Heartbeat 2   Автор: Максим Зиналь  [комментарии]
  ++ Постановка задачи и общее описание решения
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Непрерывная репликация ZFS во FreeBSD   Автор: Алексей Волков  [комментарии]
  Введение
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Настройка вычислительного кластера на базе torque/maui (доп. ссылка 1)   Автор: Sergey Korablin  [комментарии]
  Цель: объединить несколько серверов в один вычислительный кластер, предоставить пользователям простой способ запуска вычислительных задач не конфликтуя друг с другом. Для этого необходимы несколько серверов под управлением Linux(ниже описывается установка на RedHat), быстрый канал между серверами, ПО для организации очереди, вычислительное ПО умеющее распараллеливать вычисление на несколько узлов (например с помощью mpi).
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Создание отказоустойчивых хранилищ во FreeBSD, при помощи HAST (доп. ссылка 1)   Автор: mef  [комментарии]
  ++ Введение.
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Запуск виртуальных машин Qemu и KVM в распределенном хранилище Sheepdog (доп. ссылка 1)   [комментарии]
  Пример настройки Sheepdog в Fedora Linux для организации выполнения в Qemu или KVM виртуального окружения поверх распределенного на несколько машин высоконадежного хранилища Sheepdog (подробнее см. http://www.opennet.dev/27251/ )
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Организация мульти-мастер репликации двух memcached-серверов (доп. ссылка 1)   [комментарии]
  Для организации автоматической репликации данных между двумя серверами memcached (http://memcached.org/) можно использовать набор патчей http://repcached.lab.klab.org/ . Система поддерживает мульти-мастер режим и реплицирует данные в асинхронном режиме, поддерживаются все команды memcached (set, add, delete, incr/decr, flush_all, cas).
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Установка Londiste, системы асинхронной мастер-слэйв репликации PostgreSQL (доп. ссылка 1)   Автор: Sergey Konoplev  [комментарии]
  Инструкция содержит подробное пошаговое описание процесса настройки репликации на основе Londiste, системы асинхронной мастер-слэйв репликации из пакета SkyTools от Skype.
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Обработка тысяч изображений на нескольких узлах при помощи Oropo (доп. ссылка 1)   [комментарии]
  Проект Oropo (http://www.oropo.org/) позволяет разнести обработку большого объема ресурсоемких операций на несколько машин в сети, организовав временный кластер. В качестве примера рассмотрим выполнение задачи уменьшения размера нескольких тысяч изображений с высоким разрешением. Для преобразования буде использовать стандартные утилиты из пакета libjpeg - djpeg и cjpeg. В итоге для обработки одной картинки создадим простой скрипт make_smaller.sh:
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Кластер Samba с использованием CTDB   Автор: Панков Петр  [комментарии]
  ++ Введение
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Отказоустойчивое хранилище с автоматической репликацией на базе GlusterFS (доп. ссылка 1)   Автор: petrov.pash  [комментарии]
  Инструкция по создании зеркалируемого (реплицированного) между двумя машинами хранилища файлов на базе GlusterFS (http://www.gluster.com/) и Ubuntu 9.10. Добавляемый в созданное хранилище файл на первом сервере буде сразу доступен на втором и наоборот, при этом данные на каждой машине будут использоваться из локального раздела, что обеспечивает значительно более высокую производительность, по сравнению с NFS. С особенности кластерной файловой системы GlusterFS можно познакомиться на [[http://www.opennet.dev/opennews/art.shtml?num=21760 данной странице]].
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Как сделать отказоустойчивый брандмауэр с распределением нагрузки на FreeBSD (доп. ссылка 1)   Автор: Сгибнев Михаил  [комментарии]
  Задача:
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 
----* Обзор сетевых и кластерных ФС: Lustre, GFS, AFS, GFarm (доп. ссылка 1)   Автор: johnjoy  [комментарии]
 
...
[Слишком большой объем текста. Скрыт. Для просмотра см. продолжение
]
 

 Версия для печати





Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру