Здравствуйте,<br><br>я старался следить за рассылкой извините если вопрос использование нескольки мемкешей уже обсуждался. На данный момент насколько я понимаю не реализованы пулы memcached серверов, также мы знаем что memcached использует распределение нагрузки на уровне клиентской библиотеки. Представим себе такую схему - 2 вебсервера, на каждом по локальному memcached и копия приложения либо выделенный сервер с приложением. Приложение например PHP или Ruby работает с пулом мемкешей и пишет и на server1 и на server2 в memcached какой-то кеш, который nginx может выдавать напрямую либо использовать через SSI
<br><br>Проблема в том что nginx читать умеет только из одного memcached - как в этой ситуации реализовать правильную работу с кешем, тоесть чтоб проверялись оба memcached и локальный, и второй (удалённый по сути)?<br><br>
Для двух серверов можно использовать обработчик 404 ошибки - попробуй прочесть из локального, если мол ошибка то иди читай из удалённого, если и там ошибка то proxy_pass / fastcgi_pass на приложение. А как быть с ростом количества серверов? Есть какое-то более удобное/практичное решение проблемы?
<br><br>Заранее благодарен,<br>TDz<br>