Гм, мне кажется, или Google все таки хранит много данных и использует обыкновенные ДЕШЕВЫЕ сервера?<br>Может дело в том, как организовать так хранение данных, что бы все было хорошо, а не вкидать во все большое $$ ?<br><br>
<div><span class="gmail_quote">21.08.07, <b class="gmail_sendername">Alexey Karagodov</b> <<a href="mailto:karagodov@gmail.com">karagodov@gmail.com</a>> написал(а):</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
на хранение данных вам придётся потратить n-дцать кбаксов на систему<br>хранения данных (без всяких апачей, давов, нгинх-ов и пр. на ней) и<br>использовать её по сети. <a href="http://www.sun.com">www.sun.com</a> например. (там же и ТТХ различных
<br>моделей, кто и чего и сколько может)<br>схема простая: данные - отдельно, их отдача - отдельно, их обработка -<br>отдельно. тогда будет меньше проблем с ростом.<br><br>21.08.07, Goncharov Yuri<<a href="mailto:neo@kntele.com">
neo@kntele.com</a>> написал(а):<br>> Hi all. Простите, если немножко не в тему, возможно просто используя тот же nginx я смогу решить свою задачу.<br>><br>> Есть достаточно большой проэкт.<br>> 5Тб трафика в месяц, 15 миллионов хитов в день.
<br>><br>><br>> На данный момент проэкт расположен на 3-х серверах. Далее планируется масштабируемость за счёт наращивания числа бекендов при необходимости.<br>> Во фронтенде всё "встречает" nginx - напрямую отдаёт статику, динамика уходит с ip hash на 2 upstreamа (apache+mod_php)
<br>> Для того чтобы обеспечить единый source организовано NFS-connectivity, где весь контент уложен на фронтенд (т.к графические файлы<br>> занимают 90% всего проэкта) - это NFS-server, и два бекенда - NFS-клиенты.
<br>> На данный момент проблем нет, но я не уверен в стабильности такого NFS-connectivity ввиду того, что нагрузка постоянно растёт и боюсь, что<br>> в определённый момент начнут происходить затыки именно в NFS-схеме. Как минимум,я не имею понятия об инструменте как такую NFS-схему мониторить.
<br>><br>> Какие ещё есть варианты с организацией SAN при условии что:<br>><br>> 1) Над проэктом периодически работают девелоперы и заливать исправленный контент сейчас на 3 сервера, далее на n - слишком накладно.
<br>> 2) В проэкте предусмотрена заливка файлов (медиа) через веб, где данные должны быть сохранены в виде файла на диске. Различные варианты в стиле<br>> в блоб и в базу не подходят в виду огромного кол-ва таких файлов. Приблиз порядка миллионов файлов с общим весом в 100Гб.
<br>> 3) Сохранить отказоустойчивость в случае выхода одного из серверов из строя. Тут имеет ввиду что несколько позже вместо одного фронта будет два<br>> и перед ними поставится аппаратный балансер, то есть недостатки в данной схеме отказоустойчивости ещё на уровне точки входа просьба не учитывать.
<br>> 4) В случае выведения из строя одного из участников SAN-схемы происходит синхронизация после возвращения такого участника в "жизнь".<br>><br>> Допустим варианты с rsync не пробовал, но очень верю в том, что при миллионе файлов такое работать не будет.
<br>> Про MogileFS только читал, но есть много и нехороших отзывов на предмет п.4 указанного выше.<br>><br>> Жду любые советы, рекомендации, линки. Спасибо огромное заранее..<br>><br>> --<br>> Best regards
<br>><br>> Phone +380 44 426 8812<br>> CTO KNtelecom Ukraine Ltd.<br>> ----------------------------<br>> NEO83-RIPE<br>><br>><br></blockquote></div><br>