Давайте сказок сочинять не будем. Все качалки сошли с ума? Ну за свой wget я ручаюсь. :) Его ответ я привел. Проблема существует и без limit_req.<br><br>Антон.<br><br><div class="gmail_quote">2009/4/2 Maxim Dounin <span dir="ltr">&lt;<a href="mailto:mdounin@mdounin.ru">mdounin@mdounin.ru</a>&gt;</span><br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hello!<br>
<div class="im"><br>
On Thu, Apr 02, 2009 at 01:52:14PM +0200, Anton Kuznetsov wrote:<br>
<br>
&gt; Устал уже повторять фундамент. :)<br>
&gt; Раздаю большие файлы, на больших скоростях. FreeBSD &amp; nginx<br>
&gt; имею такую постоянную болезнь по логам - обрывы связи с кусками примерно по<br>
&gt; 64к:<br>
&gt;<br>
&gt; 81.27.246.58 - - [02/Apr/2009:15:25:52 +0400] GET<br>
&gt; /film/sluzhebnyj.roman.1.avi HTTP/1.0 ZZ 200 88334336<br>
&gt; 92.124.3.154 - - [02/Apr/2009:15:25:54 +0400] GET<br>
&gt; /film/moskva.slezam.ne.verit.avi HTTP/1.0 ZZ 206 63489<br>
&gt; 92.124.3.154 - - [02/Apr/2009:15:25:56 +0400] GET<br>
&gt; /film/moskva.slezam.ne.verit.avi HTTP/1.0 ZZ 206 63779<br>
&gt; 77.51.24.79 - - [02/Apr/2009:15:25:58 +0400] GET<br>
&gt; /multiki/zolotoj.kluchik.avi HTTP/1.0 ZZ 206 63706<br>
&gt; 77.52.122.248 - - [02/Apr/2009:15:26:02 +0400] GET<br>
&gt; /multiki/bolek.i.lolek.zlote.miasto.inkow.avi HTTP/1.1 XX 206 64999<br>
&gt; 194.154.66.131 - - [02/Apr/2009:15:26:04 +0400] GET<br>
&gt; /filmiki/prikljuchenija.elektronika.1.avi HTTP/1.1 ZZ 206 2321244<br>
&gt; 87.247.1.93 - - [02/Apr/2009:15:26:14 +0400] GET<br>
&gt; /filmiki/prikljuchenija.elektronika.2.avi HTTP/1.1 ZZ 206 62239<br>
&gt; 217.117.76.55 - - [02/Apr/2009:15:26:14 +0400] GET<br>
&gt; /film/sledstvie.vedut.znatoki.21.2.avi HTTP/1.1 XX 206 60590<br>
<br>
</div>Большинство приведённых строк - 206, т.е. ответ на запрос<br>
диапазона файла.  Чтобы понятно был там реально обрыв или это<br>
качалка так попросила - надо логгировать $http_range.<br>
<div class="im"><br>
&gt; Хочу чтобы все строчки в логе были как первая - человек взял и скачал фильм<br>
&gt; - ответ 200, размер - почти гиг и все счастливы. Не знаю как оценить<br>
&gt; количество тех кому удается скачать за раз - их записи в логе тонут в<br>
&gt; обрывках по 64к. Я уже установил req_limit как временное решение, до этого<br>
&gt; лог был похож на ужас летящий на крыльях ночи - десятки адресов на хорошей<br>
&gt; скорости выкачивают по 64к в секунду или даже по несколько, т.е. канал им<br>
&gt; позволяет качать хорошо. Бывают куски и побольше, 120к, вот в примере у кого<br>
&gt; 2м, но чаще всего 64к. Это происходит постоянно. Даже когда нагрузка на<br>
&gt; винчестеры, скорость и общее количество коннектов - в разы меньше от<br>
&gt; пиковой.<br>
&gt; В чем проблема? Может буфера в системе/nginx подкрутить надо?<br>
&gt; По-моему когда-то давно такое было и на апаче. :(<br>
&gt;<br>
&gt; Добавлю еще один факт. Недавно удалось побыть таким неудачником у себя дома.<br>
&gt; Взял из лога урл имени 64к - даю wget-у - бац, обрыв! еще раз, еще...<br>
&gt; 03:42:52 (16.27 KB/s) - Read error at byte 33329/1465085952 (No such file or<br>
&gt; directory). Retrying.<br>
&gt; В жизни такого не было. Беру другой урл - качает! Снова пробую первый -<br>
&gt; обрывы! 100% диагностика. На следующий день попробовал - все хорошо.<br>
<br>
</div>Если используется limit_req - надо либо накатить патч (пробегал<br>
тут давеча), либо использовать limit_req ... nodelay.<br>
<font color="#888888"><br>
Maxim Dounin<br>
<br>
</font></blockquote></div><br><br clear="all"><br>-- <br>Best regards,<br>Anton Kuznetsov.       <br>