А почему?<br><br><div class="gmail_quote">18 апреля 2009 г. 14:43 пользователь Sergey Shepelev <span dir="ltr"><<a href="mailto:temotor@gmail.com">temotor@gmail.com</a>></span> написал:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Может лучше писать HTTP бекенды вместо FastCGI?<br>
<br>
2009/4/17 Denis F. Latypoff <<a href="mailto:denis@gostats.ru">denis@gostats.ru</a>>:<br>
<div><div></div><div class="h5">> Hello Maxim,<br>
><br>
> Saturday, April 18, 2009, 12:38:42 AM, you wrote:<br>
><br>
>> Hello!<br>
><br>
>> On Fri, Apr 17, 2009 at 11:48:08PM +0700, Denis F. Latypoff wrote:<br>
><br>
>>> Hello Maxim,<br>
>>><br>
>>> Thursday, April 16, 2009, 1:23:11 AM, you wrote:<br>
>>><br>
>>> > Hello!<br>
>>><br>
>>> > On Wed, Apr 15, 2009 at 01:09:30PM +0100, Valery Kholodkov wrote:<br>
>>><br>
>>> >><br>
>>> >> ----- "Maxim Dounin" <<a href="mailto:mdounin@mdounin.ru">mdounin@mdounin.ru</a>> wrote:<br>
>>> >><br>
>>> >> > У меня есть работающий прототип поддержки keepalive для fastcgi.<br>
>>> >> > Если очень хочется потестировать - могу поделиться патчами.<br>
>>> >> ><br>
>>> >> > Но надо понимать что на сколько-нибудь тяжёлых fastcgi запросах<br>
>>> >> > это не приведёт к заметному ускорению, и описанные проблемы скорее<br>
>>> >> > всего не вылечит (а может быть и усугубит).<br>
>>> >><br>
>>> >> Вне зависимости от того, кто что про это думает, код в студию!<br>
>>><br>
>>> > Патчи прилагаются, накладывать по очереди:<br>
>>><br>
>>> > patch-nginx-proxy-flush-2.txt<br>
>>> > patch-nginx-proxy-length-2.txt<br>
>>> > patch-nginx-keepalive.txt<br>
>>><br>
>>> > Всё должно нормально накладываться на 0.7.51. Первые два патча<br>
>>> > уже публиковались ранее, и вообще сами по себе полезные. Третий<br>
>>> > грязненький, но я честно предупреждал что это лишь прототип. :)<br>
>>><br>
>>> > Использовать вместе со свежей версией ngx_http_upstream_keepalive,<br>
>>> > берут тут:<br>
>>><br>
>>> > <a href="http://mdounin.ru/hg/ngx_http_upstream_keepalive/" target="_blank">http://mdounin.ru/hg/ngx_http_upstream_keepalive/</a><br>
>>><br>
>>> > При этом при сборке nginx'а надо определить<br>
>>> > NGX_UPSTREAM_KEEPALIVE_PATCHED, иначе работать будет как раньше<br>
>>> > (т.е. применимо только для memcached'а). Как-то так:<br>
>>><br>
>>> > ./configure --with-cc-opt="-D NGX_UPSTREAM_KEEPALIVE_PATCHED" \<br>
>>> > --add-module=/path/to/ngx_http_upstream_keepalive<br>
>>><br>
>>> > Maxim Dounin<br>
>>><br>
>>> это моё (время в GMT):<br>
>>><br>
>>> [16:37:27] [debug] app_server.c:278:server_accept(): [21] accepted from 192.168.61.30<br>
>>> [16:37:27] [debug] socket.c:83:socket_non_block(): [21] set NONBLOCK<br>
>>> [16:37:27] [debug] app_server.c:77:app_server_read(): [21] read 1344 bytes<br>
>>> [16:37:27] [debug] app_server.c:99:app_server_read(): [21] recv(): Resource temporarily unavailable<br>
>>> [16:37:27] [debug] fastcgi.c:617:fastcgi_request(): FASTCGI_VERSION: 1<br>
>>> [16:37:27] [debug] fastcgi.c:637:fastcgi_request(): FASTCGI_TYPE: FASTCGI_BEGIN_REQUEST<br>
>>> [16:37:27] [debug] fastcgi.c:664:fastcgi_request(): FASTCGI_REQUEST_ID_HI: 0<br>
>>> [16:37:27] [debug] fastcgi.c:673:fastcgi_request(): FASTCGI_REQUEST_ID_LO: 1<br>
>>> [16:37:27] [debug] fastcgi.c:692:fastcgi_request(): FASTCGI_CONTENT_LENGTH_HI: 0<br>
>>> [16:37:27] [debug] fastcgi.c:701:fastcgi_request(): FASTCGI_CONTENT_LENGTH_LO: 8<br>
>>> [16:37:27] [debug] fastcgi.c:710:fastcgi_request(): FASTCGI_PADDING_LENGTH: 0<br>
>>> [16:37:27] [debug] fastcgi.c:719:fastcgi_request(): FASTCGI_RESERVED: 0<br>
>>> [16:37:27] [debug] fastcgi.c:761:fastcgi_request(): FASTCGI_DATA: 8 bytes left<br>
>>> [16:37:27] [debug] fastcgi.c:151:fastcgi_process_begin_request(): FASTCGI_ROLE_HI: 0<br>
>>> [16:37:27] [debug] fastcgi.c:160:fastcgi_process_begin_request(): FASTCGI_ROLE_LO: 1<br>
>>> [16:37:27] [debug] fastcgi.c:184:fastcgi_process_begin_request(): FASTCGI_FLAGS: 1<br>
>>><br>
>>> то бишь - FCGI_KEEP_CONN<br>
>>><br>
>>> это nginx:<br>
>>><br>
>>> 2009/04/17 23:37:27 [debug] 28959#0: *54 http writer done: "/game.json?"<br>
>>> 2009/04/17 23:37:27 [debug] 28959#0: *54 http finalize request: 0, "/game.json?"<br>
>>> 2009/04/17 23:37:27 [debug] 28959#0: *54 event timer del: 5: 3035726014<br>
>>> 2009/04/17 23:37:27 [debug] 28959#0: *54 set http keepalive handler<br>
>>> 2009/04/17 23:37:27 [debug] 28959#0: *54 http close request<br>
>>><br>
>>> ну и в моем самопальном сервере:<br>
>>><br>
>>> [16:37:27] [debug] server.c:182:server_write(): [21] written 16232<br>
>>> bytes of 16232<br>
>>><br>
>>> дальше добавляю fd:21 в событие READ, якобы для следующего запроса и<br>
>>> получаю:<br>
>>><br>
>>> [16:37:27] [notice] server.c:84:server_read(): [21] recv(): client<br>
>>> prematurely closed connection<br>
>>> [16:37:27] [debug] socket.c:72:socket_close(): [21] closed<br>
><br>
>> Just for record:<br>
><br>
>> Соединение закрыто nginx'ом, ибо не активирован upstream keepalive. Не<br>
>> забываем прописывать<br>
><br>
>> upstream {<br>
>> server ...<br>
>> keepalive <сколько надо>;<br>
>> }<br>
><br>
>> В README к ngx_http_upstream_keepalive всё написано с<br>
>> подробностями.<br>
><br>
>> Ну и вообще говоря закрытое сервером соединение - это нормально,<br>
>> FCGI_KEEP_CONN как раз и говорит приложению что сервер это сделает<br>
>> сам когда надо будет.<br>
><br>
> ага, учтем.<br>
><br>
> в общем померялся,<br>
><br>
> Ядро: 2.6.28.4<br>
> ДДОС: ab -k -c 10000 -n 500000 -p ./post.js (у мну отдавалка JSON)<br>
><br>
> 1) Requests per second: 1726.60 [#/sec] (mean)<br>
> 2) Requests per second: 948.40 [#/sec] (mean)<br>
><br>
> использовались три машины (досилка, nginx, и fastcgi)<br>
><br>
> Предлагаю серьезно подумать над поддержкой keepalive для fastcgi.<br>
><br>
>> Maxim Dounin<br>
><br>
> --<br>
> Best regards,<br>
> Denis mailto:<a href="mailto:denis@gostats.ru">denis@gostats.ru</a><br>
><br>
><br>
><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>С уважением, Борис Долгов.<br>icq 77556665<br>e-mail <a href="mailto:boris@dolgov.name">boris@dolgov.name</a><br>