After a little more research, it looks like the php-cgi processes that are being proxied to by nginx may be the problem.&nbsp; It looks like the php-cgi processes had a lot of files left open.<br><br>I ran `lsof | wc -l` and the result was 139566<br>
<br>After a restart of the php-cgi processes, the result was only 12045<br><br><div class="gmail_quote">On Wed, Apr 30, 2008 at 10:46 PM, Davy Campano &lt;<a href="mailto:dcampano@gmail.com">dcampano@gmail.com</a>&gt; wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div><div></div><div class="Wj3C7c">Davy Campano &lt;dcampano@...&gt; writes:<br>
<br>
&gt;<br>
&gt; I&#39;m getting a &quot;Too many open files in system&quot; error after running for about 10<br>
minutes.&nbsp; I&#39;m in the process of testing out nginx and it&#39;s a pretty busy server<br>
doing around 200 requests/sec.&nbsp; My current open file limit is 131072.&nbsp; Does<br>
anyone know a safe amount to set this to for a 32-bit linux system with 6GB ram?<br>
<br>
</div></div>ulimit -n actually returns 1024, i&#39;m thinking this should be higher<br>
<br>
cat /proc/sys/fs/file-max &nbsp; returns 131072<br>
<br>
<br>
<br>
<br>
<br>
</blockquote></div><br>