In my experience, ext3 does not handle 500,000 files in one directory very well. This is not nginx but instead a limitation of the filesystem. I am not sure if there is a filesystem you could use which handles this problem well. Regardless, I would recommend you break up the files into subdirectories. You can segment files by filename or, if the files are number-based, numerically. For instance, say you had stock symbols:<div>
<br></div><div>aapl.html</div><div>csco.html</div><div>etc...</div><div><br></div><div>Put each in a directory based on its first letter then second letter, e.g.:</div><div><br></div><div>/a/a/aapl.html</div><div>/c/s/csco.html</div>
<div><div><div><br></div><div>JD / wuputah<br><br><div class="gmail_quote">On Sat, Jun 21, 2008 at 7:18 AM, Ss Ss &lt;<a href="mailto:lists@ruby-forum.com">lists@ruby-forum.com</a>&gt; wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Please, Could you tell me.<br>
I will have server with nginx (OS centos +php) and one directory with<br>
500 000 files (5-8mb each). Nginx would give files to other web server.<br>
Would i have problem in my case?<br>
<font color="#888888">--<br>
Posted via <a href="http://www.ruby-forum.com/" target="_blank">http://www.ruby-forum.com/</a>.<br>
<br>
</font></blockquote></div><br></div></div></div>