<br><br><div class="gmail_quote">On Wed, Jul 8, 2009 at 2:27 AM, oooooooooooo ooooooooooooo <span dir="ltr"><<a href="mailto:hhh735@hotmail.com">hhh735@hotmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>
Hi,<br>
<br>
I have a program that writes lots of files to a directory tree (around 15 Million fo files), and a node can have up to 400000 files (and I don't have any way to split this ammount in smaller ones). As the number of files grows, my application gets slower and slower (the app is works something like a cache for another app and I can't redesign the way it distributes files into disk due to the other app requirements).<br>

<br>
The filesystem I use is ext3 with teh following options enabled:<br>
<br>
Filesystem features:      has_journal resize_inode dir_index filetype needs_recovery sparse_super large_file<br>
<br>
Is there any way to improve performance in ext3? Would you suggest another FS for this situation (this is a prodution server, so I need a stable one) ?<br>
</blockquote><div><br>I saw this article some time back.<br><br><a href="http://www.linux.com/archive/feature/127055">http://www.linux.com/archive/feature/127055</a><br> </div></div>I've not implemented it, but from past experience, you may lose some performance initially, but the database fs performance might be more consistent as the number of files grow.<br>