I recently ran across the Octopussy project which looks interesting.  I haven't tried it out yet though.  Can't say that I like the url too much either.  <a href="http://www.8pussy.org/doku.php">http://www.8pussy.org/doku.php</a><br>
--<br>David  <br><br><div class="gmail_quote">On Fri, Apr 16, 2010 at 11:38 AM,  <span dir="ltr"><<a href="mailto:rainer@ultra-secure.de">rainer@ultra-secure.de</a>></span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div><div></div><div class="h5">> Hi<br>
><br>
> I am using rsyslog to get logs to a central box and they are stored in the<br>
> format of<br>
><br>
> /<hostname>/<year>/<month>/<day>/<logfilename><br>
><br>
> I need a solution that can trawl through these directories and pick up<br>
> exceptions like failed logons and sudo usage that sort of thing.<br>
><br>
> Has anyone got any clues as to what might help to achieve this, i am<br>
> looking<br>
> into logsurfer but not sure if this handles the directory structure<br>
> nicely.<br>
><br>
> thanks for any tips<br>
<br>
</div></div>Good question.<br>
How many servers do you have to collect logs from?<br>
<br>
I'd like to hear of people who have used both Splunk and/or prelude in an<br>
environment with, say, 500<x<1000 servers, for collection of logs and can<br>
voice a few opinions.<br>
<br>
The problem, as the author recognizes, is not collection but retrieval and<br>
processing (a cron-job that deletes them periodically does not qualify as<br>
"processing"...).<br>
<br>
<br>
<br>
Rainer<br>
_______________________________________________<br>
CentOS mailing list<br>
<a href="mailto:CentOS@centos.org">CentOS@centos.org</a><br>
<a href="http://lists.centos.org/mailman/listinfo/centos" target="_blank">http://lists.centos.org/mailman/listinfo/centos</a><br>
</blockquote></div><br>