No pokud se roboti dokážou dostat do adresářové struktury přímo, tak je asi zřejmě něco špatně na straně hostingu - do FTP by se neměli dostat ani omylem a v robots.txt mají procházení defaultně zakázáno.
To, že jede web na joomle poznají roboti podle toho, že v metatagu "generator" detekují, že jde o Joomlu. To lze změnit např. v komponentě Akeeba Admin Tools nebo přímo v přepsání v šabloně.
Další možností, jak roboti detekují joomlu nebo např. WordPress je, že testují standardní url - např: /administrator/ nebo u WP je to /wp-admin/ - pokud to robotu vrátí HTTP code 200, tak je doma a už pak ví, co dělat. Toto by mělo jít taky ošetřit přes Akeeba Admin Tools, kde se dá změnit adresa do administrace nebo přidat parametr, bez kterého se to nespustí.
Poslední možností jak bloknout roboty, pokud to web umožňuje a nepočítá se s jeho provozem pro jinou cílovou skupinu, než je třeba Česká republika, je blokování přístupu ze zahraničí pomocí GeoIP blokace.