Robots.txt jest wizualnym edytorem plików Robot Exclusion i oprogramowanie analizatora dziennika. Pozwala to użytkownikowi na szybkie i łatwe tworzenie plików robots.txt wymagane do zlecić roboty, które są częściami stronie internetowej nie mogą być indeksowane i wprowadzone do przeszukiwania przez ogół społeczeństwa internetowej, a następnie zidentyfikować pająki, które nie trzymać się tych instrukcji. Program zapewnia użytkownikowi sposób, aby zalogować się na swoim FTP lub lokalnego serwera sieciowego, a następnie wybrać dokumenty i katalogi, które nie mają być wykonane do przeszukiwania. Za pomocą tego programu będziesz w stanie wizualnie generować przemysłu standardowych plików robots.txt; rozpoznać szkodliwe i niepożądane pająki i zakaz ich z Twojej strony; bezpośrednie roboty indeksujące wyszukiwarki do odpowiednich stron dla witryn wielojęzycznych; utrzymać pająki z wrażliwych i prywatnych obszarów swojej stronie internetowej; śledzenia wizyt Pająk i więcej. Darmowe program`s aktualizacje i uaktualnienia nieograniczonego w czasie; . Nieograniczona ilość stron internetowych do pracy z
Wymagania :
Windows 98 / Me / NT / 2000 / XP / 2003 Server
Komentarze nie znaleziono