На главную
Инструменты
Панель оптимизатора
Новости
Реклама у нас
Обратная связь
Бесплатная доска объявлений по всей России - Do-Ska.ru
Новости сайта
15.06.2015 в 17:02
Открытия панели отпимизатора!
Апдейты поисковиков
G
o
o
gl
e
pr
16.06.2015
Я
ндекс
ТиЦ
22.03.2025
поиск
28.06.2019
каталог
16.01.2018
Витрина ссылок
[
Добавить
]
доска объявлений
подать объявление
Аквалайн Пермь
Анализ сайта
Войти
или
зарегистрироваться
Забыли пароль?
Вход в кабинет
close
Главная
Инструменты
Анализ сайта
Данный инструмент поможет Вам Выполнить анализ сайта по наиболее значимым показателям сайта.
*
URL
(пример:
qoogoo.perm.ru
)
URL
www.wdlinux.cn
(
WHOIS IP
,
WHOIS DOMAIN
)
Заголовок
WDlinux致力于Linux服务器应用解决方案,架构,优化,CDN加速管理系统,CDN软件,CDN解决方案,免费智能DNS解析系统,DNS软件,智能DNS解决方案,负载均衡,集群分流
Ключевые слова
Linux服务器应用解决方案, 架构, 性能优化.CDN加速管理系统, CDN软件, 免费智能DNS解析系统, DNS软件, 负载均衡, 集群分流 wdlinux, wdcp, wdcdn, wddns, cdn, 免费CDN系统,多节点CDN, CDN部署,负载均衡LVS,智能DNS,集群分流
Описание
Linux服务器架构,性能优化.免费CDN加速系统,CDN软件,免费智能DNS解析系统,DNS软件,负载均衡,集群分流 wdlinux,wdcp,wdcdn,wddns,cdn,免费CDN系统,多节点CDN,CDN部署,负载均衡LVS,智能DNS,集群分流
Тэг h1
(нет)
Размер страницы
17.44 Kb
Кодировка
UTF-8
IP сайта
119.146.223.143
Все сайты на IP
Скорость загрузки
6.59 Kb/s
Время загрузки
2.64 sec
Перенаправление
https://www.wdlinux.cn/
Внутренние / внешние ссылки
Анализ
Анализ контента страницы
Выполнить
Посетителей за сутки по
LI
?
Посетителей за месяц по
LI
?
Сервер сайта
119.146.223.143
Расположение датацентра
China
Сервер
nginx/1.14.2
Заработок
Вы можете зарабатывать на сайте более
150$
Постоянная ссылка на страницу
http://qoogoo.perm.ru/tools/analysis/www.wdlinux.cn
Основные показатели сайта
[
Скрыть
]
Я
ндекс ТиЦ:
0
Склей домена:
Нет
С WWW
Без WWW
Я
ндекс Ранг:
0
из
6
Я
ндекс.Каталог:
(не описан в каталоге)
Поднять ТиЦ регистрируя сайт в каталогах
G
o
o
gl
e
PageRank:
0
из
10
Alexa Traffic Rank: ?
Alexa Traffic Rank (график):
?
Счетчик Live Internet:
Общие данные сайта
[
Скрыть
]
Поддержка JavaScript отключена!
Поисковый трафик с Google
[
Скрыть
]
Backlink History (Majestic SEO)
[
Скрыть
]
Наличие сайта в каталогах
[
Скрыть
]
Я
ндекс Каталог:
(
Нет
)
Посмотреть
D
MOZ:
Посмотреть
G
o
o
gl
e
каталог:
Посмотреть
Mail.ru:
Посмотреть
Aport:
Посмотреть
Rambler Top 100:
Посмотреть
Проиндексировано страниц
[
Скрыть
]
Я
ндекс:
Посмотреть
G
o
o
gl
e
:
Посмотреть
Bing:
Посмотреть
Yahoo:
Посмотреть
Rambler:
Посмотреть
Ссылаются на сайт из
[
Скрыть
]
Я
ндекс:
Посмотреть
Сайты из
Я
-Каталога:
Посмотреть
Я
ндекс блоги:
Посмотреть
G
o
o
gl
e
:
Посмотреть
G
o
o
gl
e
блоги:
Посмотреть
Yahoo:
Посмотреть
Bing:
Посмотреть
Rambler:
Посмотреть
Я
ндекс картинки:
Посмотреть
G
o
o
gl
e
картинки:
Посмотреть
Дополнительная информация
[
Скрыть
]
В кэше Google:
Посмотреть
В кэше
Y
andex:
Посмотреть
Похожие сайты в Google:
Посмотреть
История сайта:
Посмотреть
Упоминания в Ответы@Mail.ru:
Посмотреть
Поиск плагиата:
Посмотреть
Дополнительные инструменты
[
Скрыть
]
Проверка валидности HTML:
Посмотреть
Проверка валидности CSS:
Посмотреть
Ping\Traceroute\DNS:
Посмотреть
Скорость загрузки страницы:
Посмотреть
Данные страницы
[
Скрыть
]
Ответ сервера
HTTP/1.1 200 OK Server: nginx/1.14.2 Date: Sun, 20 Apr 2025 18:14:40 GMT Content-Type: text/html Content-Length: 20860 Connection: keep-alive Vary: Accept-Encoding Last-Modified: Sun, 20 Apr 2025 18:10:01 GMT ETag: "517c-63339a90290da" Accept-Ranges: bytes Cache-Control: max-age=1209600 Expires: Sun, 04 May 2025 18:14:40 GMT X-XSS-Protection: 1; mode=block
Файл robots.txt
, размер:
1.54 Kb
, проверить на
Яндекс.Вебмастер
# $Id: robots.txt,v 1.9.2.2 2010/09/06 10:37:16 goba Exp $ # # robots.txt # # This file is to prevent the crawling and indexing of certain parts # of your site by web crawlers and spiders run by sites like Yahoo! # and Google. By telling these "robots" where not to go on your site, # you save bandwidth and server resources. # # This file will be ignored unless it is at the root of your host: # Used: http://example.com/robots.txt # Ignored: http://example.com/site/robots.txt # # For more information about the robots.txt standard, see: # http://www.robotstxt.org/wc/robots.html # # For syntax checking, see: # http://www.sxw.org.uk/computing/robots/check.html User-agent: * Crawl-delay: 10 # Directories Disallow: /includes/ Disallow: /misc/ Disallow: /modules/ Disallow: /profiles/ Disallow: /scripts/ Disallow: /themes/ # Files Disallow: /CHANGELOG.txt Disallow: /cron.php Disallow: /INSTALL.mysql.txt Disallow: /INSTALL.pgsql.txt Disallow: /install.php Disallow: /INSTALL.txt Disallow: /LICENSE.txt Disallow: /MAINTAINERS.txt Disallow: /update.php Disallow: /UPGRADE.txt Disallow: /xmlrpc.php # Paths (clean URLs) Disallow: /admin/ Disallow: /comment/reply/ Disallow: /contact/ Disallow: /logout/ Disallow: /node/add/ Disallow: /search/ Disallow: /user/register/ Disallow: /user/password/ Disallow: /user/login/ # Paths (no clean URLs) Disallow: /?q=admin/ Disallow: /?q=comment/reply/ Disallow: /?q=contact/ Disallow: /?q=logout/ Disallow: /?q=node/add/ Disallow: /?q=search/ Disallow: /?q=user/password/ Disallow: /?q=user/register/ Disallow: /?q=user/login/