Nhờ mọi người xử lý giúp vấn đề thông báo Url bị chặn bởi robots.txt

Thảo luận trong 'SEO Onpage - Tối Ưu Website' bắt đầu bởi matcat0411, 11/4/17.

  1. matcat0411

    matcat0411 New Member

    Bài viết:
    12
    Đã thích:
    1
    Website bên em bị thông báo cảnh báo "Sơ đồ trang web chứa url bị chặn bởi robots.txt" mà em kiểm tra file robot.txt thì nó thế này
    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Allow: /wp-admin/admin-ajax.php
    Allow: /wp-admin/images/*
    Disallow: /plugin/
    Disallow: /modules/
    Disallow: /author/
    Disallow: /search?q=*
    Disallow: *?replytocom

    Allow: /*.js$
    Allow: /*.css$
    Mã:
    Sitemap: http://bongda.pro/sitemap_index.xml
    Nhờ mọi người xem giúp em lại xem tạo thế này ổn chưa vì hiện tại vẫn bị thông báo lỗi vậy, sitemap cũng bị cảnh báo luôn.
     
    Đang tải...
  2. hoangkiso

    hoangkiso Administrator

    Bài viết:
    82
    Đã thích:
    54
    Bạn đặt thử như thế này 1 thời gian xem sao:
    Mã:
    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    Allow: /wp-admin/images/*
    Allow: /
    Sitemap: http://bongda.pro/sitemap_index.xml
    Nếu vẫn bị chặn thì bạn kiểm tra xem firewall có bị chặn robot không
     
  3. TriHuu

    TriHuu New Member

    Bài viết:
    1
    Đã thích:
    0
    Theo nội dung file robot thì nó báo lỗi chặn author
     
Đang tải...
Đang tải...