เครื่องมือสร้าง robots.txt
สร้างไฟล์ robots.txt ที่พร้อมใช้งานสำหรับ search engine พร้อมตรวจสอบคำสั่งก่อนนำไปเผยแพร่ สร้างกฎทั่วไปและกฎเฉพาะสำหรับบอท เพิ่มคำแนะนำ sitemap และ crawl hints รวมถึงตรวจจับข้อผิดพลาดที่พบบ่อย เช่น การขาดกลุ่ม user-agent, URL ของ sitemap ไม่ถูกต้อง หรือรูปแบบ disallow ที่กว้างเกินไป
ตัวบล็อกโฆษณาของคุณทำให้เราไม่สามารถแสดงโฆษณาได้
MiniWebtool ให้ใช้งานฟรีเพราะมีโฆษณา หากเครื่องมือนี้ช่วยคุณได้ โปรดสนับสนุนเราด้วย Premium (ไม่มีโฆษณา + เร็วขึ้น) หรืออนุญาต MiniWebtool.com แล้วรีโหลดหน้าเว็บ
- หรืออัปเกรดเป็น Premium (ไม่มีโฆษณา)
- อนุญาตโฆษณาสำหรับ MiniWebtool.com แล้วรีโหลด
เกี่ยวกับ เครื่องมือสร้าง robots.txt
ไฟล์ robots.txt บอก crawler ว่าส่วนใดของไซต์ที่บอทสามารถดึงข้อมูลได้ ส่วนใดที่ควรอยู่นอกคิวการรวบรวมข้อมูล และ XML sitemap อยู่ที่ไหน เพื่อการมองเห็นในด้าน SEO และภูมิศาสตร์ เป้าหมายไม่ใช่การบล็อกทุกอย่างที่เสี่ยงโดยค่าเริ่มต้น แต่เป้าหมายคือการปกป้องเส้นทางที่มีมูลค่าต่ำ ประหยัดงบประมาณการรวบรวมข้อมูล (crawl budget) สำหรับหน้าหลัก และทำให้ไฟล์สอดคล้องกับสิ่งที่เป็นสาธารณะจริงๆ บนโดเมน นโยบาย robots.txt ที่มีประโยชน์มักระบุส่วนที่เป็นรูปธรรม เช่น โฟลเดอร์ผู้ดูแลระบบ, ขั้นตอนการชำระเงิน, URL การค้นหาภายใน, ตัวกรองรายละเอียด หรือบล็อกเฉพาะสำหรับ staging มากกว่าแค่ "การตั้งค่า SEO" ที่คลุมเครือ
วิธีใช้งาน
- เลือกโหมดสร้างหรือตรวจสอบ ใช้ `สร้าง robots.txt` เพื่อสร้างไฟล์ใหม่จากอินพุตที่มีโครงสร้าง หรือสลับไปที่ `ตรวจสอบ robots.txt ที่มีอยู่` หากคุณมีฉบับร่างหรือไฟล์จริงอยู่แล้ว
- ป้อนกฎการรวบรวมข้อมูลและรายละเอียด sitemap เพิ่ม URL ของไซต์สาธารณะ, `User-agent` หลักของคุณ, เส้นทาง allow หรือ disallow หนึ่งรายการต่อบรรทัด และส่วนเฉพาะบอทหรือ URL sitemap เพิ่มเติมที่คุณต้องการ
- สร้างรายงาน เรียกใช้เครื่องมือเพื่อสร้างไฟล์สุดท้าย ตรวจสอบกลุ่ม crawler ที่วิเคราะห์ได้ และตรวจสอบคำเตือนสำหรับรูปแบบที่เสี่ยง เช่น สินทรัพย์ที่ถูกบล็อก หรือ URL sitemap ที่ไม่สมบูรณ์
- เผยแพร่หลังจากตรวจสอบแล้วเท่านั้น คัดลอกผลลัพธ์เมื่อกฎสะท้อนถึงความตั้งใจในการรวบรวมข้อมูลจริงของคุณ จากนั้นนำไฟล์ไปไว้ที่ `/robots.txt` บนโฮสต์จริงและทดสอบ URL ที่ติดตั้ง
กลยุทธ์การใช้คำสั่งและข้อผิดพลาดทั่วไป
| คำสั่งหรือรูปแบบ | เมื่อใดที่ช่วยได้ | สิ่งที่มักจะผิดพลาด |
|---|---|---|
User-agent: * |
สร้างชุดกฎสากลสำหรับบอทส่วนใหญ่เมื่อไม่จำเป็นต้องมีการจัดการพิเศษ | มีการเพิ่มบรรทัด `Allow` และ `Disallow` ก่อนกำหนดกลุ่ม user-agent ใดๆ ซึ่งทำให้ความชัดเจนของตัววิเคราะห์ลดลง |
Disallow: /search |
มีประโยชน์สำหรับการบล็อกหน้าการค้นหาภายในไซต์ที่สร้างชุด URL ที่ซ้ำซ้อนและมีเนื้อหาน้อย | การบล็อกหน้าหมวดหมู่สาธารณะหรือหน้าผลิตภัณฑ์โดยอุบัติเหตุ เนื่องจากรูปแบบเส้นทางกว้างกว่าที่ตั้งใจไว้ |
Sitemap: https://example.com/sitemap.xml |
ช่วยให้ crawler ค้นพบ URL หลักและเนื้อหาใหม่ได้เร็วขึ้น | การใช้เส้นทางสัมพัทธ์หรือ URL sitemap ของ staging ที่ล้าสมัยในสภาพแวดล้อมจริง |
Crawl-delay |
บางครั้งถูกเพิ่มสำหรับ crawler ที่ระบุว่ารองรับการหน่วงเวลาคำขอ | การทึกทักเอาเองว่า Google ปฏิบัติตาม Google จะเพิกเฉยต่อ `Crawl-delay` ดังนั้นมันจึงไม่ใช่กลไกควบคุมอัตราสากล |
Disallow: /assets/js/ |
ไม่ค่อยจำเป็นสำหรับไซต์สาธารณะทั่วไป | การบล็อกทรัพยากรที่ใช้ในการประมวลผลหน้าเว็บ ซึ่งโปรแกรมค้นหาใช้เพื่อทำความเข้าใจเค้าโครง ฟังก์ชันการทำงาน และคุณภาพของหน้า |
กรณีการใช้งานจริง
ในไซต์ WordPress กฎทั่วไปคือการปฏิเสธ `/wp-admin/` ในขณะที่อนุญาต `/wp-admin/admin-ajax.php` เพราะนั่นจะทำให้หน้าผู้ดูแลระบบส่วนใหญ่อยู่นอกเส้นทางการรวบรวมข้อมูลโดยไม่บล็อกเอนด์พอยต์ที่จำเป็นต้องใช้บ่อยๆ ในไซต์อีคอมเมิร์ซ robots.txt มักใช้เพื่อจำกัดการสิ้นเปลืองทรัพยากรจากการรวบรวมข้อมูลหน้าตะกร้าสินค้า, พื้นที่บัญชีผู้ใช้, ขั้นตอนการชำระเงิน, การนำทางแบบละเอียด หรือหน้าผลลัพธ์ภายในที่เกิดจากพารามิเตอร์การจัดเรียงและตัวกรอง ในไซต์ staging การปฏิเสธทั้งไซต์ชั่วคราวเป็นเรื่องที่เหมาะสม แต่ควรถูกเอาออกก่อนการเปิดตัวและตรวจสอบอีกครั้งหลังจากการเปลี่ยน DNS หรือการติดตั้งใหม่
ตัวตรวจสอบยังมีประโยชน์เมื่อได้รับไฟล์ต่อมาจากทีมอื่น โดยสามารถจับประเด็นเล็กๆ น้อยๆ เช่น บรรทัด sitemap ที่ไม่ใช่ URL แบบสมบูรณ์, คำสั่ง `Host` ที่ผิดรูปแบบ หรือค่า `Crawl-delay` ที่เขียนเป็นข้อความแทนที่จะเป็นตัวเลข รายละเอียดเหล่านี้มีความสำคัญเพราะไฟล์ robots.txt นั้นเรียบง่าย แต่ความผิดพลาดในระบบจริงก็มักจะเป็นเรื่องง่ายๆ เช่นกัน
สิ่งที่ Robots.txt ไม่ได้ทำ
Robots.txt เป็นไฟล์จัดการการรวบรวมข้อมูล ไม่ใช่ระบบควบคุมการเข้าถึงและไม่ใช่สวิตช์รับประกันการนำออกจากดัชนี หาก URL ถูกบล็อกแต่มีการลิงก์มาจากที่อื่น โปรแกรมค้นหาอาจยังคงแสดง URL นั้นในผลการค้นหาโดยไม่ได้รวบรวมข้อมูลเนื้อหาทั้งหมด เอกสารที่ละเอียดอ่อน, เครื่องมือผู้ดูแลระบบ และสภาพแวดล้อมส่วนตัวควรได้รับการปกป้องด้วยการยืนยันตัวตน, การจำกัดเครือข่าย หรือกลยุทธ์ noindex ที่ชัดเจนในหน้าที่รวบรวมข้อมูลได้ ความแตกต่างนี้เป็นหนึ่งในความเข้าใจผิดที่พบบ่อยที่สุดในการสนทนาเรื่อง Technical SEO
คำถามที่พบบ่อย (FAQ)
ไฟล์ robots.txt สำหรับเว็บไซต์สาธารณะทั่วไปควรประกอบด้วยอะไรบ้าง?
ไฟล์ที่ใช้งานจริงที่เหมาะสมมักจะเริ่มต้นด้วยกลุ่ม User-agent, บล็อกเฉพาะเส้นทางที่มีมูลค่าต่ำหรือเป็นส่วนตัว เช่น พื้นที่ผู้ดูแลระบบ, หน้าค้นหาภายใน, ตะกร้าสินค้า หรือหน้าบัญชีผู้ใช้ และรวม URL ของ sitemap พร้อมโปรโตคอลและชื่อโฮสต์ที่ครบถ้วน ไซต์สาธารณะส่วนใหญ่ไม่ควรบล็อก CSS, JavaScript หรือโฟลเดอร์เนื้อหาหลัก
robots.txt ป้องกันไม่ให้หน้าถูกทำดัชนี (index) หรือไม่?
ไม่ ไม่ใช่ด้วยตัวมันเอง Robots.txt บอก crawler ว่าไม่ต้องดึงข้อมูลอะไร แต่ URL ที่ถูกบล็อกยังสามารถถูกทำดัชนีได้จากลิงก์ภายนอกหรือสัญญาณที่พบก่อนหน้านี้ หากเป้าหมายที่แท้จริงของคุณคือการควบคุมดัชนี คุณต้องใช้วิธีที่ออกแบบมาเพื่อจุดประสงค์นั้น เช่น noindex ในหน้าที่รวบรวมข้อมูลได้ หรือการยืนยันตัวตนสำหรับทรัพยากรส่วนตัว
ฉันควรเพิ่มบรรทัด sitemap ใน robots.txt หรือไม่?
โดยปกติแล้วควรเพิ่ม คำสั่ง Sitemap: เป็นคำแนะนำที่สำคัญสำหรับ crawler และเป็นนิสัยที่ดีสำหรับไซต์ขนาดใหญ่ ไซต์หลายภาษา หรือไซต์ที่มีการอัปเดตบ่อย ให้ใช้ URL แบบสมบูรณ์แทนเส้นทางสัมพัทธ์เพื่อให้สัญญาณมีความชัดเจน
ทำไม crawl-delay ถึงถูกแจ้งเตือนในรายงาน?
Crawl-delay ไม่ได้รับการสนับสนุนอย่างสม่ำเสมอในโปรแกรมค้นหาหลักๆ crawler บางตัวอาจจดจำได้ แต่ Google ไม่รองรับ เครื่องมือนี้จึงแจ้งเตือนเพื่อให้คุณทราบว่าควรใช้เป็นคำสั่งเฉพาะกลุ่มบอท ไม่ใช่การตั้งค่าอัตราการรวบรวมข้อมูลสากล
อ้างอิงเนื้อหา หน้าหรือเครื่องมือนี้ว่า:
"เครื่องมือสร้าง robots.txt" ที่ https://MiniWebtool.com/th/เครื่องมือสร้าง-robots.txt/ จาก MiniWebtool, https://MiniWebtool.com/
โดยทีมงาน miniwebtool อัปเดตเมื่อ: 2026-03-09
เครื่องมืออื่นๆ ที่เกี่ยวข้อง:
เครื่องมือสำหรับเว็บมาสเตอร์:
- เครื่องคิดเลข CPC
- เครื่องคำนวณ CPM
- CSS Compressor
- เครื่องสร้างฟาวิคอน ใหม่
- เครื่องคำนวณ Google AdSense
- เครื่องสร้าง cron job
- เครื่องสร้างนิพจน์ crontab ใหม่
- คอมเพรสเซอร์ HTML
- ตัวแปลง HTML เป็นข้อความ แนะนำ
- เครื่องตรวจสอบความหนาแน่นของคำหลัก ใหม่
- เครื่องสร้างตาราง Markdown
- เครื่องสร้างเมตาแท็ก
- เครื่องลบเครื่องหมายคำพูดอัจฉริยะ
- ตัวสร้าง URL Slug
- เครื่องคำนวณค่าหน้า
- เครื่องคำนวณมูลค่าผู้เข้าชม
- ตัวคำนวณสิทธิ์ Unix (chmod)
- ตัวเข้ารหัส/ถอดรหัส HTML Entity
- ตัวสร้าง Lorem Ipsum ใหม่
- Escape Unescape สตริง JSON
- เครื่องแปลง cURL เป็น JSON ใหม่
- ตัวจัดรูปแบบ SQL ใหม่
- เครื่องมือปรับแต่ง SVG ใหม่
- เครื่องมือสร้างรหัสการเปลี่ยนเส้นทาง .htaccess ใหม่
- ตัวตรวจสอบขนาดการรวบรวมข้อมูล Googlebot ใหม่
- เครื่องมือสร้าง robots.txt ใหม่
- เครื่องมือสร้าง XML Sitemap ใหม่
- เครื่องตรวจสอบอายุโดเมน ใหม่
- ตัวตรวจสอบ Open Graph ใหม่
- ค้นหา WHOIS ใหม่
- ตรวจสอบ DNS ใหม่
- ตัวตรวจสอบความเร็วหน้าเว็บ ใหม่
- ตรวจสอบความน่าเชื่อถือโดเมน ใหม่
- ตรวจสอบการเปลี่ยนเส้นทาง ใหม่
- เครื่องสร้างแท็ก Hreflang ใหม่
- เครื่องมือตรวจสอบลิงก์เสีย ใหม่