GoSpider – لجمع روابط المواقع
في عالم الأمن السيبراني، واختبار الاختراق، وتحليل البيانات، يُعتبر Crawling خطوة أساسية لاستخلاص روابط الموقع وصفحاته المخفية. وهنا تبرز أداة GoSpider، المكتوبة بلغة Go، كخيار قوي وفعال لأداء هذه المهمة.
ما هي GoSpider؟
GoSpider هي أداة زحف (Web Crawler) مفتوحة المصدر وسريعة جدًا، تساعدك على استكشاف الروابط والصفحات داخل موقع ويب معين. مفيدة جدًا في:
- تحليل مواقع التجارة الإلكترونية أو المدونات.
- جمع روابط لاستخدامها في أدوات أخرى (مثل فحص XSS، LFI...).
- بناء قواعد بيانات للزحف أو الأرشفة.
مميزات GoSpider:
- أداء عالي: مبنية بلغة Go المعروفة بسرعتها وكفاءتها.
- سهولة الاستخدام: تعمل عبر أوامر بسيطة في الطرفية.
- مرونة وتخصيص: يمكنك تحديد عمق الزحف، تخصيص الـHeaders، تغيير الـUser-Agent، وتصفية النتائج.
- تعدد أنظمة التشغيل: تعمل على Windows وLinux وmacOS.
- مفتوحة المصدر: مجانية ويمكن تعديلها بما يناسب احتياجاتك.
خطوات التثبيت
1. تثبيت لغة Go
- قم بتحميل لغة Go من الموقع الرسمي:
https://golang.org/dl/ - تحقق من التثبيت:
go version
إذا ظهرت لك مثل:
go version go1.23.4 linux/amd64
فأنت جاهز للخطوة التالية.
2. تثبيت أداة GoSpider
GO111MODULE=on go install github.com/jaeles-project/gospider@latest
3. التحقق من التثبيت
gospider -h

أوامر استخدام شائعة
Crawling بسيط مع حفظ النتائج
gospider -a -s "http://testphp.vulnweb.com" -o output
-a
: تفعيل الزحف العميق (مع تحليل الـJS).-s
: تحديد الرابط الهدف.-o
: تحديد مجلد أو اسم ملف لحفظ النتائج.
تصفية الروابط باستخدام Regex (مثل تجاهل صفحات معينة)
gospider -s "http://testphp.vulnweb.com" --blacklist "/product/" -o output
سيتجاهل الروابط التي تحتوي على /product/
.
استخدام مصادر خارجية مثل Wayback Machine
gospider -q -s "http://example.com" -o output
يسمح باستخدام قواعد بيانات خارجية مثل Web Archive وCommonCrawl للحصول على روابط قديمة.
الخلاصة:
أداة GoSpider تمنحك Crawling سريعًا وفعالًا لجمع الروابط من المواقع، وهي مثالية لمختبري الاختراق، الباحثين، ومطوري أدوات الـRecon. بفضل مرونتها وسرعتها، تُعد خيارًا ممتازًا في أي سيناريو يتطلب جمع البيانات من الويب.
جرّب دمج GoSpider مع أدوات أخرى للحصول على pipeline قوي في مرحلة جمع المعلومات.