การจำแนกประเภทของผู้แสวงหาอินเทอร์เน็ต (4 ประเภท)

การ แบ่งประเภทของเสิร์ชเอ็นจิ้น อินเทอร์เน็ตสามารถแบ่งออกเป็นเสิร์ชเอนจินลำดับชั้นไดเรกทอรีไดรฟ์ข้อมูลไฮบริดและเมตาเสิร์ชเอ็นจิ้น

เสิร์ชเอ็นจิ้นเป็นระบบซอฟต์แวร์ที่ออกแบบมาเพื่อค้นหาข้อมูลบนเวิลด์ไวด์เว็บ พวกเขาใช้คำหลักเพื่อค้นหาเอกสารที่เกี่ยวข้องกับคำเหล่านั้นแล้ววางผลลัพธ์ตามลำดับความเกี่ยวข้องกับหัวข้อที่ถูกค้นหา

เอ็นจิ้นการค้นหาทางอินเทอร์เน็ตพยายามดึงข้อมูลที่ผู้ใช้ของคุณต้องการ สิ่งนี้เป็นไปได้เนื่องจากฐานข้อมูลขนาดใหญ่ที่มีอยู่บนอินเทอร์เน็ต

พวกเขากลายเป็นเครื่องมือในการใช้ชีวิตประจำวันเพื่อค้นหาข้อมูล ด้วยสิ่งนี้ทำให้การค้นหาข้อมูลด้วยเครื่องมือค้นหาเช่น Google, AOL, Yahoo และ Bing เป็นเรื่องง่าย

มีเครื่องมือค้นหาที่แตกต่างกันหลายพันรายการบนอินเทอร์เน็ต แต่ละคนมีความสามารถและลักษณะที่แตกต่างกัน

เสิร์ชเอนจิ้นแรกที่พัฒนาขึ้นเรียกว่า Archie และถูกใช้เพื่อค้นหาไฟล์ FTP; เครื่องมือค้นหาที่ใช้ข้อความตัวแรกเรียกว่า Veronica

ผู้ใช้สามารถเข้าถึงเบราว์เซอร์ผ่านเบราว์เซอร์บนคอมพิวเตอร์สมาร์ทโฟนแท็บเล็ตหรืออุปกรณ์อิเล็กทรอนิกส์อื่น ๆ

การจำแนกประเภทของเสิร์ชเอ็นจิ้นอินเทอร์เน็ต

1- ผู้ค้นหาลำดับชั้น (แมงมุม)

เครื่องมือค้นหาประเภทนี้ใช้ 'สไปเดอร์' เพื่อค้นหาเว็บบนอินเทอร์เน็ต สไปเดอร์นี้จะเข้าสู่หน้าเว็บแต่ละหน้านำคำหลักออกแล้วเพิ่มหน้าไปยังฐานข้อมูลโปรแกรมค้นหาทางอินเทอร์เน็ต

ข้อดีของเครื่องมือค้นหาประเภทนี้คือมีหน้าจำนวนมากและใช้งานง่าย ด้วยเหตุนี้จึงเป็นเรื่องธรรมดามากที่ผู้ใช้จะสร้างความคุ้นเคยและใช้ซ้ำ ๆ

ในทางกลับกันข้อเสียรวมถึงเพราะพวกเขาดึงข้อมูลมากจึงเป็นไปได้ที่จะมีข้อมูลมากเกินไป

เครื่องมือค้นหายอดนิยมส่วนใหญ่บนอินเทอร์เน็ตเป็นลำดับชั้นเช่น Google, Bing, Yahoo, Baidu และ Yandex

เบราว์เซอร์อินเทอร์เน็ตแบบลำดับชั้นทั้งหมดใช้บอท (แมงมุม) เพื่อค้นหาและจัดทำดัชนีเนื้อหาใหม่ไปยังฐานข้อมูลการค้นหา

มีสี่ขั้นตอนพื้นฐานที่แต่ละเครื่องมือค้นหาตามลำดับชั้นตามก่อนที่จะแสดงหน้าเว็บใด ๆ ในผลการค้นหา:

เลื้อย

เสิร์ชเอนจิ้นร่อนผ่านอินเทอร์เน็ตเพื่อค้นหาเว็บเพจที่มีอยู่ ทำได้โดยซอฟต์แวร์ที่เรียกว่าสไปเดอร์ ความถี่ระหว่างแผ่นดินถล่มอาจใช้เวลาหลายวัน

การจัดทำดัชนี

เป็นกระบวนการในการระบุคำและนิพจน์ที่อธิบายหน้าเว็บได้ดีที่สุด คำที่ระบุจะเรียกว่าคำหลักและหน้าจะถูกกำหนดให้กับคำที่ระบุ

คำนวณความเกี่ยวข้อง

เครื่องมือค้นหาเปรียบเทียบสตริงการค้นหาในห่วงโซ่ความต้องการกับหน้าการจัดทำดัชนีของฐานข้อมูล

เนื่องจากมีความเป็นไปได้มากกว่าที่หน้ามากกว่าหนึ่งจะมีสตริงการค้นหาเอ็นจิ้นการค้นหาจะเริ่มคำนวณความเกี่ยวข้องของแต่ละหน้าในดัชนีด้วยสตริงการค้นหา

มีหลายขั้นตอนวิธีในการคำนวณความเกี่ยวข้อง อัลกอริทึมเหล่านี้แต่ละตัวมีน้ำหนักสัมพัทธ์ที่แตกต่างกันสำหรับปัจจัยทั่วไปเช่นความหนาแน่นของคำหลักหรือลิงก์

นั่นคือเหตุผลที่แต่ละเครื่องมือค้นหาให้หน้าผลลัพธ์ที่ต่างกันสำหรับเชนการค้นหาเดียวกัน

บางครั้งเครื่องมือค้นหาจะเปลี่ยนอัลกอริทึมของพวกเขา

ดึงผลลัพธ์

โดยพื้นฐานแล้วมันจะแสดงผลลัพธ์ในเบราว์เซอร์ หน้าอนันต์ของผลการค้นหาที่เรียงลำดับจากที่เกี่ยวข้องมากที่สุดไปยังสำคัญน้อยที่สุด

2- ไดเรกทอรี

ไดเรกทอรีเป็นเครื่องมือค้นหาที่ขึ้นอยู่กับกิจกรรมของมนุษย์สำหรับรายการของพวกเขา: หน้าเว็บจะถูกนำเสนอในไดเรกทอรีและการรวมของมันจะต้องได้รับการอนุมัติโดยทีมบรรณาธิการ

กระบวนการนี้เกิดขึ้นดังนี้:

1- เจ้าของเว็บไซต์นำเสนอคำอธิบายสั้น ๆ ของเว็บไซต์ของคุณไปยังไดเรกทอรีพร้อมกับหมวดหมู่ที่ควรจะอยู่ในรายการ

2 - เว็บไซต์ที่ส่งจะได้รับการตรวจสอบด้วยตนเอง จากนั้นสามารถเพิ่มลงในหมวดหมู่ที่เหมาะสมหรือสามารถปฏิเสธรายชื่อได้ เว็บไซต์ที่มีเนื้อหาที่ดีมีแนวโน้มที่จะถูกเพิ่มเมื่อเทียบกับหน้าเว็บที่มีเนื้อหาไม่ดี

3- คำหลักที่ป้อนในช่องค้นหาจะจับคู่กับคำอธิบายของหน้าเว็บ ซึ่งหมายความว่าการเปลี่ยนแปลงที่เกิดขึ้นกับเนื้อหาของเว็บไซต์จะไม่ได้รับการพิจารณาเนื่องจากมีเพียงคำอธิบายในเรื่องเดียวกัน

ข้อดีคือแต่ละหน้าได้รับการตรวจสอบความเกี่ยวข้องและเนื้อหาก่อนที่จะรวม หลายครั้งที่มีผลลัพธ์น้อยลงหมายความว่าคุณสามารถค้นหาสิ่งที่จำเป็นได้เร็วขึ้น

กล่าวว่ารูปแบบและเค้าโครงไม่เป็นมิตรกับคนส่วนใหญ่และอาจมีปัญหากับการค้นหาทั่วไปที่น้อยกว่า ข้อเสียอีกประการหนึ่งคือความล่าช้าในการสร้างเว็บไซต์และการรวมไว้ในไดเรกทอรี

บางไดเรกทอรีที่มีชื่อเสียงรวมถึง Open Dictionary Project, Internet Public Library และ DMOZ ที่เพิ่งปิด

3- เครื่องมือค้นหาไฮบริด

เครื่องมือค้นหาเหล่านี้ใช้ทั้งเครื่องมือค้นหาแบบลำดับชั้นและไดเรกทอรีเพื่อแสดงรายการหน้าเว็บในผลการค้นหา

เครื่องมือค้นหาสไปเดอร์ส่วนใหญ่เช่น Google มักใช้เครื่องมือค้นหาแบบลำดับชั้นเป็นกลไกหลักและการตรวจสอบด้วยตนเองเป็นกลไกรอง

บางครั้งผู้ใช้จะได้รับตัวเลือกในการค้นหาเว็บหรือไดเรกทอรี ในโอกาสอื่น ๆ ผู้ใช้สามารถได้รับผลการรักษาทั้งจากมนุษย์และผลลัพธ์แบบลำดับชั้นในการค้นหาเดียวกัน เมื่อเป็นกรณีนี้โดยปกติผลลัพธ์ของมนุษย์จะถูกระบุไว้ก่อน

Google และ Yahoo เป็นสองเสิร์ชเอนจิ้นหลักที่อยู่ในหมวดหมู่นี้แม้ว่าแต่ละอันจะเป็นเอ็นจิ้นการค้นหาเพิ่มเติมที่ย้ายมาที่ระบบนี้

4- เครื่องมือค้นหา Metasearch

เอ็นจินการค้นหาทางอินเทอร์เน็ตเหล่านี้คือผู้ที่ค้นหาในเสิร์ชเอนจิ้นอื่น ๆ ในเวลาเดียวกันจากนั้นรวมผลลัพธ์ในรายการเดียว

ข้อได้เปรียบคือผลลัพธ์ที่ได้รับมากขึ้น แต่ความเกี่ยวข้องและคุณภาพของพวกเขาสามารถประสบมาก

ตัวอย่างของเครื่องมือค้นหาเมตาประกอบด้วย Dogpile, Metacrawler และ Clusty