หน้าแรก Networking & Wireless บทความสั้น : หลักการวัดประสิทธิภาพของเครือข่ายอย่างง่าย

บทความสั้น : หลักการวัดประสิทธิภาพของเครือข่ายอย่างง่าย

2931
แบ่งปัน

ประสิทธิภาพของเครือข่ายคอมพิวเตอร์ ที่ภาษาชาวบ้านเข้าใจง่ายๆ ว่าหมายถึงความเร็วเน็ต หรือความเร็วในการเชื่อมต่ออินเทอร์เน็ตนั่นเอง ส่วนใหญ่มักวัดกันในหน่วยบิตต่อวินาที (bps) ซึ่งค่านี้ใช้แสดงได้ทั้งอัตราเร็วการรับส่งข้อมูลที่เป็นอยู่จริง และใช้แสดงความเร็วจำกัดทางทฤษฎี หรือ “แบนด์วิธ” บนเครือข่ายได้ด้วย

สมัยนี้เครือข่ายสามารถรองรับปริมาณข้อมูลมหาศาลได้ ดังนั้นแค่หน่วย bits per second อาจไม่เหมาะสมในการเขียน เราจึงนำคำขยายที่บอกหลักของจำนวนมากๆ มาใช้ช่วยอธิบายให้ง่ายขึ้น อันได้แก่ Kilobit (kbps), Megabit (Mbps), และ Gigabit (Gbps)

โดยมีการเทียบปริมาณของค่าแต่ละแบบดังต่อไปนี้:

1 Kbps = 1,000 บิตต่อวินาที,
1 Mbps = 1,000 Kbps, และ
1 Gbps = 1,000 Mbps

ดังนั้นอุปกรณ์ที่ระบุอัตราเร็วหรือประสิทธิภาพในหน่วย Gbps ก็จะมีความเร็วมากกว่าค่าในหน่วย Mbps หรือ Kbps ตามลำดับ

อุปกรณ์เครือข่ายส่วนใหญ่ที่ยังใช้หน่วย Kbps มักเป็นอุปกรณ์รุ่นเก่า ไม่ได้ใช้มาตรฐานที่ทันสมัย เช่น โมเดมแบบ Dial-up สมัยก่อนรองรับอัตราการส่งข้อมูลมากสุดแค่ 56 Kbps ขณะที่เครือข่ายไวไฟตามบ้านที่ใช้มาตรฐาน 802.11g จะมีอัตราเร็วสูงสุดที่ 54 Mbps แต่ถ้าใช้มาตรฐานใหม่ขึ้นอย่าง 802.11n และ 802.11ac ก็จะได้อัตราเร็วสูงสุดที่ 450 Mbps และ 1300 Mbps ตามลำดับ

ส่วนเครือข่ายแบบ Gigabit Ethernet ที่ใช้งานในสำนักงานนั้นมีอัตราเร็วประมาณ 1Gbps และอินเทอร์เน็ตที่มากับใยแก้วนำแสงหรือสายไฟเบอร์ของผู้ให้บริการนั้นก็มักให้ความเร็วในการดาวน์โหลดอยู่ประมาณ 500 Mbps

หลายคนมักสับสนคำว่า บิต (Bit) กับคำว่า ไบต์ (Byte) ทั้งที่หน่วยหลังมักนำมาใช้กับปริมาณเนื้อที่ของดิสก์และหน่วยความจำบนคอมพิวเตอร์ ไม่ได้เอาไปใช้กับเรื่องความเร็วบนเครือข่าย เช่น ความจุของดิสก์ประเภทต่างๆ มักเขียนอยู่ในรูปหน่วย Kilobyte, Megabyte, และ Gigabyte

ซึ่งเวลาใส่คำขยายหน่วยนั้น ก็มักคูณด้วย 1024 แทนด้วย อย่างเช่น 1 KB = 1,024 ไบต์, 1 MB = 1,024 KB, และ 1 GB = 1,024 MB ดังนั้นจึงเรียกว่าแทนคำว่าบิทด้วยไบต์ไม่ได้เลย

ที่มา : Lifewire