ĐẠI HỌC HUẾ LÊ VĂN HÒA ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH MÃ SỐ: 9480101 TÓM TẮT LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH HUẾ - NĂM 2019
ĐẠI HỌC HUẾ
LÊ VĂN HÒA
ĐIỀU KHIỂN CÔNG BẰNG LUỒNG
TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG
CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH
MÃ SỐ: 9480101
TÓM TẮT LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH
HUẾ - NĂM 2019
Công trình được hoàn thành tại: Trường đại học Khoa học, Đại học Huế .....
........................................................................................................................
........................................................................................................................
Người hướng dẫn khoa học: (ghi họ tên, chức danh khoa học, học vị): .........
1. PGS. TS. Võ Viết Minh Nhật, Đại học Huế ......................................
2. TS. Nguyễn Hoàng Sơn, Trường Đại học Khoa học, Đại học Huế ...
........................................................................................................................
Phản biện 1: ....................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
Phản biện 2: ...................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
Phản biện 3: ...................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
Luận án sẽ được bảo vệ tại Hội đồng chấm luận án cấp Đại học Huế họp tại:
........................................................................................................................
Vào hồi ................. giờ ............. ngày ........... tháng ........ năm................ ......
Có thể tìm hiểu luận án tại thư viện: ...............................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
(ghi tên thư viện)
1
MỞ ĐẦU
1. Tính cấp thiết của đề tài
Sự phát triển không ngừng của Internet trong một vài thập niên trở lại đây,
cùng với sự bùng nổ các loại hình dịch vụ truyền thông, đã làm gia tăng
không ngừng nhu cầu về băng thông truyền thông. Điều này đã đặt ra một
thách thức lớn trong việc tìm kiếm công nghệ truyền thông phù hợp nhằm
nâng cao khả năng truyền thông của mạng thế hệ mới. Mạng quang, cùng với
công nghệ ghép kênh bước sóng WDM, đã mang đến một giải pháp hiệu quả
đáp ứng được những yêu cầu này [24], [36].
Truyền thông quang, từ khi ra đời vào đầu thập niên 90 cho đến nay, đã
trải qua nhiều thế hệ phát triển: từ những mô hình định tuyến bước sóng ban
đầu với những đường quang (lightpath) đầu cuối dành riêng cho đến các mô
hình chuyển mạch gói quang [36] được đề xuất gần đây, với ý tưởng được lấy
từ các mạng chuyển mạch gói điện tử. Tuy nhiên, với một số hạn chế về mặt
công nghệ, như chưa thể sản xuất các bộ đệm quang (tương tự bộ nhớ RAM
trong mạng điện) hay các bộ chuyển mạch gói quang ở tốc độ nano giây,
chuyển mạch gói quang chưa thể trở thành hiện thực. Một giải pháp thỏa hiệp
là mô hình chuyển mạch chùm quang (OBS).
Một đặc trưng tiêu biểu của truyền thông trong mạng chuyển mạch chùm
quang (mạng OBS) là phần (gói) điều khiển BCP tách rời với phần (chùm)
dữ liệu (data burst). Nói một cách khác, để thực hiện truyền một chùm
quang, gói điều khiển được hình thành và được gửi đi trước một khoảng thời
gian offset đủ để đặt trước tài nguyên và cấu hình chuyển mạch tại các nút
trung gian dọc theo hành trình mà chùm quang sẽ đi qua từ nút nguồn đến nút
đích. Thêm vào đó, mạng OBS dành riêng một số kênh (bước sóng) cho gói
tin điều khiển, trong khi các kênh còn lại được dùng cho việc truyền dữ liệu.
Như vậy, việc truyền gói điều khiển hoàn toàn tách rời với phần dữ liệu về
mặt không gian (trên kênh truyền khác) và cũng như về mặt thời gian (gởi đi
trước một khoảng thời gian offset) [65].
Với cách truyền tải dữ liệu như mô tả, rõ ràng mạng OBS không cần đến
các bộ đệm quang để lưu tạm thời các chùm quang trong khi chờ đợi việc xử
lý chuyển mạch tại các nút lõi, cũng như không yêu cầu các chuyển mạch tốc
2
độ nano giây. Tuy nhiên, cách truyền thông này cũng đặt ra một áp lực là làm
thế nào để một gói điều khiển có thể kịp đặt trước tài nguyên và cấu hình
chuyển mạch thành công tại các nút lõi, đảm bảo cho việc chuyển tiếp chùm
quang đi sau nó. Đó chính là nhiệm vụ của các hoạt động như đặt trước tài
nguyên, lập lịch, xử lý tắc nghẽn ... Ngoài ra một vấn đề khác cũng được
nhiều nhà nghiên cứu mạng OBS quan tâm là làm sao đảm bảo được sự công
bằng (fairness) giữa các luồng truyền thông khác nhau khi chia sẻ cùng liên
kết bên trong mạng OBS.
Trong mạng OBS, vấn đề công bằng được nghiên cứu theo 3 hướng
chính: công bằng về độ trễ (delay fairness) [69], công bằng về thông lượng
(througphut fairness) [53] và công bằng về khoảng cách (distance fairness)
[10]. Việc đảm bảo công bằng giữa các luồng chia sẻ chung tài nguyên trong
mạng OBS có một ý nghĩa rất quan trọng, một mặt nhằm vừa đảm bảo sự
phân biệt chất lượng dịch vụ đã cam kết, mặt khác tối ưu hiệu năng truyền
thông của mỗi luồng và toàn mạng (chẳng hạn, dựa trên tỉ lệ mất mát dữ liệu,
tỉ lệ sử dụng băng thông, tỉ lệ độ trễ đầu cuối …).
2. Động lực nghiên cứu
Hiện đã có một số công trình nghiên cứu về vấn đề công bằng trong mạng
OBS mà có thể được phân thành 2 nhóm tiếp cận chính dựa trên vị trí thực
hiện:
- Nhóm giải pháp công bằng tại nút biên và
- Nhóm giải pháp công bằng tại nút lõi.
Với nhóm giải pháp công bằng tại nút biên, có 2 hướng nghiên cứu chính
gồm: (1) công bằng độ trễ và (2) công bằng thông lượng.
Với nhóm giải pháp công bằng tại nút lõi, vấn đề công bằng được biết đến
chủ yếu là là công bằng khoảng cách.
Trong mạng OBS, nút biên đóng một vai trò quan trọng trong điều khiển
công bằng luồng, bởi vì:
1. Nút biên điều khiển lưu lượng của các luồng (kết nối đầu cuối) một
cách công bằng trước khi truyền vào bên trong mạng lõi; các nút
lõi lúc này chủ yếu là xử lý công bằng các luồng đã được đưa vào;
2. Chỉ có nút biên mới có các bộ đệm, nên vấn đề điều khiển công
3
bằng về độ trễ, thông lượng… được thực hiện dễ dàng hơn và
3. Nút lõi không có bộ đệm nên xử lý công bằng ở nút lõi gần như
phụ thuộc vào các hoạt động điều khiển tại nút biên.
Dựa vào những đặc điểm đó Luận án tập trung vào việc nghiên cứu điều
khiển công bằng tại nút biên, với hai hoạt động chính là điều khiển công bằng
độ trễ và điều khiển công bằng thông lượng.
3. Mục tiêu nghiên cứu
Nghiên cứu và đề xuất một số cải tiến về tập hợp chùm giảm độ trễ
nhằm làm giảm độ trễ truyền thông qua mạng OBS;
Nghiên cứu và đề xuất giải pháp tập hợp chùm công bằng độ trễ
nhằm đồng thời phân biệt QoS theo độ trễ, làm giảm độ trễ và công
bằng về độ trễ giữa các luồng ưu tiên khác nhau.
Nghiên cứu và đề xuất giải pháp điều khiển công bằng thông lượng,
mà có thể áp dụng cho các loại luồng đến có phân bố Poisson và non-
Poisson.
Nghiên cứu và đề xuất giải pháp đắp chùm sau tập hợp chùm nhằm
nâng cao hiệu quả sử dụng băng thông và đảm bảo công bằng thông
lượng.
4. Đối tượng và Phạm vi nghiên cứu
- Đối tượng nghiên cứu: Các mô hình, giải thuật tập hợp chùm và điều
khiển công bằng luồng trong mạng OBS.
- Phạm vi nghiên cứu: Nút biên mạng OBS.
5. Phương pháp nghiên cứu
- Phương pháp nghiên cứu lý thuyết: Tổng hợp các công bố liên quan đến
các mô hình, giải thuật điều khiển công bằng độ trễ và công bằng thông
lượng trong mạng OBS. Phân tích, đánh giá ưu và khuyết điểm của các đề
xuất đã công bố để làm cơ sở cho việc cải tiến hoặc đề xuất mới.
- Phương pháp mô phỏng, thực nghiệm: Cài đặt các giải thuật cải tiến và
đề xuất mới nhằm chứng minh tính đúng đắn của các giải thuật này.
6. Cấu trúc luận án
Luận án bao gồm phần mở đầu, ba chương nội dung, phần kết luận và
danh mục các tài liệu tham khảo. Cụ thể:
4
Chương 1 “Tổng quan về công bằng trong mạng chuyển mạch chùm
quang” giới thiệu về các mô hình chuyển mạch trong truyền thông quang,
nguyên tắc hoạt động của mạng OBS và vấn đề công bằng luồng trong mô
hình mạng này.
Chương 2 “Tập hợp chùm giảm độ trễ và công bằng độ trễ” trình bày
các cải tiến và đề xuất mới của Luận án về tập hợp chùm giảm độ trễ và công
bằng độ trễ.
Chương 3 “Công bằng thông lượng dựa trên cấp phát băng thông và
đắp chùm” trình bày đề xuất giải pháp điều khiển công bằng thông lượng và
đề xuất mô hình đắp chùm sau tập hợp nhằm nâng cao hiệu quả sử dụng băng
thông và tăng tính công bằng thông lượng.
CHƯƠNG 1. TỔNG QUAN VỀ CÔNG BẰNG
TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG
1.1 Các mô hình chuyển mạch trong truyền thông quang
Chuyển mạch quang được chia thành 3 loại: chuyển mạch kênh quang,
chuyển mạch gói và chuyển mạch chùm quang. Trong đó chuyển mạch chùm
quang đã kế thừa được những ưu điểm của 2 loại chuyển mạch trên, như
không cần bộ đêm quang và các chuyển mạch quang tốc độ cao.
1.2 Nguyên tắc hoạt động của mạng OBS
Hình 1.1 Quá trình tập hợp chùm và tách chùm tại các nút biên OBS
5
Trong mạng OBS, các loại dữ liệu đến khác nhau được tập hợp tại nút
biên vào và được truyền dưới dạng các chùm (Hình 1.2a). Tại nút biên ra, các
chùm sẽ được tách thành các gói dữ liệu ban đầu để chuyển đến đích mong
muốn (Hình 1.2b).
1.3 Các hoạt động bên trong mạng OBS
1.3.1 Tập hợp chùm
Tập hợp chùm là một phương pháp gộp các gói tin từ nhiều mạng truy cập
khác nhau (chẳng hạn như các gói IP, ATM…) thành các chùm có kích thước
lớn hơn tại nút biên vào của mạng OBS.
1.3.2 Báo hiệu chùm
Trong mạng OBS có 2 loại giao thức báo hiệu chính là JIT và JET. JET là
giao thức báo hiệu cho hầu hết mạng OBS ngày nay, vì không cần bộ đệm
quang và không cần chờ xử lý tại các nút trung gian.
1.3.3 Lập lịch chùm
Khi một gói điều khiển đến tại một nút, một thuật toán lập lịch được gọi
để lập lịch cho chùm đến để lập lịch cho chùm tương ứng trên liên kết ra.
Hiện nay trong mạng OBS có 3 loại lập lịch chính: (1) không lấp đầy khoảng
trống; (2) lấp đầy khoảng trống và (3) lập lịch nhóm.
1.3.4 Xử lý tranh chấp chùm
Với việc sử dụng giao thức JET, các nút biên có thể gửi chùm mà không
cần phải báo nhận ACK. Tuy nhiên, điều này đòi hỏi các nút lõi mạng OBS
phải giải quyết tốt vấn đề tranh chấp giữa các chùm. Tranh chấp chỉ xảy ra
khi các chùm có sự xung đột tài nguyên (bước sóng) tại một cổng ra. Để giải
quyết vấn đề này người ta thường sử dụng phương pháp “lệch hướng”, có thể
là theo bước sóng, theo không gian và theo thời gian.
1.4 Vấn đề công bằng trong mạng OBS
1.4.1 Khái niệm công bằng trong mạng OBS
Theo Denda và cộng sự trong [38], công bằng được biết đến là sự hài lòng
của các cá nhân khi tham gia vào quá trình phân bổ tài nguyên. Trong mạng
OBS, vấn đề công bằng được nghiên cứu tại nút biên và nút lõi (Hình 1.7).
6
Hình 1.7 Phân loại công bằng dựa trên vị trí thực hiện
1.4.2 Công bằng độ trễ
Đề cập đến việc thiết lập độ trễ đệm chùm (bao gồm độ trễ tập hợp chùm và thời
gian offset) khác nhau cho các chùm thuộc các lớp QoS khác nhau.
1.4.3 Công bằng thông lượng
Đề cập đến việc phân bổ băng thông công bằng giữa các luồng chia sẻ chung một
liên kết đầu – cuối.
1.4.4 Công bằng khoảng cách
Đề cập đến việc xử lý tranh chấp công bằng, như về mất mát dữ liệu, dựa vào độ
dài hành trình (số nút trung gian) từ nút nguồn đến đích.
1.5 Tiểu kết Chương 1
Chương đầu tiên của luận án đã giới thiệu tổng quan về mạng OBS và các
hoạt động bên trong mạng, trong đó tập hợp chùm tại nút biên mạng được tập
trung phân tích vì nó có ảnh hưởng quan trọng đến vấn đề công bằng luồng
trong toàn mạng. Luận án cũng đã phân tích và đánh giá các phương pháp đã
được công bố cho đến nay về điều khiển công bằng. Đó chính là cơ sở để
luận án cuối cùng xác định được bốn mục tiêu cần nghiên cứu (trong đó mục
tiêu 1, 2 được trình bày ở Chương 2 và mục tiêu 3, 4 được trình bày ở
Chương 3), cũng như đề xuất kiến trúc nút biên vào với các mô đun chức
năng được thêm vào nhằm đảm bảo triển khai các phương pháp công bằng
luồng, nâng cao hiệu năng truyền thông của mạng OBS.
7
CHƯƠNG 2. TẬP HỢP CHÙM GIẢM ĐỘ TRỄ
VÀ CÔNG BẰNG ĐỘ TRỄ
2.1 Mô hình tập hợp chùm giảm độ trễ
2.1.1 Vấn đề độ trễ trong hoạt động tập hợp chùm
Độ trễ đầu cuối của một chùm khi được truyền qua mạng OBS chủ yếu là
do bốn thành phần gây nên: (1) độ trễ tập hợp chùm tại nút biên vào, (2) thời
gian offset để đặt trước tài nguyên của gói điều khiển, (3) độ trễ chuyển tiếp
chùm tại các nút lõi và (4) độ trễ truyền bá trong mạng lõi, 2 độ trễ đầu còn
có tên gọi là độ trễ đệm chùm, 2 độ trễ sau thường không thay đổi tương ứng
với một giao thức đã triển khai cho trước. Do đó, các đề xuất thường tập
trung vào mục tiêu giảm độ trễ đệm chùm.
2.1.2 Các công trình nghiên cứu liên quan
2.1.2.1 Phân tích các phương pháp tập hợp chùm giảm độ trễ đã công bố
Liên quan về vấn đề này đã có 6 phương pháp được đề xuất như thể hiện
ở Bảng 2.1. Bảng 2.1 So sánh các phương pháp tập hợp chùm giảm độ trễ đã công bố
IE-BADR POQA JK-BADR BADR-EAT MTBA-TP BASTP
Phương
pháp tập
hợp chùm
Dựa trên
ngưỡng thời
gian
Dựa trên
ngưỡng
thời gian
Dựa trên
ngưỡng thời
gian
Dựa trên
ngưỡng thời
gian
Dựa trên
ngưỡng lai
Dựa trên
ngưỡng
lai
Đặc điểm
ngưỡng
Cố định Cố định Cố định Cố định Cố định Thích
nghi
Phương
pháp ước
tính
Dựa vào tốc
độ trung bình
các gói tin đến
trong khoảng
thời gian ước
tính
Dựa vào
độ dài của
M chùm
sau cùng
nhất
Dựa vào lỗi
ước tính
của lần tập
hợp kế
trước
Dựa vào mật
độ của M gói
tin sau cùng
Dựa vào tốc
độ đến của
gói tin sau
cùng nhất
Dựa vào
M lần tập
hợp chùm
sau cùng
nhất
Độ trễ
giảm được To To To To t1 + To – Ta To
2.1.2.2 So sánh và đánh giá dựa trên kết quả mô phỏng
Với mục tiêu mô phỏng là:
So sánh tỉ lệ lỗi ước tính trung bình của các phương pháp đã công bố
8
được tính bởi Công thức 2.8
(2.8)
trong đó M là số lần tập hợp chùm, Lj và Lej là kích thước hoàn
thành và kích thước ước tính của chùm thứ j.
So sánh số gói tin thừa được chuyển cho chùm tiếp theo trong 100
lần tập hợp chùm liên tiếp giữa các phương pháp tập hợp chùm đã
được công bố.
Phân tích cách chọn ngưỡng của BASTP, là phương pháp tốt nhất
trong số các phương pháp tập hợp chùm đã công bố.
Luận án tiến hành cài đặt trên một máy tính với cấu hình 2.4 GHz Intel
Core 2 CPU, 2G RAM. Các gói tin đến tại hàng đợi của nút biên mạng có
phân bố Poisson với kích thước thay đổi ngẫu nhiên trong khoảng [500,
1000] bytes. Lưu lượng tải đến tại hàng đợi thay đổi từ 0.1 đến 0.9. Mô
phỏng trong thời gian 1s (giây). Dữ liệu được trích xuất từ NS2 [71] với gói
hỗ trợ obs-0.9a. Các tham số tập hợp chùm bao gồm: Ta = 6 ms, To = 2 ms.
a. So sánh tỉ lệ lỗi ước tính trung bình
Hình 2.3 mô tả so sánh về lỗi ước tính trung bình giữa các phương pháp
đã công bố, trong đó có thể thấy rằng lỗi ước tính trung bình của các phương
pháp dựa trên thống kê như BASTP, BADR-EAT và POQA cho lỗi ước tính
thấp hơn so với các phương pháp còn lại.
Hình 2.3 So sánh tỉ lệ lỗi ước tính trung bình của IE-BADR, JK-BADR, POQA, BADR-EAT,
MTBA-TP và BASTP với tải chuẩn hóa đến 0.5
M
LLLR
M
j j
e
jj
E
1
/
9
b. So sánh số gói tin thừa được chuyển cho lần tập hợp chùm tiếp theo
Hình 2.6 So sánh số gói tin thừa trong 100 chùm sinh ra đầu tiên
c. Phân tích cách chọn ngưỡng của phương pháp BASTP
Như được mô tả trong các Hình 2.3 và 2.6, phương pháp BASTP luôn cho
kết quả mô phỏng tốt nhất. Tuy nhiên, kết quả này thường đi kèm với việc
chọn cặp giá trị ngưỡng (Lmin, Lmax) phù hợp.
2.1.2.3 Nhận xét
Các phân tích, so sánh và đánh giá này (đã được công bố trong Công trình
[CT1]) chính là cơ sở để luận án đề xuất các cải tiến về tập hợp chùm giảm
độ trễ được trình bày trong các mục tiếp theo.
2.1.3 Phương pháp tập hợp chùm giảm độ trễ iBADR
2.1.3.1 Giới thiệu về phương pháp ước tính tốc độ đến TW-EWMA
Nhằm ước tính tốc độ của các gói tin đến tại một hàng đợi, Salad và cộng
sự trong [23] đã đề xuất phương pháp TW-EWMA. Khác với các phương
pháp ước tính khác thường đếm hết các gói tin đến trong các khoảng thời
gian quan sát liên tục (chu kỳ ước tính), phương pháp TW-EWMA sử dụng
một cửa sổ thời gian ước tính nhỏ hơn (Tw) nhằm giảm chi phí tính toán trên
hệ thống (Hình 2.7).
Hình 2.1 Phương pháp dự đoán theo cửa sổ của TW-EWMA
2.1.3.2 Mô tả phương pháp tập hợp chùm giảm độ trễ iBADR
Phương pháp tập hợp chùm giảm độ trễ được luận án đề xuất iBADR
(improved Burst Assembly for Delay Reduction) cũng dựa trên ý tưởng gửi
sớm gói tin điều khiển tại thời điểm oa TTt 1 (ở đây Ta luôn lớn hơn To)
TW1 TW2 TW3 TWn
Thời gianChu kỳ ước tính Chu kỳ ước tính
10
và chùm tương ứng được gửi đi tại thời điểm aTt 2 ; kết quả là các gói tin
được tập hợp trong chùm hiện thời sẽ giảm được một độ trễ To. Luận án sử
dụng phương pháp TW-EWMA để ước tính tốc độ các gói tin đến, từ đó ước
tính được độ dài chùm sẽ hoàn thành.
Các tác giả trong [23] thiết lập α bằng một giá trị cố định (0.3), mà điều
này thực tế không phản ảnh được bản chất thay đổi bất thường của lưu lượng
đến; kết quả là lỗi ước tính là đáng kể. Luận án đề xuất thay đổi α một cách
linh động chuyển biến theo tỉ lệ của tốc độ đến hiện thời (cur) so và tốc độ
trung bình (λavg) của của các gói tin đến như Công thức 2.12.
curavg
cur
avg
cur
1
(2.12)
Để tăng độ chính xác của việc ước tính hơn nữa, Luận án điều chỉnh linh
động ngưỡng thời gian tập hợp chùm hiện thời dựa trên lỗi ước tính trung
bình của các lần tập hợp chùm trước đó theo Công thức 2.13
L
LLRR
e
E
)()1(
(2.13)
2.1.3.4 So sánh và đánh giá dựa trên kết quả mô phỏng
Luận án sử dụng các tham số cài đặt trong phần này tương tự Mục 2.1.2.2.
a. So sánh tỉ lệ lỗi ước tính trung bình
Kết quả ở Hình 2.8 cho thấy rằng phương pháp iBADR có tỉ lệ lỗi ước
tính nhỏ nhất.
Hình 2.8 Tỉ lệ lỗi ước tính trung bình của các phương pháp tập hợp chùm trước đây với phương
pháp tập hợp chùm cải tiến (iBADR)
b. So sánh số gói tin thừa trong 100 chùm sinh ra liên tiếp
Hình 2.10 mô tả một so sánh về số gói tin thừa của iBADR và các phương
pháp đã công bố, trong đó iBADR có số chùm thừa là đáng kể.
11
Hình 2.10 Số gói tin thừa trong 100 chùm sinh ra đầu tiên
2.1.3.5 Nhận xét
Dựa trên kết quả mô phỏng, phương pháp iBADR cho tỉ lệ lỗi ước tính
giảm hơn so với BASTP. Tuy nhiên, nếu xét về số gói tin thừa phải chuyển
cho chùm tiếp theo thì iBADR sinh ra tương đối nhiều như Hình 2.10.
Phương pháp tập hợp chùm giảm độ trễ iBADR được đề xuất trong mục này
đã được công bố trong [CT2].
2.1.4 Phương pháp tập hợp chùm giảm độ trễ OBADR
2.1.4.1 Mô tả phương pháp tập hợp chùm giảm độ trễ OBADR
Phương pháp OBADR (Optimal Burst Assembly for Delay Reduction) là
một cải tiến tiếp theo của iBADR, trong đó ngoài áp dụng phương pháp ước
tính độ dài chùm TW-EWMA với được điều chỉnh linh hoạt, quá trình tập
hợp chùm là một kết hợp của 2 giai đoạn tập hợp:
Giai đoạn 1: khi gói tin đầu tiên đến hàng đợi, bộ đếm thời gian
(timer) được kích hoạt. Gói điều khiển chỉ được gửi vào mạng lõi khi
timer đạt đến ngưỡng Tw, là kích thước của cửa sổ thời gian. Độ dài
ước tính (eL ) đồng thời cũng được tính toán dựa trên phương pháp
TW-EWMA với được điều chỉnh linh hoạt.
Giai đoạn 2: Tiến trình tập hợp chùm vẫn được tiếp tục, nhưng bây
giờ dựa trên ngưỡng độ dài ước tính eL . Chùm chỉ được hoàn thành
khi số lượng gói tin đến trong hàng đợi đạt đến ngưỡng eL .
2.1.4.3 So sánh và đánh giá dựa trên kết quả mô phỏng
Các tham số mô phỏng là tương tự như trong Mục 2.1.2.2.
a. So sánh tỉ lệ lỗi ước tính trung bình
Hình 2.11 cho thấy OBADR có tỉ lệ lỗi ước tính ( ER ) thấp hơn tất cả các
phương pháp đã được đề xuất trước đó.
12
Hình 2.11 So sánh tỉ lệ lỗi ước tính trung bình giữa các phương pháp tập hợp giảm độ trễ
b. So sánh số gói tin thừa trong 100 chùm sinh ra liên tiếp
Hình 2.13 Số gói tin thừa trong 100 chùm sinh ra liên tiếp
Như thể hiện ở Hình 2.13, phương pháp OBADR không có số gói tin
thừa, nhờ độ dài ước tính được sử dụng làm ngưỡng độ dài.
2.1.5 Ảnh hưởng của trọng số α đến OBADR
2.1.5.1 Khảo sát sự biến đổi của α khi tải đến thay đổi
Với tải chuẩn hóa thay đổi từ 0.1 đến 0.9 và các giá trị α được khảo sát từ
0.1 đến 0.9, kết quả thu được cho thấy rằng lỗi ước tính tối thiểu có phân bố
tương ứng với α trong khoảng (0.4, 0.6). Như vậy, việc thiết lập α cố định rõ
ràng không phù hợp đối với các tải đến khác nhau.
2.1.5.2 So sánh hiệu quả tập hợp chùm khi α cố định và α thay đổi
Kết quả cho thấy khi thời gian tập hợp chùm bé (từ 2.5 ms đến 5.5 ms), α
động cho kết quả lỗi ước tính trung bình tốt hơn so với α cố định (α = 0.5).
2.1.5.3 Nhận xét
Dựa trên các kết quả mô phỏng việc điều chỉnh giá trị α linh hoạt (Như
trong Công thức 2.12) theo tốc độ của luồng dữ liệu đến đã làm tăng hiệu quả
của việc ước tính độ dài chùm hoàn thành. Kết quả này cũng khẳng định hiệu
13
quả của việc điều chỉnh linh hoạt α theo tốc độ của luồng dữ liệu đến. Kết
quả trong phần này đã được công bố trong [CT4].
2.1.6 Ảnh hưởng của OBADR đến hoạt động lập lịch chùm
2.1.6.1 Phân tích ảnh hưởng của OBADR dựa trên phương pháp Engset
2.1.6.2 So sánh hiệu quả giữa mô hình phân tích và kết quả mô phỏng
Như được mô tả trong Hình 2.19, OBADR cho kết quả tốt hơn so với
phương pháp tập hợp chùm truyền thống về lý thuyết và mô phỏng.
Hình 2.2 So sánh tỉ lệ mất chùm giữa OBADR và tập hợp chùm truyền thống
2.1.6.3 Nhận xét
Phương pháp OBADR đã chứng tỏ được hiệu quả trong quá trình tập hợp
chùm góp phần giảm độ trễ đáng kể, trong đó việc không có gói tin bị mất do
đặt tài nguyên không đủ đã làm cho các chùm không phải chịu bất kỳ một độ
trễ tăng thêm nào. Phương pháp tập hợp chùm giảm độ trễ OBADR được đề
xuất trong mục này đã được công bố trong [CT3].
2.2 Mô hình tập hợp chùm công bằng độ trễ
2.2.1 Các công trình nghiên cứu liên quan
Các mô hình tập hợp chùm giảm độ trễ đã công bố đều có ý tưởng chung
là gửi sớm gói điều khiển một khoảng thời gian offset trước khi hoàn thành
chùm. Trong các mô hình này, chỉ có POQA trong [69] là có kết hợp với hỗ
trợ đa dạng dịch vụ. Cụ thể, các tác giả trong [69] đã sử dụng các thời gian
offset khác nhau cho các chùm có lớp ưu tiên khác nhau và điều chỉnh thời
gian tập hợp đối với các chùm sao cho chùm ưu tiên cao luôn có thời gian
đệm chùm ngắn hơn chùm ưu tiên thấp. Như ví dụ được chỉ ra trong Hình
2.21, chùm thuộc lớp ưu tiên nhất class0 có thời gian tập hợp chùm Ta(0) bé
nhất và giá trị thời gian offset To(0) lớn nhất, trong khi lớp ưu tiên thấp nhất
class2 có thời gian tập hợp chùm Ta(2) dài nhất và giá trị thời gian offset
To(2) bé nhất.
14
class0
class1
class2
Ta(2)
To(2)
Ta(1)
To(1)
Ta(0)
To(0)
Hình 2.3 Một ví dụ về 3 ngưỡng thời gian tập hợp chùm và 3 giá trị thời gian offset
2.2.2 Phương pháp tập hợp chùm công bằng độ trễ BADF
2.2.2.1 Giới thiệu về công bằng độ trễ trong mạng OBS
Với công bằng độ trễ được đề xuất trong [69], các chùm có ưu tiên cao sẽ
có thời gian đệm chùm càng ngắn. Tuy nhiên, cách diễn dịch này vẫn chưa
thể hiện được bản chất của sự đáp ứng công bằng đối với các cá nhân trong
khái niệm công bằng. Vì vậy, luận án bổ sung khái niệm công bằng độ trễ
như sau: Công bằng độ trễ là sự hài lòng về độ trễ giữa các chùm ưu tiên
khác nhau, sao cho tỉ lệ trung bình về độ trễ đầu - cuối với giới hạn độ trễ của
chúng là xấp xỉ nhau. Ngoài ra, để đáp ứng yêu cầu về sự phân biệt ưu tiên
dựa trên độ trễ trong mạng OBS, hai ràng buộc sau được bổ sung vào.
1. Chùm có mức độ ưu tiên càng cao thì có độ trễ đầu cuối càng thấp;
và
2. Độ trễ đầu cuối của một chùm không lớn hơn giới hạn độ trễ tối đa
của nó (Ví dụ: RTT của các gói IP được mang trong chùm).
Như vậy khái niệm “Công bằng độ trễ” của luận án bổ sung đã bao hàm
khái niệm công bằng độ trễ được đề xuất trong [69].
2.2.2.2 Chỉ số công bằng độ trễ
Gọi D(i) là độ trễ trung bình dữ liệu phải chờ trong hàng đợi i trước khi
được tập hợp thành một chùm và Ta(i) là thời gian tập hợp chùm trên hàng
đợi i, đại lượng xi = D(i)/Ta(i) sẽ phản ánh mức độ trễ dữ liệu trong hàng đợi
i. Luận án đề xuất công thức tính chỉ số công bằng độ trễ DFI cho các chùm
ưu tiên khác nhau dựa trên công thức của Jain trong [39] như sau:
n
i ii
n
i ii
xn
xDFI
1
2
2
1
)(
(2.22)
Mức độ công bằng sẽ tăng khi DFI tiến đến 1, và bằng 1 khi
nn xxx ...2211 , trong đó i là trọng số của xi, 0 < i < 1 và
15
11
n
i i .
2.2.2.3 Phương pháp tập hợp chùm 2 giai đoạn
Phương pháp tập hợp chùm giảm độ trể được luận án đề xuất BADF
(Burst Assembly for Delay Fairness) cũng dựa trên ý tưởng gửi sớm gói điều
khiển (xem Mục 2.1.3 và 2.1.4), với những điểm mới đến từ mô hình tập hợp
chùm 2 giai đoạn được đề xuất. Giai đoạn 1 là tập hợp chùm dựa trên ngưỡng
thời gian ước tính và Giai đoạn 2 là tập hợp chùm dựa trên ngưỡng ước tính.
Chi tiết của mô hình tập hợp chùm 2 giai đoạn như sau:
Giai đoạn 1: khi có gói tin đầu tiên đến tại hàng đợi i, bộ đếm thời gian
(timer) bắt đầu được kích hoạt. Gói điều khiển chỉ được gửi khi timer đạt đến
ngưỡng thời gian ước tính Te(i) = Ta(i) – To(i). Độ dài chùm ước tính )(iLe
được tính toán dựa vào phương pháp TW-EWMA [23]:
)()()())(1()()( iiiiiTiL curavga
e (2.25)
Trong giai đoạn này, giá trị α(i) được điều chỉnh tăng/giảm tùy thuộc vào
tốc độ gói tin đến tại hàng đợi i, được tính bởi α(i) = cur(i)/(avg(i) + cur(i)),
thay vì phải giữ cố định như trong TW-EWMA.
Giai đoạn 2: giải thuật tập hợp chùm tiếp tục được thực hiện cho đến khi
hoặc ngưỡng độ dài )(iLe đạt đến hoặc ngưỡng thời gian Ta(i) đạt đến.
2.2.2.5 So sánh và đánh giá dựa trên kết quả mô phỏng
Mô phỏng được cài đặt trong một PC, các gói tin đến thuộc 3 lớp ưu tiên
(K = 3). Quá trình đến của các gói tin tại các hàng đợi có phân bố Poisson và
kích thước của chúng phân bố ngẫu nhiên trong khoảng [500, 1000] bytes.
Giá trị thời gian offset được thiết lập lần lượt là 0.3, 0.2 và 0.1 (ms) cho các
hàng đợi 1, 2 và 3 tương ứng.
Mục tiêu mô phỏng bao gồm:
So sánh chỉ số DFI giữa giải thuật BADF và giải thuật POQA;
Phân tích hiệu quả của công bằng độ trễ đến thời gian tập hợp
chùm Ta(i) và độ trễ đệm chùm;
So sánh lỗi ước tính (Công thức 2.8) giữa giải thuật BADF và giải
thuật POQA.
a. So sánh chỉ số DFI giữa giải thuật BADF và giải thuật POQA
16
Hình 2.4 So sánh chỉ số DFI giữa BADF và POQA
b. Phân tích hiệu quả của công bằng độ trễ đến thời gian tập hợp chùm
Ta(i) và độ trễ đệm chùm
Như được thể hiện trong Hình 2.25, thời gian tập hợp chùm Ta(i) giảm
khi tốc độ đến của các gói tin tăng, với class0 trong khoảng thời gian mô
phỏng [0.4, 0.6] và với class2 trong thời gian mô phỏng [0.7, 0.9].
Hình 2.5 So sánh giá trị Ta(i) của 3 lớp ưu tiên với giải thuật BADF
c. So sánh lỗi ước tính giữa giải thuật BADF với giải thuật POQA
Hình 2.60 So sánh lỗi ước tính giữa BADF với POQA
Hình 2.30 chỉ ra một so sánh về tỉ lệ lỗi ước tính (được tính bởi Công thức
2.8) giữa giải thuật BADF với giải thuật POQA, trong đó lỗi ước tính của
BADF là nhỏ hơn nhiều so với POQA.
17
Hình 2.7 So sánh tỉ lệ lãng phí băng thông giữa BADF và POQA
Hình 2.8 So sánh tỉ lệ gửi lại giữa BADF và POQA
2.2.2.6 Nhận xét
Giải thuật BADF là hiệu quả trong việc điều khiển công bằng độ trễ giữa
các hàng đợi QoS khác nhau, khi so sánh dựa trên chỉ sổ DFI, lỗi ước tính, tỉ
lệ gửi lại. Tuy nhiên, tồn tại của giải thuật BADF là tỉ lệ lãng phí băng thông
còn lớn trung bình khoảng 12% (như được chỉ ra ở Hình 2.31), nhưng so với
tỉ lệ mất phải gửi lại của giải thuật POQA trung bình khoảng 30%, thì giải
thuật BADF vẫn tốt hơn. Giải thuật BADF và các kết quả ở trên đã được
công bố trong [CT5].
2.3 Tiểu kết Chương 2
Trong chương này, Luận án đã đề xuất 2 mô hình tập hợp chùm giảm
độ trễ có tên là iBADR [CT2], OBADR [CT3] và một mô hình tập hợp chùm
đảm bảo công bằng độ trễ BADF [CT5]. Dựa vào kết quả mô phỏng, giải
thuật iBADR và OBADR cho kết quả giảm đỗ trễ tốt hơn các đề xuất đã
được công bố. Giải thuật BADF đã đạt được sự công bằng độ trễ gần như tối
ưu nhất, đồng thời giảm độ trễ và giảm thiểu lỗi ước tính trên các hàng đợi.
18
CHƯƠNG 3. CÔNG BẰNG THÔNG LƯỢNG
DỰA TRÊN CẤP PHÁT BĂNG THÔNG VÀ ĐẮP CHÙM
3.1 Mô hình cấp phát băng thông công bằng dựa trên thông lượng
3.1.1 Giới thiệu về cấp phát băng thông công bằng
Cấp phát băng thông công bằng, còn được gọi là công bằng tốc độ (rate
fairness), đề cập đến việc cấp phát băng thông cho các kết nối theo tỷ lệ của
băng thông cung cấp với băng thông khả dụng [53].
3.1.2 Các công trình nghiên cứu liên quan
Cho đến nay, các mô hình cấp phát băng thông công bằng trong mạng
OBS đều dựa trên mô hình phân bổ băng thông công bằng max-min trong
mạng IP [16], bao gồm 2 mô hình MMFP và RFP.
3.1.3 Phương pháp cấp phát băng thông công bằng dựa trên thông lượng TFBA
3.1.3.1 Kiến trúc nút biên vào hỗ trợ đa dạng dịch vụ
Xét một nút biên vào với kiến trúc như được chỉ ra ở Hình 3.3
Gói tin
đến
Các hàng đợi của
từng lớp dịch vụ
Phân lớp theo
đích đến
Đích 1
Đích m
Đích 2
Tập hợp chùm theo từng đích đến
Phân lớp
dịch vụ
class0
class1
classn-1
Mô-đun cấp
phát băng thông
Liên
kết ra
Hình 3.1 Kiến trúc nút biên vào OBS hỗ trợ đa dạng dịch vụ
3.1.3.2 Tỉ lệ băng thông sử dụng tối đa của mỗi liên kết trong mạng OBS Bảng 3.1 Tỉ lệ thông lượng đạt được tối đa trên mỗi liên kết với tải chuẩn hóa khác nhau
Tải chuẩn hóa 0.5 0.6 0.7 0.8 0.9 1.0
Thông lượng tối đa 0.48616 0.572186 0.67152 0.72123 0.7213 0.71945
3.1.3.3 Phương pháp cấp phát băng thông công bằng TFBA
Ý tưởng của phương pháp cấp phát băng thông công bằng được Luận án
đề xuất là điều chỉnh thông lượng thực tế về gần với băng thông cấp phát
công bằng nhằm đảm bảo sự công bằng trong việc cấp phát băng thông giữa
các luồng.
19
Quá trình phân bổ băng thông công bằng dựa trên thông lượng được thực
hiện theo 4 bước:
Bước 1: Xác định tỉ lệ công bằng Fi cho mỗi kết nối
Nếu tốc độ đến của luồng i có thay đổi đáng kể, băng thông đầu tiên được
chia đều cho các kết nối, tỉ lệ Fi cho mỗi kết nối được xác định là mức tối
thiểu giữa thông lượng thật (Ai) với băng thông phân bổ công bằng. Kết nối
có thông lượng thực tế ít hơn so với lượng băng thông được phân bổ sẽ
không tham gia chia sẻ băng thông thừa trong lần lặp tiếp theo. Việc phân bổ
được tiếp tục cho đến khi băng thông được phân bổ (m) không có thay đổi so
với lần lặp trước (m = mprev) hoặc tất cả các kết nối đều được thỏa mãn (m =
0).
Bước 2: Xác định băng thông phân bổ công bằng ABi cho mỗi kết nối
Đặt Bw là băng thông tối đa ở liên kết ra, băng thông phân bổ công bằng
cho kết nối i được xác định theo Công thức 3.4
BwFAB ii (3.4)
trong đó Fi là tỉ lệ công bằng như được xác định ở Bước 1.
Bước 3: Đo giá trị thông lượng thực tế ATi của mỗi kết nối
Thông lượng thực tế được xác định theo Công thức 3.5
)(/)( iTipAT wwi (3.5)
trong đó pw(i) là lượng dữ liệu đến trong cửa sổ thời gian Tw(i).
Bước 4: Xử lý tranh chấp chùm
Vấn đề tranh chấp chùm được giải quyết dựa trên việc so sánh giữa ATi và
ABi nhằm xác định xem chùm đến có thuộc luồng xấu (luồng quá tải) hay
không. Theo đó nếu ATi > ABi chùm đến thuộc luống xấu, nó sẽ bị loại bỏ để
dành tài nguyên cho các chùm thuộc luồng tốt (luồng không quá tải). Ngược
lại, nếu ATi < ABi chùm đến thuộc luồng tốt, việc xem xét tỷ lệ ATi /ABi sẽ
được tính đến, nếu giá trị ATi/ABi thấp hơn giá trị ATj/ABj của chùm tranh
chấp, chùm tranh chấp sẽ bị đánh rơi. Ngược lại, nếu giá trị ATi/ABi lớn hơn
chùm tranh chấp ATj/ABj chùm đến sẽ bị loại bỏ.
3.1.3.4 Chỉ số công bằng thông lượng
Cấp phát băng thông công bằng trong tiếp cận của luận án cũng dựa trên ý
tưởng của công bằng max-min. Tuy nhiên công bằng được dựa trên tỉ lệ của
thông lượng thực tế với băng thông được cung cấp, thay vì các xác suất mất
mát như trong [67], [53]. Cụ thể, đặt yi = ATi / ABi là tỉ lệ của thông lượng
thực tế (ATi) và băng thông cấp phát công bằng (ABi) của luồng i. Dựa trên
20
công thức của Jain trong [39], luận án đề xuất chỉ số công bằng thông lượng
TFI như sau:
n
i ii
n
i ii
yn
yTFI
1
2
2
1
)(
(3.6)
trong đó σi là trọng số thể hiện mức độ sử dụng băng thông so với mức được
cung cấp giữa các luồng, ở đây 0 < σi < 1 và 11
n
i i .
3.1.3.6 So sánh và đánh giá dựa trên kết quả mô phỏng
Với mục tiêu mô phỏng là:
- So sánh tỉ lệ mất byte giữa các kết nối và tỉ lệ mất byte trung bình
giữa TFBA, MMFP và RFP.
- So sánh tính công bằng dựa trên chỉ số TFI giữa TFBA, MMFP và
RFP.
Với mục tiêu mô phỏng chỉ xem xét tỉ lệ mất byte của các kết nối khi chia
sẻ chung một (hay một nhóm) liên kết ra nên mạng Dumbbell được chọn như
Hình 3.5 là đủ để đánh giá giải thuật đề xuất. Môi trường mô phỏng là NS2
[71] với gói hỗ trợ mạng OBS obs-0.9a. Các mô phỏng được triển khai trên
một máy tính PC với cấu hình 2.4 GHz Intel Core 2 CPU, 2G RAM.
E1 E2C1 C2
Kết nối 1
Kết nối 3
Kết nối 2
Hình 3.2 Hình thái mạng mô phỏng
a. So sánh tỉ lệ mất byte giữa các kết nối
Hình 3.3 So sánh tỉ lệ mất byte giữa 3 kết nối của TBFA trong 2 trường hợp (1) tổng tải không
vượt quá khả năng liên kết và (2) tải luồng 3 tăng đột biến vượt quá khả năng liên kết
21
Hình 3.4 So sánh tỉ lệ mất byte trung bình trên cả 3 kết nối của TFBA, RFP và MMFP
b. So sánh hiệu quả công bằng dựa trên chỉ số TFI
Hình 3.5 So sánh chỉ số TFI của phương pháp TFBA với RFP và MMFP
3.1.4 Phân tích ảnh hưởng của TFBA đến việc lập lịch tại liên kết ra
3.1.4.1 Mô hình phân tích
Luận án sử dụng mô hình Markov [11] để phân tích ảnh hưởng của TFBA
đến việc lập lịch trên liên kết ra.
3.1.4.2 So sánh hiệu quả giữa mô hình phân tích và kết quả mô phỏng
Kết quả thể hiện trong Hình 3.15 cho thấy xác suất mất chùm của mô hình
phân tích là tương đồng với kết quả mô phỏng (Hình 3.7).
Hình 3.6 So sánh tỉ lệ mất chùm giữa mô hình phân tích và mô phỏng với TFBA
3.1.5 Nhận xét
Phương pháp TFBA dựa trên chỉ số công bằng về thông lượng nên có thể
áp dụng đối với nhiều loại luồng đến, thay vì chỉ với luồng Poisson như trong
[67], [53]. Phương pháp TFBA đã được công bố trong [CT6].
22
3.2 Mô hình đắp chùm hiệu quả băng thông và công bằng thông lượng
3.2.1 Các công trình nghiên cứu liên quan
3.2.2 Phương pháp đắp chùm
3.2.2.1 Giới thiệu về mô hình đắp chùm
Mô hình đắp chùm mà luận án đề xuất QDBAP (QoS Differentiation
Burst Assembly with Padding) được mô tả như trong Hình 3.17, trong đó việc
đắp chùm được thực hiện bằng cách huy động các gói tin từ hàng đợi có QoS
thấp sang đắp cho chùm có QoS cao hơn.
(a) Trước khi đắp chùm
class0
class1
class2
Bmin
Chùm
class0
class1
class2
Bmin
Chùm
(b) Sau khi đắp chùm
Mứ
c đ
ộ ư
u tiê
n
giả
m d
ần
3 hàng đợi QoSMô đun
đắp chùm3 Hàng đợi QoS
Mô đun
đắp chùm
Hình 3.7 Một ví dụ về mô hình đắp chùm trên 3 lớp:
(a) trước khi đắp chùm; (b) sau khi đắp chùm
3.2.2.2 Quy tắc đắp chùm
Quy tắc đắp chùm được luận án đề xuất như sau:
1. Chỉ đắp chọn các gói tin từ hàng đợi QoS thấp sang đắp cho chùm
QoS cao hơn
2. Các gói tin được chọn từ hàng đợi QoS thấp theo hình thức đến
trước phục vụ trước.
3. Các gói tin được chọn từ các hàng đợi QoS thấp sẽ đắp vào đuôi của
chùm QoS cao hơn (xem Hình 3.17):
4. Chỉ chọn các gói tin từ hàng đợi QoS thấp mà gói điều khiển của nó
chưa được gửi đi.
3.2.2.4 So sánh và đánh giá dựa trên kết quả mô phỏng
Với mục tiêu của mô phỏng là:
So sánh băng thông lãng phí khi phải sử dụng byte độn và
So sánh chỉ số công bằng thông lượng TFI (Công thức 3.8).
a. So sánh tỉ lệ lãng phí băng thông
23
Hình 3.8 So sánh số byte đắp giữa QDBAP và POQA
b. So sánh, đánh giá vấn đề công bằng thông lượng
Hình 3.9 So sánh dựa trên chỉ số công bằng thông lượng giữa QDBAP và POQA
Hình 3.10 So sánh công bằng thông lượng (dựa trên tỉ lệ tải thực tế classi trên khả năng đáp
ứng băng thông TBi (yi)) giữa POQA và QDBAP
3.2.3 Nhận xét
3.3 Tiểu kết Chương 3
Trong chương này, Luận án đã giới thiệu một phương pháp cấp phát băng
thông công bằng dựa trên thông lượng TFBA. Giải thuật TFBA có thể áp
dụng cho nhiều loại luồng đến, đồng thời nâng cao đáng kể hiệu năng của
mạng và điều phối công bằng thông lượng, kết quả này đã được phản ánh
trong [CT6]. Ngoài ra, Luận đã đề xuất một phương pháp đắp chùm kết hợp
với tập hợp chùm, nhằm tối ưu băng thông và điều phối công bằng thông
lượng giữa các lớp dịch vụ khác nhau có tên là QDBAP. Kết quả trong phần
này cũng đã được công bố trong [CT7].
24
KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN CỦA LUẬN ÁN
KẾT LUẬN:
Chuyển mạch chùm quang (OBS) trên mạng WDM được xem là một giải
pháp đầy triển vọng cho mạng Internet thế hệ tiếp theo, bởi vì OBS khắc
phục được những hạn chế về công nghệ của chuyển mạch gói quang hiện tại
và khai thác băng thông linh hoạt, tốt hơn chuyển mạch kênh quang. Một
trong những vấn đề quan trọng của mạng OBS là làm thế nào để điều khiển
công bằng giữa các luồng dịch vụ khác nhau. Với mục đích đó Luận án đã
tập trung nghiên cứu các mô hình, giải thuật điều khiển công bằng trong
mạng OBS với các hướng tiếp cận khác nhau. Kết quả mà Luận án đã đạt
được bao gồm:
1. Tổng hợp phân tích, đánh giá và phân loại các phương pháp điều khiển
công bằng trong mạng OBS. Qua đó chỉ ra được các điểm tồn tại của các
công bố trước đây và đây chính là cơ sở để Luận án đề xuất và cải tiến một số
mô đun chức năng, giải thuật điều khiển công bằng tốt hơn.
2. Đề xuất 2 mô hình tập hợp chùm giảm đỗ trễ có tên là iBADR [CT2],
OBADR [CT3] nhằm giảm độ trễ tập hợp chùm tốt hơn trên các hàng đợi.
3. Đề xuất mô hình tập hợp chùm đảm bảo công bằng độ trễ BADF [CT5].
4. Đề xuất mô hình cấp phát băng thông công bằng dựa trên thông lượng,
áp dụng cho nhiều loại luồng đến khác nhau TFBA [CT6].
5. Phương pháp đắp chùm QDBAP [CT7] cũng đã được đề xuất nhằm tối
ưu băng thông sử dụng và góp phần điều khiển công bằng thông lượng.
HƯỚNG PHÁT TRIỂN LUẬN ÁN:
Từ những kết quả đạt được trong Luận án một số vấn đề cần được quan tâm
nghiên cứu trong thời gian tới:
1. Nghiên cứu vấn đề điều khiển công bằng khoảng cách, để thấy được vai trò
của công bằng khoảng cách trong vấn đề truyền và nhận dữ liệu trong mạng.
2. Xây dựng mô hình điều khiển công bằng kết hợp bao gồm giữa độ trễ với
thông lượng, hay giữa thông lượng với khoảng cách hoặc cả 3 loại công bằng
trên.
25
DANH MỤC CÁC CÔNG TRÌNH LIÊN QUAN ĐẾN LUẬN ÁN
[CT1]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2016), “Phân tích
các giải thuật tập hợp chùm giảm độ trễ tại nút biên mạng OBS”, Tạp chí Khoa
học và công nghệ (Đại học Khoa học, Đại học Huế), tập 6, số 1, trang: 9-20.
[CT2]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2017), “Một
hướng tiếp cận tập hợp chùm cải tiến nhằm giảm độ trễ tại các nút biên mạng
OBS”, Tạp chí Khoa học và công nghệ (ĐH Huế), tập 126, số 2A, trang:19-30.
[CT3]. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son (2017), “A model
of optimal burst assembly for delay reduction at ingress OBS nodes”, Turkish
Journal of Electrical Engineering & Computer Sciences (SCIE), vol. 25, no. 5,
pp. 3970-3982.
[CT4]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2018), “Ảnh
hưởng của tính chất luồng dữ liệu đến hiệu quả tập hợp chùm giảm độ trễ tại nút
biên mạng OBS”, Hội nghị khoa học quốc gia lần thứ XI về nghiên cứu cơ bản
và ứng dụng Công nghệ thông tin (FAIR), trang: 57-64.
[CT5]. Vo Viet Minh Nhat, Le Van Hoa, Le Manh Thanh (2018), “On the delay
fairness through the burst assembly for service difference”, ETRI Journal (SCIE),
vol. 40, no. 3, pp. 347-354.
[CT6]. Le Van Hoa, Vo Viet Minh Nhat, Le Manh Thanh (2018) “Throughput-
based Fair Bandwidth Allocation in OBS Networks”, ETRI Journal (SCIE), vol.
40, no. 5, pp. 624-633.
[CT7]. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son, Le Manh Thanh
(2018), “A Model of QoS Differentiation Burst Assembly with Padding for
Improving the Performance of OBS Networks”, Turkish Journal of Electrical
Engineering & Computer Sciences (SCIE), vol 26, no. 4, pp. 1783-1795.
HUE UNIVERSITY
LE VAN HOA
RESEARCH OF THE FAIRNESS CONTROL
IN OPTICAL BURST SWITCHING NETWORKS
MAJOR: COMPUTER SCIENCE
CODE: 9.48.01.01
SUMMARY OF PHD THESIS
Supervisors:
1. Assoc. Prof. Dr. Vo Viet Minh Nhat
2. Dr. Nguyen Hoang Son
HUE, YEAR 2019
The thesis has been completed at University of Sciences, Hue University.
Supervisor:
1. Assoc. Prof. Dr. Vo Viet Minh Nhat. Hue University, Viet Nam.
2. Dr. Nguyen Hoang Son. University of Sciences, Hue University, Viet Nam
The dissertation will be defended at University level Council of
Dissertation Assessment at Hue University.
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
........................................................................................................................
Time: . . . date . . . month . . . year 2019
1
PREFACE
1. The urgency of the topic
The continuous development of Internet in recent decades, along with the
explosion of communication services, has increased demands for bandwidth.
This poses a major challenge in finding suitable communication technologies
to enhance the communication capabilities of new generation networks.
Optical networks, together with the technology of wavelength division
multiplexing (WDM), have provided an effective solution to meet these
requirements [24], [36].
Optical communication, from its inception in early 1990s to the present, has
undergone many generations of development: from the initial model of
wavelength routing with end-to-end dedicated lightpaths to the model of
optical packet switching [36], which has been proposed recently, with the idea
taken from electronic packet switching networks. However, with some
technological limitations, such as not being able to produce optical buffers
(similar to RAM in electronical networks) or the optical packet switches in
nanosecond speed, optical packet switching has not yet been come true. A
compromise solution is the optical burst switching (OBS) model.
A typical feature of the communication in optical burst switching (OBS)
networks is that the burst control packet (BCP) is separated from its data burst.
In other words, to transmit an optical burst, a BCP is formed and sent ahead an
offset time that is sufficient to reserve resources and configure switches at
intermediate nodes along the path that its burst will pass from source to
destination. In addition, the OBS network reserves some channels
(wavelengths) for BCPs, while the remaining channels are used for burst
transmission. Thus, the BCP transmission is completely separate from its burst
in terms of space (on separated transmission channels) and also in time (sent
ahead an offset time) [65].
With the transmission mode, it is clear that OBS networks do not need
optical buffers to temporarily store optical burst while waiting for the
switching at core nodes, nor do it require the switches in nanosecond.
However, this way of communication also places a pressure on how a control
2
packet can promptly reserve resources and successfully configure switches at
the core nodes for its following burst. That is the task of operations such as
resource reservation, scheduling, contention resolution ... In addition, another
issue that is also interested by many researchers in the field of OBS networks
is how to ensure the fairness of the different flows which share the same links
within OBS networks.
In OBS networks, fairness is studied in three main directions: delay fairness
[69], througphut fairness [53] and distance fairness [10]. Ensuring the fairness
of flows which share resources in OBS networks is very significate, on the one
hand to ensure the commitment of service quality, and other hand to optimize
the communication performance per flow and/or entire network (based on data
loss rate, bandwidth utilization rate, end-to-end delay rate, etc.).
2. Research motivation
There have been a number of studies on fairness issues in OBS networks
that can be classified into two main approaches which based on the location of
implementation:
- The fairness solutions at edge nodes and
- The fairness solutions at core nodes.
With the first group, there are two main research directions: (1) delay
fairness and (2) throughput fairness; while in the second group, the fairness
problem is known mainly as distance fairness.
In OBS networks, the ingress node plays an important role in controlling
fairly flows, because:
1. The ingress node controls the traffic of flows (end-to-end connections)
fairly before transfers them into the core network;
2. Only the ingress nodes have buffers, so the fair control of delay,
throughput ... is made easier; and
3. The core node does not have buffer, so fair handling at the core node
almost depends on the control operations of its ingress node.
Based on these characteristics, the thesis focuses on the study of fairness
control at the ingress node, with two main activities: delay control and
throughput control.
3
3. Research objectives
Studying and proposing some improvements in the burst assembly
with delay reduction to reduce the communication delay over OBS
networks;
Studying and proposing a solution of the burst assembly with delay
fairness for delay-based QoS difference, delay reduction and delay
fairness of different priority flows.
Studying and proposing a solution with throughput fairness, which can
be applied to different types of incoming flows with Poisson and non-
Poisson distribution.
Studying and proposing a solution of burst padding to improve
bandwidth utilization and throughput fairness.
4. Contribution of thesis
The main contributions of the thesis include:
Proposing two burst assembly models with delay fairness, named
iBADR [CT2] and OBADR [CT3], in order to reduce the burst
assembly delay.
Proposing a burst assembly model with delay fairness, named BADF
[CT5], that results in delay-based QoS difference, delay reduction and
delay fairness of different priority flows.
Proposing a bandwidth allocation model with throughput fairness,
named TFBA [CT6], that is applicable to different types of incoming
traffics.
Proposing a burst padding solution, named QDBAP [CT7], in order to
improve bandwidth utilization and throughput fairness.
4
CHAPTER 1: AN OVERVIEW OF THE FAIRNESS
IN OPTICAL BURST SWITCHING NETWORKS
1.1 Switching models in optical communication
Optical switches are divided into 3 types: optical channel switching (OSC),
optical packet switching (OPS) and optical burst switching (OBS), in which
OBS has inherited the advantages from the two others, where no optical buffer
and high-speed optical switche are needed.
1.2 Communication principle of OBS networks
In OBS networks, different types of incoming data are aggregated into data
bursts before being sent (Figure 1.2a). At egress nodes, the bursts will be
disassembled into original packets which are then delivered to their destination
(Figure 1.2b).
Figure 1.1 The process of assembling and disassembling at the edge OBS nodes
1.3 Operations within OBS networks
1.3.1 Assembling
Burst assembling is a method of aggregating packets (such as IP packets,
ATMs, etc.) from different access networks into larger burst at ingress nodes
of the OBS network.
1.3.2 Signaling
There are two main types of signaling protocols in OBS networks: JIT and
JET, in which JET is the signaling protocol implemented for most OBS
networks because it makes better use of the bandwidth.
5
1.3.3 Scheduling
When a control packet arrives at a core node, a scheduling algorithm is
called to schedule its following burst on an output link. There are three main
scheduling mechanisms: (1) scheduling without void filling; (2) scheduling
with void filling and (3) group scheduling.
1.3.4 Contention resolution
As with any packet-switched network, contention also appears in OBS
networks. That is when two burst simultaneously dispute the same resource at
the same link (wavelength). Possible solutions to contentions in OBS networks
include: wavelength conversion, using FDL, deflection routing and
combination of the above solutions.
1.4 Fairness issues in OBS networks
1.4.1 The fairness concept in OBS networks
According to Denda et al. [38], fairness is known as the satisfaction of
individuals in the process of resource allocation. In the OBS network, fairness
issues are distinguished by: delay fairness, throughput fairness and distance
fairness, which are considered at edge and core nodes (Figure 1.7).
FAIRNESS IN OBS NETWORKS
EDGE NODES CORE NODES
DELAY FAIRNESSTHROUGHPUT
FAIRNESS DISTANCE FAIRNESS
Figure 1.7 Fairness classification based on consideration location
1.4.2 Delay fairness
Fairness delay refers to establishing fairly a buffering delay (including
assembling delay and offset time) for bursts of different QoS classes.
6
1.4.3 Throughput fairness
Throughput fairness refers to the fair allocation of bandwidth between flows which
share the same link.
1.4.4 Distance fairness
Distance fairness refers to dealing with contentions fairly (as measured by
the data loss rate) based on the path length (number of hops) from source to
destination.
1.5 Research objectives
The thesis focuses on the fairness issues at the ingress node to improve the
efficiency of delay and throughput fairness, with four main objectives:
1. Improving and proposing new solution of burst assembly for delay
reduction that applies to each individual queue.
2. Improving and proposing new solution of delay fairness control that
applies to multiple queues with different QoS levels.
3. Improving and proposing new solution of throughput fairness control
that applies to flows of Poisson and Non-Poisson distribution.
4. Proposing new solutions of burst padding to improve communication
performance.
1.6 Summary chapter 1
This chapter has introduced an overview of OBS networks and its
operations, in which the burst assembly at the ingress node is focused on
analysis because it plays an important role in the fairness of entire network.
This chapter has also analyzed and evaluated the methods of fairness control
that have been published so far. That is the basis for the thesis to identify the
research objectives, as well as propose the improved architecture of ingress
node with additional functional modules to ensure the implementation of the
fairness solutions proposed by the thesis.
7
CHAPTER 2: BURTS ASSEMBLY FOR DELAY REDUCTION
AND DELAY FAIRNESS
2.1 Model of burst assembly for delay reduction
2.1.1 Issue of the burst assembly delay
The end-to-end delay of a burst transmitted over an OBS network is mainly
caused by four components: (1) the assembly delay at ingress node, (2) the
offset time for resource reservation of the control packet, (3) burst switching
delay at core nodes and (4) propagation delay over core network. Two first
delays are collectively formed a common element which há the name the
buffering delay; two latters usually do not change corresponding to a given
implemented protocol. Therefore, the proposals usually focus on reducing the
buffering delay.
2.1.2 Related works
2.1.2.1 Analysis of the published methodes of burst assembly for delay
reduction
There are 6 published methodes of burst assembly for delay reduction as
shown in Table 2.1. Table 2.1 Comparison of the published methodes of burst assembly for delay reduction
IE-BADR POQA JK-BADR BADR-EAT MTBA-TP BASTP
Burst
assembly
method
Timer-based Timer-
based
Timer-
based
Timer-based Hybrid Hybrid
Assembly
threshold
fixed fixed fixed fixed fixed addaptivei
Estimation
method
Based on the
average speed
of packets
arriving in the
estimated
time period
Based on
the
length of
the last
M bursts
Based on
the
estimated
error of the
previous
assembly
Based on the
density of
the last M
packets
Based on the
arrival speed
of the last
packet
Based on
M last
burst
assemblies
Reduced
delay To To To To t1 + To – Ta To
8
2.1.2.2 Comparison and analysis of simulation results
Simulation is done with the following objectives:
Comparing the average estimattion error rate (Formula 2.8) between
the methodes of burst assembly for delay reduction.
(2.8)
where M is the number of assembly times, e
jL and Lj are the
estimation size and the completed size of burst j.
Comparing the number of redundant packets transferred for the next
burst of 100 consecutive assembly times between the methodes of
burst assembly for delay reduction.
Analyzing the way to select the thresholds for BASTP, the best
methode of burst assembly for delay reduction.
The simulations are installed on a PC with 2.4 GHz Intel Core 2 CPU, 2G
RAM. Packets arriving at the ingress node have a Poisson distribution with
exponentially random size in the range of [500, 1000] bytes. Traffic loads
ariving at the queues varies from 0.1 to 0.9. Simulations are performed in 1
second). Data were extracted from NS2 [71] with support package obs-0.9a.
Other parameters include Ta = 6 ms, To = 2 ms
a. Comparison of the average estimation rate
Figure 2.3 shows a comparison of the average estimation error between the
methods of burst assembly for delay reduction. The simulation results show
that the estimation error of the statistical-based methods such as BASTP,
BADR-EAT and POQA being lower than that of other methods.
Figure 2.3 Comparison of the average estimation error rate of IE-BADR, JK-BADR, POQA,
BADR-EAT, MTBA-TP and BASTP with normalized load to 0.5
M
LLLR
M
j j
e
jj
E
1
/
9
b. Comparison of the number of redundant packets transferred for the
next burst
Figure 2.6 Comparison of the number of redundant packets in 100 consecutive assembly times.
c. Analizing the way to select the thresholds for BASTP
As described in Figures 2.3 and 2.6, BASTP always gives the best
simulation results. However, these results is often accompanied by a pairs of
suitable selected threshold value (Lmin, Lmax).
2.1.2.3 Comments
The above analysis, comparisons and evaluations (published in [CT1]) are
the basis for proposing the improvements of burst assembly for delay reduction
which are presented in the following sections.
2.1.3 Method of burst assembly for delay reduction iBADR
2.1.3.1 Introduction to the incoming traffic estimation method TW-EWMA
To estimate the incoming traffic at a queue, Salad et al. [23] proposed the
TW-EWMA method. Unlike other estimation methods that often count
incoming packets at continuous observation intervals (estimation cycles), TW-
EWMA only counts in a smaller estimation time window (Tw) to reduce the
calculation cost (Figure 2.7).
TW1 TW2 TW3 TWn
Timesa estimated cycle a estimated cycle
Figure 2.1 The estimation time windows in TW-EWMA
2.1.3.2 Method of burst assembly for delay reduction iBADR
The iBADR (improved Burst Assembly for Delay Reduction) method is
also based on the idea of sending the control packet early at the time
oa TTt 1 (Ta > To) and the corresponding burst is sent at the time aTt 2
10
; As a result, the delay of packets carried in the current burst is reduced a period
To. The thesis uses TW-EWMA [23] to estimate the arriving packet rate,
thereby estimating the completed burst size.
The authors in [23] set α to a fixed value (equal to 0.3), which does not in
fact reflect the abnormal changing nature of the incoming traffic; The result is
a significant estimation error. The thesis proposes to change α in a flexible way
according to the ratio of current rate (cur) and average rate (λavg) of incoming
packets as Formula 2.12.
curavg
cur
avg
cur
1
(2.12)
In order to increase the accuracy of the estimation, the thesis flexibly adjusts
the time threshold based on the average estimation error of the previous burst
assembly times according to Equation 2.13.
L
LLRR
e
E
)()1(
(2.13)
2.1.3.4 Comparison and analysis of simulation results
The simulation parameters for this part are similar to Section 2.1.2.2.
a. Comparison of the average estimation error rate
The results in Figure 2.8 show that iBADR has the smallest estimation error
rate.
Figure 2.8 Comparison of the average estimation error rate between iBADR and previous
methods
b. Comparison of the number of redundant packets in 100 consecutive
assembly times
Figure 2.10 shows a comparison on the number of redundant packets
11
between iBADR and previous methods, where the number of redundant bursts
of iBADR is significant.
Figure 2.10 Comparison of the number of redundant packets in 100 consecutive assembly
times.
2.1.3.5 Comments
Based on simulation results, iBADR achieved a estimation error rate lower
than that of BASTP, but it generates relatively many redundant packets as
shown in Figure 2.10. The method of burst asembly for delay reduction iBADR
has been published in [CT2].
2.1.4 Method of burst assembly for delay reduction OBADR
2.1.4.1 Description
The OBADR (Optimal Burst Assembly for Delay Reduction) method is an
improvement of iBADR, in addition to applying the burst length estimation
method TW-EWMA with flexibly adjusted , the burst assembly process is a
combination of the 2 assembly stages:
Stages 1: When the first packet arrives at a queue, the timer of the
queue is triggered. The control packet is only sent to the core network
when the timer reaches the threshold Tw, which is the size of the time
window. The estimated length (eL ) is also calculated based on TW-
EWMA with flexibly adjusted .
Stages 2: The burst assembly process continues, but now based on the
estimated length threshold. The burst is only completed when the
number of packets arriving in the queue reaches the threshold eL .
2.1.4.3 Comparison and analysis of simulation results
The simulation parameters for this part are similar to Section 2.1.2.2.
12
a. Comparison of the average estimation error rate
Figure 2.11 shows that the average estimation error rate ( ER ) of OBADR
is lower than that of all previous methods.
Figure 2.11 Comparison of the average estimation error rate between OBADR and previous
methods
b. Comparison of the number of redundant packets in 100 consecutive
assembly times
Figure 2.13 Comparison of the number of redundant packets in 100 consecutive assembly
times.
As shown in Figure 2.13, OBADR does not generate redundant packets.
This is due to the estimated lengths used as the length threshold in burst
assembly.
2.1.5 Effect of the factor α on OBADR
2.1.5.1 Investigating the variation of α depending on the load changes
With the normalized load changing from 0.1 to 0.9 and α changing from 0.1
to 0.9, the simulation results show that the estimation error is minimum when
α has a distribution in the range of (0.4, 0.6). Thus, the fixed α setting is clearly
not suitable when arriving load is varied.
13
2.1.5.2 Comparing the burst assembly efficiency when α is fixed and varied
Simulation results show that dynamic α results in a better average
estimation error than fixed α (α = 0.5) when the assembly time is small (from
2.5 ms to 5.5 ms).
2.1.5.3 Comments
Based on the simulation results, flexible adjustment of α values (such as
Equation 2.12) depending on the incoming traffic rate has increased the
efficiency of estimating the complete burst length. This result also confirms
the effect of flexible adjustment of α according to the incoming traffic rate.
The results of this study were published in [CT4].
2.1.6 Effect of OBADR on scheduling
2.1.6.1 Analyze the effect of OBADR on scheduling based on Engset method
2.1.6.2 Comparison of the analysis model and simulation result
As shown in Figure 2.19, OBADR achieves a lower probability of burst
loss compared to the traditional model in theory and simulation.
Figure 2.2 Comparison on the probability of burst loss between OBADR and traditional
model
2.1.6.3 Comments
Based on the analysis and simulation results, OBADR has proven to be the
most efficient burst assembly method in term of low estimation error, reduced
delay and minimized burst loss rate. The method of burst assembly for delay
reduction OBADR was published in [CT3].
2.2 Model of burst assembly for delay fairness
2.2.1 Related works
The models of burst assembly for delay reduction share a common idea of
sending the control packet early before the burst is completed. Among these
14
models, only POQA [69] is associated with service differentiation.
Specifically, the authors in [69] have set different offset times for bursts with
different priority classes and adjusted the assembly times so that the higher
priority burst is, the shorter the buffering time. As the example shown in Figure
2.21, the burst with the highest priority class class0 has the smallest assembly
time Ta(0) and the largest offset time To(0), while the lowest priority class
class2 has the longest assembly time Ta(2) and the smallest offset time To(2). class0
class1
class2
Ta(2)
To(2)
Ta(1)
To(1)
Ta(0)
To(0)
Figure 2.3 An example of time thresholds and offset times for 3 classes
2.2.2 Method of burst assembly for delay fairness BADF
2.2.2.1 Introduction to the delay fairness in OBS networks
With the concept of delay fairness proposed in [69], higher priority burst
will have a shorter buffering time. However, this interpretation has not yet
shown the nature of the fair response to individuals in the notion of fairness.
Therefore, the thesis supplements the concept of delay fairness as follows:
Delay fairness is the satisfaction on delay between different priority bursts,
such that the average ratio of the end-to-end delay to their limited delay is
approximative. In addition, in order to meet the requirement for prioritizing
delays in OBS networks, the following two constraints were added.
1. The higher the priority is, the lower the end-to-end delay is; and
2. The end-to-end delay of a burst is not greater than its limited delay
(Example: RTT of IP packets carried in a burst).
Thus, the concept of "delay fairness" added by the thesis implies the
concept of delay fairness proposed in [69].
2.2.2.2 Index of delay fairness
Let D(i) be the average delay that packets must wait in queue i before being
aggregated into a burst and Ta(i) is the assembly time of queue i, xi = D(i)/Ta(i)
will reflect the delay of the packets in queue i. The thesis proposes a formula
to calculate the DFI delay fairness index for different priority bursts based on
15
Jain's formula in [39] as follows:
n
i ii
n
i ii
xn
xDFI
1
2
2
1
)(
(2.22)
Fairness will increase as DFI approaches 1, and equals 1 when
nn xxx ...2211 , where i is the weight of xi, 0 < i < 1 and
11
n
i i .
2.2.2.3 Method of 2-stage burst assemly
The Burst Assembly for Delay Fairness (BADF) method is also based on
the idea of sending control packets early (see Section 2.1.3 and 2.1.4), but
adding new points in the 2-stage assembly model. Stage 1 is a estimated time
threshold-based burst assembly and Stage 2 is a estimated length threshold-
based burst assembly. The 2-stage assembly model is in detail as follows:
Stage 1: when the first packet arrives at queue i, the timer is triggered. The
control packet is only sent when the timer reaches the estimated time threshold
Te(i) = Ta(i) – To(i). The estimated burst length is calculated based on the TW-
EWMA method [23]:
)()()())(1()()( iiiiiTiL curavga
e (2.25)
During this period, the value of α(i) is adjusted to increase/decrease
depending on the rate of packet arrival at queue i, calculated by α(i) =
cur(i)/(avg(i) + cur(i)), instead of being fixed as in [23]
Stage 2: the burst assemly algorithm continues until either the length
threshold )(iLe or time threshold Ta(i) is reached.
2.2.2.5 Comparison and analysis of simulation results
Assuming that incoming packets belong to three priority classes (K = 3),
have Poisson distribution and have exponential distribution sizes in the range
[500, 1000] bytes; three priority queues 1, 2 and 3 are therefore used with the
offset times set to 0.3, 0.2 and 0.1 (ms), respectively.
Simulation objectives include:
Comparing the DFI index between BADF and POQA;
Analyzing the impact of the delay fairness on the assembly time
Ta(i) and the buffering delay;
16
Comparing the estimation error (Formula 2.8) between BADF and
POQA.
a. Comparison of the DFI index between BADF and POQA
Figure 2.4 Comparison of the DFI index between BADF and POQA
b. Analyzing the impact of the delay fairness on the assembly time Ta(i)
and the buffering delay
As shown in Figure 2.25, the assembly time Ta(i) decreases as the incoming
traffic of packets increases, with class0 during the simulation period [0.4, 0.6]
and with class2 during the simulation period [0.7 , 0.9].
Figure 2.5 Comparison of Ta(i) between 3 priority classes with BADF
c. Comparison of the estimation error between BADF and POQA.
Figure 2.60 Comparison of the estimation error between BADF and POQA
17
Figure 2.30 shows a comparison of the estimation error rate (Formula 2.8)
between BADF and POQA, where the estimation error of BADF is much
smaller than that of POQA.
Figure 2.7 Comparison of the bandwidth wasting rate between BADF and POQA
Figure 2.8 Comparison of re-send rate between BADF and POQA
2.2.2.6 Comments
The BADF algorithm has been proven to effectively control the delay
fairness between different QoS queues, based on DFI index, estimation error,
and re-send rate. One drawback of BADF, however, is the high bandwidth
wastage rate about 12% on average (Figure 2.31). However, if compared with
the re-send rate of POQA (about 30% on average), BADF is better. The BADF
algorithm and the above results have been published in [CT5].
2.3 Summary chapter 2
This chapter presents two proposed models of delay reduction iBADR
[CT2] and OBADR [CT3], and a model of delay fairness BADF [CT5]. Based
on simulation results, iBADR and OBADR achieve lower delay than previous
proposals. BADF also achieves the delay fairness which is almost optimal,
while reducing the delay and minimizing the estimation error on the queues.
18
CHAPTER 3: THROUGHPUT FAIRNESS
BASED ON BANDWIDTH ALLOCATION AND BURST PADDING
3.1 Model of bandwidth allocation with throughput fairness
3.1.1 Introduction to fair bandwidth allocation
Fair bandwidth allocation, also known as rate fairness, refers to allocating
bandwidth for connections proportional to the provided bandwidth to the
available bandwidth [53].
3.1.2 Related works
So far, the models of fair bandwidth allocation in OBS networks are based
on the max-min fair bandwidth allocation model in IP networks [16], such as
MMFP and RFP.
3.1.3 Bandwidth allocation with throughput fairness TFBA
3.1.3.1 Architecture of the ingress node supporting QoS
Consider an ingress node with an architecture as shown in Figure 3.3.
Figure 3.1 Architecture of the ingress node supporting QoS
3.1.3.2 Maximum bandwidth ratio for each link in OBS networks Table 3.1 Maximum throughput rate per link with different normalized loads
Normalized load 0.5 0.6 0.7 0.8 0.9 1.0
Maximum throughput 0.48616 0.572186 0.67152 0.72123 0.7213 0.71945
3.1.3.3 Description of TFBA
The idea of TFBA is to adjust actual throughput close to the fair allocation
bandwidth to ensure fair bandwidth allocation between flows.
The process of allocating bandwidth with fairness throughput includes 4
steps:
Step 1: Determine the fairness rate Fi for each connection
19
If the incoming traffic of flow i varies significantly, the bandwidth is first
divided among the connections, the ratio Fi of each connection is determined
as the minimum of the actual throughput (Ai) and the fairly allocated
bandwidth. Connections with actual throughput less than the allocated
bandwidth will not participate in the redundant bandwidth sharing process in
the next time. The allocation is continued until the allocated bandwidth (m)
does not change from the previous time (m = mprev) or all connections are
satisfied (m = 0).
Step 2: Determine the fairly allocated bandwidth ABi for each connection
Let Bw be the maximum output bandwidth, the fair allocation bandwidth for
connection i is determined by Equation 3.4
BwFAB ii (3.4)
where Fi is the fairness ratio determined in Step 1.
Step 3: Measure the actual throughput ATi of each connection
Actual throughput is determined by Formula 3.5
)(/)( iTipAT wwi (3.5)
where pw(i) is the number of packets arriving in the time window Tw(i).
Step 4: Handling burst contention
The burst contention problem is resolved based on a comparison between
ATi and ABi to determine whether the incoming burst is in an overrate
(overloaded) flow. If ATi > ABi, the incoming burst is in an overrate flow and
will be dropped to reserve resources for the bursts in an underrate
(unoverloaded) flow. Conversely, if ATi < ABi, the arrival burst is in underrate
flow and the ratio ATi /ABi will be considered. If the value of ATi /ABi is smaller
than that of ATj/ABj, the scheduled burst will be dropped. Conversely, if the
value of ATi /ABi is greater than ATj/ABj, the incoming burst will be dropped.
3.1.3.4 Index of throughput fairness
The fair bandwidth allocation approach proposed by the thesis also comes
from the idea of max-min fairness, but based on the ratio between actual
throughput and provided bandwidth, instead of probability of loss. as in [67],
[53]. Specifically, set yi = ATi / ABi is the ratio between the actual throughput
(ATi) and the fair allocation bandwidth (ABi) of flow i. Based on Jain's formula
in [39], the thesis proposes the throughput fairness index (TFI) as follows:
20
n
i ii
n
i ii
yn
yTFI
1
2
2
1
)(
(3.6)
where σi is the weight that represents the actual used bandwidth compared to
the provided bandwidth between the flows, 0 < σi < 1 and 11
n
i i .
3.1.3.6 Comparison and analysis of simulation results
Simulation objectives include:
- Comparing the byte loss rate between connections and the average byte
loss rate among TFBA, MMFP and RFP
- Comparing the fairness based on TFI among TFBA, MMFP and RFP.
Because the simulation objective only considers the byte loss rate of the
connections which share the same (or group of) output link(s), the Dumbbell
simulation network as shown in Figure 3.5 is sufficient to evaluate the
effectiveness of the proposed algorithm.
Figure 3.2 Simulation network topology
a. Comparison of the byte loss rate between connections
Figure 3.3: Comparison of the byte loss rate between 3 connections with TBFA in 2 cases: (1)
The total load does not exceed the link capacity and (2) the load of connection 3 spikes
beyond the link capacity
21
Figure 3.4 Comparison of the average byte loss rate on 3 connections of TFBA, RFP and
MMFP
b. Comparison of the fairness based on TFI
Figure 3.5 Comparison of the fairness based on TFI among TFBA, MMFP and RFP
3.1.4 Analyzing the impact of TFBA on scheduling at output link
3.1.4.1 Analytical model
The Markov model [11] is used to analyze the impact of TFBA on
scheduling at output link.
3.1.4.2 Comparison of the effectiveness between analytical model and
simulation results
The simulation results in Figure 3.15 show that the probability of burst loss
of the analysis model is similar to the simulation results (Figure 3.7).
Figure 3.6 Comparison of the effectiveness between analytical model and simulation results
with TFBA
3.1.5 Comments
Based on analysis and simulation results, the TFBA method has proven to
22
be more efficient than previous methods, especially applicable to many types
of incoming flows, instead of only Poisson flow as in [67], [53]. The TFBA
method has been published in [CT6].
3.2 Padding model for effective bandwidth utilisation and throughput
fairness
3.2.1 Related works
3.2.2 Padding method
3.2.2.1 Introduction to burst padding
The burst padding model QDBAP (QoS Differentiation Burst Assembly
with Padding) proposed in the thesis is described as shown in Figure 3.17, in
which the burst padding is done by picking packets from low QoS queues to
add into higher QoS burst.
Figure 3.7 An example of a burst padding model with three layers:
(a) before the burst padding and (b) after the burst padding
3.2.2.2 Padding policy
The proposed padding policy is as follows:
1. Only take packets from the low QoS queue to pad in the higher QoS burst
2. Selecting a packet from a low QoS queue is on a first-come, first-served
basis.
3. Low QoS packets are padded to the tail of the higher QoS burst.
4. Only take packets from the low QoS queue that its control packet has not
yet been sent.
3.2.2.4 Comparison and analysis of simulation results
Simulation objectives include:
Comparing wasted bandwidth when using padded bytes and
Compare the throughput fairness based on TFI (Formula 3.8).
a. Comparison of wasted bandwidth
23
Figure 3.8 Comparison of the number of padding bytes between QDBAP and POQA
b. Comparison of the throughput fairness
Figure 3.9 Comparison of the throughput fairness based on TFI between QDBAP and POQA
Figure 3.10 Comparison of the throughput fairness (based on the ratio of the actual load and
the bandwidth capacity) between POQA and QDBAP
3.2.3 Comments
Based on the analysis and simulation results, the QDBAP method has
proven to be effective in increasing bandwidth usage and throughput fairness
for different QoS flows. The results of this study were published in [CT7].
3.3 Summary chapter 3
This chapter introduced a method of bandwidth allocation for throughput
fairness TFBA, which can be applied to many types of incoming flows, greatly
increasing the network performance and assuring throughput fairness (this
result has been published in [CT6]). In addition, this chapter also presents a
proposed burst padding method that increases the efficiency of bandwidth
24
utilization and throughput fairness between QoS classes (This result was
published in [CT7]).
CONCLUSION
The OBS network is a promising solution for the next-generation Internet,
because OBS overcomes the today's technology limitations of optical packet
switching and exploits flexible bandwidth better than optical channel
switching. One of the issues of OBS network research is how to control the
fairness between different service flows. With that motivation, the thesis has
focused on fairness control models and algorithms in OBS network with
different approaches. Achievements of the thesis include:
1. Reviewing, analysing, evaluating and classifying of the fairness control
methods in OBS networks. Based on the points of existence of the previous
published findings, the thesis proposes improvements and new solutions for
better functional modules, fairness control models and algorithms.
2. Proposing 2 models of burst assembly for delay reduction, iBADR [CT2]
and OBADR [CT3], in order to reduce the buffering delay of assembly queues,
in which OBADR achieves minimum error and accurate estimation of
generated burst size.
3. Proposing a burst assembly model, BADF [CT5], that ensures the delay
fairness which is better than a previously proposed method (POQA). At the
same time, BADF is more effective than POQA in terms of delay, average
error rate ... The dissertation also proposes a metric index (DFI) in order to
measure the delay fairness efficiency of proposed methods.
3. Proposing a model of throughput-based fair bandwidth allocation, TFBA
[CT6], that can be applied to priority flows with Poisson and non-Poisson
distribution. TFBA has a lower loss rate than the two previously proposed
methods (MMFP and RFP), and increase the throughput fairness efficiency
based on TFI, a metric index proposed by the dissertation.
4. Propose a burst padding method, QDBAP [CT7], in order to increase
the efficiency of bandwidth utilization and throughput fairness. In addition,
QDBAP also reduces the bandwidth wastage rate in comparison with POQA.
25
LIST OF RESULTS PULISHED BY AUTHOR
CT1. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2016), “Analysis
of the algorithms of burst assembly for delay reduction at the edge node
of obs networks”, Hue University College of Sciences Journal of
Science, ISSN 2354-0842, vol 6, no.1, pp. 9-20.
CT2. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2017), “An
improved approach of burst assembly for delay reduction at edge OBS
nodes”, Hue University Journal of Science, ISSN 1859-1388, vol. 126,
no. 2A, pp.19-30.
CT3. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son (2017), “A model
of optimal burst assembly for delay reduction at ingress OBS nodes”,
Turkish Journal of Electrical Engineering & Computer Sciences (SCIE),
vol. 25, no. 5, pp. 3970-3982.
CT4. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2018), “Effects
of data flow properties to the efficiency of burst assembly for delay
reduction at ingress OBS nodes”, Proceedings of the 11th National
Conference of Fundamental and Applied Information Technology
Research (FAIR), pp: 57-64.
CT5. Vo Viet Minh Nhat, Le Van Hoa, Le Manh Thanh (2018), “On the delay
fairness through the burst assembly for service difference”, ETRI
Journal (SCIE), vol. 40, no. 3, pp. 347-354.
CT6. Le Van Hoa, Vo Viet Minh Nhat, Le Manh Thanh (2018)
“Throughput-based Fair Bandwidth Allocation in OBS Networks”,
ETRI Journal (SCIE), vol. 40, no. 5, pp. 624-633.
CT7. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son, Le Manh Thanh
(2018), “A Model of QoS Differentiation Burst Assembly with Padding
for Improving the Performance of OBS Networks”, Turkish Journal of
Electrical Engineering & Computer Sciences (SCIE), vol 26, no. 4, pp.
1783-1795.