Top Banner
ĐẠI HC HULÊ VĂN HÒA ĐIỀU KHIN CÔNG BNG LUNG TRONG MNG CHUYN MCH CHÙM QUANG CHUYÊN NGÀNH: KHOA HC MÁY TÍNH MÃ S: 9480101 TÓM TT LUN ÁN TIẾN SĨ KHOA HC MÁY TÍNH HU- NĂM 2019
54

ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

May 05, 2023

Download

Documents

Khang Minh
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

ĐẠI HỌC HUẾ

LÊ VĂN HÒA

ĐIỀU KHIỂN CÔNG BẰNG LUỒNG

TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG

CHUYÊN NGÀNH: KHOA HỌC MÁY TÍNH

MÃ SỐ: 9480101

TÓM TẮT LUẬN ÁN TIẾN SĨ KHOA HỌC MÁY TÍNH

HUẾ - NĂM 2019

Page 2: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

Công trình được hoàn thành tại: Trường đại học Khoa học, Đại học Huế .....

........................................................................................................................

........................................................................................................................

Người hướng dẫn khoa học: (ghi họ tên, chức danh khoa học, học vị): .........

1. PGS. TS. Võ Viết Minh Nhật, Đại học Huế ......................................

2. TS. Nguyễn Hoàng Sơn, Trường Đại học Khoa học, Đại học Huế ...

........................................................................................................................

Phản biện 1: ....................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

Phản biện 2: ...................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

Phản biện 3: ...................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

Luận án sẽ được bảo vệ tại Hội đồng chấm luận án cấp Đại học Huế họp tại:

........................................................................................................................

Vào hồi ................. giờ ............. ngày ........... tháng ........ năm................ ......

Có thể tìm hiểu luận án tại thư viện: ...............................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

(ghi tên thư viện)

Page 3: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

1

MỞ ĐẦU

1. Tính cấp thiết của đề tài

Sự phát triển không ngừng của Internet trong một vài thập niên trở lại đây,

cùng với sự bùng nổ các loại hình dịch vụ truyền thông, đã làm gia tăng

không ngừng nhu cầu về băng thông truyền thông. Điều này đã đặt ra một

thách thức lớn trong việc tìm kiếm công nghệ truyền thông phù hợp nhằm

nâng cao khả năng truyền thông của mạng thế hệ mới. Mạng quang, cùng với

công nghệ ghép kênh bước sóng WDM, đã mang đến một giải pháp hiệu quả

đáp ứng được những yêu cầu này [24], [36].

Truyền thông quang, từ khi ra đời vào đầu thập niên 90 cho đến nay, đã

trải qua nhiều thế hệ phát triển: từ những mô hình định tuyến bước sóng ban

đầu với những đường quang (lightpath) đầu cuối dành riêng cho đến các mô

hình chuyển mạch gói quang [36] được đề xuất gần đây, với ý tưởng được lấy

từ các mạng chuyển mạch gói điện tử. Tuy nhiên, với một số hạn chế về mặt

công nghệ, như chưa thể sản xuất các bộ đệm quang (tương tự bộ nhớ RAM

trong mạng điện) hay các bộ chuyển mạch gói quang ở tốc độ nano giây,

chuyển mạch gói quang chưa thể trở thành hiện thực. Một giải pháp thỏa hiệp

là mô hình chuyển mạch chùm quang (OBS).

Một đặc trưng tiêu biểu của truyền thông trong mạng chuyển mạch chùm

quang (mạng OBS) là phần (gói) điều khiển BCP tách rời với phần (chùm)

dữ liệu (data burst). Nói một cách khác, để thực hiện truyền một chùm

quang, gói điều khiển được hình thành và được gửi đi trước một khoảng thời

gian offset đủ để đặt trước tài nguyên và cấu hình chuyển mạch tại các nút

trung gian dọc theo hành trình mà chùm quang sẽ đi qua từ nút nguồn đến nút

đích. Thêm vào đó, mạng OBS dành riêng một số kênh (bước sóng) cho gói

tin điều khiển, trong khi các kênh còn lại được dùng cho việc truyền dữ liệu.

Như vậy, việc truyền gói điều khiển hoàn toàn tách rời với phần dữ liệu về

mặt không gian (trên kênh truyền khác) và cũng như về mặt thời gian (gởi đi

trước một khoảng thời gian offset) [65].

Với cách truyền tải dữ liệu như mô tả, rõ ràng mạng OBS không cần đến

các bộ đệm quang để lưu tạm thời các chùm quang trong khi chờ đợi việc xử

lý chuyển mạch tại các nút lõi, cũng như không yêu cầu các chuyển mạch tốc

Page 4: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

2

độ nano giây. Tuy nhiên, cách truyền thông này cũng đặt ra một áp lực là làm

thế nào để một gói điều khiển có thể kịp đặt trước tài nguyên và cấu hình

chuyển mạch thành công tại các nút lõi, đảm bảo cho việc chuyển tiếp chùm

quang đi sau nó. Đó chính là nhiệm vụ của các hoạt động như đặt trước tài

nguyên, lập lịch, xử lý tắc nghẽn ... Ngoài ra một vấn đề khác cũng được

nhiều nhà nghiên cứu mạng OBS quan tâm là làm sao đảm bảo được sự công

bằng (fairness) giữa các luồng truyền thông khác nhau khi chia sẻ cùng liên

kết bên trong mạng OBS.

Trong mạng OBS, vấn đề công bằng được nghiên cứu theo 3 hướng

chính: công bằng về độ trễ (delay fairness) [69], công bằng về thông lượng

(througphut fairness) [53] và công bằng về khoảng cách (distance fairness)

[10]. Việc đảm bảo công bằng giữa các luồng chia sẻ chung tài nguyên trong

mạng OBS có một ý nghĩa rất quan trọng, một mặt nhằm vừa đảm bảo sự

phân biệt chất lượng dịch vụ đã cam kết, mặt khác tối ưu hiệu năng truyền

thông của mỗi luồng và toàn mạng (chẳng hạn, dựa trên tỉ lệ mất mát dữ liệu,

tỉ lệ sử dụng băng thông, tỉ lệ độ trễ đầu cuối …).

2. Động lực nghiên cứu

Hiện đã có một số công trình nghiên cứu về vấn đề công bằng trong mạng

OBS mà có thể được phân thành 2 nhóm tiếp cận chính dựa trên vị trí thực

hiện:

- Nhóm giải pháp công bằng tại nút biên và

- Nhóm giải pháp công bằng tại nút lõi.

Với nhóm giải pháp công bằng tại nút biên, có 2 hướng nghiên cứu chính

gồm: (1) công bằng độ trễ và (2) công bằng thông lượng.

Với nhóm giải pháp công bằng tại nút lõi, vấn đề công bằng được biết đến

chủ yếu là là công bằng khoảng cách.

Trong mạng OBS, nút biên đóng một vai trò quan trọng trong điều khiển

công bằng luồng, bởi vì:

1. Nút biên điều khiển lưu lượng của các luồng (kết nối đầu cuối) một

cách công bằng trước khi truyền vào bên trong mạng lõi; các nút

lõi lúc này chủ yếu là xử lý công bằng các luồng đã được đưa vào;

2. Chỉ có nút biên mới có các bộ đệm, nên vấn đề điều khiển công

Page 5: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

3

bằng về độ trễ, thông lượng… được thực hiện dễ dàng hơn và

3. Nút lõi không có bộ đệm nên xử lý công bằng ở nút lõi gần như

phụ thuộc vào các hoạt động điều khiển tại nút biên.

Dựa vào những đặc điểm đó Luận án tập trung vào việc nghiên cứu điều

khiển công bằng tại nút biên, với hai hoạt động chính là điều khiển công bằng

độ trễ và điều khiển công bằng thông lượng.

3. Mục tiêu nghiên cứu

Nghiên cứu và đề xuất một số cải tiến về tập hợp chùm giảm độ trễ

nhằm làm giảm độ trễ truyền thông qua mạng OBS;

Nghiên cứu và đề xuất giải pháp tập hợp chùm công bằng độ trễ

nhằm đồng thời phân biệt QoS theo độ trễ, làm giảm độ trễ và công

bằng về độ trễ giữa các luồng ưu tiên khác nhau.

Nghiên cứu và đề xuất giải pháp điều khiển công bằng thông lượng,

mà có thể áp dụng cho các loại luồng đến có phân bố Poisson và non-

Poisson.

Nghiên cứu và đề xuất giải pháp đắp chùm sau tập hợp chùm nhằm

nâng cao hiệu quả sử dụng băng thông và đảm bảo công bằng thông

lượng.

4. Đối tượng và Phạm vi nghiên cứu

- Đối tượng nghiên cứu: Các mô hình, giải thuật tập hợp chùm và điều

khiển công bằng luồng trong mạng OBS.

- Phạm vi nghiên cứu: Nút biên mạng OBS.

5. Phương pháp nghiên cứu

- Phương pháp nghiên cứu lý thuyết: Tổng hợp các công bố liên quan đến

các mô hình, giải thuật điều khiển công bằng độ trễ và công bằng thông

lượng trong mạng OBS. Phân tích, đánh giá ưu và khuyết điểm của các đề

xuất đã công bố để làm cơ sở cho việc cải tiến hoặc đề xuất mới.

- Phương pháp mô phỏng, thực nghiệm: Cài đặt các giải thuật cải tiến và

đề xuất mới nhằm chứng minh tính đúng đắn của các giải thuật này.

6. Cấu trúc luận án

Luận án bao gồm phần mở đầu, ba chương nội dung, phần kết luận và

danh mục các tài liệu tham khảo. Cụ thể:

Page 6: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

4

Chương 1 “Tổng quan về công bằng trong mạng chuyển mạch chùm

quang” giới thiệu về các mô hình chuyển mạch trong truyền thông quang,

nguyên tắc hoạt động của mạng OBS và vấn đề công bằng luồng trong mô

hình mạng này.

Chương 2 “Tập hợp chùm giảm độ trễ và công bằng độ trễ” trình bày

các cải tiến và đề xuất mới của Luận án về tập hợp chùm giảm độ trễ và công

bằng độ trễ.

Chương 3 “Công bằng thông lượng dựa trên cấp phát băng thông và

đắp chùm” trình bày đề xuất giải pháp điều khiển công bằng thông lượng và

đề xuất mô hình đắp chùm sau tập hợp nhằm nâng cao hiệu quả sử dụng băng

thông và tăng tính công bằng thông lượng.

CHƯƠNG 1. TỔNG QUAN VỀ CÔNG BẰNG

TRONG MẠNG CHUYỂN MẠCH CHÙM QUANG

1.1 Các mô hình chuyển mạch trong truyền thông quang

Chuyển mạch quang được chia thành 3 loại: chuyển mạch kênh quang,

chuyển mạch gói và chuyển mạch chùm quang. Trong đó chuyển mạch chùm

quang đã kế thừa được những ưu điểm của 2 loại chuyển mạch trên, như

không cần bộ đêm quang và các chuyển mạch quang tốc độ cao.

1.2 Nguyên tắc hoạt động của mạng OBS

Hình 1.1 Quá trình tập hợp chùm và tách chùm tại các nút biên OBS

Page 7: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

5

Trong mạng OBS, các loại dữ liệu đến khác nhau được tập hợp tại nút

biên vào và được truyền dưới dạng các chùm (Hình 1.2a). Tại nút biên ra, các

chùm sẽ được tách thành các gói dữ liệu ban đầu để chuyển đến đích mong

muốn (Hình 1.2b).

1.3 Các hoạt động bên trong mạng OBS

1.3.1 Tập hợp chùm

Tập hợp chùm là một phương pháp gộp các gói tin từ nhiều mạng truy cập

khác nhau (chẳng hạn như các gói IP, ATM…) thành các chùm có kích thước

lớn hơn tại nút biên vào của mạng OBS.

1.3.2 Báo hiệu chùm

Trong mạng OBS có 2 loại giao thức báo hiệu chính là JIT và JET. JET là

giao thức báo hiệu cho hầu hết mạng OBS ngày nay, vì không cần bộ đệm

quang và không cần chờ xử lý tại các nút trung gian.

1.3.3 Lập lịch chùm

Khi một gói điều khiển đến tại một nút, một thuật toán lập lịch được gọi

để lập lịch cho chùm đến để lập lịch cho chùm tương ứng trên liên kết ra.

Hiện nay trong mạng OBS có 3 loại lập lịch chính: (1) không lấp đầy khoảng

trống; (2) lấp đầy khoảng trống và (3) lập lịch nhóm.

1.3.4 Xử lý tranh chấp chùm

Với việc sử dụng giao thức JET, các nút biên có thể gửi chùm mà không

cần phải báo nhận ACK. Tuy nhiên, điều này đòi hỏi các nút lõi mạng OBS

phải giải quyết tốt vấn đề tranh chấp giữa các chùm. Tranh chấp chỉ xảy ra

khi các chùm có sự xung đột tài nguyên (bước sóng) tại một cổng ra. Để giải

quyết vấn đề này người ta thường sử dụng phương pháp “lệch hướng”, có thể

là theo bước sóng, theo không gian và theo thời gian.

1.4 Vấn đề công bằng trong mạng OBS

1.4.1 Khái niệm công bằng trong mạng OBS

Theo Denda và cộng sự trong [38], công bằng được biết đến là sự hài lòng

của các cá nhân khi tham gia vào quá trình phân bổ tài nguyên. Trong mạng

OBS, vấn đề công bằng được nghiên cứu tại nút biên và nút lõi (Hình 1.7).

Page 8: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

6

Hình 1.7 Phân loại công bằng dựa trên vị trí thực hiện

1.4.2 Công bằng độ trễ

Đề cập đến việc thiết lập độ trễ đệm chùm (bao gồm độ trễ tập hợp chùm và thời

gian offset) khác nhau cho các chùm thuộc các lớp QoS khác nhau.

1.4.3 Công bằng thông lượng

Đề cập đến việc phân bổ băng thông công bằng giữa các luồng chia sẻ chung một

liên kết đầu – cuối.

1.4.4 Công bằng khoảng cách

Đề cập đến việc xử lý tranh chấp công bằng, như về mất mát dữ liệu, dựa vào độ

dài hành trình (số nút trung gian) từ nút nguồn đến đích.

1.5 Tiểu kết Chương 1

Chương đầu tiên của luận án đã giới thiệu tổng quan về mạng OBS và các

hoạt động bên trong mạng, trong đó tập hợp chùm tại nút biên mạng được tập

trung phân tích vì nó có ảnh hưởng quan trọng đến vấn đề công bằng luồng

trong toàn mạng. Luận án cũng đã phân tích và đánh giá các phương pháp đã

được công bố cho đến nay về điều khiển công bằng. Đó chính là cơ sở để

luận án cuối cùng xác định được bốn mục tiêu cần nghiên cứu (trong đó mục

tiêu 1, 2 được trình bày ở Chương 2 và mục tiêu 3, 4 được trình bày ở

Chương 3), cũng như đề xuất kiến trúc nút biên vào với các mô đun chức

năng được thêm vào nhằm đảm bảo triển khai các phương pháp công bằng

luồng, nâng cao hiệu năng truyền thông của mạng OBS.

Page 9: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

7

CHƯƠNG 2. TẬP HỢP CHÙM GIẢM ĐỘ TRỄ

VÀ CÔNG BẰNG ĐỘ TRỄ

2.1 Mô hình tập hợp chùm giảm độ trễ

2.1.1 Vấn đề độ trễ trong hoạt động tập hợp chùm

Độ trễ đầu cuối của một chùm khi được truyền qua mạng OBS chủ yếu là

do bốn thành phần gây nên: (1) độ trễ tập hợp chùm tại nút biên vào, (2) thời

gian offset để đặt trước tài nguyên của gói điều khiển, (3) độ trễ chuyển tiếp

chùm tại các nút lõi và (4) độ trễ truyền bá trong mạng lõi, 2 độ trễ đầu còn

có tên gọi là độ trễ đệm chùm, 2 độ trễ sau thường không thay đổi tương ứng

với một giao thức đã triển khai cho trước. Do đó, các đề xuất thường tập

trung vào mục tiêu giảm độ trễ đệm chùm.

2.1.2 Các công trình nghiên cứu liên quan

2.1.2.1 Phân tích các phương pháp tập hợp chùm giảm độ trễ đã công bố

Liên quan về vấn đề này đã có 6 phương pháp được đề xuất như thể hiện

ở Bảng 2.1. Bảng 2.1 So sánh các phương pháp tập hợp chùm giảm độ trễ đã công bố

IE-BADR POQA JK-BADR BADR-EAT MTBA-TP BASTP

Phương

pháp tập

hợp chùm

Dựa trên

ngưỡng thời

gian

Dựa trên

ngưỡng

thời gian

Dựa trên

ngưỡng thời

gian

Dựa trên

ngưỡng thời

gian

Dựa trên

ngưỡng lai

Dựa trên

ngưỡng

lai

Đặc điểm

ngưỡng

Cố định Cố định Cố định Cố định Cố định Thích

nghi

Phương

pháp ước

tính

Dựa vào tốc

độ trung bình

các gói tin đến

trong khoảng

thời gian ước

tính

Dựa vào

độ dài của

M chùm

sau cùng

nhất

Dựa vào lỗi

ước tính

của lần tập

hợp kế

trước

Dựa vào mật

độ của M gói

tin sau cùng

Dựa vào tốc

độ đến của

gói tin sau

cùng nhất

Dựa vào

M lần tập

hợp chùm

sau cùng

nhất

Độ trễ

giảm được To To To To t1 + To – Ta To

2.1.2.2 So sánh và đánh giá dựa trên kết quả mô phỏng

Với mục tiêu mô phỏng là:

So sánh tỉ lệ lỗi ước tính trung bình của các phương pháp đã công bố

Page 10: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

8

được tính bởi Công thức 2.8

(2.8)

trong đó M là số lần tập hợp chùm, Lj và Lej là kích thước hoàn

thành và kích thước ước tính của chùm thứ j.

So sánh số gói tin thừa được chuyển cho chùm tiếp theo trong 100

lần tập hợp chùm liên tiếp giữa các phương pháp tập hợp chùm đã

được công bố.

Phân tích cách chọn ngưỡng của BASTP, là phương pháp tốt nhất

trong số các phương pháp tập hợp chùm đã công bố.

Luận án tiến hành cài đặt trên một máy tính với cấu hình 2.4 GHz Intel

Core 2 CPU, 2G RAM. Các gói tin đến tại hàng đợi của nút biên mạng có

phân bố Poisson với kích thước thay đổi ngẫu nhiên trong khoảng [500,

1000] bytes. Lưu lượng tải đến tại hàng đợi thay đổi từ 0.1 đến 0.9. Mô

phỏng trong thời gian 1s (giây). Dữ liệu được trích xuất từ NS2 [71] với gói

hỗ trợ obs-0.9a. Các tham số tập hợp chùm bao gồm: Ta = 6 ms, To = 2 ms.

a. So sánh tỉ lệ lỗi ước tính trung bình

Hình 2.3 mô tả so sánh về lỗi ước tính trung bình giữa các phương pháp

đã công bố, trong đó có thể thấy rằng lỗi ước tính trung bình của các phương

pháp dựa trên thống kê như BASTP, BADR-EAT và POQA cho lỗi ước tính

thấp hơn so với các phương pháp còn lại.

Hình 2.3 So sánh tỉ lệ lỗi ước tính trung bình của IE-BADR, JK-BADR, POQA, BADR-EAT,

MTBA-TP và BASTP với tải chuẩn hóa đến 0.5

M

LLLR

M

j j

e

jj

E

1

/

Page 11: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

9

b. So sánh số gói tin thừa được chuyển cho lần tập hợp chùm tiếp theo

Hình 2.6 So sánh số gói tin thừa trong 100 chùm sinh ra đầu tiên

c. Phân tích cách chọn ngưỡng của phương pháp BASTP

Như được mô tả trong các Hình 2.3 và 2.6, phương pháp BASTP luôn cho

kết quả mô phỏng tốt nhất. Tuy nhiên, kết quả này thường đi kèm với việc

chọn cặp giá trị ngưỡng (Lmin, Lmax) phù hợp.

2.1.2.3 Nhận xét

Các phân tích, so sánh và đánh giá này (đã được công bố trong Công trình

[CT1]) chính là cơ sở để luận án đề xuất các cải tiến về tập hợp chùm giảm

độ trễ được trình bày trong các mục tiếp theo.

2.1.3 Phương pháp tập hợp chùm giảm độ trễ iBADR

2.1.3.1 Giới thiệu về phương pháp ước tính tốc độ đến TW-EWMA

Nhằm ước tính tốc độ của các gói tin đến tại một hàng đợi, Salad và cộng

sự trong [23] đã đề xuất phương pháp TW-EWMA. Khác với các phương

pháp ước tính khác thường đếm hết các gói tin đến trong các khoảng thời

gian quan sát liên tục (chu kỳ ước tính), phương pháp TW-EWMA sử dụng

một cửa sổ thời gian ước tính nhỏ hơn (Tw) nhằm giảm chi phí tính toán trên

hệ thống (Hình 2.7).

Hình 2.1 Phương pháp dự đoán theo cửa sổ của TW-EWMA

2.1.3.2 Mô tả phương pháp tập hợp chùm giảm độ trễ iBADR

Phương pháp tập hợp chùm giảm độ trễ được luận án đề xuất iBADR

(improved Burst Assembly for Delay Reduction) cũng dựa trên ý tưởng gửi

sớm gói tin điều khiển tại thời điểm oa TTt 1 (ở đây Ta luôn lớn hơn To)

TW1 TW2 TW3 TWn

Thời gianChu kỳ ước tính Chu kỳ ước tính

Page 12: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

10

và chùm tương ứng được gửi đi tại thời điểm aTt 2 ; kết quả là các gói tin

được tập hợp trong chùm hiện thời sẽ giảm được một độ trễ To. Luận án sử

dụng phương pháp TW-EWMA để ước tính tốc độ các gói tin đến, từ đó ước

tính được độ dài chùm sẽ hoàn thành.

Các tác giả trong [23] thiết lập α bằng một giá trị cố định (0.3), mà điều

này thực tế không phản ảnh được bản chất thay đổi bất thường của lưu lượng

đến; kết quả là lỗi ước tính là đáng kể. Luận án đề xuất thay đổi α một cách

linh động chuyển biến theo tỉ lệ của tốc độ đến hiện thời (cur) so và tốc độ

trung bình (λavg) của của các gói tin đến như Công thức 2.12.

curavg

cur

avg

cur

1

(2.12)

Để tăng độ chính xác của việc ước tính hơn nữa, Luận án điều chỉnh linh

động ngưỡng thời gian tập hợp chùm hiện thời dựa trên lỗi ước tính trung

bình của các lần tập hợp chùm trước đó theo Công thức 2.13

L

LLRR

e

E

)()1(

(2.13)

2.1.3.4 So sánh và đánh giá dựa trên kết quả mô phỏng

Luận án sử dụng các tham số cài đặt trong phần này tương tự Mục 2.1.2.2.

a. So sánh tỉ lệ lỗi ước tính trung bình

Kết quả ở Hình 2.8 cho thấy rằng phương pháp iBADR có tỉ lệ lỗi ước

tính nhỏ nhất.

Hình 2.8 Tỉ lệ lỗi ước tính trung bình của các phương pháp tập hợp chùm trước đây với phương

pháp tập hợp chùm cải tiến (iBADR)

b. So sánh số gói tin thừa trong 100 chùm sinh ra liên tiếp

Hình 2.10 mô tả một so sánh về số gói tin thừa của iBADR và các phương

pháp đã công bố, trong đó iBADR có số chùm thừa là đáng kể.

Page 13: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

11

Hình 2.10 Số gói tin thừa trong 100 chùm sinh ra đầu tiên

2.1.3.5 Nhận xét

Dựa trên kết quả mô phỏng, phương pháp iBADR cho tỉ lệ lỗi ước tính

giảm hơn so với BASTP. Tuy nhiên, nếu xét về số gói tin thừa phải chuyển

cho chùm tiếp theo thì iBADR sinh ra tương đối nhiều như Hình 2.10.

Phương pháp tập hợp chùm giảm độ trễ iBADR được đề xuất trong mục này

đã được công bố trong [CT2].

2.1.4 Phương pháp tập hợp chùm giảm độ trễ OBADR

2.1.4.1 Mô tả phương pháp tập hợp chùm giảm độ trễ OBADR

Phương pháp OBADR (Optimal Burst Assembly for Delay Reduction) là

một cải tiến tiếp theo của iBADR, trong đó ngoài áp dụng phương pháp ước

tính độ dài chùm TW-EWMA với được điều chỉnh linh hoạt, quá trình tập

hợp chùm là một kết hợp của 2 giai đoạn tập hợp:

Giai đoạn 1: khi gói tin đầu tiên đến hàng đợi, bộ đếm thời gian

(timer) được kích hoạt. Gói điều khiển chỉ được gửi vào mạng lõi khi

timer đạt đến ngưỡng Tw, là kích thước của cửa sổ thời gian. Độ dài

ước tính (eL ) đồng thời cũng được tính toán dựa trên phương pháp

TW-EWMA với được điều chỉnh linh hoạt.

Giai đoạn 2: Tiến trình tập hợp chùm vẫn được tiếp tục, nhưng bây

giờ dựa trên ngưỡng độ dài ước tính eL . Chùm chỉ được hoàn thành

khi số lượng gói tin đến trong hàng đợi đạt đến ngưỡng eL .

2.1.4.3 So sánh và đánh giá dựa trên kết quả mô phỏng

Các tham số mô phỏng là tương tự như trong Mục 2.1.2.2.

a. So sánh tỉ lệ lỗi ước tính trung bình

Hình 2.11 cho thấy OBADR có tỉ lệ lỗi ước tính ( ER ) thấp hơn tất cả các

phương pháp đã được đề xuất trước đó.

Page 14: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

12

Hình 2.11 So sánh tỉ lệ lỗi ước tính trung bình giữa các phương pháp tập hợp giảm độ trễ

b. So sánh số gói tin thừa trong 100 chùm sinh ra liên tiếp

Hình 2.13 Số gói tin thừa trong 100 chùm sinh ra liên tiếp

Như thể hiện ở Hình 2.13, phương pháp OBADR không có số gói tin

thừa, nhờ độ dài ước tính được sử dụng làm ngưỡng độ dài.

2.1.5 Ảnh hưởng của trọng số α đến OBADR

2.1.5.1 Khảo sát sự biến đổi của α khi tải đến thay đổi

Với tải chuẩn hóa thay đổi từ 0.1 đến 0.9 và các giá trị α được khảo sát từ

0.1 đến 0.9, kết quả thu được cho thấy rằng lỗi ước tính tối thiểu có phân bố

tương ứng với α trong khoảng (0.4, 0.6). Như vậy, việc thiết lập α cố định rõ

ràng không phù hợp đối với các tải đến khác nhau.

2.1.5.2 So sánh hiệu quả tập hợp chùm khi α cố định và α thay đổi

Kết quả cho thấy khi thời gian tập hợp chùm bé (từ 2.5 ms đến 5.5 ms), α

động cho kết quả lỗi ước tính trung bình tốt hơn so với α cố định (α = 0.5).

2.1.5.3 Nhận xét

Dựa trên các kết quả mô phỏng việc điều chỉnh giá trị α linh hoạt (Như

trong Công thức 2.12) theo tốc độ của luồng dữ liệu đến đã làm tăng hiệu quả

của việc ước tính độ dài chùm hoàn thành. Kết quả này cũng khẳng định hiệu

Page 15: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

13

quả của việc điều chỉnh linh hoạt α theo tốc độ của luồng dữ liệu đến. Kết

quả trong phần này đã được công bố trong [CT4].

2.1.6 Ảnh hưởng của OBADR đến hoạt động lập lịch chùm

2.1.6.1 Phân tích ảnh hưởng của OBADR dựa trên phương pháp Engset

2.1.6.2 So sánh hiệu quả giữa mô hình phân tích và kết quả mô phỏng

Như được mô tả trong Hình 2.19, OBADR cho kết quả tốt hơn so với

phương pháp tập hợp chùm truyền thống về lý thuyết và mô phỏng.

Hình 2.2 So sánh tỉ lệ mất chùm giữa OBADR và tập hợp chùm truyền thống

2.1.6.3 Nhận xét

Phương pháp OBADR đã chứng tỏ được hiệu quả trong quá trình tập hợp

chùm góp phần giảm độ trễ đáng kể, trong đó việc không có gói tin bị mất do

đặt tài nguyên không đủ đã làm cho các chùm không phải chịu bất kỳ một độ

trễ tăng thêm nào. Phương pháp tập hợp chùm giảm độ trễ OBADR được đề

xuất trong mục này đã được công bố trong [CT3].

2.2 Mô hình tập hợp chùm công bằng độ trễ

2.2.1 Các công trình nghiên cứu liên quan

Các mô hình tập hợp chùm giảm độ trễ đã công bố đều có ý tưởng chung

là gửi sớm gói điều khiển một khoảng thời gian offset trước khi hoàn thành

chùm. Trong các mô hình này, chỉ có POQA trong [69] là có kết hợp với hỗ

trợ đa dạng dịch vụ. Cụ thể, các tác giả trong [69] đã sử dụng các thời gian

offset khác nhau cho các chùm có lớp ưu tiên khác nhau và điều chỉnh thời

gian tập hợp đối với các chùm sao cho chùm ưu tiên cao luôn có thời gian

đệm chùm ngắn hơn chùm ưu tiên thấp. Như ví dụ được chỉ ra trong Hình

2.21, chùm thuộc lớp ưu tiên nhất class0 có thời gian tập hợp chùm Ta(0) bé

nhất và giá trị thời gian offset To(0) lớn nhất, trong khi lớp ưu tiên thấp nhất

class2 có thời gian tập hợp chùm Ta(2) dài nhất và giá trị thời gian offset

To(2) bé nhất.

Page 16: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

14

class0

class1

class2

Ta(2)

To(2)

Ta(1)

To(1)

Ta(0)

To(0)

Hình 2.3 Một ví dụ về 3 ngưỡng thời gian tập hợp chùm và 3 giá trị thời gian offset

2.2.2 Phương pháp tập hợp chùm công bằng độ trễ BADF

2.2.2.1 Giới thiệu về công bằng độ trễ trong mạng OBS

Với công bằng độ trễ được đề xuất trong [69], các chùm có ưu tiên cao sẽ

có thời gian đệm chùm càng ngắn. Tuy nhiên, cách diễn dịch này vẫn chưa

thể hiện được bản chất của sự đáp ứng công bằng đối với các cá nhân trong

khái niệm công bằng. Vì vậy, luận án bổ sung khái niệm công bằng độ trễ

như sau: Công bằng độ trễ là sự hài lòng về độ trễ giữa các chùm ưu tiên

khác nhau, sao cho tỉ lệ trung bình về độ trễ đầu - cuối với giới hạn độ trễ của

chúng là xấp xỉ nhau. Ngoài ra, để đáp ứng yêu cầu về sự phân biệt ưu tiên

dựa trên độ trễ trong mạng OBS, hai ràng buộc sau được bổ sung vào.

1. Chùm có mức độ ưu tiên càng cao thì có độ trễ đầu cuối càng thấp;

2. Độ trễ đầu cuối của một chùm không lớn hơn giới hạn độ trễ tối đa

của nó (Ví dụ: RTT của các gói IP được mang trong chùm).

Như vậy khái niệm “Công bằng độ trễ” của luận án bổ sung đã bao hàm

khái niệm công bằng độ trễ được đề xuất trong [69].

2.2.2.2 Chỉ số công bằng độ trễ

Gọi D(i) là độ trễ trung bình dữ liệu phải chờ trong hàng đợi i trước khi

được tập hợp thành một chùm và Ta(i) là thời gian tập hợp chùm trên hàng

đợi i, đại lượng xi = D(i)/Ta(i) sẽ phản ánh mức độ trễ dữ liệu trong hàng đợi

i. Luận án đề xuất công thức tính chỉ số công bằng độ trễ DFI cho các chùm

ưu tiên khác nhau dựa trên công thức của Jain trong [39] như sau:

n

i ii

n

i ii

xn

xDFI

1

2

2

1

)(

(2.22)

Mức độ công bằng sẽ tăng khi DFI tiến đến 1, và bằng 1 khi

nn xxx ...2211 , trong đó i là trọng số của xi, 0 < i < 1 và

Page 17: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

15

11

n

i i .

2.2.2.3 Phương pháp tập hợp chùm 2 giai đoạn

Phương pháp tập hợp chùm giảm độ trể được luận án đề xuất BADF

(Burst Assembly for Delay Fairness) cũng dựa trên ý tưởng gửi sớm gói điều

khiển (xem Mục 2.1.3 và 2.1.4), với những điểm mới đến từ mô hình tập hợp

chùm 2 giai đoạn được đề xuất. Giai đoạn 1 là tập hợp chùm dựa trên ngưỡng

thời gian ước tính và Giai đoạn 2 là tập hợp chùm dựa trên ngưỡng ước tính.

Chi tiết của mô hình tập hợp chùm 2 giai đoạn như sau:

Giai đoạn 1: khi có gói tin đầu tiên đến tại hàng đợi i, bộ đếm thời gian

(timer) bắt đầu được kích hoạt. Gói điều khiển chỉ được gửi khi timer đạt đến

ngưỡng thời gian ước tính Te(i) = Ta(i) – To(i). Độ dài chùm ước tính )(iLe

được tính toán dựa vào phương pháp TW-EWMA [23]:

)()()())(1()()( iiiiiTiL curavga

e (2.25)

Trong giai đoạn này, giá trị α(i) được điều chỉnh tăng/giảm tùy thuộc vào

tốc độ gói tin đến tại hàng đợi i, được tính bởi α(i) = cur(i)/(avg(i) + cur(i)),

thay vì phải giữ cố định như trong TW-EWMA.

Giai đoạn 2: giải thuật tập hợp chùm tiếp tục được thực hiện cho đến khi

hoặc ngưỡng độ dài )(iLe đạt đến hoặc ngưỡng thời gian Ta(i) đạt đến.

2.2.2.5 So sánh và đánh giá dựa trên kết quả mô phỏng

Mô phỏng được cài đặt trong một PC, các gói tin đến thuộc 3 lớp ưu tiên

(K = 3). Quá trình đến của các gói tin tại các hàng đợi có phân bố Poisson và

kích thước của chúng phân bố ngẫu nhiên trong khoảng [500, 1000] bytes.

Giá trị thời gian offset được thiết lập lần lượt là 0.3, 0.2 và 0.1 (ms) cho các

hàng đợi 1, 2 và 3 tương ứng.

Mục tiêu mô phỏng bao gồm:

So sánh chỉ số DFI giữa giải thuật BADF và giải thuật POQA;

Phân tích hiệu quả của công bằng độ trễ đến thời gian tập hợp

chùm Ta(i) và độ trễ đệm chùm;

So sánh lỗi ước tính (Công thức 2.8) giữa giải thuật BADF và giải

thuật POQA.

a. So sánh chỉ số DFI giữa giải thuật BADF và giải thuật POQA

Page 18: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

16

Hình 2.4 So sánh chỉ số DFI giữa BADF và POQA

b. Phân tích hiệu quả của công bằng độ trễ đến thời gian tập hợp chùm

Ta(i) và độ trễ đệm chùm

Như được thể hiện trong Hình 2.25, thời gian tập hợp chùm Ta(i) giảm

khi tốc độ đến của các gói tin tăng, với class0 trong khoảng thời gian mô

phỏng [0.4, 0.6] và với class2 trong thời gian mô phỏng [0.7, 0.9].

Hình 2.5 So sánh giá trị Ta(i) của 3 lớp ưu tiên với giải thuật BADF

c. So sánh lỗi ước tính giữa giải thuật BADF với giải thuật POQA

Hình 2.60 So sánh lỗi ước tính giữa BADF với POQA

Hình 2.30 chỉ ra một so sánh về tỉ lệ lỗi ước tính (được tính bởi Công thức

2.8) giữa giải thuật BADF với giải thuật POQA, trong đó lỗi ước tính của

BADF là nhỏ hơn nhiều so với POQA.

Page 19: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

17

Hình 2.7 So sánh tỉ lệ lãng phí băng thông giữa BADF và POQA

Hình 2.8 So sánh tỉ lệ gửi lại giữa BADF và POQA

2.2.2.6 Nhận xét

Giải thuật BADF là hiệu quả trong việc điều khiển công bằng độ trễ giữa

các hàng đợi QoS khác nhau, khi so sánh dựa trên chỉ sổ DFI, lỗi ước tính, tỉ

lệ gửi lại. Tuy nhiên, tồn tại của giải thuật BADF là tỉ lệ lãng phí băng thông

còn lớn trung bình khoảng 12% (như được chỉ ra ở Hình 2.31), nhưng so với

tỉ lệ mất phải gửi lại của giải thuật POQA trung bình khoảng 30%, thì giải

thuật BADF vẫn tốt hơn. Giải thuật BADF và các kết quả ở trên đã được

công bố trong [CT5].

2.3 Tiểu kết Chương 2

Trong chương này, Luận án đã đề xuất 2 mô hình tập hợp chùm giảm

độ trễ có tên là iBADR [CT2], OBADR [CT3] và một mô hình tập hợp chùm

đảm bảo công bằng độ trễ BADF [CT5]. Dựa vào kết quả mô phỏng, giải

thuật iBADR và OBADR cho kết quả giảm đỗ trễ tốt hơn các đề xuất đã

được công bố. Giải thuật BADF đã đạt được sự công bằng độ trễ gần như tối

ưu nhất, đồng thời giảm độ trễ và giảm thiểu lỗi ước tính trên các hàng đợi.

Page 20: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

18

CHƯƠNG 3. CÔNG BẰNG THÔNG LƯỢNG

DỰA TRÊN CẤP PHÁT BĂNG THÔNG VÀ ĐẮP CHÙM

3.1 Mô hình cấp phát băng thông công bằng dựa trên thông lượng

3.1.1 Giới thiệu về cấp phát băng thông công bằng

Cấp phát băng thông công bằng, còn được gọi là công bằng tốc độ (rate

fairness), đề cập đến việc cấp phát băng thông cho các kết nối theo tỷ lệ của

băng thông cung cấp với băng thông khả dụng [53].

3.1.2 Các công trình nghiên cứu liên quan

Cho đến nay, các mô hình cấp phát băng thông công bằng trong mạng

OBS đều dựa trên mô hình phân bổ băng thông công bằng max-min trong

mạng IP [16], bao gồm 2 mô hình MMFP và RFP.

3.1.3 Phương pháp cấp phát băng thông công bằng dựa trên thông lượng TFBA

3.1.3.1 Kiến trúc nút biên vào hỗ trợ đa dạng dịch vụ

Xét một nút biên vào với kiến trúc như được chỉ ra ở Hình 3.3

Gói tin

đến

Các hàng đợi của

từng lớp dịch vụ

Phân lớp theo

đích đến

Đích 1

Đích m

Đích 2

Tập hợp chùm theo từng đích đến

Phân lớp

dịch vụ

class0

class1

classn-1

Mô-đun cấp

phát băng thông

Liên

kết ra

Hình 3.1 Kiến trúc nút biên vào OBS hỗ trợ đa dạng dịch vụ

3.1.3.2 Tỉ lệ băng thông sử dụng tối đa của mỗi liên kết trong mạng OBS Bảng 3.1 Tỉ lệ thông lượng đạt được tối đa trên mỗi liên kết với tải chuẩn hóa khác nhau

Tải chuẩn hóa 0.5 0.6 0.7 0.8 0.9 1.0

Thông lượng tối đa 0.48616 0.572186 0.67152 0.72123 0.7213 0.71945

3.1.3.3 Phương pháp cấp phát băng thông công bằng TFBA

Ý tưởng của phương pháp cấp phát băng thông công bằng được Luận án

đề xuất là điều chỉnh thông lượng thực tế về gần với băng thông cấp phát

công bằng nhằm đảm bảo sự công bằng trong việc cấp phát băng thông giữa

các luồng.

Page 21: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

19

Quá trình phân bổ băng thông công bằng dựa trên thông lượng được thực

hiện theo 4 bước:

Bước 1: Xác định tỉ lệ công bằng Fi cho mỗi kết nối

Nếu tốc độ đến của luồng i có thay đổi đáng kể, băng thông đầu tiên được

chia đều cho các kết nối, tỉ lệ Fi cho mỗi kết nối được xác định là mức tối

thiểu giữa thông lượng thật (Ai) với băng thông phân bổ công bằng. Kết nối

có thông lượng thực tế ít hơn so với lượng băng thông được phân bổ sẽ

không tham gia chia sẻ băng thông thừa trong lần lặp tiếp theo. Việc phân bổ

được tiếp tục cho đến khi băng thông được phân bổ (m) không có thay đổi so

với lần lặp trước (m = mprev) hoặc tất cả các kết nối đều được thỏa mãn (m =

0).

Bước 2: Xác định băng thông phân bổ công bằng ABi cho mỗi kết nối

Đặt Bw là băng thông tối đa ở liên kết ra, băng thông phân bổ công bằng

cho kết nối i được xác định theo Công thức 3.4

BwFAB ii (3.4)

trong đó Fi là tỉ lệ công bằng như được xác định ở Bước 1.

Bước 3: Đo giá trị thông lượng thực tế ATi của mỗi kết nối

Thông lượng thực tế được xác định theo Công thức 3.5

)(/)( iTipAT wwi (3.5)

trong đó pw(i) là lượng dữ liệu đến trong cửa sổ thời gian Tw(i).

Bước 4: Xử lý tranh chấp chùm

Vấn đề tranh chấp chùm được giải quyết dựa trên việc so sánh giữa ATi và

ABi nhằm xác định xem chùm đến có thuộc luồng xấu (luồng quá tải) hay

không. Theo đó nếu ATi > ABi chùm đến thuộc luống xấu, nó sẽ bị loại bỏ để

dành tài nguyên cho các chùm thuộc luồng tốt (luồng không quá tải). Ngược

lại, nếu ATi < ABi chùm đến thuộc luồng tốt, việc xem xét tỷ lệ ATi /ABi sẽ

được tính đến, nếu giá trị ATi/ABi thấp hơn giá trị ATj/ABj của chùm tranh

chấp, chùm tranh chấp sẽ bị đánh rơi. Ngược lại, nếu giá trị ATi/ABi lớn hơn

chùm tranh chấp ATj/ABj chùm đến sẽ bị loại bỏ.

3.1.3.4 Chỉ số công bằng thông lượng

Cấp phát băng thông công bằng trong tiếp cận của luận án cũng dựa trên ý

tưởng của công bằng max-min. Tuy nhiên công bằng được dựa trên tỉ lệ của

thông lượng thực tế với băng thông được cung cấp, thay vì các xác suất mất

mát như trong [67], [53]. Cụ thể, đặt yi = ATi / ABi là tỉ lệ của thông lượng

thực tế (ATi) và băng thông cấp phát công bằng (ABi) của luồng i. Dựa trên

Page 22: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

20

công thức của Jain trong [39], luận án đề xuất chỉ số công bằng thông lượng

TFI như sau:

n

i ii

n

i ii

yn

yTFI

1

2

2

1

)(

(3.6)

trong đó σi là trọng số thể hiện mức độ sử dụng băng thông so với mức được

cung cấp giữa các luồng, ở đây 0 < σi < 1 và 11

n

i i .

3.1.3.6 So sánh và đánh giá dựa trên kết quả mô phỏng

Với mục tiêu mô phỏng là:

- So sánh tỉ lệ mất byte giữa các kết nối và tỉ lệ mất byte trung bình

giữa TFBA, MMFP và RFP.

- So sánh tính công bằng dựa trên chỉ số TFI giữa TFBA, MMFP và

RFP.

Với mục tiêu mô phỏng chỉ xem xét tỉ lệ mất byte của các kết nối khi chia

sẻ chung một (hay một nhóm) liên kết ra nên mạng Dumbbell được chọn như

Hình 3.5 là đủ để đánh giá giải thuật đề xuất. Môi trường mô phỏng là NS2

[71] với gói hỗ trợ mạng OBS obs-0.9a. Các mô phỏng được triển khai trên

một máy tính PC với cấu hình 2.4 GHz Intel Core 2 CPU, 2G RAM.

E1 E2C1 C2

Kết nối 1

Kết nối 3

Kết nối 2

Hình 3.2 Hình thái mạng mô phỏng

a. So sánh tỉ lệ mất byte giữa các kết nối

Hình 3.3 So sánh tỉ lệ mất byte giữa 3 kết nối của TBFA trong 2 trường hợp (1) tổng tải không

vượt quá khả năng liên kết và (2) tải luồng 3 tăng đột biến vượt quá khả năng liên kết

Page 23: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

21

Hình 3.4 So sánh tỉ lệ mất byte trung bình trên cả 3 kết nối của TFBA, RFP và MMFP

b. So sánh hiệu quả công bằng dựa trên chỉ số TFI

Hình 3.5 So sánh chỉ số TFI của phương pháp TFBA với RFP và MMFP

3.1.4 Phân tích ảnh hưởng của TFBA đến việc lập lịch tại liên kết ra

3.1.4.1 Mô hình phân tích

Luận án sử dụng mô hình Markov [11] để phân tích ảnh hưởng của TFBA

đến việc lập lịch trên liên kết ra.

3.1.4.2 So sánh hiệu quả giữa mô hình phân tích và kết quả mô phỏng

Kết quả thể hiện trong Hình 3.15 cho thấy xác suất mất chùm của mô hình

phân tích là tương đồng với kết quả mô phỏng (Hình 3.7).

Hình 3.6 So sánh tỉ lệ mất chùm giữa mô hình phân tích và mô phỏng với TFBA

3.1.5 Nhận xét

Phương pháp TFBA dựa trên chỉ số công bằng về thông lượng nên có thể

áp dụng đối với nhiều loại luồng đến, thay vì chỉ với luồng Poisson như trong

[67], [53]. Phương pháp TFBA đã được công bố trong [CT6].

Page 24: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

22

3.2 Mô hình đắp chùm hiệu quả băng thông và công bằng thông lượng

3.2.1 Các công trình nghiên cứu liên quan

3.2.2 Phương pháp đắp chùm

3.2.2.1 Giới thiệu về mô hình đắp chùm

Mô hình đắp chùm mà luận án đề xuất QDBAP (QoS Differentiation

Burst Assembly with Padding) được mô tả như trong Hình 3.17, trong đó việc

đắp chùm được thực hiện bằng cách huy động các gói tin từ hàng đợi có QoS

thấp sang đắp cho chùm có QoS cao hơn.

(a) Trước khi đắp chùm

class0

class1

class2

Bmin

Chùm

class0

class1

class2

Bmin

Chùm

(b) Sau khi đắp chùm

Mứ

c đ

ộ ư

u tiê

n

giả

m d

ần

3 hàng đợi QoSMô đun

đắp chùm3 Hàng đợi QoS

Mô đun

đắp chùm

Hình 3.7 Một ví dụ về mô hình đắp chùm trên 3 lớp:

(a) trước khi đắp chùm; (b) sau khi đắp chùm

3.2.2.2 Quy tắc đắp chùm

Quy tắc đắp chùm được luận án đề xuất như sau:

1. Chỉ đắp chọn các gói tin từ hàng đợi QoS thấp sang đắp cho chùm

QoS cao hơn

2. Các gói tin được chọn từ hàng đợi QoS thấp theo hình thức đến

trước phục vụ trước.

3. Các gói tin được chọn từ các hàng đợi QoS thấp sẽ đắp vào đuôi của

chùm QoS cao hơn (xem Hình 3.17):

4. Chỉ chọn các gói tin từ hàng đợi QoS thấp mà gói điều khiển của nó

chưa được gửi đi.

3.2.2.4 So sánh và đánh giá dựa trên kết quả mô phỏng

Với mục tiêu của mô phỏng là:

So sánh băng thông lãng phí khi phải sử dụng byte độn và

So sánh chỉ số công bằng thông lượng TFI (Công thức 3.8).

a. So sánh tỉ lệ lãng phí băng thông

Page 25: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

23

Hình 3.8 So sánh số byte đắp giữa QDBAP và POQA

b. So sánh, đánh giá vấn đề công bằng thông lượng

Hình 3.9 So sánh dựa trên chỉ số công bằng thông lượng giữa QDBAP và POQA

Hình 3.10 So sánh công bằng thông lượng (dựa trên tỉ lệ tải thực tế classi trên khả năng đáp

ứng băng thông TBi (yi)) giữa POQA và QDBAP

3.2.3 Nhận xét

3.3 Tiểu kết Chương 3

Trong chương này, Luận án đã giới thiệu một phương pháp cấp phát băng

thông công bằng dựa trên thông lượng TFBA. Giải thuật TFBA có thể áp

dụng cho nhiều loại luồng đến, đồng thời nâng cao đáng kể hiệu năng của

mạng và điều phối công bằng thông lượng, kết quả này đã được phản ánh

trong [CT6]. Ngoài ra, Luận đã đề xuất một phương pháp đắp chùm kết hợp

với tập hợp chùm, nhằm tối ưu băng thông và điều phối công bằng thông

lượng giữa các lớp dịch vụ khác nhau có tên là QDBAP. Kết quả trong phần

này cũng đã được công bố trong [CT7].

Page 26: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

24

KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN CỦA LUẬN ÁN

KẾT LUẬN:

Chuyển mạch chùm quang (OBS) trên mạng WDM được xem là một giải

pháp đầy triển vọng cho mạng Internet thế hệ tiếp theo, bởi vì OBS khắc

phục được những hạn chế về công nghệ của chuyển mạch gói quang hiện tại

và khai thác băng thông linh hoạt, tốt hơn chuyển mạch kênh quang. Một

trong những vấn đề quan trọng của mạng OBS là làm thế nào để điều khiển

công bằng giữa các luồng dịch vụ khác nhau. Với mục đích đó Luận án đã

tập trung nghiên cứu các mô hình, giải thuật điều khiển công bằng trong

mạng OBS với các hướng tiếp cận khác nhau. Kết quả mà Luận án đã đạt

được bao gồm:

1. Tổng hợp phân tích, đánh giá và phân loại các phương pháp điều khiển

công bằng trong mạng OBS. Qua đó chỉ ra được các điểm tồn tại của các

công bố trước đây và đây chính là cơ sở để Luận án đề xuất và cải tiến một số

mô đun chức năng, giải thuật điều khiển công bằng tốt hơn.

2. Đề xuất 2 mô hình tập hợp chùm giảm đỗ trễ có tên là iBADR [CT2],

OBADR [CT3] nhằm giảm độ trễ tập hợp chùm tốt hơn trên các hàng đợi.

3. Đề xuất mô hình tập hợp chùm đảm bảo công bằng độ trễ BADF [CT5].

4. Đề xuất mô hình cấp phát băng thông công bằng dựa trên thông lượng,

áp dụng cho nhiều loại luồng đến khác nhau TFBA [CT6].

5. Phương pháp đắp chùm QDBAP [CT7] cũng đã được đề xuất nhằm tối

ưu băng thông sử dụng và góp phần điều khiển công bằng thông lượng.

HƯỚNG PHÁT TRIỂN LUẬN ÁN:

Từ những kết quả đạt được trong Luận án một số vấn đề cần được quan tâm

nghiên cứu trong thời gian tới:

1. Nghiên cứu vấn đề điều khiển công bằng khoảng cách, để thấy được vai trò

của công bằng khoảng cách trong vấn đề truyền và nhận dữ liệu trong mạng.

2. Xây dựng mô hình điều khiển công bằng kết hợp bao gồm giữa độ trễ với

thông lượng, hay giữa thông lượng với khoảng cách hoặc cả 3 loại công bằng

trên.

Page 27: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

25

DANH MỤC CÁC CÔNG TRÌNH LIÊN QUAN ĐẾN LUẬN ÁN

[CT1]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2016), “Phân tích

các giải thuật tập hợp chùm giảm độ trễ tại nút biên mạng OBS”, Tạp chí Khoa

học và công nghệ (Đại học Khoa học, Đại học Huế), tập 6, số 1, trang: 9-20.

[CT2]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2017), “Một

hướng tiếp cận tập hợp chùm cải tiến nhằm giảm độ trễ tại các nút biên mạng

OBS”, Tạp chí Khoa học và công nghệ (ĐH Huế), tập 126, số 2A, trang:19-30.

[CT3]. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son (2017), “A model

of optimal burst assembly for delay reduction at ingress OBS nodes”, Turkish

Journal of Electrical Engineering & Computer Sciences (SCIE), vol. 25, no. 5,

pp. 3970-3982.

[CT4]. Lê Văn Hòa, Võ Viết Minh Nhật, Nguyễn Hoàng Sơn (2018), “Ảnh

hưởng của tính chất luồng dữ liệu đến hiệu quả tập hợp chùm giảm độ trễ tại nút

biên mạng OBS”, Hội nghị khoa học quốc gia lần thứ XI về nghiên cứu cơ bản

và ứng dụng Công nghệ thông tin (FAIR), trang: 57-64.

[CT5]. Vo Viet Minh Nhat, Le Van Hoa, Le Manh Thanh (2018), “On the delay

fairness through the burst assembly for service difference”, ETRI Journal (SCIE),

vol. 40, no. 3, pp. 347-354.

[CT6]. Le Van Hoa, Vo Viet Minh Nhat, Le Manh Thanh (2018) “Throughput-

based Fair Bandwidth Allocation in OBS Networks”, ETRI Journal (SCIE), vol.

40, no. 5, pp. 624-633.

[CT7]. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son, Le Manh Thanh

(2018), “A Model of QoS Differentiation Burst Assembly with Padding for

Improving the Performance of OBS Networks”, Turkish Journal of Electrical

Engineering & Computer Sciences (SCIE), vol 26, no. 4, pp. 1783-1795.

Page 28: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

HUE UNIVERSITY

LE VAN HOA

RESEARCH OF THE FAIRNESS CONTROL

IN OPTICAL BURST SWITCHING NETWORKS

MAJOR: COMPUTER SCIENCE

CODE: 9.48.01.01

SUMMARY OF PHD THESIS

Supervisors:

1. Assoc. Prof. Dr. Vo Viet Minh Nhat

2. Dr. Nguyen Hoang Son

HUE, YEAR 2019

Page 29: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

The thesis has been completed at University of Sciences, Hue University.

Supervisor:

1. Assoc. Prof. Dr. Vo Viet Minh Nhat. Hue University, Viet Nam.

2. Dr. Nguyen Hoang Son. University of Sciences, Hue University, Viet Nam

The dissertation will be defended at University level Council of

Dissertation Assessment at Hue University.

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

........................................................................................................................

Time: . . . date . . . month . . . year 2019

Page 30: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

1

PREFACE

1. The urgency of the topic

The continuous development of Internet in recent decades, along with the

explosion of communication services, has increased demands for bandwidth.

This poses a major challenge in finding suitable communication technologies

to enhance the communication capabilities of new generation networks.

Optical networks, together with the technology of wavelength division

multiplexing (WDM), have provided an effective solution to meet these

requirements [24], [36].

Optical communication, from its inception in early 1990s to the present, has

undergone many generations of development: from the initial model of

wavelength routing with end-to-end dedicated lightpaths to the model of

optical packet switching [36], which has been proposed recently, with the idea

taken from electronic packet switching networks. However, with some

technological limitations, such as not being able to produce optical buffers

(similar to RAM in electronical networks) or the optical packet switches in

nanosecond speed, optical packet switching has not yet been come true. A

compromise solution is the optical burst switching (OBS) model.

A typical feature of the communication in optical burst switching (OBS)

networks is that the burst control packet (BCP) is separated from its data burst.

In other words, to transmit an optical burst, a BCP is formed and sent ahead an

offset time that is sufficient to reserve resources and configure switches at

intermediate nodes along the path that its burst will pass from source to

destination. In addition, the OBS network reserves some channels

(wavelengths) for BCPs, while the remaining channels are used for burst

transmission. Thus, the BCP transmission is completely separate from its burst

in terms of space (on separated transmission channels) and also in time (sent

ahead an offset time) [65].

With the transmission mode, it is clear that OBS networks do not need

optical buffers to temporarily store optical burst while waiting for the

switching at core nodes, nor do it require the switches in nanosecond.

However, this way of communication also places a pressure on how a control

Page 31: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

2

packet can promptly reserve resources and successfully configure switches at

the core nodes for its following burst. That is the task of operations such as

resource reservation, scheduling, contention resolution ... In addition, another

issue that is also interested by many researchers in the field of OBS networks

is how to ensure the fairness of the different flows which share the same links

within OBS networks.

In OBS networks, fairness is studied in three main directions: delay fairness

[69], througphut fairness [53] and distance fairness [10]. Ensuring the fairness

of flows which share resources in OBS networks is very significate, on the one

hand to ensure the commitment of service quality, and other hand to optimize

the communication performance per flow and/or entire network (based on data

loss rate, bandwidth utilization rate, end-to-end delay rate, etc.).

2. Research motivation

There have been a number of studies on fairness issues in OBS networks

that can be classified into two main approaches which based on the location of

implementation:

- The fairness solutions at edge nodes and

- The fairness solutions at core nodes.

With the first group, there are two main research directions: (1) delay

fairness and (2) throughput fairness; while in the second group, the fairness

problem is known mainly as distance fairness.

In OBS networks, the ingress node plays an important role in controlling

fairly flows, because:

1. The ingress node controls the traffic of flows (end-to-end connections)

fairly before transfers them into the core network;

2. Only the ingress nodes have buffers, so the fair control of delay,

throughput ... is made easier; and

3. The core node does not have buffer, so fair handling at the core node

almost depends on the control operations of its ingress node.

Based on these characteristics, the thesis focuses on the study of fairness

control at the ingress node, with two main activities: delay control and

throughput control.

Page 32: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

3

3. Research objectives

Studying and proposing some improvements in the burst assembly

with delay reduction to reduce the communication delay over OBS

networks;

Studying and proposing a solution of the burst assembly with delay

fairness for delay-based QoS difference, delay reduction and delay

fairness of different priority flows.

Studying and proposing a solution with throughput fairness, which can

be applied to different types of incoming flows with Poisson and non-

Poisson distribution.

Studying and proposing a solution of burst padding to improve

bandwidth utilization and throughput fairness.

4. Contribution of thesis

The main contributions of the thesis include:

Proposing two burst assembly models with delay fairness, named

iBADR [CT2] and OBADR [CT3], in order to reduce the burst

assembly delay.

Proposing a burst assembly model with delay fairness, named BADF

[CT5], that results in delay-based QoS difference, delay reduction and

delay fairness of different priority flows.

Proposing a bandwidth allocation model with throughput fairness,

named TFBA [CT6], that is applicable to different types of incoming

traffics.

Proposing a burst padding solution, named QDBAP [CT7], in order to

improve bandwidth utilization and throughput fairness.

Page 33: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

4

CHAPTER 1: AN OVERVIEW OF THE FAIRNESS

IN OPTICAL BURST SWITCHING NETWORKS

1.1 Switching models in optical communication

Optical switches are divided into 3 types: optical channel switching (OSC),

optical packet switching (OPS) and optical burst switching (OBS), in which

OBS has inherited the advantages from the two others, where no optical buffer

and high-speed optical switche are needed.

1.2 Communication principle of OBS networks

In OBS networks, different types of incoming data are aggregated into data

bursts before being sent (Figure 1.2a). At egress nodes, the bursts will be

disassembled into original packets which are then delivered to their destination

(Figure 1.2b).

Figure 1.1 The process of assembling and disassembling at the edge OBS nodes

1.3 Operations within OBS networks

1.3.1 Assembling

Burst assembling is a method of aggregating packets (such as IP packets,

ATMs, etc.) from different access networks into larger burst at ingress nodes

of the OBS network.

1.3.2 Signaling

There are two main types of signaling protocols in OBS networks: JIT and

JET, in which JET is the signaling protocol implemented for most OBS

networks because it makes better use of the bandwidth.

Page 34: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

5

1.3.3 Scheduling

When a control packet arrives at a core node, a scheduling algorithm is

called to schedule its following burst on an output link. There are three main

scheduling mechanisms: (1) scheduling without void filling; (2) scheduling

with void filling and (3) group scheduling.

1.3.4 Contention resolution

As with any packet-switched network, contention also appears in OBS

networks. That is when two burst simultaneously dispute the same resource at

the same link (wavelength). Possible solutions to contentions in OBS networks

include: wavelength conversion, using FDL, deflection routing and

combination of the above solutions.

1.4 Fairness issues in OBS networks

1.4.1 The fairness concept in OBS networks

According to Denda et al. [38], fairness is known as the satisfaction of

individuals in the process of resource allocation. In the OBS network, fairness

issues are distinguished by: delay fairness, throughput fairness and distance

fairness, which are considered at edge and core nodes (Figure 1.7).

FAIRNESS IN OBS NETWORKS

EDGE NODES CORE NODES

DELAY FAIRNESSTHROUGHPUT

FAIRNESS DISTANCE FAIRNESS

Figure 1.7 Fairness classification based on consideration location

1.4.2 Delay fairness

Fairness delay refers to establishing fairly a buffering delay (including

assembling delay and offset time) for bursts of different QoS classes.

Page 35: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

6

1.4.3 Throughput fairness

Throughput fairness refers to the fair allocation of bandwidth between flows which

share the same link.

1.4.4 Distance fairness

Distance fairness refers to dealing with contentions fairly (as measured by

the data loss rate) based on the path length (number of hops) from source to

destination.

1.5 Research objectives

The thesis focuses on the fairness issues at the ingress node to improve the

efficiency of delay and throughput fairness, with four main objectives:

1. Improving and proposing new solution of burst assembly for delay

reduction that applies to each individual queue.

2. Improving and proposing new solution of delay fairness control that

applies to multiple queues with different QoS levels.

3. Improving and proposing new solution of throughput fairness control

that applies to flows of Poisson and Non-Poisson distribution.

4. Proposing new solutions of burst padding to improve communication

performance.

1.6 Summary chapter 1

This chapter has introduced an overview of OBS networks and its

operations, in which the burst assembly at the ingress node is focused on

analysis because it plays an important role in the fairness of entire network.

This chapter has also analyzed and evaluated the methods of fairness control

that have been published so far. That is the basis for the thesis to identify the

research objectives, as well as propose the improved architecture of ingress

node with additional functional modules to ensure the implementation of the

fairness solutions proposed by the thesis.

Page 36: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

7

CHAPTER 2: BURTS ASSEMBLY FOR DELAY REDUCTION

AND DELAY FAIRNESS

2.1 Model of burst assembly for delay reduction

2.1.1 Issue of the burst assembly delay

The end-to-end delay of a burst transmitted over an OBS network is mainly

caused by four components: (1) the assembly delay at ingress node, (2) the

offset time for resource reservation of the control packet, (3) burst switching

delay at core nodes and (4) propagation delay over core network. Two first

delays are collectively formed a common element which há the name the

buffering delay; two latters usually do not change corresponding to a given

implemented protocol. Therefore, the proposals usually focus on reducing the

buffering delay.

2.1.2 Related works

2.1.2.1 Analysis of the published methodes of burst assembly for delay

reduction

There are 6 published methodes of burst assembly for delay reduction as

shown in Table 2.1. Table 2.1 Comparison of the published methodes of burst assembly for delay reduction

IE-BADR POQA JK-BADR BADR-EAT MTBA-TP BASTP

Burst

assembly

method

Timer-based Timer-

based

Timer-

based

Timer-based Hybrid Hybrid

Assembly

threshold

fixed fixed fixed fixed fixed addaptivei

Estimation

method

Based on the

average speed

of packets

arriving in the

estimated

time period

Based on

the

length of

the last

M bursts

Based on

the

estimated

error of the

previous

assembly

Based on the

density of

the last M

packets

Based on the

arrival speed

of the last

packet

Based on

M last

burst

assemblies

Reduced

delay To To To To t1 + To – Ta To

Page 37: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

8

2.1.2.2 Comparison and analysis of simulation results

Simulation is done with the following objectives:

Comparing the average estimattion error rate (Formula 2.8) between

the methodes of burst assembly for delay reduction.

(2.8)

where M is the number of assembly times, e

jL and Lj are the

estimation size and the completed size of burst j.

Comparing the number of redundant packets transferred for the next

burst of 100 consecutive assembly times between the methodes of

burst assembly for delay reduction.

Analyzing the way to select the thresholds for BASTP, the best

methode of burst assembly for delay reduction.

The simulations are installed on a PC with 2.4 GHz Intel Core 2 CPU, 2G

RAM. Packets arriving at the ingress node have a Poisson distribution with

exponentially random size in the range of [500, 1000] bytes. Traffic loads

ariving at the queues varies from 0.1 to 0.9. Simulations are performed in 1

second). Data were extracted from NS2 [71] with support package obs-0.9a.

Other parameters include Ta = 6 ms, To = 2 ms

a. Comparison of the average estimation rate

Figure 2.3 shows a comparison of the average estimation error between the

methods of burst assembly for delay reduction. The simulation results show

that the estimation error of the statistical-based methods such as BASTP,

BADR-EAT and POQA being lower than that of other methods.

Figure 2.3 Comparison of the average estimation error rate of IE-BADR, JK-BADR, POQA,

BADR-EAT, MTBA-TP and BASTP with normalized load to 0.5

M

LLLR

M

j j

e

jj

E

1

/

Page 38: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

9

b. Comparison of the number of redundant packets transferred for the

next burst

Figure 2.6 Comparison of the number of redundant packets in 100 consecutive assembly times.

c. Analizing the way to select the thresholds for BASTP

As described in Figures 2.3 and 2.6, BASTP always gives the best

simulation results. However, these results is often accompanied by a pairs of

suitable selected threshold value (Lmin, Lmax).

2.1.2.3 Comments

The above analysis, comparisons and evaluations (published in [CT1]) are

the basis for proposing the improvements of burst assembly for delay reduction

which are presented in the following sections.

2.1.3 Method of burst assembly for delay reduction iBADR

2.1.3.1 Introduction to the incoming traffic estimation method TW-EWMA

To estimate the incoming traffic at a queue, Salad et al. [23] proposed the

TW-EWMA method. Unlike other estimation methods that often count

incoming packets at continuous observation intervals (estimation cycles), TW-

EWMA only counts in a smaller estimation time window (Tw) to reduce the

calculation cost (Figure 2.7).

TW1 TW2 TW3 TWn

Timesa estimated cycle a estimated cycle

Figure 2.1 The estimation time windows in TW-EWMA

2.1.3.2 Method of burst assembly for delay reduction iBADR

The iBADR (improved Burst Assembly for Delay Reduction) method is

also based on the idea of sending the control packet early at the time

oa TTt 1 (Ta > To) and the corresponding burst is sent at the time aTt 2

Page 39: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

10

; As a result, the delay of packets carried in the current burst is reduced a period

To. The thesis uses TW-EWMA [23] to estimate the arriving packet rate,

thereby estimating the completed burst size.

The authors in [23] set α to a fixed value (equal to 0.3), which does not in

fact reflect the abnormal changing nature of the incoming traffic; The result is

a significant estimation error. The thesis proposes to change α in a flexible way

according to the ratio of current rate (cur) and average rate (λavg) of incoming

packets as Formula 2.12.

curavg

cur

avg

cur

1

(2.12)

In order to increase the accuracy of the estimation, the thesis flexibly adjusts

the time threshold based on the average estimation error of the previous burst

assembly times according to Equation 2.13.

L

LLRR

e

E

)()1(

(2.13)

2.1.3.4 Comparison and analysis of simulation results

The simulation parameters for this part are similar to Section 2.1.2.2.

a. Comparison of the average estimation error rate

The results in Figure 2.8 show that iBADR has the smallest estimation error

rate.

Figure 2.8 Comparison of the average estimation error rate between iBADR and previous

methods

b. Comparison of the number of redundant packets in 100 consecutive

assembly times

Figure 2.10 shows a comparison on the number of redundant packets

Page 40: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

11

between iBADR and previous methods, where the number of redundant bursts

of iBADR is significant.

Figure 2.10 Comparison of the number of redundant packets in 100 consecutive assembly

times.

2.1.3.5 Comments

Based on simulation results, iBADR achieved a estimation error rate lower

than that of BASTP, but it generates relatively many redundant packets as

shown in Figure 2.10. The method of burst asembly for delay reduction iBADR

has been published in [CT2].

2.1.4 Method of burst assembly for delay reduction OBADR

2.1.4.1 Description

The OBADR (Optimal Burst Assembly for Delay Reduction) method is an

improvement of iBADR, in addition to applying the burst length estimation

method TW-EWMA with flexibly adjusted , the burst assembly process is a

combination of the 2 assembly stages:

Stages 1: When the first packet arrives at a queue, the timer of the

queue is triggered. The control packet is only sent to the core network

when the timer reaches the threshold Tw, which is the size of the time

window. The estimated length (eL ) is also calculated based on TW-

EWMA with flexibly adjusted .

Stages 2: The burst assembly process continues, but now based on the

estimated length threshold. The burst is only completed when the

number of packets arriving in the queue reaches the threshold eL .

2.1.4.3 Comparison and analysis of simulation results

The simulation parameters for this part are similar to Section 2.1.2.2.

Page 41: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

12

a. Comparison of the average estimation error rate

Figure 2.11 shows that the average estimation error rate ( ER ) of OBADR

is lower than that of all previous methods.

Figure 2.11 Comparison of the average estimation error rate between OBADR and previous

methods

b. Comparison of the number of redundant packets in 100 consecutive

assembly times

Figure 2.13 Comparison of the number of redundant packets in 100 consecutive assembly

times.

As shown in Figure 2.13, OBADR does not generate redundant packets.

This is due to the estimated lengths used as the length threshold in burst

assembly.

2.1.5 Effect of the factor α on OBADR

2.1.5.1 Investigating the variation of α depending on the load changes

With the normalized load changing from 0.1 to 0.9 and α changing from 0.1

to 0.9, the simulation results show that the estimation error is minimum when

α has a distribution in the range of (0.4, 0.6). Thus, the fixed α setting is clearly

not suitable when arriving load is varied.

Page 42: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

13

2.1.5.2 Comparing the burst assembly efficiency when α is fixed and varied

Simulation results show that dynamic α results in a better average

estimation error than fixed α (α = 0.5) when the assembly time is small (from

2.5 ms to 5.5 ms).

2.1.5.3 Comments

Based on the simulation results, flexible adjustment of α values (such as

Equation 2.12) depending on the incoming traffic rate has increased the

efficiency of estimating the complete burst length. This result also confirms

the effect of flexible adjustment of α according to the incoming traffic rate.

The results of this study were published in [CT4].

2.1.6 Effect of OBADR on scheduling

2.1.6.1 Analyze the effect of OBADR on scheduling based on Engset method

2.1.6.2 Comparison of the analysis model and simulation result

As shown in Figure 2.19, OBADR achieves a lower probability of burst

loss compared to the traditional model in theory and simulation.

Figure 2.2 Comparison on the probability of burst loss between OBADR and traditional

model

2.1.6.3 Comments

Based on the analysis and simulation results, OBADR has proven to be the

most efficient burst assembly method in term of low estimation error, reduced

delay and minimized burst loss rate. The method of burst assembly for delay

reduction OBADR was published in [CT3].

2.2 Model of burst assembly for delay fairness

2.2.1 Related works

The models of burst assembly for delay reduction share a common idea of

sending the control packet early before the burst is completed. Among these

Page 43: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

14

models, only POQA [69] is associated with service differentiation.

Specifically, the authors in [69] have set different offset times for bursts with

different priority classes and adjusted the assembly times so that the higher

priority burst is, the shorter the buffering time. As the example shown in Figure

2.21, the burst with the highest priority class class0 has the smallest assembly

time Ta(0) and the largest offset time To(0), while the lowest priority class

class2 has the longest assembly time Ta(2) and the smallest offset time To(2). class0

class1

class2

Ta(2)

To(2)

Ta(1)

To(1)

Ta(0)

To(0)

Figure 2.3 An example of time thresholds and offset times for 3 classes

2.2.2 Method of burst assembly for delay fairness BADF

2.2.2.1 Introduction to the delay fairness in OBS networks

With the concept of delay fairness proposed in [69], higher priority burst

will have a shorter buffering time. However, this interpretation has not yet

shown the nature of the fair response to individuals in the notion of fairness.

Therefore, the thesis supplements the concept of delay fairness as follows:

Delay fairness is the satisfaction on delay between different priority bursts,

such that the average ratio of the end-to-end delay to their limited delay is

approximative. In addition, in order to meet the requirement for prioritizing

delays in OBS networks, the following two constraints were added.

1. The higher the priority is, the lower the end-to-end delay is; and

2. The end-to-end delay of a burst is not greater than its limited delay

(Example: RTT of IP packets carried in a burst).

Thus, the concept of "delay fairness" added by the thesis implies the

concept of delay fairness proposed in [69].

2.2.2.2 Index of delay fairness

Let D(i) be the average delay that packets must wait in queue i before being

aggregated into a burst and Ta(i) is the assembly time of queue i, xi = D(i)/Ta(i)

will reflect the delay of the packets in queue i. The thesis proposes a formula

to calculate the DFI delay fairness index for different priority bursts based on

Page 44: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

15

Jain's formula in [39] as follows:

n

i ii

n

i ii

xn

xDFI

1

2

2

1

)(

(2.22)

Fairness will increase as DFI approaches 1, and equals 1 when

nn xxx ...2211 , where i is the weight of xi, 0 < i < 1 and

11

n

i i .

2.2.2.3 Method of 2-stage burst assemly

The Burst Assembly for Delay Fairness (BADF) method is also based on

the idea of sending control packets early (see Section 2.1.3 and 2.1.4), but

adding new points in the 2-stage assembly model. Stage 1 is a estimated time

threshold-based burst assembly and Stage 2 is a estimated length threshold-

based burst assembly. The 2-stage assembly model is in detail as follows:

Stage 1: when the first packet arrives at queue i, the timer is triggered. The

control packet is only sent when the timer reaches the estimated time threshold

Te(i) = Ta(i) – To(i). The estimated burst length is calculated based on the TW-

EWMA method [23]:

)()()())(1()()( iiiiiTiL curavga

e (2.25)

During this period, the value of α(i) is adjusted to increase/decrease

depending on the rate of packet arrival at queue i, calculated by α(i) =

cur(i)/(avg(i) + cur(i)), instead of being fixed as in [23]

Stage 2: the burst assemly algorithm continues until either the length

threshold )(iLe or time threshold Ta(i) is reached.

2.2.2.5 Comparison and analysis of simulation results

Assuming that incoming packets belong to three priority classes (K = 3),

have Poisson distribution and have exponential distribution sizes in the range

[500, 1000] bytes; three priority queues 1, 2 and 3 are therefore used with the

offset times set to 0.3, 0.2 and 0.1 (ms), respectively.

Simulation objectives include:

Comparing the DFI index between BADF and POQA;

Analyzing the impact of the delay fairness on the assembly time

Ta(i) and the buffering delay;

Page 45: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

16

Comparing the estimation error (Formula 2.8) between BADF and

POQA.

a. Comparison of the DFI index between BADF and POQA

Figure 2.4 Comparison of the DFI index between BADF and POQA

b. Analyzing the impact of the delay fairness on the assembly time Ta(i)

and the buffering delay

As shown in Figure 2.25, the assembly time Ta(i) decreases as the incoming

traffic of packets increases, with class0 during the simulation period [0.4, 0.6]

and with class2 during the simulation period [0.7 , 0.9].

Figure 2.5 Comparison of Ta(i) between 3 priority classes with BADF

c. Comparison of the estimation error between BADF and POQA.

Figure 2.60 Comparison of the estimation error between BADF and POQA

Page 46: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

17

Figure 2.30 shows a comparison of the estimation error rate (Formula 2.8)

between BADF and POQA, where the estimation error of BADF is much

smaller than that of POQA.

Figure 2.7 Comparison of the bandwidth wasting rate between BADF and POQA

Figure 2.8 Comparison of re-send rate between BADF and POQA

2.2.2.6 Comments

The BADF algorithm has been proven to effectively control the delay

fairness between different QoS queues, based on DFI index, estimation error,

and re-send rate. One drawback of BADF, however, is the high bandwidth

wastage rate about 12% on average (Figure 2.31). However, if compared with

the re-send rate of POQA (about 30% on average), BADF is better. The BADF

algorithm and the above results have been published in [CT5].

2.3 Summary chapter 2

This chapter presents two proposed models of delay reduction iBADR

[CT2] and OBADR [CT3], and a model of delay fairness BADF [CT5]. Based

on simulation results, iBADR and OBADR achieve lower delay than previous

proposals. BADF also achieves the delay fairness which is almost optimal,

while reducing the delay and minimizing the estimation error on the queues.

Page 47: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

18

CHAPTER 3: THROUGHPUT FAIRNESS

BASED ON BANDWIDTH ALLOCATION AND BURST PADDING

3.1 Model of bandwidth allocation with throughput fairness

3.1.1 Introduction to fair bandwidth allocation

Fair bandwidth allocation, also known as rate fairness, refers to allocating

bandwidth for connections proportional to the provided bandwidth to the

available bandwidth [53].

3.1.2 Related works

So far, the models of fair bandwidth allocation in OBS networks are based

on the max-min fair bandwidth allocation model in IP networks [16], such as

MMFP and RFP.

3.1.3 Bandwidth allocation with throughput fairness TFBA

3.1.3.1 Architecture of the ingress node supporting QoS

Consider an ingress node with an architecture as shown in Figure 3.3.

Figure 3.1 Architecture of the ingress node supporting QoS

3.1.3.2 Maximum bandwidth ratio for each link in OBS networks Table 3.1 Maximum throughput rate per link with different normalized loads

Normalized load 0.5 0.6 0.7 0.8 0.9 1.0

Maximum throughput 0.48616 0.572186 0.67152 0.72123 0.7213 0.71945

3.1.3.3 Description of TFBA

The idea of TFBA is to adjust actual throughput close to the fair allocation

bandwidth to ensure fair bandwidth allocation between flows.

The process of allocating bandwidth with fairness throughput includes 4

steps:

Step 1: Determine the fairness rate Fi for each connection

Page 48: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

19

If the incoming traffic of flow i varies significantly, the bandwidth is first

divided among the connections, the ratio Fi of each connection is determined

as the minimum of the actual throughput (Ai) and the fairly allocated

bandwidth. Connections with actual throughput less than the allocated

bandwidth will not participate in the redundant bandwidth sharing process in

the next time. The allocation is continued until the allocated bandwidth (m)

does not change from the previous time (m = mprev) or all connections are

satisfied (m = 0).

Step 2: Determine the fairly allocated bandwidth ABi for each connection

Let Bw be the maximum output bandwidth, the fair allocation bandwidth for

connection i is determined by Equation 3.4

BwFAB ii (3.4)

where Fi is the fairness ratio determined in Step 1.

Step 3: Measure the actual throughput ATi of each connection

Actual throughput is determined by Formula 3.5

)(/)( iTipAT wwi (3.5)

where pw(i) is the number of packets arriving in the time window Tw(i).

Step 4: Handling burst contention

The burst contention problem is resolved based on a comparison between

ATi and ABi to determine whether the incoming burst is in an overrate

(overloaded) flow. If ATi > ABi, the incoming burst is in an overrate flow and

will be dropped to reserve resources for the bursts in an underrate

(unoverloaded) flow. Conversely, if ATi < ABi, the arrival burst is in underrate

flow and the ratio ATi /ABi will be considered. If the value of ATi /ABi is smaller

than that of ATj/ABj, the scheduled burst will be dropped. Conversely, if the

value of ATi /ABi is greater than ATj/ABj, the incoming burst will be dropped.

3.1.3.4 Index of throughput fairness

The fair bandwidth allocation approach proposed by the thesis also comes

from the idea of max-min fairness, but based on the ratio between actual

throughput and provided bandwidth, instead of probability of loss. as in [67],

[53]. Specifically, set yi = ATi / ABi is the ratio between the actual throughput

(ATi) and the fair allocation bandwidth (ABi) of flow i. Based on Jain's formula

in [39], the thesis proposes the throughput fairness index (TFI) as follows:

Page 49: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

20

n

i ii

n

i ii

yn

yTFI

1

2

2

1

)(

(3.6)

where σi is the weight that represents the actual used bandwidth compared to

the provided bandwidth between the flows, 0 < σi < 1 and 11

n

i i .

3.1.3.6 Comparison and analysis of simulation results

Simulation objectives include:

- Comparing the byte loss rate between connections and the average byte

loss rate among TFBA, MMFP and RFP

- Comparing the fairness based on TFI among TFBA, MMFP and RFP.

Because the simulation objective only considers the byte loss rate of the

connections which share the same (or group of) output link(s), the Dumbbell

simulation network as shown in Figure 3.5 is sufficient to evaluate the

effectiveness of the proposed algorithm.

Figure 3.2 Simulation network topology

a. Comparison of the byte loss rate between connections

Figure 3.3: Comparison of the byte loss rate between 3 connections with TBFA in 2 cases: (1)

The total load does not exceed the link capacity and (2) the load of connection 3 spikes

beyond the link capacity

Page 50: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

21

Figure 3.4 Comparison of the average byte loss rate on 3 connections of TFBA, RFP and

MMFP

b. Comparison of the fairness based on TFI

Figure 3.5 Comparison of the fairness based on TFI among TFBA, MMFP and RFP

3.1.4 Analyzing the impact of TFBA on scheduling at output link

3.1.4.1 Analytical model

The Markov model [11] is used to analyze the impact of TFBA on

scheduling at output link.

3.1.4.2 Comparison of the effectiveness between analytical model and

simulation results

The simulation results in Figure 3.15 show that the probability of burst loss

of the analysis model is similar to the simulation results (Figure 3.7).

Figure 3.6 Comparison of the effectiveness between analytical model and simulation results

with TFBA

3.1.5 Comments

Based on analysis and simulation results, the TFBA method has proven to

Page 51: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

22

be more efficient than previous methods, especially applicable to many types

of incoming flows, instead of only Poisson flow as in [67], [53]. The TFBA

method has been published in [CT6].

3.2 Padding model for effective bandwidth utilisation and throughput

fairness

3.2.1 Related works

3.2.2 Padding method

3.2.2.1 Introduction to burst padding

The burst padding model QDBAP (QoS Differentiation Burst Assembly

with Padding) proposed in the thesis is described as shown in Figure 3.17, in

which the burst padding is done by picking packets from low QoS queues to

add into higher QoS burst.

Figure 3.7 An example of a burst padding model with three layers:

(a) before the burst padding and (b) after the burst padding

3.2.2.2 Padding policy

The proposed padding policy is as follows:

1. Only take packets from the low QoS queue to pad in the higher QoS burst

2. Selecting a packet from a low QoS queue is on a first-come, first-served

basis.

3. Low QoS packets are padded to the tail of the higher QoS burst.

4. Only take packets from the low QoS queue that its control packet has not

yet been sent.

3.2.2.4 Comparison and analysis of simulation results

Simulation objectives include:

Comparing wasted bandwidth when using padded bytes and

Compare the throughput fairness based on TFI (Formula 3.8).

a. Comparison of wasted bandwidth

Page 52: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

23

Figure 3.8 Comparison of the number of padding bytes between QDBAP and POQA

b. Comparison of the throughput fairness

Figure 3.9 Comparison of the throughput fairness based on TFI between QDBAP and POQA

Figure 3.10 Comparison of the throughput fairness (based on the ratio of the actual load and

the bandwidth capacity) between POQA and QDBAP

3.2.3 Comments

Based on the analysis and simulation results, the QDBAP method has

proven to be effective in increasing bandwidth usage and throughput fairness

for different QoS flows. The results of this study were published in [CT7].

3.3 Summary chapter 3

This chapter introduced a method of bandwidth allocation for throughput

fairness TFBA, which can be applied to many types of incoming flows, greatly

increasing the network performance and assuring throughput fairness (this

result has been published in [CT6]). In addition, this chapter also presents a

proposed burst padding method that increases the efficiency of bandwidth

Page 53: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

24

utilization and throughput fairness between QoS classes (This result was

published in [CT7]).

CONCLUSION

The OBS network is a promising solution for the next-generation Internet,

because OBS overcomes the today's technology limitations of optical packet

switching and exploits flexible bandwidth better than optical channel

switching. One of the issues of OBS network research is how to control the

fairness between different service flows. With that motivation, the thesis has

focused on fairness control models and algorithms in OBS network with

different approaches. Achievements of the thesis include:

1. Reviewing, analysing, evaluating and classifying of the fairness control

methods in OBS networks. Based on the points of existence of the previous

published findings, the thesis proposes improvements and new solutions for

better functional modules, fairness control models and algorithms.

2. Proposing 2 models of burst assembly for delay reduction, iBADR [CT2]

and OBADR [CT3], in order to reduce the buffering delay of assembly queues,

in which OBADR achieves minimum error and accurate estimation of

generated burst size.

3. Proposing a burst assembly model, BADF [CT5], that ensures the delay

fairness which is better than a previously proposed method (POQA). At the

same time, BADF is more effective than POQA in terms of delay, average

error rate ... The dissertation also proposes a metric index (DFI) in order to

measure the delay fairness efficiency of proposed methods.

3. Proposing a model of throughput-based fair bandwidth allocation, TFBA

[CT6], that can be applied to priority flows with Poisson and non-Poisson

distribution. TFBA has a lower loss rate than the two previously proposed

methods (MMFP and RFP), and increase the throughput fairness efficiency

based on TFI, a metric index proposed by the dissertation.

4. Propose a burst padding method, QDBAP [CT7], in order to increase

the efficiency of bandwidth utilization and throughput fairness. In addition,

QDBAP also reduces the bandwidth wastage rate in comparison with POQA.

Page 54: ĐIỀU KHIỂN CÔNG BẰNG LUỒNG TRONG MẠNG CHUYỂN ...

25

LIST OF RESULTS PULISHED BY AUTHOR

CT1. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2016), “Analysis

of the algorithms of burst assembly for delay reduction at the edge node

of obs networks”, Hue University College of Sciences Journal of

Science, ISSN 2354-0842, vol 6, no.1, pp. 9-20.

CT2. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2017), “An

improved approach of burst assembly for delay reduction at edge OBS

nodes”, Hue University Journal of Science, ISSN 1859-1388, vol. 126,

no. 2A, pp.19-30.

CT3. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son (2017), “A model

of optimal burst assembly for delay reduction at ingress OBS nodes”,

Turkish Journal of Electrical Engineering & Computer Sciences (SCIE),

vol. 25, no. 5, pp. 3970-3982.

CT4. Le Van Hoa, Vo Viet Minh Nhat, Nguyen Hoang Son (2018), “Effects

of data flow properties to the efficiency of burst assembly for delay

reduction at ingress OBS nodes”, Proceedings of the 11th National

Conference of Fundamental and Applied Information Technology

Research (FAIR), pp: 57-64.

CT5. Vo Viet Minh Nhat, Le Van Hoa, Le Manh Thanh (2018), “On the delay

fairness through the burst assembly for service difference”, ETRI

Journal (SCIE), vol. 40, no. 3, pp. 347-354.

CT6. Le Van Hoa, Vo Viet Minh Nhat, Le Manh Thanh (2018)

“Throughput-based Fair Bandwidth Allocation in OBS Networks”,

ETRI Journal (SCIE), vol. 40, no. 5, pp. 624-633.

CT7. Vo Viet Minh Nhat, Le Van Hoa, Nguyen Hoang Son, Le Manh Thanh

(2018), “A Model of QoS Differentiation Burst Assembly with Padding

for Improving the Performance of OBS Networks”, Turkish Journal of

Electrical Engineering & Computer Sciences (SCIE), vol 26, no. 4, pp.

1783-1795.