NSZ Optimizasyon Teorisinin mhendislik, retim, iletme, ekonomi, haberleme,
ulatrma, sanayi gibi pek ok alanda uygulanmas, YAn vazgeilmez klmtr. zellikle
bilgisayarlarn yaygn bir kullanm alanna sahip olmasndan sonra endstri kesimi de karar
vermede yararl bir ara olduunu grd Lineer Programlama (LP) konusuna ilgi duymaya
balamtr. Petrol endstrisi, problemlerinin karmakl sebebiyle, LP ile ciddi bir ekilde
ilgilenen ilk endstri bran olmutur [1].
Gnmzde, YA aada sadece bir kan verebileceimiz yzlerce farkl
problemlerin zmnde kullanlmaktadr.Bunlar, Fabrika Organizasyonu, Atelye/Tezgah
Optimizasyonu, Proje Ynetimi, kaynaklarn optimum kullanm saylabilir.
Bu ders notunu hazrlama amacmz,lisans seviyesinde eitim veren fakltelerde Meslek
Matematii,Optimizasyon Teknikleri vb.isimler altnda verilen derslere uygun olan ve
lisansst eitime nemli derecede katk salayacak bir alma yapmak ve bunu daha da
gelitirerek Optimizasyon Teknikleri kitabn yazmaktr.Bununla birlikte, gncel hayatn her
alannda uygulamalarna rastladmz optimizasyon kavramn rencilerimize uygulamalar
ile aktararak bu konudaki bilincin oluturulmas ve en gncel yaklam olan yapay zeka
tekniklerine zemin hazrlanmas amalanmtr.
eriinde temelde Dorusal Programlama ile Dorusal Olmayan Programlama
tekniklerini barndran bu almada rencilerimize klasik optimizasyon teorisinden
ulatrma problemlerine,gezgin satc probleminden en ksa yol problemine ve simpleks
yntemden atama problemine kadar ok sayda konu rnekler ile desteklenerek ele alnmtr.
Bu almann gerek dersimizi alan rencilere gerekse bu konularla ilgilenen herkese faydal
olmas temennisiyle
neri ve eletirilerini [email protected] adresine bekliyoruz.
Bu Cennet Vatan iin ehit Denlere thafen
nsz...........................................................................................................................................I
indekiler...................................................................................................................................II
1. Giri.........................................................................................................................................1
2. Lineer Programlama ve Grafik zm.................................................................................2
2.1. Lineer Programlamaya Giri....................................................................................2
2.2. Lineer Programlama Hakknda Genel Bilgi.............................................................2
2.3 Lineer Programlama lem Basamaklar..................................................................3
2.4. Lineer Programlama Problem rnekleri .................................................................3
3. Lineer Programlama ve Simpleks Metodu..............................................................................9
3.1. Simpleks Metoda Giri.............................................................................................9
3.2 Aylak Deikenler ve Simpleks Metodun rneklerle ncelenmesi ......................10
3.3 Simpleks Metot Maksimum Problemleri................................................................19
3.4 Simpleks Metot II (Minimum Problemleri)............................................................30
3.5 Lineer Prramlama Problemlerinin marjinal analizleri ve formlleri:.....................38
3.6 Lineer Programlama Problemlerinin Matris Fonksiyonlar.....................................44
3.7 Duality.....................................................................................................................46
3.7.1 Duality ve Simpleks Metot likisi...........................................................46
3.7.2Dualitynin temel teoremi..........................................................................51
4. Ulatrma Problemleri ..........................................................................................................60
4.1 Ulatrma Problemlerine Giri................................................................................60
4.2.rneklerle Ulatrma Problemlerinin incelenmesi................................................61
4.2.1.- Kuzey-bat kesi yntemi.....................................................................62
4.2.2. En kk maliyetli hcreler metodu......................................................63
4.2.3. VAM(vogel) metodu.............................................................................63
5. Atama Problemleri ve Gezgin Satc Problemi.....................................................................64
5.1 Atama Problemlerine Giri......................................................................................64
5.2 Atama Problemlerinin zm admlar..................................................................64
5.3. rneklerle Atama Problemlerinin ncelenmesi......................................................65
6. Gezgin Satc Problemi.........................................................................................................67
6.1 Gezgin Satc Problemine Giri...............................................................................67
6.2.Gezgin Satc Problemi lem Admlar..................................................................67
6.3. Gezgin Satc Problemlerinin rneklerle ncelenmesi...........................................68
7. Dinamik Programlama..........................................................................................................71
7.1.Dinamik Programlaya Giri....................................................................................71
7.2.Dinamik Programlann rneklerle necelenmesi....................................................71
8. Uygulama Programlar .........................................................................................................74
8.1. Simpleks Metot ...................................................................................................74
8.2. Atama Problemleri ................................................................................................75
8.3. Uygulamalarda Kullanlan Teknolojiler ................................................................76
8.3.1. Java .........................................................................................................76
8.3.1.1. Java Hakknda Genel Bilgi.......................................................76
8.3.1.2. Java Program Gelitirme Ortamalar ve Applett Kullanm.....78
8.3.2. Delphi .....................................................................................................79
8.3.2.1. Delphi Hakknda Genel Bilgi...................................................79
8.3.2.2. Atama Problemi Algoritma Yaps ..........................................79
8.3.3. Active X ..................................................................................................80
8.3.4. Html.........................................................................................................81
8.3.4.1.Html hakknda Genel Bilgi........................................................81
8.3.4.2. Html ierisinde Dier Dillerin Kullanm.................................81
8.3.4.2.1 Htmlde Active X Kullanm......................................81
9. Sonu ve neriler.................................................................................................................82
10.Kaynaklar.............................................................................................................................83
11.zgemi..............................................................................................................................84
1
I.GR
1.Optimizasyon
1.1. Tanm:En basit anlam ile optimizasyon eldeki kstl kaynaklar en optimum biimde
kullanmak olarak tanmlanabilir(1).Matematiksel olarak ifade etmek gerekirse optimizasyon
ksaca bir fonksiyonun minimize veya maksimize edilmesi olarak tanmlanabilir(2). Dier bir
deile optimizasyon en iyi ama kriterinin en iyi deerini veren kstlardaki deikenlerin
deerini bulmaktr (3).
Baka bir tanmlama ile belirli amalar gerekletirmek iin en iyi kararlar verme sanat
veya belirli koullar altnda herhangi bir eyi en iyi yapma (4) olarak da tanmlanan
optimizasyon ksaca en iyi sonular ieren ilemler topluluudur (5).Optimizasyonda bir
ama da maksimum kr veya minimum maliyeti salayacak retim miktarn kstlara bal
olarak tespit etmektir. Gnmzn bilgisayar teknolojisi kadar gncel bir kavram olan
optimizasyon kavram ok eitli endstri kesimlerinde uygulama olana bulmutur.
Deien teknolojilerin, snrl kaynaklarn, artan rekabetin, karmak hale gelen sistemlerin
dourduu problemlerin klasik yntemlerle (matematiksel veya matematiksel olmayan,
analitik veya saysal) zmnn glemesi optimizasyon kavramn gncelletiren en
nemli sebeptir.Bu ynyle optimizasyonun kullanlmad bir bilim dal hemen hemen yok
gibidir (6).
1.2. Tarihe:Gerek hayatta karlalan birok problem iin gelitirilen karar modellerinin
kstlar ve ama fonksiyonlarnda her zaman dorusal bir iliki kurulamadndan 1950li
yllardan sonra gelitirilmeye balayan ve temelleri 18. ve 19. yzyllara dayanan yeni analitik
ve saysal yntemler 1960l yllardan sonra saysal bilgisayarlarnda destei ile hzla
oalmtr.
zellikle kimyasal ilemlerin sreklilik arz etmesi, planlamaclarn, tasarmclarn,
mhendislerin, jeologlarn, ekonomistlerin, iktisatlarn, iletmecilerin v.b. kendi
alanlarndaki problemleri zmek iin yaptklar almalar optimizasyon ve buna bal
teknikleri hzla ortaya karmtr. Benzer ekilde bu tekniklerin amaland alanlara,
sistemin zelliklerine, kullanlan matematiksel yntemlere ve kstaslarn tasnifleri aamalar
geirmitir(3).
2
Klasik optimizasyon teorisi Cauchy, Lagrange ve Newton tarafndan gelitirilmitir. Newton
ve Leibnitz in analiz almalar optimizasyonun diferansiyel hesap metodlarnn
gelitirilmesine katkda bulunmutur. Kstl problemler iin optimizasyon metodunu adyla
anlan Lagrange gelitirmitir. Kstsz optimizasyon problemlerini zmek iin Steepest
Descent (en dik ini,eim) metodunun ilk uygulamas da Cauchy tarafndan yaplmtr.
Optimizasyon konusundaki bu almalar 20. yzyln ortalarna kadar ok yava ilerlemitir.
1950 lerden sonra saysal bilgisayarlarn icad optimizasyonda ok byk almalar
beraberinde getirerek birok yeni teori ve metodun ortaya kmasn salamtr. Fakat 1960
l yllarda kstsz optimizasyon konusundaki saysal metodlar sadece ngiltere de
gelitirilmitir (5).
Simpleks metodunu 1947 de Dantzing, Dinamik Programlama Tekniini 1954 de Bellmann
gelitirmitir.Bu almamzn esasn tekil eden Dorusal Olmayan Programlama
konusundaki ilk nemli almalar 1951 ylnda Karush Kuhn ve Tucker tarafndan optimal
zm iin gerek ve yeter artlar teorisi bal ad altnda
sunulmutur(7). 1960 l yllarda Zoutendijk ve Rosen de Dorusal Olmayan Programlama
sahasnda nemli almalar yapmlardr.
Dorusal Olmayan Programlama alanndaki en byk gelime kstsz optimizasyonun bilinen
tekniklerini kullanarak ok zor problemlerin zmn kolaylatran ciddi almalarn
Carroll, Fiacco ve Mc Cormick tarafndan ortaya konmasdr. Geometrik Programlama ise
1960 l yllarda Peterson, Zener ve Duffin tarafndan gelitirilmitir(5).Dzlemsel Kesme
Algoritmas ise 1969da Zangwill tarafndan ortaya konmutur. ndirgenmi Gradient Metod
ise Wolfe tarafndan 1963 de gelitirilmitir(8).
1.3.Optimizasyon Probleminin zellikleri ve zm Aamalar
Bir optimizasyon probleminin temel zellii kategoriye ayrlmasdr. Bunlar :
En az bir ama fonksiyonunun optimize edilmesi
Eitlik kstlar
Eitsizlik kstlardr
3
Yani genel bir optimizasyon problemi:
maksimum (minimum) f(x)
0)(,0(x)ig i = 1, 2, .., m veya
0 = )x(ih i = m + 1, m + 2, , n
eklindedir.Bu genel tanm altnda ama fonksiyonunun en iyi deerini veren
T)nx........,,2x,1x(=X
n boyutlu zm vektrne model vektr de denir(3).
(1) ile ifade edilen genel problemde f(x) ama fonksiyonunu, )x(ig eitsizlik kstlar ve
)x(ih eitlik kstlar temsil eder. nin sfr olmas problemin kstsz olmas, sfrdan farkl
olmas da problemin kstl olmas anlamna gelir.
Genel bir optimizasyon probleminin zm alt admda gerekletirilir.
i. lem analiz edilerek ilem deikenlerinin btn bir listesi karlr. ii. Optimizasyon iin ama fonksiyonunu tanmlayacak kriter belirlenir.
iii. Matematiksel ifadelerle kullanlabilir bir ilem gerekletirilir. iv. Problem ok bykse;
a) Kontrol edilebilir ve modeli basitletirilir.
b) Ama fonksiyonu teknii matematiksel ifadeye uygulanr.
v. Uygun optimizasyon teknii matematiksel ifadeye uygulanr. vi. Cevaplar kontrol edilir(3).
Btn optimizasyon problemlerinin zm iin etkili tek bir metot olmadndan
optimizasyon metotlar optimizasyon problemlerinin farkl tiplerinin zm iin
gelitirilmitir(5).
1.4. Dorusal Olmayan Programlama
Gerek hayatta karlalan birok problem iin gelitirilen karar modellerinin kstlarndan en
az biri veya ama fonksiyonunun dorusal olmad durumlar iin gelitirilen tm kavram ve
teknikler Dorusal Olmayan Programlama ad altnda incelenmektedir(6).
4
Dorusal Olmayan Programlama:
)n x,.......... ,1f(x )if(x Z == (i = 1, 2, , n) eklinde tanmlanan srekli ve trevlenebilen bir ama fonksiyonunun;
0)ix(jg ( 0ix ) (i = 1, 2, , n)(j = 1, 2, , m ) kstlar altnda optimum zmn aratrma yntemidir(9). Dorusal ve dorusal olmayan
denklemlerden oluan )i(xjg kstlar eitlikler veya eitsizlikler eklinde verilebilir.
yle ki;
0)ix(jg )0( (j = 1, 2, ., l) ve 0)ix(jg = (j = 1 + 1, ..., m)
eklinde tanmlanan kstlar m tane denklemden oluan bir denklem sistemidir. Bu
denklemlerin 1 tanesi eitsizlik, (m-1) tanesi eitlik denkleminden oluur(10).
1.5. Ama Fonksiyonunun Yorumlanmas
Ama fonksiyonunun yorumlanmas konusunda kstlarda ve (veya) kstsz problemde yer
alan deikenlerin (karar deikenleri) en iyi semedeki kriter programlamada ama
fonksiyonu olarak adlandrlr.Pratikte ise kstlarda ve ama fonksiyonunda yer alacak
deikenlerin (kt kaynaklarn) en iyi deerlerini bulmak olarak tanmlanabilir(3).
1.6. Optimizasyon ile lgili Temel Kavram ve Tanmlar
1.6.1. Fonksiyonlarda Sreklilik Kavram
A. Tek Deikenli Fonksiyonlarda Sreklilik
Tek deikenli bir y = f(x) fonksiyonunun bir 0x noktasnda srekli olmas demek, verilen
> 0 saysna karlk yle bir 0,h >< saysnn bulunmasdr ki;
)()(00
+ xfhxf dr.
5
B. ok Deikenli Fonksiyonlarda Sreklilik
ok deikenli bir )nx.,..........,2x,1x(f)x(fz == fonksiyonunun bir 0x noktasnda srekli olmas demek, verilen > 0 saysna karlk yle bir 0,h >< saysnn bulunmasdr ki;
)()(00
+ xfhxf dr. Burada;
)nh.........,,2h,1h(h = ve )n,..........,2,1(= > 0 dr(11).
1.6.2. Unimodal (Tek deer) Fonksiyon
Verilen bir aralkta bir tek maksimum veya minimuma sahip fonksiyona Unimodal fonksiyon
denir(5). Matematiksel olarak ifade etmek gerekirse: [a,b] aral zerinde bir y=f(x)
fonksiyonu tanmlanm olsun.
[ ]b,ap says iin; i) f(x), [a, p] aralnda azalan bir fonksiyon
ii) f(x), [p, b] aralnda artan bir fonksiyon
ise y = f(x) fonksiyonuna bu aralkta Unimodal (tek deerli) fonksiyon denir(12).
Eer f(x) fonksiyonu [a, b] aralnda Unimodal fonksiyon ise f(x) minimum deerini
a < c < d < b eklindeki bir [c,d] aralnda alabilir. Bu minimum deer f(c) ve f(d) nin
max[f(a), f(b)] den daha kk iken garanti edilir (ekil 1.a - b).
Eer f(c) f(d) ise [a, d] aralnn sandan aralk daraltlr (ekil 1.a). Eer f(d) < f(c) ise [c, b] aralnn sandan itibaren aralk daraltlr (ekil 1.b).
dc p
y = f(x)
[a ]b dc p
y = f(x)
[a ]b
ekil 1.a ekil 1.b
6
1.7.Konvekslik ile lgili Tanmlar
1.7.1.Konveks Bileen
S, nE , n boyutlu klidyen uzayda bo olmayan bir kme olsun.
1i,0iveSix = iken, nxn............2x21x10x +++= olsun.
Eer; =
=n
1iixi0x eklinde elde edilen 0x noktasna nx.,..........,3x,2x,1x noktalarnn
konveks (dbkey) bileeni denir(6).
1.7.2. Konveks Kme
S, nE , n-boyutlu klidyen uzayda bo olmayan bir kme olsun. S kmesinin farkl iki
noktasnn konveks (dbkey) bileeni ile bulunan nokta yine S kmesinin bir eleman ise S
kmesine konveks kme denir(8).(ekil 2.a-b)
Konveks Kme Konveks deil
x1
x2
ekil 2.a ekil 2.b
Matematiksel olarak ifade etmek gerekirse;
10,,, jiSxx ji iken ( )jiSjx)1(ix0x += oluyorsa S kmesine konveks (dbkey) kme denir.
1.7.3.Konveks Fonksiyon
nE , n-boyutlu klidyen uzayda verilen herhangi iki nokta ( 2x,1x ) olsun.Eer aadaki
eitsizlik nE , n-boyutlu klidyen uzayndaki her nokta ifti iin geerli ise f fonksiyonuna
konvekstir denir(13).
( ) 10;2E2x,1x iin; )]2x(f)1x(f)1[(]2x1x)1[(f ++
7
x1 x2
1.7.4.Konkav (bkey) (Konveks Olmayan) Fonksiyon
Konveks fonksiyonunun tanmna benzer olarak;
( ) 10;2E2x,1x iin; )]2x(f)1x(f)1[(]2x1x)1[(f ++ oluyorsa f fonksiyonuna konkav (ibkey) fonksiyondur denir.(1.7.3) ve (1.7.4) ile ifade
edilen tanmlar geometrik olarak aklamak gerekirse;
Fonksiyonun yzeyi zerinde alnan herhangi iki noktay birletiren doru,
fonksiyonun temsil ettii erinin altnda kalyorsa fonksiyona konkav fonksiyon, aksi halde
yani yzey zerindeki iki noktay birletiren doru fonksiyonun temsil ettii erinin stnde
kalyorsa fonksiyona konvekstir denir(8) (ekil 3.a-b-c).
Konveks Fonksiyon Konkav Fonksiyon Ne Konveks Ne Konkav
(ekil 3.a). (ekil 3.b). (ekil 3.c).
[(1-)x1+ x2] [(1-)x1+ x2] [(1-)x1+ x2]
1.8. Optimum Aramada Konveksliin ve Konkavln Etkileri
1.8.1. Kstsz Maksimum (Minimum)
Eer bir dorusal olmayan programlama problemi bir f(x) ama fonksiyonunu ierirse ve
ayrca f(x) konveks (konkav) ise uygun blge iindeki bir noktada bir tek optimum zm
vardr ve bu noktada 1. mertebeden trevlerin hepsi sfrdr. Ayn zamanda bu nokta bir snr
noktada olabilir. Ayn zellik bu snr nokta iinde geerlidir(13).
x1 x2x1 x2
8
1.8.2.Kstl Maksimum
Eer bir dorusal olmayan programlama problemi ayn anda hem bir ama fonksiyonu hem de
kstlarn bir kmesinden oluuyorsa optimum zmn teklii ama fonksiyonu ve kstlara
baldr.Eer ama fonksiyonu konkav ve kstlarn kmesi konveks ise problemin bir tek
maksimum zm vardr. Bu nedenle herhangi bir sabit nokta mutlak maksimum zm
olmak zorundadr.
1.8.3.Kstl Minimum
Eer bir dorusal olmayan programlama problemi ayn anda bir ama fonksiyonu ve kstlarn
bir kmesini ieriyorsa optimum zmn teklii ama fonksiyonu ve kstlara baldr.
Eer ama fonksiyonu konveks ve keza kstlarn kmesi de konveks blge formunda ise
problemin bir tek minimum zm olacaktr. Bu nedenle herhangi bir sabit nokta mutlak
minimum zm olmak zorundadr.
1.8.4.Konkav (Konveks) Fonksiyonun Minimizasyonu (Maksimizasyonu)
Eer bir konveks fonksiyon maksimize (konkav fonksiyon minimize) edilirse optimal zm
kstlar kmesinin ekstremum noktalarnn yalnz birisinde bulunacaktr.
1.9. Bir Fonksiyonun Gradienti
f(x) = f( nx...,..........,2x,1x ) n-deikenli fonksiyonunu gz nne alalm.
Burada, ( nx...,..........,2x,1x ) koordinatlar n-boyutlu klidyen uzayda X-stun vektr ile
temsil edilirler(1).
f(x) = f( nx...,..........,2x,1x ) fonksiyonunun gradienti ise f(x) veya grad f(x) sembolleri ile
gsterilir ve; grad f(x) =
=
nxf..,,.........
2xf,
1xf)x(f
veya ksaca;
=
kxf)x(f dr. (k =1, 2 , , n) eklinde tanmlanr.
9
1.10. Hessian Matrisi
f(x) fonksiyonunun ikinci mertebeden srekli trevlere sahip olmas durumunda btn
i ve j ler iin;
jiji
x.xf
x.xf
=
22 eitlii geerlidir(14).
Bu nedenle f(x) = f( nx...,..........,2x,1x ) n-deikenli fonksiyonunun ikinci mertebeden
ksmi trevleri;
nxnjif x.x
fH
=2
eklinde bir matris ile gsterilebilir. te bu n x n lik fH (x) matrisine f(x) fonksiyonunun
Hessian matrisi denir. Bu matris ayn zamanda simetriktir(15). Aka yazmak gerekirse;
nxn
f
nnn
n
x
f...............xx
fxx
f
xxf...............
xxf
x
f
)x(H
=
2
2
2
2
1
2
1
2
21
2
2
1
2
. . . . . .
II. KLASK OPTMZASYON TEORS
2. Klasik Optimizasyon Teorisi
Klasik Optimizasyon Teorisi kstl ve kstsz fonksiyonlar iin ekstremum noktalarn
belirlenmesinde diferansiyel hesabn kullanlmasn gelitirmitir.Gelitirilen bu metodlar
saysal hesaplamalar iin uygun olmayabilir.
Bu temel balk altnda kstsz ekstremumlarn belirlenmesi iin gerek ve yeter artlar, eitlik
kstlara sahip problemler iin Karush Kuhn Tucker gerek ve yeter artlarn inceleyip
rnekler vererek aklayacaz(11).
10
2.1 Kstsz Ekstremum Problemleri
f(x) fonksiyonunun bir ekstremum noktas maksimum veya minimum nokta olarak tanmlanr.
Matematiksel olarak tanmlamak gerekirse;
)nh.......,,.........jh,...,2h,1h(h = yleki jh btn j ler iin yeterince kk olmak zere;
)()(00
+ xfhxf art salanyorsa 0x noktas bir maksimum noktadr(13). Bir baka deyile; 0x n komuluundaki her noktada f fonksiyonunun deeri )0x(f dan
kk ya da eit kalrsa 0x a f fonksiyonunun maksimum noktas denir. Benzer ekilde;
)nh.......,,.........jh,...,2h,1h(h = yleki jh btn jler iin yeterince kk olmak zere; )0x(f)h0x(f + art salanyorsa 0x noktas bir minimum noktadr. Yani 0x n komuluundaki her noktada f nin ald deer )0x(f deerinden byk yada eit kalrsa
0x noktasna f fonksiyonunun minimum noktas denir. Aadaki ekil [a, b] aralnda tek
deikenli bir f(x) fonksiyonunun maksimum ve minimumlarn tanmlar (ekil 4).
a x1 x2 x3 x4 x5 x6 x7 x8
f (x)
x
ekil.4. f(x) fonksiyonunun maksimum ve minimumlar
eklimize gre 6x,4x,3x,2x,1x noktalar f(x) fonksiyonunun ekstremum noktalardr. Bu
noktalardan 6x ve3x,1x noktalar maksimum noktalar iken 4 x ve2x noktalar da minimum
noktalardr. )6x(f = max )}6x(f),3x(f),1x(f{ olduundan )6x(f global maksimum veya
mutlak maksimum olarak isimlendirilir. )6x(f ya gre )1x(f ve )3x(f noktalar da yerel
maksimum olarak adlandrlr.
11
Benzer olarak;
)2x(f = min )}4x(f),2x(f{ olduundan )2x(f noktas mutlak minimum nokta olarak
isimlendirilirken, )2x(f ye gre )4x(f noktas yerel minimum nokta olarak isimlendirilir.
1x ile 3x noktalar karlatrldnda 1x zayf maksimum iken 3x gl
maksimumdur. 2x ile 4x noktalar karlatrldnda 2x noktas gl minimum nokta iken
4x noktas 2x noktasna gre zayf minimum noktadr(11).
Genelletirecek olursak;
)0x(f)h0x(f + ise 0x bir zayf maksimum )0x(f)h0x(f + ise 0x bir gl minimum noktadr.
Burada h daha nce tanmland gibidir. ekil 4den de grld gibi btn ekstremum
noktalarda f(x) fonksiyonunun eiminin (1. trevi) sfra eit olduu sonucuna varabiliriz.
Buna karlk bu zellik tek deildir. Yani tersi doru olmayabilir. f(x) fonksiyonunun eimi
herhangi bir noktada sfr olduu halde bu nokta ekstremum nokta olmayabilir. ekil 4deki x5
noktas byle bir noktadr. Yani bu noktada f(x) fonksiyonunun eimi sfr olduu halde x5
noktas bir ekstremum nokta deildir.
te byle noktalara, gradienti (eim) sfr oldugu halde ekstremum olmayan noktalara
bkm noktalar denir.
2.2. Ekstremum in Gerek ve Yeter artlar
n-deikenli bir f(x) fonksiyonunu gznne alalm. f(x) fonksiyonunun her x noktasnda
birinci ve ikinci mertebeden srekli trevlere sahip olduunu varsayalm.
Teorem-1: Herhangi bir x 0 noktasnn f(x) fonksiyonunun ekstremum noktas olmas iin
gerek art; 0)x(f 0 = olmasdr.
12
Ispat: 0 < < 1 iin Taylor teoreminden; hxHhh2
1h)x(f )x(f)hx(f 0T
000 +
+=+
Yeterince kk jh ler iin kalan terim
21 HhhT , 2jh nin mertebesindedir.
Bundan dolay (1) deki alm;
++ )jh(0h)x(f)x(f)hx(f 2.000 )x(f 0 . h imdi 0x noktasnn bir minimum nokta olduunu varsayalm. Olmayana ergi
yntemiyle gsterilebilir ki )x(f o sfra eit olmak zorundadr. 0x bir minimum nokta deil iken zel bir j iin;
0 x
)x(f
j
0
olabilir.
h j nin iareti uygun seilerek h j . 0 x )x(f
j
0
13
x 0 noktasn minimum nokta olarak alalm.
Tanmdan; )x(f)hx(f 00 >+ dr. Bunun anlam udur;
x 0 noktasnn bir minimum nokta olmas iin; hxHhh 21
0T +
> 0 olmaldr.
kinci ksmi trevlerin srekli olmasn kabul ile Hh 21 T
x 0 ve x 0 + h n her ikisinde de
deerlendirildiinde ayn iarete sahip olmak zorundadr.0
TxHhh bir karesel form olarak
tanmlanr ve x 0 noktasnda deerlendirilirse x 0 n minimum nokta olmas iin 0x H pozitif
tanml olmaldr.
Bu son ifadenin anlam udur:Sabit bir x 0 noktasnn minimum nokta olmas iin yeter art
Hessian Matrisinin bu noktada pozitif tanml olmasdr. Ayn yeter art x 0 n maksimum
nokta olmas iin yapldnda Hessian matrisinin x 0 noktasnda negatif tanml olmas
gerektii sylenebilir.
Sonu 1: Eer 0x H tanmsz ise x 0 bir bkm noktas olmak zorundadr.
Sonu 2: Teorem-1 ve Teorem-2 ile sunulan ifadeler tek deikenli y = f(x) fonksiyonu iin
u ekilde zetlenebilir.Herhangi bir x 0 noktasnn y = f(x) fonksiyonunun bir ekstremum
noktas olmas iin gerek art f (x 0 ) = 0 olmasdr. Yeter art;
f (x 0 ) < 0 ise x 0 bir maksimum noktadr.
f (x 0 ) > 0 ise x 0 bir minimum noktadr(16).
Eer, f (x 0 ) = 0 ise x 0 n ekstremum nokta olmas iin yksek mertebeden trevler
gznne alnmak zorundadr. Bunu aadaki sonu teorem ile sunabiliriz.
Teorem-3: y=f(x) fonksiyonu verilsin. f(x)in sabit bir x 0 noktasnda;
( ) 0)x(f 01n = ve ( ) 0)x(f 0n oluyorsa x = x 0 noktasnda f(x); n tek ise bir bkm noktasna sahiptir.n ift ise;
a) ( ) 0)x(f 0n < ise maksimuma sahiptir. b) ( ) 0)x(f 0n > ise minimuma sahiptir(11).
14
2.3. ok deikenli Fonksiyonlarnn Optimizasyonu (Kstsz Optimizasyon)
Daha nce tanmland gibi,y=f(x1,x2,...xn) n- deikenli fonksiyonu 2. mertebeden srekli
ksmi trevlere sahipken bu fonksiyonun hessian matrisi simetrik bir matris (simetrik
matris: ji olmak zere aij=aji olan matristir) olup aadaki gibidir ;
Hf(x)=
2
2
2
2
1
22
2
22
2
12
21
2
21
2
21
2
...
...
nnn
n
n
xf
xxf
xxf
xxf
xf
xxf
xxf
xxf
xf
=
nnnn
n
n
fff
ffffff
21
22221
11211
.
.
.
.
.
.
.
.
.
nxn nxn
y=f(x1,x2,...xn) fonksiyonlarn ekstremumlara sahip olmas iin;
i) Gerek art:
0,...,),..,,(),..,,(21
2121 =
==
nnn x
fxf
xfxxxgradfxxx olmasdr. Bu denklemin zm
olan noktalara sabit noktalar denir,
ii) Yeter art:x0 noktas 0)( = xf artn salayan nokta(sabit nokta) olsun.Buna gre; 1.Test :
i. Hf(x0) > 0 (Pozitif tanml) ise minimum noktasdr ii. Hf(x0) < 0 (Negatif tanml)ise maximum noktasdr
iii. Hf(x0) tanmsz ise x0 bkm noktasdr 2.Test:
det(A- I)=0 n.dereceden bir polinom denklem olup buna f fonksiyonunun karakteristik polinomu ,bu denklemin kklerine de karakteristikler veya zdeerler denir.Buna gre ;
i. 0 >i
i iin ise A pozitif tanmldr (A=(aij)nxn)
ii. 0
15
2.3.1. A matrisinin tanmll:nxnlik bir A matrisinin tanmlln belirlemek iin
aadaki test uygulanr.
A=
nnnn
nn
aaa
aaaaaa
21
22221
11211
.
...
.
.olsun. Ann uzanan alt matrisleri ;
nxn
A1=[a11] ; A2=
=
nnn
n
n
jjjj
j
j
aaaaaa
Anaaaaaaaaa
Ajaaaa
.
.
.,...,...,
1
221
111
21
22221
11211
2221
1211 olarak tanmlanr.
2x2 jxj nxn
Bu matrislerin determinantlarnn hepsi pozitif ise A matrisi pozitif tanmldr .Yani;
i. i iin det Ai>0 ise A pozitif tanmldr. ii. i iin (-1)idet Ai>0 ise A negatif tanmldr.
iii. Dier durumlarda tanmszdr .Nokta bkm noktasdr.
2.3.2. Konveks,Konkav Fonksiyonunun Hessian Matrisi ile Tayini (Descartes kural)
det (A- )I =0 ifadesi P( ) =0 eklinde ya bal bir polinom olup; p( )daki iaret deiiklii says (pozitif kk says) p(- )daki iaret deiiklii says (negatif kk says)
ile tanmlanr ve sabit noktann kimlii ilefonksiyonun konkav yada konvekslii kolayca
belirlenir.
rnek : f(x1,x2,x3)=x1+2x3+x2x3-x12-x22-x32 fonksiyonun ekstremumlarn ve konveks yada
konkavln inceleyiniz
1)Gerek art: f(x)=0 olmaldr
1xf
=1-2x1=0 ,
2xf
=x3-2x2=0 ,
3xf
=2+x2-2x3=0
Buradan; x1=1/2 , x2=2/3 , x3=4/3 olduu grlr . x0=(1/2,2/3,4/3) sabit noktadr.
16
2)Yeter art:Bu fonksiyona ait Hessian matrisini oluturalm
Hf(x0)=
332313
322212
312111
xxxxxx
xxxxxx
xxxxfxx
fffffffff
ise Hf(x0)=
210 120 002
H1=[-2] olduundan det H1=-2
H2=
20
0 2 olduundan det H2=4
H3
210120002
olduundan det H3=-6
Hf(x) negatif tanmldr x0=(1/2,2/3,4/3) maksimum noktadr
Not:yeter art iin II. Metot u ekildedir.
Det (H-I )=210
120002
-
100010001
=
210120002
= 0 ve buradan;
p( )=(-2- )[(-2- )2-1]=0 ise p( 06116) 23 == olur. p(- 06116) 23 =+= dr (3 tane negatif kk vardr , fonksiyon konkavdr yani x0 noktasmaksimum noktasdr)
rnek : f(x,y)=x2-4xy+y2 fonksiyonunun ekstremumlarn ve konveks yada konkavln
inceleyin.
zm:
1)Gerek art: 0)( = xf olmaldr
xf
=2x-4y=0 ,
yf
=-4x+2y=0
Buradan; x=0, y=0 olduu grlr. x0=(0,0) sabit noktadr.
2)Yeter art:Hf(x0)=
=
2442
fyyfyxfxyfxx
H1=[2] ise det H1=2>0
H2=
2442
ise det H2 = -12
17
2. yol : det (H- 0) =I
2442
- 1001 = 0
2442 =
p( ) =(2- )2-16= 01242 = p(- 0124) 2 =+= larn bir ksm pozitif bir ksm negatif olduundan bkm noktasdr.
rnek: f(x,y,z)=4x2-6y2-2xy+3xz-2y-4yz+1 fonksiyonunun ekstremumlarn bulunuz
zm:
Gerek art: 0)( = xf olmaldr.Buna gre; fx=8x-2y+3z=0
fy=-12y-2x-4z-2=0
fz=3x-4y=0 olup buradan x0(-6/7,-9/14,13/7) bulunur.
Yeter art : fxx=-2 ,fxy=3 ,fyy=-12 ,fyz=-4 ,fzz=0 olup Hessian matrisi;
H =
0434122
328elde edilir.
1.test : det [8] = 8 >0 ve det 10012228 =
18
2.3. Kstl Ekstremum Problemleri:
Bu blmde snr artlar ve kstlaryla srekli fonksiyonlarn optimizasyonu ele alacaz. Bu
snr artlar veya kstlar denklem formunda olabillir veya olmayabilir(2).
2.3.1. Eitlik Kstlar
Eitlik kstlarna sahip ama foksiyonunun optimizasyonu iin iki metod gelitirilmitir.
Bunlardan ilki Jacobian (Kstl Trevler) metodu, ikincisi ise Lagrange metodudur(11).
Jacobian metodu Dorusal Programlama iin simpleks metodunun bir genellemesi olarak ele
alnabilir. Gerekten de simpleks metodu artlar Jacobian metodundan tretilebilir. kinci bir
metod olan Lagrange metoduda yine benzer olarak Jacobian metoduna benzer bir mantkla
gelitirilmitir. Bu iliki Lagrange metodunun ilgin bir ekonomik yorumunu kabul eder.
A) Lagrange Metodu
J g f 1
0Y=
duyarllk katsaylar fnin optimum deeri zerinde kstlardaki kk deiikliklerin etkisini
belirlemede kullanlr. Keza bu katsaylar sabittir. Bu zellikler eitlik kstlarna sahip kstl
problemleri zmek iin kullanlr.
g f J 1
0Y ==
Buradan; 0g -f = bulunur. Bu denklem sabit noktalar iin gerek artlarda yeterlidir.
Yani f , g f
C ye benzer olarak hesaplanr. Bu denklemleri sunmak iin daha elverili bir
ifade de btn jx lerin ksmi trevleri alnmak suretiyle elde edilir.
Bylece;
0g)-(f x j
= (j = 1, 2, , n)
g = 0 kst denklemleri ile bu son denklem x ve nn uygun deerlerini kabul eder ki sabit noktalar iin gerek artlar kfidir.Eitlik kstlarna sahip optimizasyon problemlerinin sabit
noktalarnn belirlenmesi ilemi Lagrange ilemi olarak adlandrlr. Bu metodu formulize
eden ifade;
L ( X , ) = f(x) g(x) ile verilir.
19
Burada L fonksiyonu Lagrange fonksiyonu ve parametreleri de Lagrange arpanlar olarak bilinirler.
0 L =
ve 0XL =
denklemleri Lagrange fonksiyonu iin gerek artlarn oluturulmasnda direkt olarak
kullanlr. Bir baka deyile, g(x) = 0 kstlar ile f(x) fonksiyonunun optimizasyonu
L ( X , ) Lagrange fonksiyonunun optimizasyonuna eittir. imdide Lagrange metodu iin yeter artlar ispatsz olarak tanmlayalm.
)nm(x)nm(
TB
QPPH
++
= 0
Burada;
P =
)nm((x)mg
(x) g
(x) g
.
.
.2
1
ve Q =
)nn(
jx x
)(X, L .i
2
( i,j iin )
te bu ekilde tanmlanan BH matrisine snrlandrlm Hessian Matrisi denir(11).
Verilen bir ),X( 00 noktasnda BH snrlandrlm Hessian Matrisi ve ) , X( L Lagrange fonksiyonu deerlendirilirse;
1) Eer BH , (2m + 1)inci mertebeden temel minr determinant ile balayan ve (n-m)inci
mertebeden temel minr ile son bulan determinantlarn iareti 1m)1( + ile deiiyorsa ),X( 00 bir maksimum noktadr.
2) Eer BH , (2m + 1)inci mertebeden temel minr determinant ile balayan ve (n-m)inci
mertebeden temel minr ile son bulan determinantlarn iareti m)1( ile ayn iarete sahipse ),X( 00 bir minimum noktay belirtir(18).
20
Bu artlar bir ekstremum noktay tanmlamak iin yeterlidir fakat gerek deildir. Bir baka
deyile bir sabit nokta yukardaki artlar salamakszn ekstremum nokta olabilir.
Bu metodun dezavantaj ilem aknn hesaplama olarak pratik kararlar iin uygun
olmaydr. Bunun iin;
= IQPP
T
0
matrisini bu ekilde tanmlayp ),X( 00 noktasnda deerlendirelim. Burada P ve Q daha nce tanmladmz gibi, ise bilinmeyen bir parametredir.
0 = determinantn gznne alrsak; 0 = polinom denkleminin (n -m) tane iu reel kknn herbiri iin;
a) 0 oluyorsa ),X( 00 bir minimum noktadr.
2.3.2. Eitsizlik Kstlar
Bu blmde ilk olarak Lagrange metodunun genilemesini ele alacaz. Yani snrl bir
anlamda eitsizlik kstlarn gznne alarak Lagrange metodunu genileteceiz. kinci
olarak ise eitsizlik kstlarna sahip problemlerin analitik zm iin Karush-Kuhn-Tucker
gerek ve yeter artlar sunulmaktadr.
A. Lagrange Metodunun Geniletilmesi
Max z = f(x)
Kstlar 0)x(gi (i = 1,2, .. , m) 0x i problemini gznne alalm.Lagrange metodunun geniletilmesinin esas udur:
Eer f(x)in kstsz optimimu btn kstlar salamazsa, kstl optimum zm uzaynn bir
snr noktasnda olmak zorundadr. Yani denklem formunda m kstta yeterli olmak
zorundadr.Buna gre ilem admlar u ekilde zetlenebilir.
Adm 1: Maksimum z = f(x) kstl probleminin zmnde eer sonu optimum btn
kstlarda yeterli ise k = 1 alnp adm 2ye geilir.
21
Adm 2: Herhangi k kst ileme sokulur ve f(x), k aktif kst iin optimize edilir. Eer sonu,
kalan kstlar itibariyla uygunsa dururuz. Bu bir yerel minimumdur. Bir baka deyile dier
aktif k kst iler hale getirilip adm tekrarlanr. Eer alnan k aktif kstnn btn kmeleri
uygun bir zm kar gelmeksizin ayn anda gznne alnrsa adm 3e geilir.
Adm 3: Eer k = m ise dur. Uygun zm yoktur. Yani k = k + 1 tekil edilerek adm 2ye
geri dnlr. Bu ilemin nemli bir noktas sk sk ihmal edilmektedir. Bu nokta problemin
uygun davrandnda bile mutlak optimum garanti edilememesidir. Dier bir nemli nokta ise
p < q iin f(x)in optimumunun p eitlik kst iin her zaman q eitlik ksttan daha kolay
salanmas gibi yanl bir kanya varmaktr.
B.Karush Kahn Tucker artlar
Karush, Kuhn ve Tucker tarafndan gelitirilen bu artlar eitsizlik kstlarna sahip dorusal
olmayan kstl bir problemin sabit noktalarn tanmlamak iin gerek ve yeter artlar
sunar(19).Metoddaki gelime temelde Lagrange metodu zerindedir(11). Aadaki eitsizlik
kstl problemi gznne alalm.
i)Gerek artlar
maksimum z = f(xi)
kstlar g(xi) 0 xi 0 Eitsizlik kstlar negatif olmayan aylak deikenlerin yaklak toplam olarak
denklemler iinde dntrlebilir.
Tm21 )S, ......... ,S ,S(S = ve T2m22212 )S, ......... ,S ,S(S = tanmlayalm. Burada, m eitsizlik kstlarn toplam saysdr. Buna gre Lagrange fonksiyonu;
[ ]2S)x(g)X(f) ,S ,X(L += olarak tanmlanr. Verilen kstlar (g(x) 0) optimallik iin gerek arttr. Yani;
nn negatif olmama ( pozitif olmama ) durumu maksimizasyon ( minimizasyon ) problemleri iin verilen g(x) 0 kstlarnda optimallik iin gerek arttr. Burada sadece maksimizasyon durumunu ele alalm.
fnin gye gre deiim oran ile lldnden; g f
= dr.
Bu son ifadenin sa taraf g 0 olduundan artar ve zm uzay daha az snrlanm olur.
22
Buna gre, f azalmaz, bu 0 demektir. Benzer olarak, minimizasyon iin f artmaz ki bu 0 demektir. Eer kstlar eitlik halinde ise [ ])0x(g = ise iarette snrsz olur. Bu zerindeki kstlamalar Kuhn Tucker artlarn ksmen kapsamaktadr. imdi Lagrange fonksiyonu L ( X, S, )nn srasyla X, S ve ya gre ksmi trevlerini alalm. 0g(x) -f(x)
X L ==
(1)
0iS2S L .i
i==
(2) (i = 1,2, . , m)
[ ] 0 S)x(g L 2 =+=
. (3) (2) ile ifade eden denklemden takip eden sonular aa kar.
a) 0i ise 0S 2i = dr. Bu demektir ki eitlik kst yoktur. b) Eer 0S 2i > ise 0i = dr.
Yani; 0g f
ii =
= dr.
(2) ve (3) ile ifade edilen denklemlerin kmesinden;
0)x(g ii = (i = 1, 2, . , m) Bu yeni art esas itibariyla 0 i > a gre tekrarlanacak olursa 0)x(g i = veya 0S 2i = dr. Benzer olarak; eer 0S0)x(g 2ii >< ve 0 i = dr. Aada zetlenecei gibi X ve iin Karush Kuhn Tucker artlar yukardaki maksimum probleminin bir sabit noktas olmas iin gerektir. Buna gre;
Maksimum nokta iin;
0 0g(x) -f(x) = 0)x(g ii = (i = 1, 2, , m) 0g(x) Ayn ey minimum durum iin uygulanrsa 0 olmak zorundadr. Hem maksimum hemde minimum durumda, eitlik kstlarna gre Lagrange arpanlar iarette snrsz olmak
zorundadr.
23
ii) Karush Kuhn Tucker Yeter artlar
Eer ama fonksiyonu ve zm uzay konvekslik ve konkavlk ile ilgili kesin artlara sahip
ise Karush Kuhn Tucker gerek artlar ayn zamanda yeterdir.
Bu artlar aadaki gibi zetleyelim (Tablo 1). Tablo.1
Konveks Kme
Konveks Kme
Maksimizasyon
Minimizasyon
Konkav
Konveks
Gerek artlar
Ama Fonksiyonu zm UzayOptimizasyon eidi
Tablo 1den de anlalaca gibi ama fonksiyonu ister konveks isterse konkav, zm uzay
konvekstir.Bu artlar salamak iin aadaki genel dorusal olmayan programlama
problemini gznne alalm.
(maksimum / minimum)
kstlar; 0)x(g i (i = 1, 2, , r) 0)x(g i (i = r + 1, r + 2, , p) 0)x(g i = (i = p + 1, p + 2, , m)
[ ] [ ] +=+==++=
m
1 p iii
p
1 r i
2iii
r
1 i
2iii )x(gS)x(gS)x(g-f(x)) S, (X, L
Burada i , i ksttaki Lagrangearpanlar gsterir. Bylece Karush Kuhn Tucker yeter artlarn belirlemek iin gereken bilgiler bir tablo ile gsterilecek olursa;
Tablo.2
24
Tablo 2deki artlar Tablo 1deki artlarn genellemesini tarif eder. Minimizasyon durumda
L ( X, S, ) konveks, maksimizasyon durumda L ( X, S, ) konkav fonksiyondur. Bu geniletilecek olursa;
i. Eer )x(gi konveks ve 0 ise )x(gii konvekstir. ii. Eer )x(gi konveks ve 0 ise )x(gii konkavdr.
Unutulmamas gereken birey de dorusal fonksiyonun hem konveks hemde konkav bir
fonksiyon olmasdr.
Sonu:
Kstl dorusal olmayan problemlerin ekstremumlarn yerletirmek iin gelitirilen Klasik
Optimizasyon Teorisi saysal hesaplamalar iin uygun deildir. Fakat bu teoriler hesap
algoritmalarn gelitirmede temel tekil ederler. yle ki Kuadratik Programlama Karush
Kuhn Tucker gerek ve yeter artlarn kullanan mkemmel bir rnektir.
III. DORUSAL OLMAYAN PROGRAMLAMA ALGORTMALARI
3.1. Optimizasyon Metodlarnn Genel Tasnifi
TASNF
Klasik Optimizasyon Metodlar
Lagrange arpanlar Metodu
Jacobian (Kstl Trevler) Metodu
Karush Kuhn Tucker Metodu (5, 11, 20)
Statik Optimizasyon Metodlar
Bir Boyutlu Kstsz Optimizasyon Metodlar
Arama Metodlar
Fibonacchi Arama Metodu
Altn Oran Metodu
Ayrntl Arama Metodu
atallama Arama Metodu
Snrsz Arama Metodu
Karesel nterpolasyon Metodu
Rastgele Arama Metodu (1, 5, 12, 21,28)
Gradient Metodlar
25
Newton Raphson Metodu
Secant Metodu
Kbik nterpolasyon Metodu
Direkt Kk Metodlar
4.1- kiye Blme Metodu
4.2- Kiriler Metodu
4.3- Deneme Metodu
4.4- terasyon Metodu (2, 12, 22)
ok Boyutlu Kstsz Optimizasyon Metodlar
Arama Metodlar
Hooke ve Jeeves Metodu
Nelder ve Mead Metodu
Spendly, Hext ve Himswortun Simpleks Metodu
Kompleks Metodu
Izgara - A Metodu
Dngsel Koordinat Metodu
Rosenbrock Metodu (1, 5, 8, 21, 23, 24, 28)
Gradient Metodlar
Davidon - Fletcher - Powell Metodu
En Dik ni (k) (Eim) Metodu
Fletcher - Reeves Metodu
Smith Metodu
Newton Metodu
Birleik Dorultuda Hareket Metodu (1, 3, 5, 8, 24, 25, 27, 30)
Dinamik Optimizasyon Metodlar
Minimum Yol Problemi
2- Dinamik Programlama, Genel Matematiksel Optimizasyon, Optimallik lkesi
3- Kesikli Karar Modelleri, Dorusal Olmayan Srekli Modeller
4- Dinamik Programlama ve Fonksiyonlarn Optimizasyonu
5- Kesikli Maksimum lkesi (3, 21, 26)
ok Boyutlu Kstl Optimizasyon Metodlar
Yar lmikleme
26
Gradient Yanstma Metodu
Ceza ve Engel Fonksiyon Metodlar
Ardk Kstsz Optimizasyon Teknii (SUMT)
Frank Wolfe Algoritmas (1, 3, 5, 8, 21, 26, 29)
zel Programlama Tipleri
Karesel Programlama
Geometrik Programlama
Ayrlabilir Programlama
Tamsayl Programlama
Tahmini Programlama
Ama Programlama
Lineer arpanlar Metodu (5, 8, 11, 24)
3.2. Seilen Dorusal Olmayan Programlama Tekniklerinin Seim Sebepleri
Bu almada ele alnan Newton Raphson, Nelder Mead, Gradient, Frank Wolfe ve
SUMT metodlarnn dier optimizasyon metodlar iindeki yerleri ve nemleri asndan ele
alndnda denilebilir ki, bunlar genel snflandrma iinde kstsz, kstl, direkt (dorudan
arama = trevsiz) ve indirekt (trevli = gradient) yntemleri u noktalarda temsil ederler.
3.2.1. Newton Yntemi:
Kstsz tek deikenli y = f(x) fonksiyonunun optimum noktasn bulmada yerel olarak
(lokal) karesel bir yaknsaklk gsterir. Karesel bir fonksiyonda minimuma bir iteresyonda
ular. ok deikenli fonksiyonlar iin bir indirekt metod olarak ikinci ksmi trevlerden elde
edilen bilgi ile ikinci (karesel) yaklam kullanarak minimizasyon (veya maksimizasyon) iin
hzl bir yntem olarak kendini gsterir.
3.2.2. Nelder - Mead Metodu:
Trevleri kullanmakszn bir arama dorulltusunda deerlendirilecek f(x) fonksiyonunun
dzenli geometrik ekil (simpleks) kullanarak ke noktalarnn seimini formle eder. Bu
yntemle srekli olarak arama ile daha etkili biimde daha karmak ekille (n + 1) ke
noktalarn deerlendirerek fonksiyonun minimumunu bulur.
27
3.2.3. Gradient Metodu:
Kstsz ve kstl fonksiyonlarda trevleri kullanarak optimum dorultuda ve adm
byklnde ilerleyerek minimuma veya maksimuma en hzl biimde ular (steepest
descent - ascent). En nemli zellii f(x)in leine gre ok duyarl olmasdr.
3.2.4. Frank - Wolfe Metodu:
Kstl fonksiyonlar gradient yntemi ile dorusal forma sokup dorusal programlama ile
zmne hazrlk yapar. Dorusal olmayan ama fonksiyonu ve dorusal kstl problemi
genelletirilmi ndirgenmi gradient yntemi ile dorusallatrma ilemini yrtr. En sk
kullanlan karesel programlama iin ideal bir yntemdir.
3.2.5. SUMT (Ardk Kstsz Optimizasyon Teknii):
ok deikenli sistemlere ceza fonksiyonu yntemini uygulama Fiacco ve McCormick
tarafndan ilk defa ele alnm olup Zangwillin katklaryla u artlar gelitirilmitir.
i. m adet 0)x(gi formunda kst ii. En az bir olurlu zm
iii. Ama ve kst fonksiyonlar srekli
iv. Kstl problemin kstsz hale dntrlmesi ile oluan yeni problemin ierdii K
gibi pozitif ceza sabiti E gibi bir yaknsaklk lt.
Bu yntemlerin genel deerlendirilmesi sonucu yle zetlenebilir. Ceza maliyet temelli
(SUMT gibi) yntemler en az bir yerel optimuma yaknsama zelliinden dolay muhtemelen
en kuvvetli yntemlerdir. Bu durum rneklerde grlecektir.
3.3.Seilen Tek - ok Deikenli Arama - Gradient Metodlar
3.3.1. Newton Metodu:
Bir boyutlu problemler iin gelitirilmi Newton - Raphson metodunun n-boyutlu
problemlerdeki karl bir gradient arama metodu formundadr. Bu arama karesel
yaknsakln arzu edilen nitelie sahip olmasna ramen ikinci ksmi trevlerinin ve ters
matrisinin belirlenmesini gerektirir.
28
Varsayalm ki, kxx = geerli arama noktasnn civarnda f(x), )x(fs kesilmi Taylor serisi alm ile verilsin. Buna gre;
= ==
++
n
1 i
kiiij
n
1 j
n
1 i
kii
i
kk
s )k
jx-j(x )xx(a21)xx(
x)f(x )x(f)x(f .
)x(f)x(fs (1)
Burada; k x xj xx faa
.i
2
jiij === (2)
)x(fs karesel fonksiyonunun sabit noktalaraadaki klasik yaklam ile;
= =
++=
n1 n
n
1 j
kjjmj
kiimi
m
k
m
s )x(xa21)x(xa
21
x)f(x
x(x)f
... )xx(a x
)f(x x
(x)f kjj
n
1 jmj
m
k
m
s +=
=
(3)
0 x
(x)f
m
s =
(m = 1, 2, . , n)
eklinde elde edilir.(3) ifadesi matris formunda sunulduunda;
.....-g)f(x)xx(A k kkk == (4) (4) ifadesinde )nn( ,Ak tipinde bir kare matris olup;
)nn(a.........aa
a.........a aa .........a a
A
nn n2 1n
n2 22211n 1211
k
. . . . . .
=
1k )A( ters matrisinin var olduunu farz edelim. Buna gre (4) ifadesinin her iki yann
1k )A( ile arpar ve x yerine 1kx + yazlrsa;
k1-kk1kk1k g )-(A)x-(x )(A )A( .. =+ (5) elde edilir. Bu son ifadeyi basitletirirsek;
k1-kk1k g )(A-x x .=+ (6)
29
eklini alr. Bu son ifade genelde bir gradient arama ilemini belirtir. imdi bu genellemeden
sonra Newton arama metodunun bir iterasyonunda yaplmas gereken ilem admlarn
zetleyelim.
i) lk olarak n elemanl gradient kxx = da hesaplanr. ii) kinci olarak ise ija lerin says 2
1) (n n . + olup bunlar f(x)in ksmi trevlerine
gre kxx = da belirlenir. iii) Son olarak kA kare matrisinin tersi 1k )A( hesaplanr.
3.3.1.1. Bir Boyutta Newton Raphson Arama:
Tek deikenli y =f(x) fonksiyonu verilmi olsun ve bu fonksiyonun ikinci mertebeden srekli
trevlere sahip olduunu varsayalm. f(x) fonksiyonunun sabit noktalar;
0)x(g)x(fdxdf ' ==
denklemi xe gre zlerek bulunur. Bir boyutlu problemlerde Newton - Raphson bir ardk
ilem tekniidir. yleki g(x) = 0 denkleminin sfrlarn bulmakta kullanlr.
Tek deikenli fonksiyonlar iin klasik yaklam, f(x)in dnm noktalarndaki x
deerlerini 0)x(f ' = eitliinin zmleri gibi bulur. Yaklak )x(fy '= erisi ortalama zmnn bulunmasn salayabilir.Eer )a(f ' ve )b(f ' nin ters iaretlere sahip olduu a ve
b gibi iki bulunabilirse, bu tahmin kesin sreklilii mecbur klar. Bu aralkta ba
30
Newton metodu kabaca Q(x) denkleminin tahmini kkn bulmay salar. [ ])x(f)x(Q '= ekil 7deki P noktasnn apsisi olan 0x noktas Q(x)in tahmini bir kk olsun. PT,
)x(Qy = erisinin P noktasndaki tanjant ve T noktas bu tanjant dorunun x - eksenini kestii nokta olsun. Buna gre OT genellikle K gerek kk iin 0x noktasndan daha iyi bir
tahmin olacaktr.
Bylece; TAxTAOAOT 0 ==
)(Q
)(x )()(
0
'0
0
'
0
'
x
QxQPATAxQTan
TAPA ====
)x(Q)(x Q
TA0
'0= iken 10 xxTA =
)x(Q)(x Q
xx0
'0
10 =
)x(Q)(x Q
xx0
'0
01 = elde edilir.
Bu son ifadeyi geniletecek olursak;
)x(Q)(x Q
xx0
'0
k1 k =+ k = 0, 1, . , n
veya tek deikenli y =f(x) fonksiyonu iin Newton Raphson forml;
)x(f
)(x fxx
0'
0k1 k =+ (k = 0, 1, . , n) olur.
Bylece Newton metodu bu son formlasyon ile bir ardk ilem haline gelmi olur ve bu
ilem 1 kx + ile kx arasndaki fark (hata pay) istenilen hassasiyete ulanca son bulur.
3.3.2. Nelder ve Mead Metodu
Nelder ve Mead Metodu Spendly, Hext ve Himsworthun simpleks metodunun geniletilmi
bir eklidir(1). Bu metod adndan da anlalaca gibi ok deikenli bir fonksiyonun
optimizasyonunu bulmak iin Nelder ve Mead tarafndan tasarlanm bir simpleks metoddur.
Bu metotda (n + 1) adet nokta, bir dzenli simpleks (basit ve dzenli) olarak bilinen n-boyutlu
klidyen uzayda karlkl olarak konulur. Bu nedenle iki boyutta simpleks bir
drtyzldr(12).
31
ki boyutta bu metod genin kelerinde fonksiyon deerlerini karlatran bir model arama
metodudur. ki deikenli bir )y,x(fz = fonksiyonunun minimizasyon durumunu gznne aldmzda, genin en kt kesinde (w = worst vertex) )y,x(fz = fonksiyonunun deeri en byktr.
Bu nedenle, bu en kt ke yeni bir nokta ile yer deitirir. Bylece yeni bir gen elde
etmi oluruz. Artk arama ilemi bu yeni gen iinde devam ettirilir ve bylece bu ilem ke
nokta deerinde fonksiyon deerinin gittike kld bir genler dizisine dnr.
lem genlerin klerek bir noktaya yaklamas ile son bulur ki bu nokta istenen minimum
noktadr. ki deikenli )y,x(fz = fonksiyonu iin gelitirilen bu metod n-deikenli )x,,.........x,x(f)x(f n21= fonksiyonuna genelletirilebilir. Nelder ve Meadn gelitirilmi
olduu bu metod etkili ve hesap asndan ksadr.
Bu metodda simpleksin hareketi temel ilem (Reflection- Yanstma, Expansion-Byme-
Genileme) ve (Contraction-Bzlme-Ksalma) ile salanr. imdi bu ilemleri safhalar ile
aklayalm.
i) Balang geni BGW: (Initial Best Good Worst Triangle)
Min )y,x(fz = fonksiyonunu gznne alalm. Bir genin verilen kesi ile ileme balayalm.
3 2, 1,k .......).........y,x(V kkk == Sonra bu ke noktann herbirinde fonksiyon deerlerini bulalm ve buna )y,x(fz kkk = (k = 1, 2, 3) diyelim. Bu deerleri de byklk srasna gre 321 zzz olacak ekilde sralayalm. genin ke noktalarn;
)y,(x W, )y,(xG , )y,x(B 332211 === ile gsterelim.Burada; B = Best Vertex = En iyi ke nokta
G = Good Vertex = Sonraki en iyi ke nokta
W = Worst Vertex = En kt ke nokta olarak tanmlanabilir.
B noktas maksimum durumunda foksiyonda yerine konduunda en byk fonksiyon
deerine sahip iken ayn nokta minimum durumunda ise en kk fonksiyon deerine
sahiptir.
32
yi Kenarn Orta Noktas:yi kenardan maksat genin )y,(xG ve)y,x(B 2211 == noktalarn birletiren doru parasdr. Bu doru parasnn orta nokta koordinatlarda
)y,(xG ve)y,x(B 2211 == noktalarnn koordinatlarnn ortalamalar alnarak aadaki ekilde bulunur.
++=+=2
yy , 2
xx2
GBM 2121
R Noktasn Kullanarak Yanstma lemi:
W noktas ile B noktas arasndaki BGW geninin kenar boyunca hareket ettiimizde f(x ,
y) fonksiyonu gittike azalan bir grafik izer. Benzer olarak W noktasndan G noktasna
doru genin bu kenar boyunca hareket ettiimizde f(x , y) fonksiyonu yine azalan bir
grafik izer. Bu nedenle B ve G noktalarn birletiren dorunun kar kenar zerinde Wya
uzak noktalarda f(x , y) fonksiyonu ok kk deerler alr. Bunu test etmek iin R noktasn
BG kenarndan geecek ekilde yanstarak elde edebiliriz.
R noktasn belirleyebilmek iin ilk olarak BG kenarnn M noktasn daha nce
tanmladmz gibi tespit ederiz. kinci olarak W ile M noktalarn birletirerek bir doru elde
ederiz. Bu dorunun uzunluuna d dersek, son olarak M noktasndan d uzunluunda bir doru
izeriz ve bu dorunun bittii noktaya R deriz. Bylece yansma ilemini kullanarak R
noktasn elde etmi oluruz(ekil 8).
B
G
W
R
M
d
G
d
ekil 8
ekilden de grlecei gibi R noktasnn vektrel notasyonu;
R = M + (M - W) = 2M - W eklindedir.
33
Genileme lemini Kullanarak E noktasn Elde Etmek:
Eer Rdeki fonksiyon deeri Wdeki fonksiyon deerinden daha kkse yani )W(f)R(f ise minimuma doru bir ynde hareket ederiz. R noktas minimum noktaya uzak olabilir. Bu
nedenle M noktasndan R noktasna olan doruyu R noktasndan ayn d uzunluunda
genilettiimizde bitim noktas Eyi elde ederiz.
Bylece biz BGW geninden genileme ilemi ile BGE genini elde ederiz.(ekil 9)
M
R
G
B
W
d
d
E
ekil 9
Eer E noktasndaki fonksiyon deeri R noktasndaki fonksiyon deerinden daha kk ise
yani f(E) < f(R) ise, Rden daha iyi bir ke bulmu oluruz.Genileme ilemi ile elde ettiimiz
(ekil 9)daki E noktasna ait vektr formlasyonu;
E = R + (R - M) = 2R Mdir.
Daraltma (Bzlme) lemini Kullanarak C noktasnn Elde Edilmesi:
Eer R noktasndaki fonksiyon deeri W noktasndaki fonksiyon deeri ile ayn ise yani,
f(R) = f(W) ise, baka bir nokta test edilmek zorundadr. Fonksiyon M noktasnda kk
olabilir fakat biz M ile Wyi yeniden yazamayz nk yeni bir gen elde etmek zorundayz.
WM ve MR dorularnn orta noktalarna srasyla C1 ve C2 dersek yeni genimiz BGC
olur. Burada BGC1 veya BGC2 olmas iki boyutlu durumunda farketmez. Fakat ok boyutlu
durumda farkader (ekil 10).
34
G
C2
C1
M R
W
ekil 10
genin B noktasna Doru Daraltlmas:
Eer C noktasndaki fonksiyon deeri W noktasndaki fonksiyon deerinden daha kk
deilse yani )W(f)C(f ise G ve W noktalar B noktasna doru daraltlmak zorundadr. (ekil 11) Bu daraltma ilemini ilk admda G noktas yerine BG dorusunun orta noktas olan
M noktas ve W noktas yerine BW dorusunun orta noktas olan S noktas alnr. Sonraki
ardk ilem admlar B noktasna doru hep orta noktalar alnarak devam ettirilir. lem B
noktas elde edildiinde son bulur. (ekil 11)
R
MS
GW ekil. 11
Her bir adm iin mantksal kararlar:Yukarda aklanan her bir admda yeni bir ke
bulunur ve bu W ile deitirilir. Bunu bir algoritma olarak u ekilde aklayabiliriz.
)G(f)R(f < ise Safha - 1 )G(f)R(f ise Safha - 2 dzenlenir.
Safha 1: Yansma veya Genileme
< )R(f)B(f W yerine R alnr. )R(f)B(f E ve f(E) hesaplanr. < )B(f)E(f W yerine E alnr. )R(f)E(f W yerine R alnr.
35
Safha 2: Bzlme veya Daralma
< )W(f)R(f W yerine R alnr.
Sonra 2
MWC += alnr ve f(C) hesaplanr. < )W(f)C(f W yerine C alnr. )W(f)C(f S yerine f(S) hesaplanr. W yerine S ve G yerine M alnr(12).
rnek: ki Boyutlu Problemler in Nelder - Mead Metodu
zm:
Deiken Says : 2
terasyon Says : 15
[1]. Min [2]. Max : l
Ama Fonksiyon : x + xy2 - 3xy
Vektr Elemanlar
1. Vektr Elemanlar : (0.0000, 0.0000)
2. Vektr Elemanlar : (2.0000, 0.0000)
3. Vektr Elemanlar : (2.0000, 1.0000)
k B(xk, yk) G (xk , yk) W(xk,yk) F (xk, yk)
1 (2.0000, 1.0000) (2.0000, 0.5000) (1.0000,0.5000) 0.00000000000
2 (1.0000, 0.5000) (1.5000,0.5000) (1.5000,0.7500) -0.75000000000 3 (1.5000, 0.7500) (1.5000,0.6250) (1.2500,0.6250) -0.84375000000 4 (1.2500, 0.6250) (1.5000,0.7500) (1.1250,0.8125) -0.87890625000 5 (1.1250,0.8125) 1.2500,0.6250) (1.3438,0.7344) -0.97119140625 6 (1.1250,0.8125) (1.3438,0.7344) (1.2188,0.9219) -0.97119140625 7 (1.1250,0.8125) (1.2188,0.9219) (0.8281, 1.1328) -0.97119140625 8 (0.8281, 1.1328) (0.9766, 0.9727) (1.0234, 1.0273) -0.97475528717 9 (0.9766, 0.9727) (1.0234, 1.0273) (0.9141, 1.0664) -0.99809467793 10 (0.9766, 0.9727) (1.0234, 1.0273) (0.9570, 1.0332) -0.99809467793 11 (0.9570, 1.0332) (0.9668, 1.0029) (0.9902, 1.0303) -0.99846400321 12 (0.9902, 1.0303) (0.9668, 1.0029) (1.0215,0.9834) -0.99928985350 13 (1.0215, 0.9834) (1.0059, 1.0068) (0.9941,0.9932) -0.99962122552 14 (0.9941,0.9932) (1.0000, 1.0000) (1.0078,0.9883) -0.99987939186 15 (1.0000, 1.0000) (1.0039,0.9941) (0.9971, 0.9966) -1.00000000000
36
3.3.3. Gradient Metodu:n - deikenli bir ) x, ...... , x, x(f)x(f n21= fonksiyonunun yerel optimumunu bulmak iin 140 yl akn bir sredir ok eitli algoritmalar gelitirilmitir.
Bu algoritmalarn ou u esasa gre tasarlanmtr.
) x, ...... , x, x(f)x(f n21= n - deikenli fonksiyonunun grafiini tepe ve vadilerden oluan bir sradalar topluluu olarak gznne alrsak, vadilerin en alt tarafndaki blgeler
fonksiyonun minimumunu gsterirken tepelerin en stndeki blgelerde fonksiyonun
maksimumunu temsil eder.Eer minimum noktada deil isek bulunduumuz noktadan
aaya doru minimumu buluncaya kadar hareketimize devam ederiz. Maksimum noktada
deil isekte bulunduumuz noktadan yukarya doru maksimumu buluncaya kadar
hareketimize devam ederiz(2). )12 ekil(
B
A
C
D
E
F
(Mutlak Minimum)
(Yerel Minimum)
(YerelMaksimum)
(MutlakMaksimum)
(YerelMaksimum)
(Yerel Minimum)
ekil 12
Bir gradientin yn en dik k (steepest ascent) yndr. Tersi ise en dik ini
(steepest descent)yndr. Yani en dik k yn f(x) ynnde iken en dik ini ynde -f(x) ynndedir(1).
n-deikenli bir ) x, ...... , x, x(f)x(f n21= fonksiyonunu gznne alalm. Burada, ) x, ...... , x, x( n21 n - boyutlu klidyen uzayda;
=
n
21
x xx
X.. stun vektr ile temsil edilir.
37
f(x) fonksiyonunun gradienti ise grad f(x) veya f(x) ile gsterilir ki; grad f(x) = )f , ...... , f , f( n21 (12) veya
k x
f f(x) = (k = 1, 2, . , n) (1)
=
n1 xf , .......... ,
xf f(x) eklindedir.
ifadesinde ksmi trevlerk
k xf f
= k = 1, 2, . , n xde belirlenir(1).
imdi ) x, ...... , x, x(X n21= uygun deerleri zerinde herhangi bir kstlama olmakszn ) x, ...... , x, x()X(f n21= konkav fonksiyonunun maksimizasyon problemini gznne
alalm.
Bir boyutlu arama ilemini ok boyutlu problemimiz iin geniletmeye alalm. Bir boyutlu
problemlerde baya trev bir veya iki olas yolu yani xin azal veya xin art ynn
semek iin kullanlr. Ama bir noktay aratrmaktr ki bu noktada trev sfrdr. [ ]0)x(f ' = Bu zellik ok deikenli bir fonksiyon iin u ekilde geniletilebilir. Sabit noktalar
aratrmak ama iken, bu noktalarda btn ksmi trevler sfra eittir(7).
Bu nedenle bir boyutlu aramann ok boyutlu aramaya geniletilebilmesi ksmi trevleri
kullanarak hareket ynnde zel bir yn semeyi gerektirir. te bu gereksinim ama
fonksiyonunun gradientini kullanmay kapsar.
f(x) ama fonksiyonu yksek mertebeden srekli ksmi trevlere sahip olduunda herbir x
noktasnda f(x) , f(x) ile gsterilen bir gradiente sahiptir(7).
=
n21 xf , ..........
xf ,
xf f(x)
zel bir 'xx = noktasndaki gradient ise elemanlar ksmi trevler olan ve 'x noktasnda deeri olan bir vektrdr.
' xx
xf , .......... ,
xf )f(x
n1
'
=
=
Gradient arama ilemi kstsz bir problemin zm iin etkili bir arama ilemidir. Bu ilem
gradientin ynndeki hareketi koruyan ve *x optimal zmn aratran bir yntemdir.
38
Bu nedenle normal olarak f(x) in ynnde xi srekli olarak deitirmek pratik degildir.
nk bu deiikliklerin serisi srekli olarakj x
f lerin yeniden belirlenmesini ve her
ikisinin ynnde deiiklik yapmay gerektirir.
Bundan dolay en iyi yaklam geerli aikar zmden sabit bir yndeki hareketi koruyan ve
f(x) fonksiyonunun art durana dek devam eden bir yaklamdr(19).
f(x)in artnn bittii nokta ise son aikar zmdr ve bu noktada gradienthareketin yeni
ynn belirlemek iin yeniden hesaplanacaktr. Bu yaklamla herbir ardk ilem 'x
geerli aikar zmn deiikliini kapsar. yle ki;
)f(x txx '*'' += alalm. (I) Burada, [ ])f(x tx f ,t ''* + yi maksimum eden pozitif (t) deeridir. [ ] [ ])f(x tx fmax )f(x tx f '''*' +=+ )0t( (I) ifadesini geniletecek olursak;
' xx
xf txx
j
'jj =
+= j = (1, 2, .. , n)
elde edilir. Bu son ifade jx iin yalnzca sabitleri ve tyi ierir. Yani f(x) tnin bir
fonksiyonudur. Bu gradient arama ileminin iterasyonlar kk bir tolerans ile 0f(x) = olana dek srdrlr. Yani;
j xf j =(1, 2, , n)
imdi bu deindiimiz zelliklere gre gradient ilemini basit bir algoritma ile tanmlayalm.
Balang Adm: stenilen hassasiyet ve balang aikar zm ( 'x )yi alalm.
Ardk Admlar:
1) ' xx
xf txx
j
'jj =
+= j = (1, 2, , n)
Kmesi oluturarak tnin bir fonksiyonu olan [ ])f(x tx f '' + ifadesi oluturulur ve f(x) yerine bu ifadeler konulur. Son adma gidilir.
2) 0t iin bir boyutlu arama ilemi kullanlarak [ ])f(x tx f '' + yi maksimum klan *tt = bulunur.
39
3) )f(x txx '*'' += oluturulur ve son adma geilir.
Son Adm: 'xx = de )f(x ' hesaplanr. Daha sonra
j xf un salanp salanmad
kontrol edilir. Eer bu kontrol salanyorsa *x optimal zmnn yaklak beklenen deeri
iin 'x optimal zm alnr. Aksi halde ilk adma dnlp ilem tekrarlanr(7).
Btn gradient arama tekniklerinin ortak zellii
==
n1 f f , ........ ,
f f gf i kullanmalardr.
Ayrca; )f(x t -xx kk1 k == iterasyon ilemini kullanmalardr. rnek:Gradient arama ileminin nasl yapldn gstermek iin konkav bir fonksiyon iin
iki deikenli kstsz optimizasyon problemini gz nne alalm.
Max. f(x) = 2 x1 x 2 +28x1 - x12 -x1
4 + 4x 2 -x 22
zm:x1 ve x 2 deikenlerine gre ksmi trevlerini alrsak;
1dx
df = 2 x 2 + 28 - 2x1 - 4x13
2dxdf = 2 x1 + 4 - 2x 2 olarak bulunur. Buna gre f(x) in grandienti
f(x) = grad f(x) = (1dx
df ,2dx
df ) = (2 x 2 + 28 - 2x1 - 4x13 , 2 x1 + 4 - 2x 2 ) dr.
grad f(x) = 0 artndan; ( 2 x 2 + 28 - 2x1 - 4x13 , 2 x1 + 4 - 2x 2 ) = ( 0 , 0 )
Bylece, 2 x 2 + 28 - 2x1 - 4x13 = 0
2 x1 + 4 - 2x 2 = 0
Bu denklemlerin ayn anda zm ile optimal zm (x1 , x 2 ) = ( 2 , 4 ) bulunur. Buna
gre;f(2,4) = 2.(2).(4) + 28 .(2) (2) 2 - (2) 4 + 4.(4) (4) 2 = 52 ve grad f(2,4) = 8 + 28 4
32 , 4 + 4 8 ) = ( 0,0 ) bulunur.
imdi f(x) ve grad f(x) gz nne alnarak gradient arama ileminin nasl elde edilebileceini
grelim. Bu ileme balamak iin bir balang aikar zme ihtiyacmz vardr ki; bu
noktada f(x 1 , x 2 ) = ( 0 , 0 ) dr. Bylece ( x 1 , x 2 ) = ( 0 , 0 ) balang aikar zm olarak
alnabilir.
40
Bu nokta iin gradient; grad f ( 0 , 0 ) = ( 28.4 ) Bu u anlama gelir x = ( 0 , 0 ) noktasnda
f(x) deki max. artma oran ( 0 , 0 ) dan ( 0 , 0 ) + ( 28.4 ) e hareket edilerek bulunur. Buna
gre ( 0 , 0 ) ve ( 28.4 ) noktalar arasndaki doru denklemi;(ekil.13)
( 0 , 0 ) + [ ( 28.4 ) ( 0 , 0 ) ] = ( 28t , 4t ) dr.Burada t > 0 olmaldr.
4
28x1
ekil.13
( 0 , 0 ) dan ( 28,4 ) noktalarn birletiren doru boyunca ne kadar hareket etmeliyiz. Bir
baka deyile; ( 28t , 4t ) dorusu iin t sfrdan ne kadar arttrlmaldr.
Bu sorularn cevab udur: f(x) in artmas durana kadar bu doru boyunca hareket edilir. Yani
x1 = 28t ve x2 = 4t deerleri fonksiyonda yerine yazlr.
f ( 28t , 4t ) = 2 (28t) (4t) + 28 (28t) - (28t)2 (28t)4 + 4 (4t) - (4t)2
f ( 28t , 4t ) = 800t 576t2 614.656t4
f ( 28t , 4t ) nin deeri max. olana kadar tnin arttrlmas gerekir. Bunu gerekletirmek iin
bir boyutlu arama ilemi ile tnin maksimum deeri; t* = 0.0665 olarak bulunur. (ekil.14)
f(28t,4t) = 800t 576t2 614.656t4
1t
.
ekil.14
Buna gre yeni aikar zm;(x1,x2) = (28t*,4t* ) = (1.862 , 0.266 ) olur.
f(1.862 , 0.266 ) = 38.63
41
Bu ilk iterasyonu;
Adm x grad f(x) x + [ grad f(x) ] t* x+ t* [grad f(x) ]
1 ( 0,0 ) ( 28.4 ) (0+ 28t , 0+ 4t) 0.067 ( 1.862,0.266 )
eklinde bir genel tablo ile ifade edebiliriz.(ekil.15)
0.266
1.862x1
x2
ekil.15
imdi ikinci iterasyonu ilk iterasyonun sonucuna gre tekrarlayalm. Geerli aikar zm
(x 1 , x 2 ) = ( 1.862,0.266 ) noktasyla ( 1.862,0.266 ) + (0.832 , 7.459 ) noktasn birletiren
doru boyunca olacaktr.
Bu dorunun denklemi;
( 1.862,0.266 ) + (-1.028 ,7.193) = (1.862 1.028t , 0.266 + 7.193t)
bu doru boyunca;
x1 = 1.862 1.028 t
x2= 0.266 + 7.193 t dr.
Bylece; f ( x1 , x 2 ) = 38.6 + 52.8 t 89.7 t2 + 8.14 t3 1.13 t4 ve bir boyutlu arama ilemi
gerekletirilirse; t* = 0.306 olarak bulunur. Buna gre yeni aikar zm;
(x 1 , x 2 ) = (1.862 - 1.028t , 0.266 + 7.193t) = (1.547 , 2.469 )
imdi bu iki iterasyonu
Adm x grad f(x) x + [ grad f(x) ] t* x+ t* [grad f(x) ]
1 ( 0,0 ) ( 28.4 ) (0+ 28t , 0+ 4t) 0.067 ( 1.862,0.266 )
2 (1.862,0.266) (-1.03,7.193) (1.86-1.03t,0.27+7.19t ) 0.306 ( 1.547,2.469 )
eklinde bir genel tablo ile gsterilebilir. A aikar zmlerin optimal noktaya doru
hareketlerini de yandaki ekille gsterebilir. (ekil.16)
42
0.266
1.862x1
x2 (1.547,2.469)
ekil.16
Bundan sonraki iterasyonlarda genel tablomuzla aadaki ekilde verebiliriz.
Ad
m
x
grad f(x)
x + [ grad f(x) ]
t*
x+ t* [grad f(x) ]
1 ( 0,0 ) ( 28.4 ) (0+ 28t , 0+ 4t) 0.067 ( 1.862,0.266 )
2 (1.862,0.266) (-1.03,7.193) (1.86 1.03t,0.27 + 7.19t ) 0.306 ( 1.547,2.469 )
3 (1.547,2.469) (15.09,2.155) (1.55+15.1t ,2.47 + 2.19t ) 0.027 (1.948,2.526 )
4 (1.948,2.526) (-0.41,2.843) (1.95+0.41t ,2.53 + 2.84t ) 0.291 (1.978,3.354)
5 (1.829,3.354) (6.59,0.99) (1.83+6.59t ,3.35+ 0.99t ) 0.023 (1.978,3.376)
terasyonlarn says istenilen hassasiyete bal olarak belirlenir. Eer iterasyona devam
edilecek olursa belli bir iterasyon sonunda tam optimal zme eriilebilir.
Bu rneimizde 0.1 hata tolerans sz konusu iken tam optimal zm olan (x 1 , x 2 ) = (2,4)
noktasn elde etmek iin yaplan iterasyonlar yukardaki tabloda sunulmutur. Bu optimal
zme ulancaya kadar elde edilen btn aikar zmler birletirildiinde son aikar
zm olan (x 1 , x 2 ) = (2,4) (optimal zm) noktasna doru zigzag bir grafik ortaya kar
(ekil.17).
43
x1
x2(1.978 , 3.376).
ekil.17
3.3.4. Konveks Programlama:
Konveks Programlama z = f(x) ama fonksiyonunun konkav ve btn )x(gi kstlarnn
konveks olduu zel bir dorusal olmayan programlama trdr.
Bu varsaymlar problemi olduka basitletirir. )x(gi kstlarnn konveks oluu, mmkn
zmler kmesininde konveks olmasn gerektiren, f(x) ama fonksiyonunun konkav oluu
ile bulunacak herhangi bir ekstremum yada yerel optimum zmn ayn zamanda mutlak
optimum zm olmasn salar.
Bir baka deyile birok yerel optimumlar bulup bunlarn iinde mutlak optimumu semek
zorunluluu bulunmamakta, elde edilecek bir yerel optimum problemin mutlak optimum
zm olmaktadr. Bu konuda da birok metod gelitirilmitir(18).
Fakat Konveks programlama problemlerini zmek iin her zaman kullanlan standart bir
algoritma yoktur. Bu konuda farkl pek ok algoritmalar gelitirilmi olup bunlarn avantajlar
ve dezavantajlar mevcuttur.Bu algoritmalar temelde kategoride toplanmtr.
1) Gradient Algoritmalar: Bu algoritmalar temelde korunmak art ile gradient
arama ilemine benzer olarak gelitirilmitir. Genel indirgenmi gradient metod bunlarn en
nemlilerindendir.
44
2) Ardk Kstsz Algoritmalar: Penalty (Ceza) ve Barrier (Engel) fonksiyon
metodlarn ierir. Bu algoritmalar orjinal kstl optimizasyon problemlerini kendi iinde
kstsz optimizasyon problemlerinin bir dizisine dntrr. Bundan sonra da kstsz
optimizasyon problemlerinin herbiri gradient arama ilemi ile zlebilir.
3) Ardk Yaklak Algoritmalar: Bu algoritmalar Dorusal yaklam ve Karesel
yaklam metodlarn ierir. Bu algoritmalarla dorusal olmayan ama fonksiyonu Dorusal
veya Karesel yaklamlarn bir ardarda gelii ile yeniden yerine konur.
Dorusal kstl optimizasyon problemleri iin bu yaklamlar Dorusal veya Karesel
programlama algoritmalarnn tekrar uygulanmasn kabul eder(7).
3.3.4.1. Frank - Wolfe Algoritmas:
Bu algoritma bir ama fonksiyonunun dorusal kstlar altndaki optimizasyonunu inceler.
Ama optimize f(x)
Kstlar bAx 0x Verilen olurlu zm 'x iken f(x) ama fonksiyonu iin dorusal bir yaklam f(x)
fonksiyonunu 'xx = civarnda birinci mertebeden Taylor serisine amakla elde edilir. Buna gre;
)x-(x )f(x )f(x)x-(x x
)f(x )f(xf(x) '''j'jj
'n
1 j
' ++
=
)x(f ' ve '' x. )f(x deerleri sabit deerler olduundan yeni ama fonksiyonumuz; '''' x. )f(x - x. )f(x )f(xf(x) += c x. )f(x f(x) ' + eklindedir. Bu son ifadeyi;
x. )f(x g(x) '= yazarsak bu bir dorusal programlama problemine dnr ve optimal zm simpleks metod veya grafik zmden elde edilebilir.
Bu zme LPx diyelim. Dorusal ama fonksiyonu xden LPx arasndaki doru paras
boyunca bir hareket gibi zorunlu olarak muntazaman artar.
45
Frank -Wolfe algoritmasna ait ilem admlar aadaki gibidir.
Balang Adm: Bir balang olurlu zm bulabilmek iin dorusal programlama
ilemi uygulanarak bu aikar zm )0(x bulunur. k = 1 yazlr.
Ardk Admlar:
1.Adm: j = 1, 2, 3, ... , n iin )1k(xx = de
jx)x(f
deerlendirilir ve
jj x
)x(fc
= ifadesi yazlr.
2. Adm: Aadaki dorusal programlama problemine ait )k(LPx optimal zm bulunur.
Maksimum g(x) = =
n
1jjjxc
Kstlar 0x,bAx 3. Adm: 1t0 arasndaki t deikeni iin; [ ])1k(LPk)1k( xxtxx += iin h(t) = f(x) ifadesi oluturulur. Bundan sonra problemimiz 1t0 iin h(t) ifadesini maksimize etmeye dnr ki bu bir boyutlu arama ilemi ile ok kolay baarlabilir. Buradan
bulunan t* deeri (1) ifadesinde yerine konarak yeni aikar zm elde edilir. Daha sonra son
adma geilir.
Son Adm: Eer )1k()k( xilex arasndaki fark istenilen hassasiyete ulatnda aranlan
optimal zm )k(x olarak alnr. Bir baka deyile k = k + 1 alnarak ardk admlara geri
dnlr.
Frank Wolfe Algoritmas ile zlen rneklerin genelinde karmza u nemli sonu kar.
Aikar zmler iki veya daha fazla yrnge zerinde deiirler. Bu zmler yrngeler
zerinde deitiinde, bu yrngelerin kesitii yaklak noktann tahmini optimal zm
olaca aktr. Bu tahmin son aikar zmden daha iyidir. Bunun sebebi aikar zmlerin
optimal zme doru ok yava yaknsamas ve bundan dolay optimal zmden uzak
olmalardr. Fank-wolfe algoritmasnn nasl uyguland gstermek iin aadaki dorusal
kstl optimizasyon problemini gz nne alalm.
46
rnek: Max.f(x)= 32 x1 -x14 +8x 2 -x 2
2
3 x1 + x 2 7 x 1 - x 2 1 ve x1 0 x 2 0
zm:Bu problemin dorusal kstlarna gre elde edilen uygun blge ekil.18 deki gibidir.
x1
x27
(2,4)
3x1+x2=7
x1-x2=1
(2,1)
1
ekil.18
Kstlar gz nne alnmakszn kstsz f(x) = 32 x 1 -x14 +8x 2 -x 2
2 fonksiyonun
maximumu ksmi trevler alnp sfra eitlenerek (x1 , x 2 ) = (2,4) olarak kolayca bulunabilir. Fakat kstl maximumu bir balang aikar zme ihtiyacmz olacaktr. Bu
balang aikar zm (x1 , x 2 ) = (0,0) olarak alalm. Ksmi trevleri alp bu noktada
deerlendirirsek;
1dxdf = 32- x 1
3 1dx
df (0,0) = 32 - 4(0) 3 = 32
2dxdf = 8- 2x 2
2dxdf (0,0) = 8 - 2 (0) = 8 olarak bulunur. Bu gre yeni ama
fonksiyonumuz bir dorusal yaklam olarak ; g )(x = 32 x1 +8x 2 dr.
Buna gre yeni problemimiz;
Max. g )(x = 32 x1 +8 x 2
Kstlar 3x1 + x 2 7 x 1 - x 2 1 ve x1 0 ; x 2 0 olarak tekrar yazlr.Bu problemin
orijinal kstlarla zm (x1 , x 2 ) = (2,1) noktasn zm olarak kabul eder. (ekil.19)
47
x1
x27
3x1+x2=7
x1-x2=1
(2,1)
1
3x1+8x2=72
ekil.19
g ( )1,2 = 32 (2) + 8 (1) = 72 (2,1) noktasna yakn olmadndan bu iyi bir yaklam deildir. Bu nedenle (0,0) ve (2,1)
noktalarn birletiren doru paras zerinde f(x) i en byk yapan X = (x1 , x 2 ) noktasn
bulmaya alalm.
f(2,1) = 55 iken g(2,1) = 72 dir. Buna (2,1) deki yaklam iyi bir yaklam deildir.(0,0) ve
(2,1) noktalar arasndaki dorunun denklemi;
(0,0) + t [ (2,1) (0,0) ] = ( 2t,t ) ( 0 + 1 ) Buna gre; x1 =2t , x 2 = t olarak alnp f(x)de yerine yazlrsa tye bal bir h(t) fonksiyonu elde edilir. f
( x1 , x 2 )= f ( 2t, t) = h(t) = 32(2t) (2t)4 + 8t + t 2
h(t) = 72t - t 2 - 164 t 4 ( 0 t 1 ) tye bal bu h(t) fonksiyonuna bir boyutlu arama ilemi uygulanyorsa;
1dx
df (2,1) = 32 4 (2) 3 = 0
2dxdf (2,1) = 8 - 2 (1) = 6 ve yeni problemimiz; g(x) = 0. x 1 + 6. x 2
48
Kstlar 3x 1 + x 2 7 x 1 - x 2 1 iken zm ( x1 , x 2 ) = ( 0,7 ) dir. g ( )7,0 = 42 , f ( )7,0 = 7 imdi (2,1) ve (0,7) noktalar arasndaki doru bulunur.
(2,1) + t [ (0,7) (2,1) ] = ( 2-2t , 1+ 6t ) ( 0 + 1 ) h(t) = f( 2-2t , 1+6t ) = 55 + 36t - 132 t 2 + 64 t 3 - 16t 4
h(t) yi maximum yapan t deeri;
t * = 0.1524 dr. Buna gre,( x1 , x 2 ) = ( 2-2 t* , 1+6 t * ) = ( 1.695,1.914 ) yeni aikar
zmdr.Yine benzer ilemleri bu son aikar zmmz iin uygulayalm.
f(x)= 32 x1 -x14 +8x 2 -x 2
2 iken
1dx
df (1.695,1.914) = 32 - 4(1.695) 3 = 12,52
2dx
df (1.695,1.914) = 8 - 2 (1.914) = 4,17 belirlenir ve yeni ama
fonksiyonumuz;g(x) = 12.52 x1 + 4.17 x 2 olur.
Bu yeni ama fonksiyonu ile orijinal kstl problemimizi yukardaki gibi zdmzde yeni
aikar zm (x1 , x 2 ) = ( 1.695 , 1.914 ) olarak bulunur.(ekil.20)
x1
x27
(1.695,1.914)
(2,1)
1
o
ekil.20
49
3.3.5. Konveks Olmayan Programlama :
Konveks programlamada bir yerel ekstremum ayn zamanda bir mutlak ekstremumu
gerektirir. Fakat dorusal olmayan programlama problemlerinde bu zellik her zaman
karmza kmayabilir. Bu nedenle konveks olmayan programlama problemlerini
uygulayabilmek iin ortak bir yaklam izlemeniz gerekir. Bu ortak yaklamda arama ilemi
algoritma vastasyla yaplabilir ki bu ilem bir yerel ekstremum bulana dek uygulanr ve
sonra bu ileme tekrar balanarak mmkn olduu kadar farkl yerel ekstremumlar bulunur.
Bu ekstremumlarn en iyisi de mutlak ekstremum olarak alnr. Normal olarak bu arama
ilemi konveks programlamann btn artlar salandnda mutlak ekstremumu bulmak
iin tasarlanmtr. Fakat konveks programlamann artlar salanmad durumlarda bir yerel
ekstremumu bulmak iin de kullanlabilir.
te bu ksaca deindiimiz zete uygun bir arama ilemi 1960l yllarda gelitirilmi ve ok
geni bir uygulama alan bulmutur. Bu algoritma (SUMT) adyla bilinen ardk kstsz optimizasyon tekniidir (7).
3.3.6. SUMT (Ardk Kstsz Minimizasyon Teknii) Algoritmas :
Ardk Kstsz Minimizasyon Teknii (SUMT) ilk olarak 1961de Carroll tarafndan ileri
srlmesine ramen bu metodun sadece teorisi ve zellikleri zerinde durmayan , ayn
zamanda bu metodun genilemesi iin pratik bir sistem gelitiren Fiacco ve McCormick
tarafndan aratrlp gelitirilmitir.
Pratik bir kural ile metodu kullanmann mmkn olmas iin teorrik yaklam (yaknsaklk)
zelliini gerek bir hesaplamaya dntrmek arttr(1).
SUMT algoritmas esas itibar ile 2 blmde incelenir. Bunlardan ilki uygun blge iinde
yaknsak olan bir penalty (ceza) fonksiyonunu kullanan ve uygun olmayan zmlerden
bahseden harici nokta algoritmasdr. [exterior Point Algorithm] ikincisi ise uygun blge
iinde barrier (engel) fonksiyonunu kullanan ve direkt uygun zmlere deinen dahili nokta
algoritmasdr. [interior Point Algorithm].
Adndan da anlalaca gibi Ardk Kstsz Minimizasyon Teknii (SUMT) zmleri
orijinal problemin zm ile birleen kstsz optimizasyon problemlerinin bir dizisi ile
orijinal problemin yerini alr.
50
Bu yntem ok etkili sonular verir. Buna sebep kstl bir optimizasyon problemi yerine
kstsz bir optimizasyon problemini zmenin daha kolay olmasdr.Ayrca bu tip
problemlerin Gradient Metodla zlebilmesidir (7).
SUMT algoritmasnda ok genel haliyle bir Gradient metoddur. Burada ama fonksiyonunun
konkav ve her bir kst fonksiyonun konveks olduu varsaylmtr. Bu algoritma temelde
kstl problemi kendi iinde kstsz bir probleme dntrr. Bu haliyle ilem Lagrange
arpanlar metodunu andrmaktadr.
Bylece;P(x,r)=f(x)+r
==
j
n
jii
n
i xxgb1
)(1
11................(*)
eklindeki ifade edilen problemimizi gznne alrsak , buproblemin steepest ascent
(en dik k) metoduyla zebiliriz.
Burada bi- gi(x) konveks iken; )(
1xgb
ii konkavdr(11).
Bu son ifade P(x,r)nin xde konkav olmas demektir.sonu olarak P(x,r) bir tek ekstremuma
sahiptir.Ayrca orijinal kstl problemin optimizasyon (maksimizasyon veya minimizasyon)
P(x,r)nin optimizasyonuna eittir ve x0 balang aikar zm noktas uygun blge iinde
bir nokta olmak zorundadr. (interir point). Buna gre bu zm takip eden dier zmlerde
uygun blge iinde kalmak zorundadr.
(*) ifadesi ile verilen problemimizde r>0 skalerinin farkl iki deeri iin P(x,r)yi ekstremum
yapan xin optimum deerleri yaklak olarak ayn ise SUMT algoritmas bu optimum
noktada son bulur.
Maksimum P(x,r) = f(x) rB(x) problemini gz nne alalm. Kstsz problemlerin
dizisini oluturan her bir problem iin buradaki r skalerini kesin pozitif yapan bir r deeri
seilir ve problem xe gre zlr. Burada B(x) bir barrier (engel) fonksiyonudur ve u
zelliklere sahiptir.
i ) x uygun blge snrna uzak iken B(x) kktr.
ii) x uygun blge snrna yakn iken B(x) byktr.
x uygun blge snrnda iken B(x) a yaklar.
Bylece, P(x,r)yi artrmak iin arama ilemi uygun bir zm ile balar. B(x)in genel formu;
B(x)=
+ ==
j
n
jii
n
i xxgb1
)(1
11
51
xin uygun deerleri iin unu grebiliriz ki; negatif olmayan kst veya uygun fonksiyon iin
her terimin paydas xin kst snrndan olan uzakl ile orantldr.
Bu nedenle her terim snrda olmayan bir terimdir ve ksmi kst snrna gre B(x)in
zelliine sahiptir. B(x)in dier bir etkili zellii dee konveks programlamann tm artlar
salandnda P(x,r)nin konkav fonksiyon olmasdr. Ardk Kstsz Minimizasyon Teknii
(SUMT) kstsz optimizasyon problemlerinin bir zmn kapsadndan rnin uygun
deerleri iin r sfra yaklar. Bu yaklamda her bir yeni r deeri daha nceki r deerinin bir
( 0<
52
Son Adm : Eer xk-1 ile xk arasndaki fark ihmal edilebilirse ilem xknn orijinal
problemin tahmini yerel ekstremumu olarak kullanlmas ile son bulur .
Aksi halde k = k + 1 ve rk = . rk-1 alnarak ardk adma geri dnlr. Bu algoritma konveks programlamann artlar salanana dek balang tahmini uygun
zmlerle balanarak tekrarlanr. Yerel deerlerin en iyisi ekstremum olarak kullanlr.
Sonu olarak Ardk Kstsz Minimizasyon (maksiminizasyon) Teknii eitlik kstlarna
sahip [gi(x) = bi] problemler iinde kolayca geniletilebilir. Her eitlik kst;
)(xgbr
ii yerine
r
xgbii
2)]([
alnarak SUMT algoritmas ayn ekilde tekrarlanr. SUMT algoritmasnn nasl altn
grmek iin aadaki rnei verelim.
rnek: Ardk Kstsz Minimizasyon Teknii(SUMT)
Alt Kstlardaki Deikenlerin Says : 2
Alt Snr Kstsz deikenlerin Says : 0
Eitsizlik Kstlarn Says : 1
Eitlik Kstlarn Says : 0
P(x,r)=f(x) )()()(
211xL
rxL
rxB
r
Burada; f(x) = 4x1-1 22241 12 xxx +
B1(x) = 5-4x1-2x2 L1(x) =1x1 L2(x) =1x2
Ardk Kstsz Minimizasyon teknii zm:
k r x1 x2 f(x)
0 0.5 0.5 2.6875
1 1 0.669 0.716 3.3954
2 0,01 0,871 0,671 3,8012
3 0,00001 0,89, 0,712 3,8526
4 0,0000001 0,894 0,712 3,8541
5 0 0,894 0,712 3,8543
6 0 0,894 0,712 3,8543
53
3.4. UYGULAMALAR VE YORUMLARI
3.4.1. Seilen Dorusal Olmayan Programlama Tekniklerinin Karlatrmal Genel
Yorumu
Bu almamzda setiimiz Dorusal Olmayan Programlama Tekniklerini tek-ok deikenli,
kstl-kstsz, direkt-indirekt olmak zere ana balk altnda tasnif edebiliriz. Buna gre
Newton-Raphson Metodu tek deikenli , indirekt(trev kullanan), kstsz bir ardk ilem
metodudur.
Nelder - Mead Medodu ise ok deikenli kstsz ve direkt (trev kullanmayan) bir arama
metodudur. Gradient metodu ise adndan da anlalaca gibi ok deikenli ,kstsz ve
indirekt bir arama metodudur. Frank-Wolfe Algoritmas ise ok deikenli , dorusal kstl ve
indirekt bir Gradient arama ilemidir. SUMT Algoritmas ise ok deikenli, dorusal ve
dorusal olmayan eitlik ve eitsizlik kstl ve indirekt olan bir Gradient arama ilemidir.
Bu tasnife gre karlatrmal yorumu kstl metodlar kendi aralarnda , kstsz metodlar
kendi aralarnda olmak zere ayralm.
Newton-Raphson Metodu y = f(x) tek deikenli fonksiyonunun sfrlarn bulan metodlarnn
arasnda gerek kke en hzl yaknsayan bir ardak arama ilemidir. Bu nedenle almada
tek deikenli fonksiyonlar temsilen seilmitir.
Nelder - Mead Medodu ile Gradient Metodu ok deikenli kstsz fonksiyonlarn
optimizasyonunu bulan iki metod olmasna ramen Nelder ve Mead Medodu trev
kullanmayan (direkt) bir arama ilemi , Gradient Metodu ise trevleri kullanan (indirekt)
arama ilemidir.
Gradient arama ileminin en nemli zellii optimum zme steepest ascent ( en dik k ),
steepest descent ( en dik ini ) veya zigzag eklinde bir grafik izerek yaknsamasdr. Bu
Gradient arama ileminin en karakteristik zelliidir. Bu nedenle uygun blgede seilen her
balang aikar zm optimum zme hzl bir ekilde yaknsar. Uygulama 4 ve Uygulama
5 bunu akca ortaya koymaktadr. Fakat bu metodun bir dezavantaj adm uzunluunun
klmesi durumunda bir sonraki iterasyona geememesidir. Bu bilgisayarlardaki alt tamas ,
s tamas gibi hatalarndan kaynaklanmaktadr. Bu nedenle ancak uygun balang aikar
zmlerin, seimi ile tam optimum zme ulaabiliriz.
Nelder Mead tarafndan gelitirilen metod ise bir simpleks metodudur ve ok deikenli
kstsz fonksiyonlarn optimizasyonunu bulmakta olduka etkilidir. ki boyutta simpleks bir
gen olduundan, ilk genin ke noktas balan vektrler alnarak ileme balanr.
54
Bu ke noktalarda maksimum problem iin en byk, minimum problem iin en kk
fonksiyon deerine sahip noktaya Best Vertex (En iyi ke nokta ), sonraki en iyi noktaya
Good Vertex ( Sonraki en iyi ke nokta ) ve maksimum problemlerde en kk, minimum
problemlerde en byk fonksiyon deerine sahip noktaya da Worst Vertex (En kt ke
nokta ) denir. Bu ilem her iterasyonda tekrarlanarak iki boyutlu problmlerde genlerin bir
dizisi ile optimum zme yaklalr. B, G ve W ile isimlendirdiimiz genin bu ke
noktalar birbirlerine eit iken bir noktay gsterirler ki ite bu nokta aranlan optimumu
noktadr. Bu nedenle balang vektrlerinin iyi seimi ile bu metod Gradient Metodundan
daha etkili bir arama ilemi haline gelir.
Buna gre, Gradient Algoritmas her iterasyonda ksmi trevlerin hesab gerektiinden
Nelder - Mead Metoduna gre daha ok ilem sresine sahip bir arama ilemidir. Gradient
arama ileminde adm uzunluklar arasndaki fark yaknsakln durumu gstermesi asndan
nemli iken Nelder - Mead Metodunda bu lt her iterasyondaki genin bir ncekine gre
daha klmesi yani B, G ve W noktalarnn birbirine yaklamas ile belirlenebilir.
imdi de Frank-Wolfe ve SUMT Algoritmalarnn kendi aralarnda karlatrmal
yorumlarn yapalm. Bu iki algoritmada kstl ok deikenli fonksiyonlarn
optimizasyonunu bulurlar. kisinin ortak zellii ilem admlar esnasnda Gradient arama
ilemini kullanmalardr. Yani her ikisi de ndirekt ( trev kullanan ) arama ilemidir.
Frank-Wolfe Algoritmas dorusal kstl problemlerin optimizasyonunu bulurken, SUMT
Algoritmas hem dorusal hem dorusal olmayan kstl problemlerin optimizasyonunu bulur.
Frank-Wolfe Algoritmasnn genel karakteristii dorusal kstl , dorusal ama fonksiyonu
olan bir dorusal programlama problemine dnr . Frank-Wolfe Algoritmasnn dier
nemli bir karakteristii ise iterasyonlarn optimum zme doru iki farkl ynden
yaklamasdr. Bu nedenle Frank-Wolfe Algoritmasnda optimum zme yaknsama SUMT
Algoritmasna gre daha yava bir yaknsamadr.
SUMT Algoritmasnn en genel karekteristii ise ceza fonksiyonlarn kullanarak kstl
optimizasyon problemlerini kstsz optimizasyon problemlerinin bir dizisi ile zmesidir. Bu
nedenle SUMT Algoritmas uygun blge iinde seilen bir balang aikar zm ile
optimum zme ok hzl bir ekilde yaknsayan ve r = 0.000000001 deeri iin;
P(x,r) = f(x) rB(x) fonksiyonunun ama deerini bulan bir gradient arama ilemidir.
Bu zellikleri ile SUMT Algoritmas gerek dorusal kstl gerekse dorusal olmayan kstl
fonksiyonlarn optimizasyonunda ok etkili bir algoritmadr.
55
4. BLM
ETSZLKLER VE LNEER PROGRAMLAMA
4.ETSZLKLER
4.1. Birinci Dereceden Bir Bilinmeyenli E