Лінейны Дыскрымінантны Аналіз

Лінейны дыскрымінантны аналіз (англ.: Linear discriminant analysis, LDA), нармальны дыскрымінантны аналіз (англ.: Normal discriminant analysis, NDA), або аналіз дыскрымінантнай функцыі (англ.: Discriminant function analysis) — абагульненне лінейнага дыскрымінанта Фішэра, метаду, які выкарыстоўваецца ў статыстыцы і іншых навуках, каб знайсці лінейную камбінацыю прыкмет, якая характарызуе або падзяляе два ці больш класы аб’ектаў або падзей.

Атрыманая камбінацыя можа выкарыстоўвацца ў якасці лінейнага класіфікатара[en] або, часцей, для зніжэння памернасці[en] перад наступнай класіфікацыяй.

LDA цесна звязаны з дысперсійным аналізам[en] (ANOVA) і рэгрэсійным аналізам[en], якія таксама спрабуюць выразіць адну залежную зменную як лінейную камбінацыю іншых прыкмет або вымярэнняў. Аднак ANOVA выкарыстоўвае катэгарыяльныя[en] незалежныя зменныя і непарыўную[en] залежную зменную, у той час як дыскрымінантны аналіз мае непарыўныя незалежныя зменныя і катэгарыяльную залежную зменную (г.зн. метку класа). Лагістычная рэгрэсія[en] і пробіт рэгрэсія[en] больш падобныя да LDA, чым ANOVA, бо яны таксама тлумачаць катэгарыяльную зменную значэннямі непарыўных незалежных зменных. Гэтым метадам аддаецца перавага, калі нельга меркаваць, што незалежныя зменныя маюць нармальнае размеркаванне, што з’яўляецца фундаментальным дапушчэннем метаду LDA.

LDA таксама цесна звязаны з метадам галоўных кампанентаў[en] (PCA) і фактарным аналізам[en] у тым, што яны ўсе шукаюць лінейныя камбінацыі зменных, якія лепш за ўсё тлумачаць даныя. LDA відавочна спрабуе змадэляваць розніцу паміж класамі даных. PCA, наадварот, не ўлічвае ніякай розніцы ў класе, а фактарны аналіз стварае камбінацыі прыкмет на аснове адрозненняў, а не падабенстваў. Дыскрымінантны аналіз таксама адрозніваецца ад фактарнага аналізу тым, што ён не з’яўляецца метадам узаемазалежнасці: неабходна адрозніваць незалежныя зменныя і залежныя зменныя (таксама называныя крытэрыяльнымі зменнымі).

LDA працуе, калі вымярэнні незалежных зменных для кожнага назірання прадстаўлены непарыўнымі велічынямі. Адпаведная методыка пры працы з катэгарыяльнымі незалежнымі зменнымі — дыскрымінантны аналіз адпаведнасці.

Дыскрымінантны аналіз выкарыстоўваецца, калі групы вядомыя апрыёры (у адрозненне ад кластарнага аналізу[en]). Кожны выпадак павінен мець ацэнку аднаго або некалькіх колькасных прэдыктыўных вымярэнняў і ацэнку групавога вымярэння. Кажучы простымі словамі, аналіз дыскрымінантнай функцыі гэта класіфікацыя — акт размеркавання рэчаў на групы, класы або катэгорыі аднаго тыпу.

Гісторыя

Арыгінальны дыхатамічны[en] дыскрымінантны аналіз быў распрацаваны Рональдам Фішэрам у 1936 годзе. Ён адрозніваецца ад ANOVA[en] і MANOVA[en], якія выкарыстоўваюцца для прагназавання адной (ANOVA) або некалькіх (MANOVA) непарыўных залежных зменных паводле адной або некалькіх незалежных катэгарыяльных зменных. Аналіз дыскрымінантнай функцыі карысны для вызначэння таго, ці эфектыўны набор зменных для прагназавання прыналежнасці да катэгорыі.

Дапушчэнні

Дапушчэнні дыскрымінантнага аналізу такія ж, як і для MANOVA. Аналіз вельмі адчувальны да выкідаў, і памер найменшай групы павінен быць большы за колькасць прэдыктарных зменных.

  • Многавымерная нармальнасць: незалежныя зменныя размеркаваны нармальна для кожнай групы.
  • Гамагеннасць дысперсіі/каварыяцыі (гомаскедастычнасць[en]): дысперсіі зменных аднолькавыя для ўсіх груп. Можна праверыць з дапамогай M-крытэрыя Бокса[en]. Было прапанавана, аднак, выкарыстоўваць лінейны дыскрымінантны аналіз калі каварыяцыі роўныя, і квадратычны дыскрымінантны аналіз[en] у іншым выпадку.
  • Мультыкалінеарнасць[en]: прагназавальная здольнасць можа змяншацца з павелічэннем карэляцыі паміж прэдыктарнымі зменнымі.
  • Незалежнасць: мяркуецца, што аб’екты адбіраюцца выпадкова, а значэнне адной зменнай аб’екта ўважаецца незалежным ад значэнняў гэтай зменнай для ўсіх астатніх аб’ектаў.

Была выказана здагадка, што дыскрымінантны аналіз адносна трывалы да нязначных парушэнняў гэтых дапушчэнняў, а таксама было паказана, што дыскрымінантны аналіз усё яшчэ можа быць надзейным пры выкарыстанні бінарных зменных (дзе часта парушаецца многавымерная нармальнасць).

LDA для двух класаў

Разгледзім набор назіранняў Лінейны Дыскрымінантны Аналіз  (таксама званых прыкметамі, атрыбутамі, зменнымі або вымярэннямі) для кожнага аб’екта або падзеі з вядомым класам Лінейны Дыскрымінантны Аналіз . Гэты набор аб’ектаў завецца трэніровачным наборам[en]. Праблема класіфікацыі заключаецца ў тым, каб знайсці добры крытэрый аднясення да класа Лінейны Дыскрымінантны Аналіз  любога аб’екта з аналагічным размеркаваннем (неабавязкова з трэніровачнага набору) як функцыю толькі ад назірання Лінейны Дыскрымінантны Аналіз :338.

LDA падыходзіць да праблемы з дапушчэннем, што функцыі шчыльнасці ўмоўнай імавернасці Лінейны Дыскрымінантны Аналіз  і Лінейны Дыскрымінантны Аналіз  адпавядаюць многавымернаму нармальнаму размеркаванню з сярэднім і матрыцай каварыяцыі Лінейны Дыскрымінантны Аналіз  і Лінейны Дыскрымінантны Аналіз  адпаведна. Згодна з гэтым дапушчэннем, аптымальнае рашэнне заключаецца ў аднясенні пунктаў да класа Лінейны Дыскрымінантны Аналіз , калі лагарыфм суадносін праўдападобнасцяў большы за некаторае парогавае значэнне Лінейны Дыскрымінантны Аналіз :

    Лінейны Дыскрымінантны Аналіз 

Без дадатковых дапушчэнняў атрыманы класіфікатар называецца квадратычным дыскрымінантным аналізам[en] (QDA).

Аднак LDA робіць дадатковае спрашчальнае дапушчэнне гомаскедастычнасці[en] (г.зн. што каварыяцыі класаў аднолькавыя, таму Лінейны Дыскрымінантны Аналіз ) і што матрыцы каварыяцыі незвыродныя. У гэтым выпадку некалькі складнікаў скарачаюцца:

    Лінейны Дыскрымінантны Аналіз 
    Лінейны Дыскрымінантны Аналіз , бо Лінейны Дыскрымінантны Аналіз  — сіметрычная матрыца

і прыведзены вышэй крытэрый прымае наступную форму:

    Лінейны Дыскрымінантны Аналіз 

для некаторай парогавай канстанты Лінейны Дыскрымінантны Аналіз , дзе (для Лінейны Дыскрымінантны Аналіз , што эквівалентна метаду максімальнай праўдападобнасці):

    Лінейны Дыскрымінантны Аналіз 
    Лінейны Дыскрымінантны Аналіз 

Гэта значыць, што крытэрый таго, што аб’ект Лінейны Дыскрымінантны Аналіз  належыць класу Лінейны Дыскрымінантны Аналіз  гэта функцыя лінейнай камбінацыі вядомых назіранняў.

Часта бывае карысна паглядзець на гэта з геаметрычнага пункта гледжання: крытэрый таго, што Лінейны Дыскрымінантны Аналіз  належыць класу Лінейны Дыскрымінантны Аналіз  гэта функцыя праекцыі пункта мнагамернай прасторы Лінейны Дыскрымінантны Аналіз  на вектар Лінейны Дыскрымінантны Аналіз  (такім чынам, мы ўлічваем толькі кірунак Лінейны Дыскрымінантны Аналіз ). Іншымі словамі, назіранне належыць да Лінейны Дыскрымінантны Аналіз , калі адпаведны Лінейны Дыскрымінантны Аналіз  знаходзіцца на пэўным баку гіперплоскасці, артаганальнай Лінейны Дыскрымінантны Аналіз . Размяшчэнне плоскасці вызначаецца парогавым значэннем Лінейны Дыскрымінантны Аналіз .

Правілы дыскрымінацыі

  • Максімальная праўдападобнасць: прысвойвае Лінейны Дыскрымінантны Аналіз  групе, для якой шчыльнасць Лінейны Дыскрымінантны Аналіз  размеркавання незалежных зменных у пункце Лінейны Дыскрымінантны Аналіз  найбольшая.
  • Баесаўскае правіла дыскрымінацыі: прысвойвае Лінейны Дыскрымінантны Аналіз  групе, якая максімізуе Лінейны Дыскрымінантны Аналіз , дзе Лінейны Дыскрымінантны Аналіз  уяўляе сабой апрыёрную імавернасць[en] Лінейны Дыскрымінантны Аналіз -й групы, а Лінейны Дыскрымінантны Аналіз  адлюстроўвае шчыльнасць размеркавання незалежных зменных.
  • Правіла лінейнага дыскрымінанта Фішэра: максімізуе суадносіны паміж Лінейны Дыскрымінантны Аналіз  і Лінейны Дыскрымінантны Аналіз  і знаходзіць лінейную камбінацыю прэдыктараў для прагназавання групы.

Лінейны дыскрымінант Фішэра

Тэрміны «лінейны дыскрымінант Фішэра» і «LDA» часта выкарыстоўваюцца як узаемазамяняльныя, хаця ў арыгінальным артыкуле Фішэра апісваецца крыху іншы метад, які не робіць некаторыя дапушчэнні LDA, такія як нармальна размеркаваныя класы або роўныя класавыя каварыяцыі.

Няхай два класы назіранняў маюць сярэднія Лінейны Дыскрымінантны Аналіз  і каварыяцыі Лінейны Дыскрымінантны Аналіз . Тады лінейная камбінацыя прыкмет Лінейны Дыскрымінантны Аналіз  будзе мець сярэдняе Лінейны Дыскрымінантны Аналіз  і дысперсію Лінейны Дыскрымінантны Аналіз  для Лінейны Дыскрымінантны Аналіз . Фішэр вызначыў падзел паміж гэтымі двума размеркаваннямі як суадносіны дысперсіі паміж класамі да дысперсіі ўнутры класаў:

    Лінейны Дыскрымінантны Аналіз 

Гэтая мера ў пэўным сэнсе з’яўляецца мерай прапорцыі сігнал/шум[en] для падзелу на групы. Можна паказаць, што максімальны падзел дасягаецца пры

    Лінейны Дыскрымінантны Аналіз .

Калі дапушчэнні LDA выкананы, прыведзенае вышэй ураўненне эквівалентна LDA.

Лінейны Дыскрымінантны Аналіз 
Лінейны дыскрымінант Фішэра, адлюстраваны ў выглядзе восі

Звярніце ўвагу, што вектар Лінейны Дыскрымінантны Аналіз  — нармаль да дыскрымінантнай гіперплоскасці[en]. Напрыклад, у двухмернай задачы лінія, якая лепш за ўсё падзяляе дзве групы, перпендыкулярная да Лінейны Дыскрымінантны Аналіз .

Як правіла, пункты даных, якія трэба адрозніць, праецыруюцца на Лінейны Дыскрымінантны Аналіз ; тады парогавае значэнне, якое лепш за ўсё падзяляе даныя, выбіраецца з аналізу аднамернага размеркавання. Агульнага правіла для парога не існуе. Аднак, калі праекцыі пунктаў з абодвух класаў маюць падобныя размеркаванні, добрым выбарам будзе гіперплоскасць паміж праекцыямі двух сярэдніх, Лінейны Дыскрымінантны Аналіз  і Лінейны Дыскрымінантны Аналіз . У гэтым выпадку парогавае значэнне Лінейны Дыскрымінантны Аналіз  для няроўнасці Лінейны Дыскрымінантны Аналіз  можа быць знойдзена яўна:

    Лінейны Дыскрымінантны Аналіз .

Метад Оцу[en] звязаны з лінейным дыскрымінантам Фішэра і быў створаны для бінарызацыі гістаграмы пікселяў на выяве ў адценнях шэрага шляхам аптымальнага выбару парога паміж чорным і белым, які мінімізуе дысперсію ўнутры класаў і павялічвае дысперсію паміж класамі (адценнямі шэрага, аднесенымі для чорнага і белага класаў пікселяў).

Мнагакласавы LDA

Лінейны Дыскрымінантны Аналіз 
Візуалізацыя восяў LDA для падыходу «адзін супраць усіх» на 4 класах у 3D
Лінейны Дыскрымінантны Аналіз 
Праекцыі на лінейныя дыскрымінантныя восі для 4 класаў

У выпадку, калі існуе больш за два класы, аналіз, які выкарыстоўваецца пры вывядзенні дыскрымінанта Фішэра, можа быць пашыраны, каб знайсці падпрастору[en], якая б змяшчала ўсю зменлівасць класа. Такое абагульненне прапанаваў Кальямпудзі Рао[en]. Дапусцім, што кожны з C класаў мае сярэдняе Лінейны Дыскрымінантны Аналіз  і аднолькавую каварыяцыю Лінейны Дыскрымінантны Аналіз . Тады роскід паміж класамі можа быць вызначаны выбаркавай каварыяцыяй сярэдніх класаў

    Лінейны Дыскрымінантны Аналіз 

дзе Лінейны Дыскрымінантны Аналіз  — сярэдняе значэнне класа. Падзел класаў у кірунку Лінейны Дыскрымінантны Аналіз  у гэтым выпадку будзе зададзены як

    Лінейны Дыскрымінантны Аналіз 

Гэта значыць, што калі Лінейны Дыскрымінантны Аналіз  — уласны вектар Лінейны Дыскрымінантны Аналіз , падзел S будзе роўны адпаведнаму ўласнаму значэнню.

Калі Лінейны Дыскрымінантны Аналіз  можна дыяганалізаваць, зменлівасць паміж прыкметамі будзе ўтрымлівацца ў падпрасторы, ахопленай уласнымі вектарамі, адпаведнымі найбольшым уласным значэнням C − 1 (бо Лінейны Дыскрымінантны Аналіз  мае ранг не большы за C - 1). Гэтыя ўласныя вектары як правіла выкарыстоўваюцца для скарачэння колькасці прыкмет, як у PCA[en]. Уласныя вектары, якія адпавядаюць меншым уласным значэнням, будуць вельмі адчувальныя да дакладнага выбару навучальных даных, таму часта бывае неабходна прымяняць рэгулярызацыю.

Калі патрабуецца класіфікацыя, замест зніжэння памернасці[en] існуе шэраг альтэрнатыўных метадаў. Напрыклад, класы могуць быць згрупаваныя і стандартны дыскрымінант Фішэра або LDA выкарыстоўвацца для класіфікацыі ўнутры кожнай групы. Тыповы прыклад гэтага — метад «адзін супраць астатніх», калі аб’екты з аднаго класа дадаюцца ў адну групу, а ўсё астатняе — у другую, а пасля прымяняецца LDA. Такім чынам можна атрымаць C класіфікатараў, вынікі якіх аб’ядноўваюцца. Іншы распаўсюджаны метад — папарная класіфікацыя, пры якой новы класіфікатар ствараецца для кожнай пары класаў (агулам даючы C(C − 1)/2 класіфікатараў), з аб’яднаннем асобных класіфікатараў для атрымання канчатковай класіфікацыі.

Інкрэментны LDA

Тыповая рэалізацыя метаду LDA патрабуе, каб усе даныя былі даступныя загадзя. Аднак бываюць сітуацыі, калі ўвесь набор даных недаступны, а даныя паступаюць у выглядзе патоку. У гэтым выпадку пажадана, каб алгарытм LDA меў магчымасць абнаўляць параметры мадэлі шляхам назірання толькі за новымі аб’ектамі без запуску алгарытму на ўсім наборы даных. Напрыклад, у многіх выпадках працы ў рэжыме рэальнага часу, такіх як мабільная робататэхніка або распазнаванне твараў, важна абнаўляць параметры LDA, як толькі будуць даступныя новыя назіранні. Алгарытм, які можа абнаўляць параметры LDA шляхам назірання за новымі аб’ектамі называецца інкрэментным LDA, і шырока вывучаецца на працягу апошніх двух дзесяцігоддзяў. Чатэрджы і Ройчаўдхуры прапанавалі інкрэментны самаарганізаваны алгарытм LDA для абнаўлення параметраў. У іншай працы Дэмір і Озмехмет прапанавалі анлайн-алгарытм лакальнага навучання для паступовага абнаўлення параметраў LDA з выкарыстаннем карэкцыі памылак і правілаў навучання Хеба. Пазней Аліяры і інш. вынайшлі хуткі інкрэментны алгарытм для абнаўлення параметраў LDA.

Выкарыстанне на практыцы

На практыцы сярэднія класаў і каварыяцыі невядомыя. Іх, аднак, можна ацаніць з навучальнага набору. Замест дакладнага значэння ў прыведзеных вышэй ураўненнях можа выкарыстоўвацца або ацэнка максімальнай праўдападобнасці, або ацэнка апастэрыёрнага максімуму[en]. Нягледзячы на тое, што ацэнкі каварыяцыі можна лічыць аптымальнымі ў некаторым сэнсе, гэта не азначае, што выніковы дыскрымінант, атрыманы падстаноўкай гэтых значэнняў, з’яўляецца аптымальным, нават калі дапушчэнне нармальнасці размеркавання класаў слушнае.

Іншая складанасць у прымяненні LDA і дыскрымінанта Фішэра да рэальных даных узнікае, калі колькасць вымярэнняў кожнага аб’екту (г.зн. памернасць кожнага вектара даных) перавышае колькасць аб’ектаў у кожным класе. У гэтым выпадку ацэнкі каварыяцыі не маюць поўнага рангу, і таму немагчыма знайсці адваротныя ім матрыцы. Ёсць некалькі спосабаў барацьбы з гэтым. Адным з іх з’яўляецца выкарыстанне псеўдаадваротнай матрыцы[en] замест звычайнай адваротнай у прыведзеных вышэй формулах. Тым не менш, лепшая лікавая стабільнасць можа быць дасягнута, калі спачатку спраецыраваць праблему на падпрастору, ахопленую Лінейны Дыскрымінантны Аналіз . Іншая стратэгія для працы з невялікім памерам выбаркі заключаецца ў выкарыстанні сціснутай ацэнкі[en] каварыяцыйнай матрыцы, якую можна выразіць матэматычна як

    Лінейны Дыскрымінантны Аналіз 

дзе Лінейны Дыскрымінантны Аналіз  — адзінкавая матрыца, а Лінейны Дыскрымінантны Аналіз  — «інтэнсіўнасць сціскання» або «параметр рэгулярызацыі». Гэта прыводзіць да метаду рэгулярызаванага дыскрымінантнага аналізу або сціснутага дыскрымінантнага аналізу.

Акрамя таго, у многіх практычных выпадках лінейныя дыскрымінанты не пасуюць задачы. LDA і дыскрымінант Фішэра могуць быць пашыраны для выкарыстання ў нелінейнай класіфікацыі з дапамогай ядзернага труку[en]. Тут арыгінальныя назіранні эфектыўна адлюстроўваюцца ў нелінейную прастору большай памернасці. Лінейная класіфікацыя ў гэтай нелінейнай прасторы тады эквівалентная нелінейнай класіфікацыі ў зыходнай прасторы. Найбольш часта выкарыстальным прыкладам гэтага ёсць ядзерны дыскрымінант Фішэра[en].

Параўнанне з лагістычнай рэгрэсіяй

Лінейны дыскрымінантны аналіз вельмі падобны да лагістычнай рэгрэсіі[en], і абодва алгарытмы могуць быць выкарыстаны для адказу на адны і тыя ж пытанні даследавання. Лагістычная рэгрэсія не мае столькі дапушчэнняў і абмежаванняў, як дыскрымінантны аналіз. Аднак, калі дапушчэнні дыскрымінантнага аналізу выконваюцца, ён аказваецца лепшым метадам, чым лагістычная рэгрэсія. У адрозненне ад лагістычнай рэгрэсіі, дыскрымінантны аналіз можна выкарыстоўваць для невялікіх памераў выбаркі. Было паказана, што пры роўных памерах выбаркі і аднастайнасці дысперсіі/каварыяцыі дыскрымінантны аналіз больш дакладны. Нягледзячы на ўсе гэтыя перавагі, лагістычная рэгрэсія, тым не менш, стала больш распаўсюджанай, бо дапушчэнні дыскрымінантнага аналізу рэдка выконваюцца.

Зноскі

Tags:

Лінейны Дыскрымінантны Аналіз ГісторыяЛінейны Дыскрымінантны Аналіз ДапушчэнніЛінейны Дыскрымінантны Аналіз LDA для двух класаўЛінейны Дыскрымінантны Аналіз Правілы дыскрымінацыіЛінейны Дыскрымінантны Аналіз Лінейны дыскрымінант ФішэраЛінейны Дыскрымінантны Аналіз Мнагакласавы LDAЛінейны Дыскрымінантны Аналіз Інкрэментны LDAЛінейны Дыскрымінантны Аналіз Выкарыстанне на практыцыЛінейны Дыскрымінантны Аналіз Параўнанне з лагістычнай рэгрэсіяйЛінейны Дыскрымінантны Аналізen:Dimensionality reductionen:Linear classifieren:Linear combinationАнглійская моваСтатыстыкаСтатыстычная класіфікацыя

🔥 Trending searches on Wiki Беларуская:

Мірскі замак1918Av.byМікола МаляўкаСаюз беларускіх пісьменнікаўСаюз Савецкіх Сацыялістычных РэспублікКошыкГісторыя ВіцебскаВясёлка (часопіс)Крэўская уніяБеларуская фантастычная прозаРэспубліка Боснія і ГерцагавінаЛаура МанчынэліХраналогія суданскага канфлікту (2024)Галіна Анатолеўна КаржанеўскаяГонарМіжнародны стандартны кніжны нумарБелы легіёнЭль-НіньёЭбатсфардКарлес ПучдэмонДзейнасць ПВК «Вагнер» у АфрыцыМастацкі стыльКанюшынаKryvakryžДва плюс дваЛандшафтны заказнікУніверсітэт імя Дж. КапіланаІосіф Вісарыёнавіч СталінГроднаПалац Рэспублікі (Мінск)Раіса Андрэеўна БаравіковаМайкл Кларк ДунканКастрычніцкая плошча (Мінск)ЯцвягіПаспалітае рушэннеСезон 2010/2011 «Гродна-93-2»Гарады БеларусіЯдвігін Ш.Спіс памерлых у 2024 годзеСіні колерВермахтХайкуХолмская зямляПаўлюк ТрусБеларускія ручнікіАфрыкаАтлант БаранавічыНароднае антыкрызіснае ўпраўленнеБелсатФелікс Эдмундавіч Дзяржынскі28 красавікаПастава на каленяхФранцыск СкарынаАмонімБлокчэйнСтаніслаў Аўгуст ПанятоўскіІерусалімReform.byБеларуская Савецкая Сацыялістычная РэспублікаХто смяецца апошнім (п’еса)Лявон Цімафеевіч БаразнаБеларускае нацыянальнае адраджэннеКрык (карціна)БеларусьКрысціян БентэкеАльберт Віюк-КаяловічАкмеізмЗянон Станіслававіч ПазнякХорскЯнка СіпакоўТры чарапахі (песня)Уладзімір ДубоўкаПомнік Максіму БагдановічуНюшаАбарона Брэсцкай крэпасці (1941)🡆 More