Nyheter, Prylar, Android, Mobiler, Appnedladdningar, Android

Hur används boolesk algebra i maskininlärning?

Följande artikel hjälper dig: Hur används boolesk algebra i maskininlärning?

Under de senaste åren har vi sett framgången med maskininlärning inom olika områden och med detta har vi också sett utvecklingen av maskininlärningsalgoritmer. Ibland är dessa algoritmer helt eller delvis baserade på matematiska operationer och logik. På samma sätt är boolesk algebra också en del av matematik och matematisk logik som kan användas i maskininlärning. I den här artikeln kommer vi att diskutera tillämpningen av boolesk algebra i maskininlärning. De viktigaste punkterna som ska diskuteras i del ett av artikeln listas nedan.

Innehållsförteckning

  1. Varför används boolesk algebra i maskininlärning?
  2. Relaterade arbeten: Boolesk algebra i maskininlärning
  3. Viktiga tillämpningar inom maskininlärning
  4. Verkliga applikationer

Låt oss börja diskussionen med att förstå varför boolesk algebra används i maskininlärning.

Varför används boolesk algebra i maskininlärning?

Boolesk algebra introduceras i maskininlärning för att övervinna några av nackdelarna med detta område. En av de stora nackdelarna är att maskininlärningsalgoritmer är någon sorts black-box-teknik. För att förstå det mer kan vi ta ett exempel på ett uppfattningsnätverk med flera lager eller stödja vektormaskiner. Genom att använda dessa tekniker kan vi uppnå god noggrannhet vid modellering, men när det gäller att förstå modellens inre funktion får vi inte så mycket detaljer. Å andra sidan kan algoritmer som slumpmässig skog och beslutsträd beskriva arbetet men många gånger får vi inte bra resultat. Denna nackdel med black-box kan lösas med boolesk algebra.

Denna introduktion av boolesk algebra i maskininlärning använde också boolesk algebra för att bygga uppsättningar av begripliga regler som kan uppnå mycket bra prestanda. Det ovan givna exemplet är bara en grundläggande tillämpning av boolesk algebra i maskininlärning. flerskiktsperceptroner. perceptron är en algoritm för övervakad inlärning av binära klassificerare.

Som vi vet arbetar boolesk algebra på reglernas logik och villkor. En grundmodell som kan innehålla boolesk algebra kan arbeta med reglerna. Till exempel börjar en grundläggande modell med boolesk algebra med datan med en målvariabel och indata- eller inlärningsvariabler och med hjälp av uppsättningen regler genererar den utdatavärde genom att överväga en given konfiguration av ingångssampel. En enkel regel kan skrivas som:

Om premiss sedan konsekvenser

I regeln ovan innehåller premissen ett eller flera villkor på ingången och konsekvensen innehåller ett utdatavärde. Tillståndet i lokalerna kan ha olika former beroende på typen av input:

  • Om variabler är kategoriska måste ingångsvärdet vara i en delmängd,
  • Om variabler är ordnade skrivs villkoret som olikhet eller ett intervall,

eller

Därför kan den möjliga regeln skrivas så här:

I uttrycket ovan har vi diskuterat en grundläggande intuition bakom varför vi behöver boolesk algebra i maskininlärning. I nästa avsnitt av artikeln kommer vi att diskutera arbetet som har gjorts utifrån denna intuition.

Relaterade arbeten: Boolesk algebra i maskininlärning

I det här avsnittet av artikeln fokuserar vi främst på de verk där vi kan hitta boolesk algebra inom maskininlärning. En del av arbetet med anknytning till detta listas nedan:

  • Switching Neural Networks: A New Connectionist Model for Classification: I det här arbetet kan vi se ett exempel på en modell där boolesk algebra används med lagren av konnektionistiska neurala nätverk. I arkitekturen för detta arbete finner vi att det första lagret av modellen innehåller en A/D-omvandlare som omvandlar ingångssamplen till binära strängar, och sedan använder de nästa två lagren i nätverket en positiv boolesk funktion som löser i en A /D-omvandlardomän det ursprungliga klassificeringsproblemet. Funktionen som används av det neurala nätverket i detta arbete kan skrivas i form av begripliga regler. En korrekt metod för att rekonstruera den positiva booleska funktionen kan anpassas för att träna modellen. De har döpt modellen Switching Neural Network. Bilden nedan är en representation av schemat för Switching Neural Networks.

Vi kan betrakta detta arbete som ett neuralt nätverk med tre feed-forward-lager där det första används för binär kartläggning och de nästa två lagren används för att uttrycka den positiva booleska funktionen. Varje port i det andra lagret är endast ansluten till några av utgångarna som lämnar latticizers.

  • Lärande algoritmer via neurala logiska nätverk: Detta arbete bygger på att skapa ett paradigm för neurala nätverk att lära sig använda det booleska neurala nätverket. Grundläggande differentialoperatorer från det booleska systemet som konjunktion, disjunktion och exklusiv-ELLER används. Dessa Basic differentialoperatörer kan kombineras med djupa neurala nätverk som MLP. Detta arbete kan vara ett vittne till att övervinna några av nackdelarna med MLP för att lära sig diskreta algoritmiska uppgifter. Modellen för detta arbete är känd som Neural Logic Network där Neural Logic Layers baserade på har introducerats med vilken boolesk funktion som helst. Typer av dessa neurala logiska lager är följande:
  1. Neuralt konjunktionslager: håll konjunktionsfunktionen från boolesk algebra.
  2. Neuralt disjunktionslager: håller disjunktionsfunktionen från boolesk algebra.
  3. Neuralt XOR-lager: håll XOR eller exklusiv ELLER-funktion från boolesk algebra.

Bilden nedan är en jämförelse av MLP vs NLN för att lära sig booleska funktioner.

De ovan angivna tillvägagångssätten är två grundläggande verk som efter introduktion har uppdaterats och använts i olika verkliga tillämpningar. I nästa avsnitt av artikeln kommer vi att diskutera den verkliga tillämpningen av maskininlärningsalgoritmer som använder boolesk algebra.

Viktiga tillämpningar av boolesk algebra i maskininlärning

Några av de viktigaste tillämpningarna av boolesk algebra inom området maskininlärning listas nedan: –

  • Demonstration av klassificering av en perceptron: För att visa hur perceptroner kan klassificera de linjärt separerbara mönstren, kan sanningstabellerna för booleska OCH- eller ELLER-operationer användas. Resultaten av operationerna indikerar klassetiketterna medan inmatningsmönstren representerar datapunkterna i 2D-utrymmet.
  • XOR-problem och flerskiktsperceptron: Som diskuterats ovan kan perceptronerna klassificera inmatningsmönstren för booleska OCH- eller ELLER-operationer med en enskiktsarkitektur. Men de misslyckas med att klassificera mönstren för en XOR-operation. För att klassificera dem korrekt, led utvecklingen av flerskiktsperceptronerna.
  • Olika grindar som används i LSTM Recurrent Neural Network: Vi kan se användningen av grindar i LSTM-nätverk, särskilt i grindar. Vi kan ta ett exempel på en att glömma grind där resultatet av sigmoidfunktionen (dvs. glömma tillståndet) är en indikator på punktvis multiplikation med celltillståndet som kommer att få celltillståndet att “glömma all information” eller “komma ihåg all information” ”. Detta kan slutföras med konceptet Gates baserat på boolesk algebra.

Verkliga applikationer

Vi kan se användningarna av detta tillvägagångssätt, dvs maskininlärning med boolesk algebra, inom olika områden som medicin, finansiella tjänster och supply chain management. I det här avsnittet av artikeln kommer vi att diskutera några av de viktiga och berömda verkliga applikationerna som listas nedan.

  • Arbetet med Switching neurala nätverk har tillämpats på medicinsk vetenskap där det används för att klassificera de nya multipla osteokondromerna som är en typ av tumör i benen. Mer information om denna applikation finns här.
  • Detta tillvägagångssätt används för att göra en prognostisk klassificerare för neuroblastompatienter. Neuroblastom är en typ av cancer som främst upptäcks i den lilla körteln. I grund och botten bestod denna klassificerare av 9 regler som använder huvudsakligen två villkor för det relativa uttrycket av 11 probuppsättningar och algoritm som tillämpas på mikroarraydata och patientklassificering. Vi kan hitta mer information om arbetet här.
  • Detta tillvägagångssätt har tillämpats på diagnosen pleuralt mesoteliom. För detta ändamål har de tillämpat den logiska inlärningsmaskinen på en datauppsättning av 169 patienter i norra Italien. De har också jämfört algoritmens resultat med resultaten av andra algoritmer som beslutsträd, KNN och artificiella neurala nätverk och tagit reda på bättre prestanda för att byta neurala nätverk. Vi kan hitta mer information om detta arbete här.

Slutord

I den här artikeln har vi diskuterat varför vi kräver boolesk algebra i maskininlärning med en intuition om hur det kan tillämpas i maskininlärning. Tillsammans med detta har vi också diskuterat några av de större relaterade verken med deras tillämpning i verkligheten.