"Maskinlæring" - kurs 30 000 rubler. fra MSU, trening 3 uker. (1 måned), dato: 30. november 2023.
Miscellanea / / December 02, 2023
Formålet med programmet – introdusere elevene til det grunnleggende innen maskinlæring.
Varighet av trening – 72 timer (30 timer klasseromstimer med lærer, 42 timer selvstendig studie av materialer).
Studieform – heltid, deltid, kveld.
Klasseformat - på heltid, for deltakere fra andre byer, hvis det er umulig å delta personlig, vil du kunne koble deg til timen via videokonferanse.
Kostnader for utdanning - 30 000 rubler.
Start på klassene - høsten 2023.
Opplæringsavtaler inngås med enkeltpersoner og juridiske personer.
Registrering for kurs utføres på e-post [email protected], ved å bruke registreringsskjemaet på nettstedet.
Du kan kontakte kursadministratoren, Anton Martyanov, for å registrere deg eller med spørsmål via WhatsApp eller Telegram: +79264827721.
Doktor i tekniske vitenskaper Stilling: Professor ved Higher School of Management and Innovation ved M.V. Lomonosov Moscow State University
Seksjon 1. Introduksjon. Eksempler på oppgaver. Logiske metoder: beslutningstrær og beslutningsskoger.
Logiske metoder: klassifisering av objekter basert på enkle regler. Tolking og implementering. Kombinasjon til en komposisjon. Avgjørende trær. Tilfeldig skog.
Seksjon 2. Metriske klassifiseringsmetoder. Lineære metoder, stokastisk gradient.
Metriske metoder. Klassifisering basert på likhet. Avstand mellom objekter. Beregninger. Metoden k-nærmeste naboer. Generalisering til regresjonsproblemer ved bruk av kjerneutjevning. Lineære modeller. Skalerbarhet. Anvendbarhet for stordata Stokastisk gradientmetode. Anvendbarhet for tuning av lineære klassifikatorer. Konseptet med regularisering. Funksjoner ved å jobbe med lineære metoder. Klassifiseringskvalitetsmålinger.
Seksjon 3. Støtte Vector Machine (SVM). Logistisk regresjon. Klassifiseringskvalitetsmålinger.
Lineære modeller. Skalerbarhet. Anvendbarhet for stordata Stokastisk gradientmetode. Anvendbarhet for tuning av lineære klassifikatorer. Konseptet med regularisering. Funksjoner ved å jobbe med lineære metoder.
Seksjon 4. Lineær regresjon. Dimensjonsreduksjon, hovedkomponentmetode.
Lineære modeller for regresjon. Deres forbindelse med den enestående dekomponeringen av matrisen "objekter-funksjoner". Redusere antall skilt. Tilnærminger til funksjonsvalg. Hovedkomponentmetode. Metoder for dimensjonsreduksjon.
Seksjon 5. Sammensetninger av algoritmer, gradientforsterkning. Nevrale nettverk.
Kombinere modeller til en komposisjon. Gjensidig retting av modellfeil. Grunnleggende begreper og problemstillinger knyttet til komposisjoner. Gradientforsterkning.
Nevrale nettverk. Søk etter ikke-lineære deleflater. Flerlags nevrale nettverk og deres innstilling ved hjelp av tilbakepropageringsmetoden. Dype nevrale nettverk: deres arkitekturer og funksjoner.
Seksjon 6. Klynger og visualisering.
Problemer med uovervåket læring. Finne struktur i data. Klyngeproblemet er oppgaven med å finne grupper av lignende objekter. Visualiseringsoppgaven er oppgaven med å kartlegge objekter i to- eller tredimensjonalt rom.
Seksjon 7. Anvendte dataanalyseproblemer: formuleringer og løsningsmetoder.
Delvis læring som et problem mellom veiledet læring og klynging. Et prøvetakingsproblem der verdien av målvariabelen bare er kjent for enkelte objekter. Forskjellen mellom dellæringsproblemet og de tidligere omtalte formuleringene. Tilnærminger til løsning.
Analyse av problemer fra anvendte områder: scoring i banker, forsikring, tegningsproblemer, problemer med mønstergjenkjenning.
Adresse
119991, Moskva, st. Leninskie Gory, 1, byg. 51, 5. etasje, rom 544 (dekans kontor)
universitet